Robotica e AI

Intelligenza artificiale e diritto: la rivoluzione è iniziata

24 gennaio 2019 | Scritto da Giulio Siciliano

L’utilizzo delle I.A. nella giustizia è realtà: ma ci siamo già posti tutti gli interrogativi necessari? Ne abbiamo parlato con Luciano Floridi

IA e diritto

Lo scorso 4 dicembre la European Commission for the Efficiency of Justice – CEPEJ – ha adottato la prima carta etica europea per l’utilizzo dell’intelligenza artificiale nell’amministrazione della giustizia.

Pur sulla scorta della crescente attenzione verso i temi dell’innovazione in generale, e in particolare verso le I.A., l’adozione di questo documento ha una portata rivoluzionaria. Prima di questo momento, infatti, non era mai stato dato un focus così specifico, come sicuramente è quello relativo all’amministrazione della giustizia, alla riflessione sovranazionale sull’utilizzo delle intelligenze artificiali.

Il documento in questione ha delineato 5 principi generali relativamente all’uso delle I.A. in questo ambito:

  1. Rispetto dei Diritti Fondamentali, al fine assicurare che il design e l’implementazione delle I.A. e dei servizi ad esse connessi siano con essi compatibili;
  2. Non Discriminazione, con lo specifico obiettivo di prevenire lo sviluppo o l’intensificazione di ogni forma di discriminazione tra individui o gruppi di individui.
  3. Qualità e Sicurezza. In riferimento alla processazione dei dati e delle decisioni, al fine di elaborare questi dati con un approccio multidisciplinare e, soprattutto, in un ambiente tecnologico sicuro.
  4. Trasparenza, Imparzialità ed Equità. I metodi con cui verranno processati i dati dovranno essere accessibili e comprensibili, nonché autorizzare la consultazione esterna.
  5. Principio dell’“under user control”: dovrà essere precluso un approccio prescrittivo e si dovrà assicurare che gli utenti siano attori informati e nel pieno controllo delle scelte operate.

Il documento in questione è già stato riccamente commentato da molti autorevoli esperti della materia, i quali non hanno mancato sia di elogiare la portata innovativa della carta sia di sollevare alcune perplessità. L’esaustiva trattazione di tutti questi principi (soprattutto in relazione alla complessità delle tematiche cui essi inevitabilmente si connettono) meriterebbe una trattazione giuridica che non può appartenere a questa sede. Per questo motivo, abbiamo deciso di soffermarci sul piano più puramente etico del documento in questione, con l’ausilio di uno dei più autorevoli studiosi della materia: Luciano Floridi, professore ordinario di filosofia e etica dell’informazione all’università di Oxford, esperto di etica dell’innovazione e delle nuove tecnologie, nonché membro del pool di esperti europeo che sta contribuendo alla realizzazione della carta etica per lo sviluppo dell’IA.

“Quello che vi dirò – ha sottolineato Floridi prima dell’intervista – sarà la mia visione personale. Non parlo a nome del gruppo, ma come singolo studioso e ricercatore”.

 

Quanto bisogno c’era di un documento di questo tipo, volto a delineare le linee guida etiche per l’utilizzo delle I.A. nell’amministrazione della giustizia?

Iniziamo subito con una domanda difficile! (ride) Credo fosse assolutamente necessario che l’Unione Europea adottasse un documento nel quale prendeva posizione sull’utilizzo etico delle I.A.

Questo perché l’etica costituisce il punto di vista da cui poi scendere, a cascata, su tutto il resto, dalla legislazione all’auto-regolamentazione.
Un quadro etico strutturato, infatti, contribuisce a dar forma a un quadro legislativo altrettanto strutturato che a sua volta permette una definizione dettagliata degli aspetti economici e di business in generale.

La definizione di questi due ambiti permette poi a noi cittadini di avere un accesso consapevole ad alcune azioni ed informazioni.
In questo contesto l’etica va vista come la matriosca più grande, quella che contiene tutti i singoli ambiti e contesti in cui vedremo operare l’I.A.

Ciò che dobbiamo evitare con tutte le forze è che la creazione di questo quadro sia una mera dichiarazione di intenti. Se ci limitassimo a cancellarlo dalla lista dei to do senza poi con esso informare le prassi e le procedure generali di autoregolamentazione della produzione aziendale e governativa, le aspettative della popolazione e la legislazione a supporto di tutto questo, avremo sicuramente sprecato una grande opportunità.

In Europa abbiamo fatto un passo indietro e ci siamo chiesti: in quale società ci piacerebbe vivere? In che modo vogliamo favorire la crescita di questa società tramite l’utilizzo delle I.A.? Se sarà questo l’obiettivo da raggiungere, allora potremo dire di aver fatto un buon lavoro.

In riferimento a quest’ultimo punto: nella carta viene riportato lo stato dell’arte in merito all’utilizzo delle I.A. nell’amministrazione della giustizia nei vari ordinamenti. Mi è sembrato di cogliere delle perplessità nei confronti di quelle esperienze, ad esempio quella americana, che hanno deciso di adoperare le I.A. nella giustizia senza porsi preliminarmente queste domande.

Me la caverei con una frase latina: festìna lente. Affrettiamoci, ma con cautela. La nostra soluzione rispecchia questa scelta: vogliamo procedere velocemente, ma prestando attenzione alle implicazioni di quello che stiamo creando. Credo che sia da incoscienti andare veloci senza preoccuparsi di avere una regolamentazione e, soprattutto, senza sapere bene dove si vuole arrivare.

Se volessimo disegnare due caricature, avremmo un risultato di questo tipo: da un lato dell’Atlantico (in America) innovazione a tutti i costi e mercati molto liberalizzati, ma senza regole dettagliate; dall’altro lato (in Europa) regolamentazioni top down e mercati molto più ingessati, ma con l’innovazione sotto controllo.

Al di là di questa semplificazione grossolana, credo che noi europei abbiamo fatto bene a muoverci creando prima un quadro di riferimento e che gli americani si stiano preoccupando troppo poco delle implicazioni etico-legislative legate alle I.A.

In Europa abbiamo avvertito l’esigenza di prevenire, così da non raccogliere in futuro i danni derivanti da un uso poco accorto di uno strumento potente e rivoluzionario come le I.A.

Un esempio?

Sicuramente le self driving cars. Negli Stati Uniti abbiamo già registrato alcuni decessi legati a questa tecnologia. Non credo che una risposta corretta a questo dato possa essere “nel complesso salveremo più vite”. Per il momento noi registriamo i morti, vite salvate ancora non ne abbiamo viste. Fare beta testing sulla pelle del cittadino di una tecnologia che non conosco bene sicuramente non mi lascia soddisfatto. Non a caso, infatti, abbiamo già assistito ad atti di vandalismo ai danni delle auto senza conducente.

Non c’è il rischio che la risposta sia quella di mettere troppi paletti allo sviluppo di soluzioni innovative?

Certo, il rischio è concreto. Ho visionato recentemente un documento, del quale però non posso darvi troppe coordinate non essendo stato ancora approvato, in cui le richieste e le aspettative tecnologiche riportate sono assolutamente assurde.

Immaginate di chiedere che in ogni momento, sia esso anteriore o successivo alla elaborazione dei dati, venga data al cittadino la possibilità di estrarre i propri dati dalla processazione dell’I.A. in questione. Sarebbe come se qualcuno venisse da voi a chiedervi dello zucchero per farci una torta. Poi però, una volta fatta la torta, ci ripensasse e chiedesse la restituzione dello zucchero. Non si può estrarlo, ormai è stato utilizzato.

Chiedere una cosa del genere, forse vuol dire che alla fine la torta non vuoi davvero farla. Tra il non preoccuparsi assolutamente di trovare delle regole e il crearne troppe c’è una via di mezzo: è lì che dobbiamo muoverci. Altrimenti potremmo trovarci nell’imbarazzante situazione in cui l’Europa avrà l’etica dell’I.A., ma non l’I.A.

Quali crede possano essere i rimedi per trovare questa via di compromesso?

Sicuramente in Europa dovremmo parlare di più con le aziende e con il mondo della ricerca e dello sviluppo aziendale. Solo da questo confronto potremo evitare situazioni del tipo “se mettiamo questi paletti, questo lavoro non possiamo farlo”.

Credo ci sia anche molta ipocrisia in questo. Molti prodotti decideremo comunque di usarli, anche se saranno stati testati altrove, perché qui abbiamo ritenuto il loro sviluppo inaccettabile. Guardate gli OGM: qui in Europa li abbiamo messi al bando, ma sappiamo tutti che se vogliamo sfamare il mondo dobbiamo svilupparli e in fretta, per contribuire a risolvere il problema della fame e della denutrizione mondiale, in un contesto di trasformazioni climatiche radicali. Vorrei evitare queste ipocrisie e mi piacerebbe che l’Europa assumesse una leadership etica matura, a favore dell’innovazione e dello sviluppo.

 

Alla luce di quanto sta accadendo sembra chiaro che, anche questa volta, vedremo ideologie e blocchi contrapposti nello sviluppo delle I.A. Per quanto i sistemi di Common Law possano forse essere maggiormente predisposti alla ricezione di un cambiamento come questo, è fuori di dubbio che tutto il mondo giuridico abbia un disperato bisogno di innovarsi. Se è vero che il diritto “fa solo falli di reazione”, è anche vero che oggi non possiamo più permetterci che quella reazione sia così lenta rispetto ai fenomeni del mondo.

La corsa all’ I.A. ormai è iniziata. Molti già azzardano paragoni con la corsa all’oro del XIX secolo. Sicuramente le intelligenze artificiali sono già oggi uno strumento portentoso e, in futuro, non potranno che accrescere la loro incisività sulla società.

I Paesi che per primi riusciranno a dotarsene avranno un fortissimo vantaggio competitivo sugli altri: ciò che dobbiamo augurarci è che lo sviluppo di questo strumento sia aperto a cogliere tutte le opportunità e al contempo consapevole dei rischi e degli interrogativi che esso comporta.

Giulio Siciliano
Giulio Siciliano

Giulio Siciliano è laureato in giurisprudenza presso l’università LUISS Guido Carli di Roma, lavora come consulente in ambito Management e Innovazione.

leggi tutto