Robotica e AI

Un codice etico per l’Intelligenza Artificiale

21 dicembre 2018 | Scritto da La redazione

È stata resa pubblica la prima bozza delle linee guida etiche per lo sviluppo dell’IA. Ne abbiamo parlato con Luciano Floridi

Lo sviluppo dell’Intelligenza Artificiale, IA, sta avvenendo con una velocità esponenziale e alcuni sistemi di IA sono entrati nelle nostre vite senza che quasi ce ne rendessimo conto. Oggi le macchine raggiungono obiettivi fino a qualche anno fa inimmaginabili e la crescita non è destinata ad arrestarsi. Per questo motivo l’Unione Europea ha formato un gruppo di esperti di alto livello per lavorare alla stesura di un documento che contenesse delle linee guida etiche per lo sviluppo di questa tecnologia, che siano efficaci ma soprattutto condivise. La prima bozza di questo codice etico dell’IA è stata pubblicata il 18 dicembre, in attesa di essere finalizzata a marzo.

Il gruppo di esperti, al lavoro da giugno, è composto da 52 membri, esperti selezionati dal mondo accademico, dell’industria e della società civile. Tra questi ci sono quattro italiani: Andrea Renda, ricercatore del Centre for European Policy Studies di Bruxelles, Giuseppe Stefano Quintarelli, presidente dell’Agenzia per l’italia digitale, Francesca Rossi dell’università di Padova, in aspettativa al centro di ricerca IBMbm di Yorktown Heights a New York e Luciano Floridi dell’università di Oxford.

Luciano Floridi, contattato dalla nostra redazione, ci ha offerto il suo punto di vista personale sul lavoro del gruppo di esperti, sottolineando l’importanza e l’urgenza di un documento come quello a cui stanno lavorando. “Un quadro etico – ci ha spiegato – contribuisce a formare anche il quadro normativo, che poi si riflette sui temi economici e sociali. Quindi l’etica è fondamentale, è come la matrioska più grande, quella che contiene un po’ tutto. Il documento è ancora una bozza e questo direi che è abbastanza evidente. Sotto certi aspetti, dunque, è un po’ “acerbo”, ma sono elementi che andremo a migliorare anche grazie ai feedback che ci arriveranno prima della stesura definitiva, che è prevista per marzo. Mi auguro che alla fine ne uscirà un buon lavoro, ma la conferma definitiva la avremo solo in primavera”.

I successi. Nel documento sono presentati 5 principi fondamentali che sono alla base dello sviluppo e della diffusione dell’Intelligenza artificiale: fare del bene (beneficence), non fare del male (non-malefiecience), autonomia (autonomy), giustizia (justice) e trasparenza (explicability). Questi principi sono il frutto del lavoro di Floridi e del suo team. “Sono particolarmente orgoglioso – ci ha detto Floridi – della sezione in cui si presentano i cinque principi, che sono alla base dell’impianto teorico del documento. Questa parte è stata realizzata sulla base di un progetto che ho diretto, intitolato AI4People, che si è svolto a latere delle attività dell’gruppo di esperti dell’Unione Europea. Abbiamo collaborato in modo produttivo ed efficace con la commissione e sono orgoglioso del fatto che sia stato riconosciuto il grande lavoro che abbiamo svolto, che è presente in modo pressoché integrale nel documento appena pubblicato”.
I 5 principi fondamentali sono alla base delle 10 linee guida contenute nel documento, che dovrebbero poi tradursi in regole concrete per lo sviluppo e l’utilizzo dell’Intelligenza artificiale.

Il fallimento. Non tutto quello che è contenuto nel documento, però, convince Luciano Floridi. “Quello che a livello personale non mi è piaciuto molto, – ci ha detto –  è la parte relativa ai limiti da non superare con lo sviluppo dell’intelligenza artificiale. In particolare, ci sono alcune raccomandazioni su quello che non andrà mai fatto con questa tecnologia e in questa sezione, secondo me, c’è uno scivolone. Si dice, per esempio, che non devono essere create IA con la coscienza o in grado di conquistare l’uomo: una sorta di Terminator, insomma, che si preoccupa di scenari fantascientifici ma che non trova alcun riscontro concreto nella realtà. È come se in bioetica bandissimo gli zombies. Su questa parte ho combattuto all’interno del gruppo, ma solo con parziale successo. Credo che questi siano scivoloni che un documento serio a livello europeo di questa portata dovrebbe evitare: parliamo di scienza e tecnologia, non di Guerre Stellari”.

Inserire questi paletti, considerati fantascientifici, secondo Floridi potrebbe preoccupare inutilmente le persone e influire in qualche modo sui finanziamenti. “Se alle persone si dice che questi sono gli sviluppi da evitare, – ha concluso – diamo per scontato che questa cosa possa essere creata. Se no qual è la preoccupazione? Questa, però, è fantascienza, stiamo preoccupando le persone senza alcun motivo. Inoltre, in questo contesto di giocano anche milioni di Euro di finanziamenti e alimentare la paura senza ragione è solo controproducente”.

La redazione
La redazione

leggi tutto