Robotica e AI

Per una tecnologia più etica bisogna muoversi d’anticipo

31 gennaio 2020 | Scritto da Thomas Ducato

Continua la nostra rubrica dedicata all'etica delle tecnologie: abbiamo intervistato Piercosma Bisconti Lucidi esperto di implicazioni socioculturali degli impatti delle tecnologie

Il 28 febbraio, in Vaticano, i big dell’industria tech come Microsoft e IBM si incontreranno per discutere degli impatti etici dell’IA e per firmare una ‘Call for Ethics’. Si tratta di un documento che vuole aiutare le aziende in un percorso di valutazione degli effetti delle tecnologie collegate all’intelligenza artificiale, dei rischi che comportano, di possibili vie di regolamentazione, anche sul piano educativo. Un segnale importante di come è sempre più necessario collegare allo sviluppo tecnologico una riflessione profonda che vada di pari passo con l’innovazione.

Continua la nostra rubrica dedicata all’etica delle tecnologie: dopo aver ascoltato la riflessione di Steven Umbrello, oggi andiamo a intervistare Piercosma Bisconti Lucidi, Dottorando in “Diritti umani e politica globale ” presso la Scuola Superiore Sant’Anna ed esperto di implicazioni socioculturali delle tecnologie interattive.

 

Quando si è iniziato a parlare di questi temi in Italia?

Bisogna fare una premessa: si tratta di un ambito interdisciplinare e chi se ne occupa, spesso, non è esperto di scienze umane o sociali. Molte questioni, infatti, soprattutto in principio, sono state sollevate anche dagli ingegneri.
In Italia gli studi più specifici si può dire siano nati quando è stato coniato il termine “roboetica” da Giammarco Veruggio, professore dell’università di Genova. Nei primi tempi al centro degli studi c’era la robotica: la riflessione sull’intelligenza artificiale è arrivata dopo, con l’esplosione di machine e deep learning. Alla Scuola Sant’Anna di Pisa un gruppo di ricerca su questi temi c’è dal 2005, tra i primi a riformulare sia sul piano legale sia su quello etico, filosofico e sociale il framework interpretativo di queste tecnologia. L’assunto di base è che ogni tecnologia è influenzabile ed è influenzata dal contesto sociale, legale, culturale ed economico nel quale è inserita.

 

E a livello europeo?

Su un piano europeo il documento più rilevante è quello realizzato dal gruppo di esperti sull’Intelligenza artificiale, in cui sono stati evidenziati alcuni degli elementi centrali del dibattito grazie al contributo di alcuni degli studiosi più attivi sul tema. Il lavoro evidenzia quelle che sono le principali preoccupazioni etiche, con forti implicazioni anche sul piano sociale, legate allo sviluppo di questa tecnologia. Tra queste c’è, per esempio, l’accountability, la necessità di spiegare il processo decisionale e i risvolti legali, oltre alla gestione di bias e dagli errori.

 

Come passare, però, dalla “teoria” alla pratica?

È una questione centrale. Oggi non c’è un vero collante accademico che unisca gli ingegneri agli scienziati sociali e, più in generale, agli umanisti. Quello che succede, dunque, è che il lavoro di programmazione e creazione della tecnologia avviene parallelamente alla riflessione sui suoi impatti: gli ingegneri non si preoccupano dei risvolti etico-sociali, gli umanisti non sono a conoscenza dei dettagli tecnici e faticano ad entrare nella specificità dei problemi.

 

Questo cosa implica?

Facciamo un esempio: l’IA generale è ancora distante, preoccuparsi oggi del fatto che le macchine possano prendere il controllo non ha senso. È un traguardo irraggiungibile almeno per i prossimi 50 anni. Gli scienziati sociali, però, non hanno piena conoscenza dello stato dell’arte dell’evoluzione tecnologica e rischiano di porre la riflessione su aspetti oggi irrilevanti, tralasciando invece i problemi reali.   

 

Quindi capita di affrontare i problemi solo quando si presentano…

Esatto. Invece sarebbe necessaria una governance dell’innovazione tecnologia anticipatoria: abbiamo bisogno di muoversi in anticipo rispetto all’arrivo della tecnologia, mettendo in relazione i diversi attori coinvolti del processo, dalle multinazionali ai centri di ricerca fino ai governi. Qualcosa si sta facendo, ma non è ancora sufficiente. E anche sul piano accademico ci sono aspetti su cui intervenire, serve un approccio integrato: oggi il lavoro degli scienziati sociali arriva in seguito allo sviluppo della tecnologia, possono dare un’opinione ma non contribuire alla creazione. Questo porta a linee guida molto “alte”, ma che trovano difficili applicazioni sul piano concreto.

 

Per esempio?

Dire che l’IA debba rispettare la dignità umana è un concetto giustissimo. Ma cosa significa? Come può un ingegnere applicarlo all’algoritmo che ha sviluppato?
Per questo serve un approccio integrato, con team interdisciplinari, in cui ingegneri e scienziati sociali e filosofi lavorano insieme per definire cosa l’intelligenza artificiale può fare sul piano tecnico e quello che deve fare dal punto di vista etico.  Porterebbe a un risparmio di tempo e di problemi.

 

Quando si parla di etica, come si possono superare le differenze culturali per trovare linee comuni a tutti?

Il confronto con il senso etico delle diverse culture sarà importante ma oggi è un problema che non ci stiamo ancora ponendo davvero. Il livello di discussione è ancora incentrato sul piano accademico, dove la differenza culturale forse si sente meno. Sul piano pubblico, invece, di questi temi si parla ancora poco, soprattutto in alcune zone del mondo. La questione diventerà estremamente attuale quando l’IA inizierà ad avere un impatto più visibile nella vita degli individui, probabilmente con la diffusione di robot e sistemi autonomi. Servirebbe una spinta istituzionale per coinvolgere nel dibattito aziende, università e persone, prima che sia troppo tardi.

 

Quali sono i temi centrali oggi?

Per esempio, come detto si sta parlando molto dei bias, che non sono della macchina ma all’interno dei dati forniti dall’uomo. Questo porta a una riflessione interessante: gli ingegneri sono direttamente implicati in questioni etiche e normative, cosa che prima non accadeva. Alcuni di questi sono più difficili da evitare perché rientrano nella sfera dei “preconcetti”, elementi centrali della natura umana che nascono con la nostra esperienza. Alcuni di questi, però, non vogliamo trasmetterli alla macchina, che non solo universalizza il bias ma lo moltiplica. In questo senso analizzare la tecnologia può tornarci utile anche per riflettere sulla natura umana e sulla società: l’IA può aiutarci a comprendere quali elementi vogliamo mantenere o rafforzare e quali eliminare. 

 

Quali saranno le sfide principali per il prossimo futuro?

Nei prossimi 20 anni una delle grandi sfide sarà l’automazione del lavoro. Dovremmo capire se riusciamo a trasformare il processo produttivo e a cambiare il settore di occupazione di molti individui nel giro di poco tempo. Dovremmo modificare il sistema economico nel quale ci muoviamo, nella speranza di liberarci da lavori che non vogliamo fare. Ma se non saremo più al entro del processo produttivo, noi come uomini, dovremmo ristrutturare completamente in modo in cui ci poniamo in riferimento alla vita.
Un altro aspetto molto importante sarà quello sociale e dell’interazione con le macchine: è l’ambito di cui si interessa la robotica sociale. Sarà un processo lungo e complesso che cambierà il panorama delle interazioni.
Infine, dovremmo stare attenti è la modificazione dei processi politici. Non credo che l’IA potrà portare una maggiore democratizzazione dei processi, anche perché non credo sarà utilizzata in questo modo.

Thomas Ducato
Thomas Ducato

Direttore di Impactscool Magazine. Laureato in Editoria e giornalismo all’Università di Verona e giornalista pubblicista dal 2014, si occupa delle attività di ufficio stampa e comunicazione di Impactscool, curandone anche i contenuti, la loro diffusione e condivisione.

leggi tutto