Robotica e AI

Verso un’etica della tecnologia

17 gennaio 2020 | Scritto da La redazione

Filosofia e sviluppo tecnologico, due mondi all'apparenza distanti, non sono mai stati così vicini: è necessario un approccio integrato. Ne abbiamo parlato con Steven Umbrello Managing Director all’Istituto di Etica e Tecnologie emergenti

Lo sviluppo delle tecnologie emergenti richiede un costante afflusso di nuovi approcci ingegneristici, studi scientifici e perfezionamenti di nuove tecniche, ma per andare incontro al migliore dei futuri possibili è essenziale che di pari passo si sviluppi un pensiero filosofico guidato dall’etica. Di questi temi si occupa Steven Umbrello, Managing Director all’Istituto di Etica e Tecnologie emergenti. Dopo aver studiato Filosofia, Etica della scienza ed epistemologia tra il Canada e il Regno Unito, ora sta svolgendo un dottorato al dipartimento di Filosofia dell’Università di Torino, concentrandosi sul ruolo della filosofia nella comprensione del mondo digitale.

 

Di cosa si occupa la sua ricerca?

La mia ricerca cade principalmente sotto l’ombrello della filosofia della tecnologia, più specificamente riguarda l’etica dell’ingegneria. A oggi, la mia principale linea di ricerca riguarda i sistemi di intelligenza artificiale e il design di metodologie che possiamo impiegare per progettare questi sistemi seguendo valori umani piuttosto che progettarli a giochi fatti. A questo scopo da tempo propongo l’approccio VSD, Value Sensitive Design, per progettare tecnologie, che parte dalla premessa che le tecnologie non sono neutrali, non sono strumenti ma che sono sempre create con dei valori. Come possiamo modificare questo approccio per aderire meglio ai diversi sistemi di sviluppo delle intelligenze artificiali è ciò che sto esplorando attualmente.

 

Quali sono i temi principali del dibattito etico e sociale sullo sviluppo delle tecnologie emergenti?

Penso che il dibattito principale attorno le tecnologie emergenti è la divisione esistente fra determinismo tecnologico e interazionismo. Il primo, che è quello predominante nell’opinione pubblica e principalmente fra i guru della Silicon Valley è che lo sviluppo tecnologico è inevitabile e determina i valori di una società e di una cultura. L’interazionismo, che è molto diffuso nel mondo accedemico, più nello specifico nella filosofia delle tecnologie, suggerisce che la tecnologia e la società si influenzano l’un l’altro, co-costruendosi e co-variando. Questa posizione ci permette di guidare la tecnologia verso futuri desiderabili, piuttosto che essere guidati da essa.

 

Quali differenze sta trovando tra l’Italia e gli altri Paesi in cui ha lavorato?

L’Italia, come molti altri Paesi sfortunatamente, a parte gli Stati Uniti, Il Regno Unito e i Paesi Bassi, sta rimanendo indietro nella comprensione del valore di una seria riflessione etica sulla progettazione e sviluppo delle tecnologie emergenti. Il motore principale per l’innovazione è fondamentalmente il valore economico, piuttosto che altri, irriducibili valori che sono importanti per gli stakeholders in tutto il mondo. Questo fondamento filosofico sta però cambiando. Stiamo vedendo uno spostamento verso iniziative innovative responsabili, l’introduzione di valutazioni degli impatti sociali oltre a nuovi programmi universitari e istituti di ricerca che puntano verso questa direzione. Ciò che sarà necessario sarà la sintesi fra il pubblico e gli ambiti aziendale in un modo genuino che permetta alle considerazioni etiche e sociali di unirsi e concretizzarsi.

 

A livello europeo esistono molte realtà focalizzate sullo sviluppo etico delle intelligenze artificiali. Come sta procedendo?

Il progresso è progresso, non importa quanto piccolo. Ma è piccolo e lento. La difficoltà principale con lo sviluppo di IA etiche, che è lo stesso del progresso etico in tutte le sue forme nel corso dei millenni, è l’essere d’accordo dal punto di vista etico. Sebbene gli impatti dell’IA su piano etico, sociale, economico e legale siano riconosciuti nell’UE, se non a livello, il problema è il passo successivo. L’incapacità di tradurre la riflessione etica in pratiche è molto rischiosa dati gli impatti delle IA potenzialmente pericolose, se non di quelle usate male. C’è stato del progresso in ambito accademico, ma nel consolidare le centinaia di codici etici e linee guida in un solo, piccolo insieme che possa riflettere accuratamente i valori delle persone che le utilizzano, dando modo agli ingegneri di metterle all’interno del prodotto.

 

Anche se qualcosa si sta muovendo a livello accademico, non c’è ancora la consapevolezza di queste problematiche nelle aziende e fra i cittadini. Come colmare questo vuoto?

Si tratta di un vuoto più generale, fra la “torre d’avorio” e l’ampio pubblico. I motivi sono molti e vanno dal disinteresse personale degli studiosi verso la percezione pubblica o la consapevolezza fino alla capitalizzazione degli studi da parte dei grandi editori che rendono la ricerca inaccessibile al pubblico, se non addirittura ad altri studiosi. Ci sono barriere sia personali che economiche per la divulgazione degli studi che potrebbero altrimenti cambiare la percezione pubblica e la comprensione di questi problemi, cosa molto importante dato che i pubblici che solitamente vengono coinvolti tendono a essere gli stessi stakeholders e quindi di centrale importanza per la progettazione di questi sistemi.

Gli accademici così come i progettisti devono capire il valore del coinvolgimento degli stakeholders come una parte fondamentale del processo di design di qualsiasi tecnologia. Gli studiosi coinvolti in questi programmi di ricerca devono confrontarsi con il pubblico per riflettere più accuratamente su come funzionino le cose nel mondo reale. I rischi di un’IA progettata male o altre tecnologie emergenti sono troppo alti per rimanere puramente accademici o concettuali, ma devono essere inseriti in contesti reali.

 

Come immagina il futuro delle relazioni in un mondo sempre più tecnologico e connesso?

Come ogni tecnologia trasformativa ci sono sempre risultati positivi e negativi. Alla fine dei conti, le nuove tecnologie ci mettono davanti a mondi possibili che in conclusione implicano importanti e fondamentali cambiamenti nella società. Non vedo alcuna ragione per essere troppo ottimisti o pessimisti. Un cauto ottimismo secondo cui troveremo i modi per adattarci e gestire le tecnologie emergenti probabilmente prevarrà data la quantità di risorse e attenzione sull’argomento a livello globale, ma questo non dovrebbe renderci compiacenti verso l’idea di risultati positivi. Allo stesso modo, immaginare come sarà il futuro è utile solo perché ci permette di speculare sugli impatti e sull’etica, anche se fare previsioni forti riguardo la nostra relazione con le tecnologie è legato a cosa sono queste tecnologie, come sono state progettato, da chi, come funzionano in contesti socioculturali diversi e perché le abbiamo costruite.

Alla fine, tutti questi dilemmi possono essere affrontati oggi, soprattutto a livello popolare attraverso iniziative di educazione. Hub di innovazione, scuole che studino gli impatti, e l’abilità generale di pensare in maniera etica con metodi formali e rigorosi donando agli attivisti e ai pensatori gli strumenti necessari per affrontare questi problemi a testa alta.

La redazione
La redazione

leggi tutto