Robotica e AI

Intelligenza Artificiale e discriminazione: i diritti umani sono a rischio?

25 febbraio 2019 | Scritto da Giulio Siciliano

Il processo decisionale algoritmico sta rivoluzionando il mondo, ma siamo sicuri che la rivoluzione sia per tutti?

L’Anti-Discrimination Department del Consiglio d’Europa ha recentemente pubblicato uno studio ad opera di Frederik Zuiderveen Borgesius, docente presso la Radboud University di Nijmegen, riguardante le nuove forme di discriminazione legate alle intelligenze artificiali e ai processi decisionali algoritmici.

I documenti di questo tipo adottati da istituzioni sovranazionali iniziano ad essere sempre più numerosi. Questo trend fa eco all’attenzione ormai crescente mostrata anche dai singoli Paesi, come accaduto in occasione dell’ultimo World Economic Forum, verso lo sviluppo del settore tecnologico e delle relative regolamentazioni. Se è vero che “da grandi poteri derivano grandi responsabilità” tutte le istituzioni iniziano finalmente a comprendere che non è più possibile rimandare il dibattito e la riflessione legata alle implicazioni e ai rischi delle nuove tecnologie.

 

Il documento. Nel testo i ricercatori del dipartimento antidiscriminazione hanno in primo luogo tratteggiato lo stato dell’arte sull’utilizzo delle IA a livello europeo, sia nel settore pubblico sia nel settore privato. Negli esempi riportati, dalla gestione del proprio conto in banca per il privato alla selezione del personale delle grandi strutture amministrative nel pubblico, viene sottolineato come l’utilizzo di processi decisionali basati sulle IA possa concretamente determinare effetti più o meno significativi e su larga scala nei confronti delle persone.
Ma c’è un problema enorme dietro tutto questo. L’intelligenza artificiale e il processo decisionale algoritmico possono sembrare razionali, neutrali e imparziali, ma, sfortunatamente, può non essere sempre così. Entrambe queste tecnologie possono infatti portare a nuove forme di diseguaglianze ingiuste e illegali se non adeguatamente controllate.
Lo studio, nel descrivere il problema, si sofferma su quattro aspetti fondamentali:

  1. I campi socioeconomici in cui le IA e il processo decisionale algoritmico possono portare a nuove forme di discriminazione;
  2. Le attuali garanzie normative e misure di sicurezza esistenti in materia di IA;
  3. Le raccomandazioni che possono essere fatte alle organizzazioni che utilizzano le IA per prevenire derive discriminatorie;
  4. Quali tipi di azione (legale, normativa, autoregolamentazione) possono ridurre questi rischi.

 

Quali discriminazioni? In generale sono molteplici i modi in cui le Intelligenze Artificiali possono determinare discriminazioni: dalla definizione delle classi e dei target di riferimento ai metodi di raccolta dati, passando per l’eventualità (nemmeno troppo remota) che il processo decisionale a base IA possa ab origine “imparare” da training data già discriminanti. Senza sottovalutare il fatto che le questi sistemi possano anche essere usati intenzionalmente a fini discriminatori. Fortunatamente, per queste forme di discriminazione ampiamente note esistono già dei rimedi efficaci.
Il vero problema è rappresentato dalle nuove forme di discriminazione, che sfuggono alle leggi attuali. La maggior parte degli esistenti statuti di non discriminazione (come per esempio la CEDU, la Convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali, testo considerato da sempre uno dei pilastri della protezione dei diritti fondamentali) si applicano solo alla discriminazione sulla base di caratteristiche protette, come il colore della pelle. Tali statuti non si applicano se un sistema di intelligenza artificiale inventa nuove classi non correlate con le caratteristiche protette per distinguere le persone. Non è detto che queste differenziazioni debbano necessariamente essere ingiuste; ma potrebbero esserlo, andando quindi a rafforzare la diseguaglianza sociale.

Tutte queste considerazioni nascono dalla constatazione che i sistemi di intelligenza artificiale. spesso si comportano come delle “Black box” impenetrabili: ciò che rimane lontano da una possibile valutazione non è il fine cui l’IA è preposta, ma il modo in cui le decisioni vengono prese.

 

Come arrivare a decisioni condivise? A voler usare una metafora per descrivere lo stato attuale del dibattito intorno alle IA., potremmo immaginare un sentiero buio dove ad essere illuminati sono solo la partenza e l’arrivo. I vari partecipanti del dibattito sono tutti sostanzialmente d’accordo su questi due punti: i problemi e le esigenze (la partenza) che sottendono allo sviluppo delle IA sono noti a tutti, così come sono da tutti condivisi gli obiettivi cui tendere una volta risolti questi problemi (l’arrivo).
Ciò che non mette tutti d’accordo è il percorso: quali sono le decisioni intermedie che dovremo prendere per arrivare a questo miglioramento?

Nel modo di rispondere a questa domanda osserviamo la profonda diversità dell’approccio adottato dai singoli Paesi. A voler recuperare la metafora del sentiero, questo documento vuole confermare ancora una volta l’approccio europeo alla tematica: pur essendo visibile il punto d’arrivo, ci stiamo preoccupando di dare luce anche al cammino, anche a costo di arrivare in ritardo rispetto ad altri al traguardo finale.
È altrettanto vero che, in nome della “celerità”, altri Paesi hanno deciso di adottare approcci molto diversi. La Cina ad esempio, nella sua interpretazione di tech management, sta adottando forme di controllo sulla società sempre più pervasive, con buona pace di qualunque forma di riservatezza e privacy.

Nelle more di queste riflessioni, sembra però che a livello globale si stia diffondendo un retro pensiero nemmeno troppo velato verso le nuove tecnologie. Nella corsa verso il progresso, qualcosa dovremo sacrificare sull’altare dell’innovazione. L’Europa, nella sua valutazione di valori quali la privacy e i diritti umani come fondamentali, forse ha già deciso di sacrificare parte del ritorno economico che avrebbe potuto portare l’arrivare a determinate tecnologie per primi. Abbiamo visto che altri Paesi stanno effettuando valutazioni diametralmente opposte. Probabilmente sarà solo il tempo a venire a dirci chi avrà avuto ragione.

Giulio Siciliano
Giulio Siciliano

Giulio Siciliano è laureato in giurisprudenza presso l’università LUISS Guido Carli di Roma, lavora come consulente in ambito Management e Innovazione.

leggi tutto