Future Society

Sul riconoscimento facciale qualcosa si muove

21 April 2021 | Scritto da Alberto Laratro

Per quanto mostrata come una tecnologia all'avanguardia, il riconoscimento facciale soffre ancora di gravi problemi alle sue fondamenta, il dibattito sul suo utilizzo in materia di sicurezza e sorveglianza diventa sempre più attuale

State tranquillamente passando un piacevole pomeriggio nel vostro cortile con vostra moglie e le vostre due bambine di 2 e 5 anni quando due poliziotti si avvicinano e vi arrestano. Siete accusati di aver derubato orologi in un negozio per un totale di 3800 dollari. Un testimone è sicuro quasi al 100% della vostra colpevolezza.

Questo è ciò che è successo nel gennaio del 2020 a Robert Williams, un afroamericano di 42 anni la cui unica colpa era quella di somigliare al reale colpevole. Eppure, il testimone non ha avuto ripensamenti, probabilmente perché non si tratta di una persona ma di un sistema di riconoscimento facciale. Quello di Williams è il primo caso documentato di una persona arrestata a causa di un falso positivo di un algoritmo. La sua storia ha ispirato la nascita di Coded Bias su Netflix, un documentario che esplora i limiti e i rischi del riconoscimento facciale, una tecnologia dal grande potenziale ma che pone seri dubbi sul suo utilizzo e in particolare sui suoi errori quando ha a che fare con persone dalla pelle scura, in particolare donne.

Nell’ultimo periodo sono diverse le realtà, istituzionali e private, che si stanno interrogando su questa tecnologia per definire che tipo di futuro costruiremo per quanto riguardo ambiti sensibili come la privacy, l’identità, la sicurezza e la sorveglianza di massa.

 

Oggi usiamo il riconoscimento facciale per sbloccare il nostro smartphone, per attivare un conto in banca, o per effettuare pagamenti, ma lo stesso algoritmo è in grado di identificare una persona tra la folla. Le applicazioni di questa tecnologia sono innumerevoli, alcune più preferibili di altre, ma tutte si basano sullo stesso processo.

Un algoritmo di intelligenza artificiale viene addestrato a riconoscere un volto a partire da determinati valori biometrici: dalla distanza fra le due pupille alla profondità delle orbite, passando per l’altezza degli zigomi, la forma della mascella, l’ampiezza del naso e altre decine e decine di attributi. Confrontando l’immagine raccolta con una presente in un database, l’algoritmo è in grado di determinare, con un grado di accuratezza che si avvicina sempre di più al 100%, l’identità di una persona.

 

La parte difficile per la macchina non è però riconoscere un volto ma imparare a farlo. Addestrare un’IA a svolgere questo compito, qualsiasi compito in realtà, significa mostrarle decine, centinaia di migliaia di esempi da cui estrarre gli elementi chiave che andranno a creare le fondamenta su cui il sistema basa le sue capacità, in questo caso, di riconoscere un volto.

Com’è ormai noto però queste fondamenta possono essere instabili e in grado di distorcere l’intera struttura che si poggia su di esse: i dati che vengono usati per addestrare la macchina troppo spesso pendono da un lato.

I dataset di volti usati spesso non sono eterogenei come dovrebbero, anzi, tendono a essere a senso unico, rappresentando in maggioranza uomini bianchi. Due dei dataset più usati, IJB-A e Adience, sono composti, rispettivamente, al 79.6% e al 86.2% da uomini bianchi.

Gli algoritmi addestrati con questi dataset riconoscono perciò più facilmente gli uomini bianchi, con un’accuratezza che spesso supera di molto il 90%, mentre hanno più difficoltà nei confronti di persone dalla pelle scura, in particolare donne, area demografica in cui la possibilità di errore aumenta del 34%.

Quando i sistemi di riconoscimento facciale vengono poi rivelati al pubblico, pubblicizzati e raccolgono l’endorsment di centri di ricerca, istituti ed enti governativi, vengono raccontati come i sistemi con un’accuratezza del 90 e rotti percento, non di certo quelli con un’accuratezza inferiore al 70% per le donne di colore. E quando questi sistemi vengono usati per sorveglianza di massa o, come nel caso di Robert Williams, per individuare un sospetto, l’accuratezza presunta rimane del 90%, anche se la macchina, in quel caso, è in grado di fornire una risposta con una certezza molto inferiore.

 

Qualcosa di muove. La discussione sui bias del riconoscimento facciale e sulla applicazione di questa tecnologia in ambiti sensibili come l’uso da parte della polizia è, fortunatamente, accesa e viva, particolarmente in Europa. L’Unione Europea, infatti, il 19 aprile ha proposto di vietare l’uso di sistemi di riconoscimento facciale per la sorveglianza di massa.

Anche l’Italia sta cercando di orientarsi e di trovare una posizione in questo ambito delicato. Una bozza di legge presentata da Filippo Sensi del PD richiede la sospensione, fino alla fine del 2021, di sistemi di videosorveglianza con riconoscimento facciale in luoghi pubblici. Si tratta comunque di una moratoria temporanea, nata per dare tempo al parlamento di legiferare sull’argomento e regolare il settore.

Anche l’uso di questi sistemi da parte della polizia sta venendo messo in discussione. Il garante della privacy ha bocciato la funzione “real time” di Sari, il sistema che permetterebbe alle forze dell’ordine di identificare in tempo reale una persona confrontando il suo volto con una banca dati predefinita, una sorta di “lista dei sospettati”, e di allertare quindi gli agenti nei paraggi.

Laura Carrer, portavoce della campagna Reclaim your face per bandire sistemi di videosorveglianza massiva in Europa, commenta su Wired: “Credo fermamente che il parere negativo del Garante della privacy sul sistema Sari real time sia fondamentale per affermare l’importanza primaria dei diritti umani sull’utilizzo della tecnologia. In nessun caso, nemmeno per ordine pubblico e sicurezza, dovrebbe essere possibile adoperare tecnologie che possono portare alla sorveglianza di massa“.

 

Alberto Laratro
Alberto Laratro

Laureato in Scienze della Comunicazione e con un Master in Comunicazione della Scienza preso presso la SISSA di Trieste ha capito che nella sua vita scienza e comunicazione sono due punti fermi.

leggi tutto