Flash News

Scardinare i bias delle intelligenze artificiali

22 January 2021 | Scritto da La redazione

Uno studio conferma quanto le IA che svolgono compiti di riconoscimento facciale sono spesso vittime di bias riguardo il genere e il colore della pelle

Un gruppo di ricerca del Computer Visione Center (CVC) e dell’Università di Barcellona ha pubblicato i risultati di uno studio che valuta l’accuratezza e i bias verso il colore della pelle e il genere dei sistemi automatici di riconoscimento facciale. Anche quei sistemi che vantano il 99.9% di accuratezza mostrano un numero più alto di falsi positivi o negativi quando non viene mostrato il volto di uomini bianchi. Non è una novità che i sistemi di riconoscimenti facciale abbiano seri problemi a tal riguardo, colpa dei data set usati per addestrarli a riconoscere i volti, spesso composti in maggior parte da uomini e da bianchi. Per valutare quanto questo problema sia radicato nei sistemi usati oggi i ricercatori hanno fatto valutare i risultati dai partecipanti all’esperimento. I risultati hanno mostrato come anche i sistemi con il 99.9% di accuratezza abbiano avuto seri problemi quando si andava ad analizzare il volto di persone di colore, o di donne o persone con gli occhiali. I dati hanno dimostrato che l’accuratezza non deve essere l’unico parametro quando si sviluppa un metodo di riconoscimento facciale che sia equo.

Via TechXplorer

 

 

La redazione
La redazione

leggi tutto