Robotica e AI

AI per prevedere i crimini: dalla fantascienza alla realtà

2 luglio 2020 | Scritto da Alessandra Martina Ceppi

Il controverso ruolo dello sviluppo tecnologico all’interno dell’ambito della lotta alla criminalità

All’interno del Magazine di Impactscool abbiamo già menzionato le applicazioni che sono state utilizzate, principalmente negli Stati Uniti, durante le manifestazioni in favore del movimento Black Lives Matter. In particolare, abbiamo parlato brevemente dell’applicazione Citizen, che permette di monitorare la posizione della polizia in tempo reale.

 

Dashboard e crimini geolocalizzati. In Italia ha da poco fatto capolino una IA-web app per accedere a tutti gli open-data sui reati fino ad oggi non sistematizzati e segnalati sul web:  Mine Crime, che si presenta come “l’unica (ma sarà così per molto?) piattaforma in Italia per la ricerca di crimini geolocalizzati”. Una mappa interattiva, grafici e dashboard per vedere come si distribuisce il crimine all’interno del comune prescelto. Addirittura, un abbonamento premium permette, tra gli altri vantaggi, di accedere ad una community esclusiva.

L’applicazione, creata da una start up nata proprio quest’anno, si va ad inserire all’interno di un trend che parte da lontano e mescola ulteriormente avanzate tecnologie con i settori più disparati fino a rendere disponibile, per normali cittadini, applicazioni e software che scatenano numerosi quesiti: è eticamente corretto utilizzarli? Sono sicure? Sono effettivamente legali oppure si vanno ad inserire in un vuoto normativo cui la legislazione italiana, macchina lenta e pesante, non riesce a star dietro?

 

Il controverso utilizzo dell’AI per prevedere i crimini: dalla fantascienza alla realtà. Come accadeva all’interno del film Minority Report di Steven Spielberg, liberamente ispirato al racconto del maestro della fantascienza Philip K. Dick, in un ipotetico futuro distopico i crimini violenti erano stati quasi completamente debellati a seguito dello sviluppo di una sofisticata tecnologia che permetteva di arrestare i “potenziali” colpevoli, prima che compissero i crimini.

Oggi questa visione fantascientifica è sempre più simile alla realtà e sono numerosi i governi e i dipartimenti di forze dell’ordine che hanno deciso di sfruttare l’intelligenza artificiale per supportare e semplificare la guerra alla criminalità, ottenendo spesso risultati controversi tanto che più di un software è stato accusato di razzismo e, conseguentemente, ne è stato dismesso l’utilizzo. È recente una lettera aperta, ripresa da numerose testate di settore tra cui Techcrunch, scritta da un collettivo di oltre 2000 ricercatori ed esperti di intelligenza artificiale  che hanno deciso di schierarsi apertamente contro una ricerca che avrebbe dovuto essere pubblicata prossimamente da parte di Springer, lo stesso editore della prestigiosa rivista scientifica Nature. La ricerca è stata annunciata dall’Università di Scienze e Tecnologie di Harrisburg; all’interno della press release veniva annunciato che un gruppo di professori e un dottorando dell’università avevano sviluppato un software di riconoscimento facciale automatizzato e in grado di prevedere se qualcuno avesse potuto, o meno, in futuro, compiere un atto criminale. Non solo, l’intervento procede affermando che “con una percentuale di accuratezza dell’80% e senza pregiudizi razziali, il software è in grado di prevedere se qualcuno è un criminale basandosi esclusivamente su un’immagine del suo volto. Il software ha lo scopo di aiutare le forze dell’ordine a prevenire il crimine.”

Non c’è da stupirsi che un elevato numero di esperti si sia sentito in dovere di intervenire e far sentire la propria voce in relazione a questo annuncio. In particolare, l’appello degli esperti era rivolto all’editore perché ritirasse, come effettivamente poi ha fatto, la sua intenzione di pubblicare una ricerca così controversa e rischiosa; non solo, vi è all’interno un invito ad altri potenziali editori a rifiutare pubblicazioni di ricerche future simili. Le ragioni sono disparate ma il punto focale su cui concentrarsi è la cautela, che deve necessariamente essere utilizzata quando si trattano temi simili.

 

L’accusa di razzismo e inefficienza. Come anticipato, è da lungo tempo che questo genere di tecnologie e il loro utilizzo sulla popolazione, viene criticato per la sua inefficacia e per le implicazioni di carattere etico e normativo che comportano. Uno dei primi ad adottare sistemi predittivi per supportare la lotta al crimine è stato, nel 2008, il Dipartimento di Polizia di Los Angeles: tra i software ce n’era uno, LASER, che identificava le aree più calde in cui era probabile che si verificasse uno scontro violento con arma da fuoco e poi un altro, PredPol, che avrebbe dovuto aiutare a “calcolare” e individuare le zone con il più alto tasso di reati legati a furti. Entrambi i programmi sono stati dismessi nel 2019 a seguito di un’indagine interna al dipartimento che ne ha evidenziato le forti inefficienze.

Krittika D’Silva, ricercatrice di computer-science all’Università di Cambridge, ha detto che sono ormai “numerosi gli studi che hanno dimostrato che gli algoritmi di apprendimento automatico, in particolare i software di riconoscimento facciale, hanno pregiudizi razziali, di genere e di età, come ad esempio sostiene uno studio del 2019, che indica che il riconoscimento facciale funziona male sulle donne e sulle persone anziane e di colore o asiatiche”.

 

Il buono, il brutto e il cattivo nel progresso tecnologico. Sia ben chiaro, l’Intelligenza Artificiale di per sé, non è né buona né cattiva, non nasce razzista oppure più propensa a “incolpare” le minoranze. Come viene ben ricordato all’interno della lettera aperta, i programmi di machine learning non sono neutrali; queste macchine vengono alimentate con set di dati a disposizione che vengono acquistati dalle società che poi si occupano di svilupparli. La responsabilità di verificare l’imparzialità del software è di diretta competenza di chi svolge ruoli di controllo sui data set, sui team che lavorano al progetto e sull’apprendimento della macchina. La tipologia di informazioni e il modo in cui devono essere elaborate è frutto del lavoro di esseri umani. Lo sviluppo dell’Intelligenza Artificiale non passa solo attraverso i software ma anche attraverso psicologia, filosofia, antropologia e scienze sociali.

Tornando all’applicazione da cui siamo partiti per sviluppare la nostra riflessione: quale è il confine? Dove la tecnologia dovrebbe fermarsi? Dove i progettisti o gli imprenditori dovrebbero fare un passo indietro? Si corre il rischio di rendere ancor più complicata la gestione di temi che sono già controversi per gli esseri umani.

Alessandra Martina Ceppi
Alessandra Martina Ceppi

Junior marketing & communication manager presso una software house milanese. Mi faccio sempre molte domande. Interessata all'impatto della tecnologia sulla vita delle persone e sul futuro.

leggi tutto