Future Society

Dal porno alla politica: l’ascesa inesorabile delle Deepfake IA

8 January 2019 | Scritto da La redazione

L’intelligenza artificiale per la simulazione di immagini di umani si candida come nuova “punta di diamante” della disinformazione

Una nuova minaccia incombe sul mondo del web, promettendo un livello di disinformazione mai raggiunto fino a oggi. Si tratta della Deepfake, una tecnica per la simulazione di immagini di esseri umani realizzata grazie a sistemi di Intelligenza artificiale. Non abbiamo ancora imparato a riconoscere le comuni (e spesso banali) fake news e già dobbiamo prepararci ad affrontare falsi molto più difficili da individuare, con implicazioni che possono interessare diversi ambiti, anche molto distanti tra loro. L’ultima a denunciare la pericolosità della Deepfake è stata la star di Hollywood Scarlett Johansson, che in un’intervista rilasciata al Washington Post ha espresso la sua frustrazione per l’impossibilità di contrastare la diffusione di film pornografici con il suo volto, realizzati proprio con questi software.

Come funziona la Deepfake IA. Il concetto è semplice: immaginate di poter “attaccare” il volto di un individuo al corpo di un altro all’interno di un video, creando un falso molto difficile da riconoscere. I software (tra i più noti c’è Fakeapp), non particolarmente complessi da utilizzare, elaborano le immagini di un soggetto, le sue espressioni e la sua postura. Una volta che hanno “imparato” queste caratteristiche, i software sono in grado di riprodurre in modo fedele le movenze facciali dell’individuo in questione, che viene quindi inserito all’interno di un video. Grazie alla sintesi vocale, infine, questi programmi riescono anche a riprodurre la voce del soggetto, creando un falso (quasi) perfetto. L’unico prerequisito fondamentale, dunque, è avere a disposizione una grande quantità di immagini del soggetto che si intende “falsificare”: per questo motivo i vip sono stati, fino a ora, i bersagli preferiti. Ma vista la grande quantità di informazioni che ogni giorno tutti noi disseminiamo nel web, il pericolo Deepfake potrebbe presto interessare tutti. Dal porno alla politica.  Il settore che ha fatto da apripista per l’utilizzo di questa tecnologia è stato il porno. Anche se il pericolo dei software per la Deepfake è emerso da tempo, non sono ancora state individuate le misure adeguate per contrastarlo. È stata proprio questa una delle denunce lanciate da Scarlett Johansson nella recente intervista: "Il fatto – ha detto l’attrice - è che provare a proteggersi da internet e dalla sua depravazione è fondamentalmente e in gran parte una causa persa". Le insidie, però, potrebbero molto presto toccare anche la politica, con risultati potenzialmente disastrosi: immaginate la diffusione di un video in cui un capo di Stato si lascia andare ad affermazioni scomode e sconsiderate o, peggio ancora, dichiara guerra a un altro Paese. L’esperimento condotto da Jordan Peele non può che fungere da monito in questo senso: il regista e sceneggiatore americano, infatti, ha realizzato un video divenuto presto virale in cui ha falsificato un discorso dell’ex Presidente USA Barack Obama, facendogli dire cose mai pronunciate. https://www.youtube.com/watch?v=cQ54GDm1eL0 Come contrastare i video falsi. Dallo sviluppo di sistemi di IA in grado di individuare i falsi a soluzioni basate sull’utilizzo della blockchain, sono molte le proposte avanzate per riuscire a combattere la diffusione dei video creati con sistemi di Deepfake. A oggi, però, le soluzioni non sembrano essere particolarmente efficaci: già nel febbraio scorso una serie di piattaforme online tra cui Twitter e Pornhub erano scese in campo per arginare il fenomeno ma a oggi le soluzioni adottate non sembrano aver dato i risultati sperati. Negli ultimi mesi è sceso in campo anche il Dipartimento della Difesa degli USA che sta finanziando un progetto per individuare video e audio falsificati: alcuni dei migliori esperti mondiali di digital forensics sono al lavoro per generare, attraverso IA, dei fake che siano convincenti e, contestualmente, proveranno a sviluppare strumenti in grado di riconoscere automaticamente i falsi.
La redazione
La redazione

leggi tutto