Robotica e AI

Una macchina che riconosce le emozioni

13 maggio 2019 | Scritto da La redazione

Riconoscimento facciale: molteplici utilizzi e altrettante criticità. Ne abbiamo parlato con Luca Giraldi, CEO della startup Emoj, che abbiamo incontrato durante il primo AI Forum

Sullo schermo il proprio volto viene sovrapposto ad una serie di punti interconnessi da linee che seguono i nostri movimenti e le nostre espressioni. Si tratta dell’algoritmo sviluppato da Emoj in azione, un algoritmo in grado di riconoscere le emozioni: quei punti servono alla macchina per tracciare il nostro volto e le variazioni di distanza e posizione fra quei punti corrispondono alle diverse emozioni. Una applicazione innovativa del concetto di riconoscimento facciale: una tecnologia sempre più diffusa che viene utilizzata in moltissimi ambiti, dallo sblocco degli smartphone e l’uso di emoji o filtri Instagram animati, ad approcci più controversi come l’uso che ne viene fatto in Cina per tracciare i movimenti e le azioni dei suoi cittadini.

Questa tecnologia per funzionare sfrutta la capacità delle intelligenze artificiali di riconoscere dei pattern, degli schemi, in questo caso i volti e le loro caratteristiche fondamentali: occhi, bocca, naso. Gli algoritmi di riconoscimento facciale vengono addestrati a individuare queste forme fondamentali in migliaia e migliaia di immagini di volti, diventando sempre più accurati.

Si tratta di una tecnologia potente che da un lato porta con sé dubbi di natura etica in cui l’anonimato del volto sparisce, chiunque diventa identificabile da una telecamera e la privacy viene messa in discussione, dall’altro può essere utilizzata come strumento di marketing e di supporto a diverse attività. È il caso di Emoj, una start-up italiana che lavora nel mondo delle Intelligenze Artificiali. La loro fa qualcosa di più del riconoscere i volti: è in grado di riconoscere le emozioni.

Abbiamo scambiato qualche parola con il CEO della startup, Luca Giraldi per capire come funziona questa tecnologia, i suoi utilizzi e i rischi che pone.

 

Com’è nato questo progetto e la tecnologia che c’è dietro?

Emoj è uno spin-off universitario, il progetto è nato circa 4 anni fa dentro il Politecnico delle Marche. Siamo un gruppo di ricercatori che ha voluto mettere in pratica le tecnologie abilitanti per la customer Experience, quindi abbiamo fatto tutto il processo di analisi e stato dell’arte delle tecnologie che erano presenti circa 4 anni fa e da lì abbiamo incominciato a sviluppare degli algoritmi per la customer Experience. Abbiamo preso una telecamera e con questa siamo riusciti a identificare sesso ed età. Da lì ci siamo spinti oltre e siamo andati anche sulle emozioni attraverso lo sguardo dell’utente in un monitor o in un’app.

 

Per sviluppare una tecnologia del genere avrete avuto bisogno di moltissime informazioni per addestrare il vostro algoritmo.

Esatto. L’algoritmo in sè all’inizio è vuoto quindi lo sforzo iniziale è stato proprio quello di inserire dataset di immagini e catalogarle. Quando abbiamo raggiunto una mole sufficiente di dati abbiamo permesso all’intelligenza artificiale di apprendere quello che vedeva con la telecamera e tutt’oggi stiamo allenando e unendo dataset di immagini per crescere l’accuratezza dei dati che abbiamo e sfornarne di più precisi.

 

Ci sono alcune espressioni che vengono riconosciute più facilmente?

Sicuramente il sorriso è l’espressione più facile da decifrare. Il disgusto e la rabbia, invece, sono delle emozioni un po’ più difficili, Ci stiamo lavorando, acquisendo continuamente nuovi dataset e catalogandoli per far crescere l’algoritmo in real-time con delle espressioni reali.

 

Tante applicazioni in moltissimi ambiti, subito viene in mente quello del marketing e delle aziende, vi siete imbattuti in contesti particolari?

Sì, stiamo applicando il nostro algoritmo al mondo dell’arte: proprio quest’estate faremo un progetto con lo sferisterio di Macerata. In quel caso mapperemo l’andamento dello spettacolo per vedere la soddisfazione del cliente durante tutta l’opera in modo che il direttore possa capire qual è il momento o l’atto che ha suscitato maggiore emozioni, o non ha suscitato emozioni, nel pubblico.

 

Dal punto di vista dei dati e della privacy, come vengono gestiti questi dati?

Nell’ambito dello stoccaggio dati per quanto riguarda le immagini noi non ne memorizziamo, quindi siamo in GDPR compliance. In altri ambiti, tipo quello industriale, i dati risiedono nell’azienda che richiede il progetto e servono proprio per manutenzione predittiva o altro quindi in base al progetto decidiamo come e dove allocare questi dati.

 

In Cina abbiamo visto che un sistema simile per il riconoscimento delle espressioni potrebbe essere utilizzato nelle scuole per verificare il livello di attenzione dei ragazzi. Qual è, secondo te, un limite da non oltrepassare dal punto di vista etico per una tecnologia come questa?

Vi faccio un esempio che faceva sempre il mio professore di marketing: il dottore che ha un bisturi potrebbe utilizzarlo per salvare vite o ferire delle persone. Le tecnologie non sono né buone né cattive, noi sviluppiamo una tecnologia abilitante e poi l’azienda che l’utilizza decide se e come trattarla in maniera etica.

 

Puoi immaginare un utilizzo non etico di questa tecnologia?

Non devo immaginarlo. Ce l’hanno già chiesto, non in Italia. Ci hanno chiesto di analizzare le persone per convogliare le scelte politiche. Non lo abbiamo fatto però, dal mio punto vista questo tipo di attività non è etico.

La redazione
La redazione

leggi tutto