Big Data

Come trasformare i dati in conoscenza

27 February 2018 | Scritto da Filippo Scorza

Il cervello umano e l’intelligenza artificiale sono molto più simili di quello che potreste pensare: entrambi sfruttano algoritmi per elaborare dati. Dai videogames ad AlphaGo ecco come le macchine stanno imparando a pensare.

 

Nella primavera del 2000, due folli e visionari scienziati del MIT si presero la briga di collegare le connessioni provenienti dalla retina di un furetto non più con la corrispettiva corteccia visiva, bensì con quella uditiva, e viceversa. In pratica, gli occhi del piccolo roditore furono connessi alla corteccia uditiva e le orecchie a quella visiva.

Una roba da Frankenstein direte voi…
Quel furetto venne “ricablato” e si pensava che, per questo motivo, sarebbe andato in contro a una serie pressoché infinita di difficoltà e disabilità.
Ma non fu così.

Ciò che avvenne, sorprendendo i ricercatori, fu una ri­mappatura spontanea delle rispettive aree cerebrali del furetto: a distanza di qualche settimana, infatti, la bestiola era nuovamente in grado di vedere e sentire. Grazie alla capacità di rimodellamento della corteccia cerebrale, i segnali provenienti dai due organi di vista e udito erano, quindi, di nuovo funzionanti.

Una storia analoga è quella di Ben, un bambino cieco dalla nascita, che sviluppò autonomamente un sistema di eco localizzazione: proprio come i pipistrelli o i delfini, che ascoltano l’eco dei suoni emessi per identificare un ostacolo nelle immediate vicinanze. Ben, schioccando la lingua e ascoltando l’eco di ritorno, riusciva a spostarsi in maniera autonoma all’interno di ambienti a lui sconosciuti e persino ad andare in skateboard!

Tutto questo per sottolineare come il nostro cervello, in fondo, utilizza sempre il medesimo algoritmo per apprendere e creare conoscenza, indipendentemente dalla tipologia di dato che riceve.

La grande mole di dati che elaboriamo, del resto, non è altro che un insieme di segnali elettrici emessi dai nostri neuroni e scambiati all’interno di molteplici nodi mediante sinapsi: il meccanismo di apprendimento, quindi, non può essere sviluppato se non tramite un metodo di “potenziamento” ripetitivo.
Ripetitività e ricerca iterativa sono, inoltre, le due componenti chiave dell’evoluzione naturale, la quale tenta costantemente di risolvere un determinato problema mediante tentativi: è una sorta di processo simile al “learning by doing”, che ci permette di ottenere un risultato attraverso la sperimentazione ciclica.

Ebbene, lo stesso approccio vale quando parliamo di machine learning, ovvero di algoritmi capaci di imparare mediante l’esperienza e l’elaborazione di grandi mole di dati. Ai suoi albori, il machine learning rappresentava, secondo Turing la strada che avrebbe portato allo sviluppo di computer dotati di un’intelligenza simile a quella dell’essere umano, in grado di imparare in modo autonomo: sarebbe bastato avere abbastanza dati per “educarli” o, in gergo, per addestrarli.

In fondo, per sviluppare un’intelligenza artificiale bastano solo delle porte logiche: migliaia di NOR (l’operatore NOR, la negazione del risultato dell’operazione OR, restituisce 1 se e solo se tutti gli elementi sono 0, mentre restituisce 0 in tutti gli altri casi) con i quali costruire microprocessori sempre più performanti e capaci di elaborare quantità di dati enormi in un tempo relativamente basso.
Il mercato dei videogiochi, grazie ai “gamers”, ha permesso e stimolato l’accelerazione di questo processo produttivo dell’hardware: scenari sempre più complessi, render sempre più realistici ed elaborazione in real time per le sfide in rete, hanno richiesto al mercato di sviluppare processori dedicati alla computazione di tali dati (matrici).

Da qui si è aperta la strada per tutti gli algoritmi moderni dedicati al “deep learning”, che fino a qualche decennio fa non erano in grado di produrre predizioni attendibili e valide.

AlphaGo, software sviluppato da Google Deep Mind nel 2014, rappresenta probabilmente l’esempio cardine di tutto questo processo legato all’evoluzione delle “macchine che imparano”.

Come ha fatto AlphaGo ad imparare a giocare a Go?
Mediante un addestramento, un apprendimento supervisionato, basato sull’analisi del gioco umano: il software ha imparato “guardando” esseri umani giocare a Go e tentando di imitarli, basandosi su un database di circa trenta milioni di mosse.

Dando “vita” e capacita di imparare a queste macchine, abbiamo aperto il vaso di Pandora?
Dobbiamo essere spaventati?
Oppure dobbiamo rallegrarci per la nuova possibilità e sfruttare questi algoritmi per analizzare i nostri geni e scoprire eventuali malattie, o per sviluppare predizioni su eventuali effetti collaterali dei farmaci in sperimentazione?
L’unica considerazione certa e che la sfida del futuro non è più solo tecnologica e informatica, ma piuttosto etico sociale.

Filippo Scorza
Filippo Scorza

Ambassador, Future Activist

Filippo Scorza è bioingegnere e growth hacker, appassionato di nuove tecnologie e digital trasformation. Su Impactscool Filippo condivide e racconta la sua visione di un futuro open source.

leggi tutto