Big Data

Analisi dei dati in tempo reale: verso la società del domani

2 ottobre 2019 | Scritto da Thomas Ducato

Generiamo e disseminiamo un gran numero di informazioni, ma queste necessitano di essere processate in modo sempre più rapido ed efficace. Ne abbiamo parlato con Michele Ridi di Radicalbit 

Ogni giorno generiamo circa 3 quintilioni di byte, un numero a 18 cifre che rende l’idea dell’enorme quantità di informazioni che produciamo. È il dato emerso da una recente ricerca di Cefriel, società partecipata da università, imprese e pubbliche amministrazioni, che realizza progetti di innovazione e formazione digitale. Negli ultimi due o tre anni è stato creato quasi il 90% dei dati disponibili, offrendo possibilità nuove a cittadini e aziende. Per essere sfruttati e rappresentare un reale vantaggio, però i dati devono essere analizzati in modo efficace e veloce: per questo si sta diffondendo sempre di più un approccio chiamato event stream processing, l’analisi del dato in tempo reale.

 

Analisi in tempo reale. Esistono due approcci tecnologici principali all’analisi del dato: batch data processing, decisamente il più diffuso, che consiste nell’elaborare grandi quantità di dati una volta che sono stati “appoggiati” su un sistema di storage o su un file system, e l’Event stream Processing, la capacità di operare su flussi continui di dati (potenzialmente infiniti) direttamente mentre il dato transita, senza di conseguenza la necessità di spostare il dato dalla sorgente per operare su di esso. Utilizzare il secondo approccio, che oggi sta vivendo una fase di grande incremento, può rappresentare un vantaggio competitivo importante in termine di velocità ed efficienza e rappresenta il futuro.

 

Verso una continuous intelligence. La continuous intelligence si serve di dati storici e in real-time su cui applicare modelli di machine learning o algoritmi di intelligenza artificiale per estrarre a ogni evento insights sempre aggiornati. Si tratta quindi di un nuovo processo analitico, capace di incrociare diversi flussi di dati per esplorarne le relazioni in modalità continua, consentendo ai sistemi di apprendere ininterrottamente e di rendere valutazioni e interpretazioni di ogni interazione sempre più accurate.

 

Radicalbit. Il team di ricercatori, data scientist e ingegneri di Radicalbit, software house fondata nel 2015, si è concentrato sullo streaming. Ne padroneggia le tecnologie e si è specializzato nell’Event Stream Processing attraverso la progettazione e lo sviluppo di una piattaforma in grado di gestire l’intero ciclo di vita del dato e di integrare algoritmi di Machine Learning e Intelligenza Artificiale.
Abbiamo intervistato Michele Ridi, Cmo di RadicalBit, per fare chiarezza sul processo di raccolta e analisi dei dati e per ragionare su impatti, rischi e prospettive per il prossimo futuro.

 

Oggi si dice che i dati siano il nuovo petrolio, ma quando le nostre informazioni sono diventate così importanti?
Nell’ultima decade, ma in realtà già da prima, abbiamo cominciato a lasciar traccia di tutto quello che facciamo, sia dal punto di vista dei consumatori sia da quello delle aziende. È come se fossimo dei moderni Pollicino, che lasciano delle briciole al loro passaggio. Chi l’ha capito in anticipo sui tempi, uno su tutti Google, ha avuto un enorme vantaggio competitivo: ha cominciato a fornire servizi che inizialmente sembravano incredibili e non capivamo cosa ci guadagnava. Basti pensare a quanto accaduto con le mail: prima del suo ingresso in campo avere un indirizzo di posta elettronica era un servizio a pagamento. Google ha iniziato a concedere gratuitamente l’iscrizione: non l’ha fatto per bontà ma in cambio di qualcosa, di informazioni sulle nostre abitudini. Ha iniziato così a guadagnare con la pubblicità di chi era interessato a raggiungere clienti già profilati.

 

Oggi Google è decisamente in buona compagnia…
A quel punto è iniziata la rivoluzione che ha portato alla digitalizzazione dei processi. Più si va avanti e più in realtà questo tipo di approccio diventa omnicomprensivo: qualunque operazione sia dal punto di vista del consumatore sia del processo aziendale lascia delle tracce, raccolte con sensori, applicazioni o lasciate da noi più o meno consapevolmente, che vengono tradotte in informazioni che possono essere analizzate e utilizzate.

 

Ecco, come si articola il processo e come si svolge questa analisi?
Il dato è diventato un elemento fondamentale e abilitante per i grandi progetti del futuro. Quello che permette tutto questo sono la raccolta, l’immagazzinamento e l’analisi di queste informazioni. Il terzo aspetto è quello di cui ci occupiamo noi con Radicalbit, attraverso lo sviluppo di software in grado di applicare l’intelligenza artificiale.
Nel momento in cui si aggiungono alle informazioni gli algoritmi di intelligenza artificiale, infatti, si possono iniziare a fare dei ragionamenti. In generale gli analytics si dividono in quattro famiglie: quelli descrittivi, che raccontano cosa succede in un momento preciso, quelli diagnostici, che spiegano anche il motivo per cui qualcosa sta accadendo, quelli predittivi, che danno un’idea di quello che potrebbe succedere e quelli prescrittivi che, alla luce di una previsione, suggeriscono anche come intervenire.

 

È evidente che sono gli ultimi due quelli su cui oggi ci si sta concentrando. Ci può fare qualche esempio?
Per quanto riguarda gli analytics predittivi un esempio può essere quello della gestione dei magazzini di Amazon che, grazie a un sistema che ha brevettato, invia la merce in giro per il mondo sulla base delle probabilità di acquisto. Non ha tutti i prodotti in tutti i magazzini del mondo, ma con questo sistema riesce a consegnare l’ordine in brevissimo tempo.
Per quanto riguarda l’approccio prescrittivo, invece, l’esempio migliore è quello dell’auto a guida autonoma: l’auto, sulla base dell’esperienza, è in grado di affrontare una curva e una ogni nuova sessione di guida migliorare il suo bagaglio di conoscenza. È in grado di elaborare le informazioni che arrivano da telecamere e sensori, registra la presenza di una curva e la affrontata sulla base di quanto “vissuto” in passato.

 

Nell’analisi dei dati ci sono due approcci diversi. Ce li può spiegare?
Con il primo approccio sviluppato, anche per la mancanza di strumenti adeguati, i dati venivano raccolti in un data lake, una sorta di pozzo all’interno del quale le informazioni, ancora grezze, vengono immagazzinate e analizzate. Oggi, invece, si stanno imponendo nel mercato tecnologie in grado di fare questo lavoro in tempo reale: il dato non deve essere spostano nel data lake per essere processato ma questo passaggio avviene direttamente mentre le informazioni transitano. Queste tecnologie di streaming migliorano la performance, consentendo di essere più veloci ed efficaci, garantendo un risultato in tempo reale e permettendo l’applicazione in molti settori: dalla telemetria sportiva alla cybersecurity. Se pensiamo alle smart cities o alle smart home è chiaro che questo nuovo approccio è fondamentale, non possiamo avere l’informazione in ritardo. Per esempio ho bisogno di sapere dove si trova il bus in tempo reale o che le luci si accendano esattamente nel momento in cui sto entrando in una stanza.

 

Quali sono le applicazioni?
Si va dalle cose più fastidiose dal punto di vista commerciale, che permettono di vedere, scorrendo sui social, la pubblicità di un autogrill poco prima di passarlo in autostrada, fino a cose più nobili e interessanti come quelle già citate per le smart cities. In futuro potrebbe essere la città stessa a diventare un enorme display di informazioni.

 

Per le aziende, invece?
Identificazione immediata di frodi o di anomalie nei processi produttivi, manutenzione predittiva, ottimizzazione della supply chain sono solo alcuni esempi progettuali abilitati dall’analisi dei dati in Streaming. Questo approccio coinvolge, quindi, tutta la catena del valore e può avere impatti determinanti sul modello di business di un’organizzazione: avremo macchine in grado di darci in tempo reale indicazioni e consigli, nelle migliori delle ipotesi per tutti i settori dell’azienda.
I benefici, però, ci sono anche per i cittadini: primo fra tutti voglio citare l’utilizzo in ambito medico per le diagnosi predittive, a supporto di quelle del medico, o per la gestione dei pazienti. Questo approccio permetterà una vera rivoluzione, che porterà l’affermarsi al concetto di continuous intelligence.

 

Molte opportunità, dunque. Ma quali sono i pericoli e i rischi più evidenti?
Alcuni pericoli sono già presenti e sono stati mostrati e dimostrati: il fatto di avere condiviso moltissime nostre informazioni ci ha già reso dei potenziali bersagli di campagne non sempre amichevoli o limpide, come nel caso di Cambridge Analytica. Quel tipo di rischio c’è e ci sarà ancora, anche perché la legislazione non si è mossa ancora in modo particolare. L’altro grande rischio che vedo è che i grandi gestori delle informazioni, Microsoft, Apple, Amazon, possano utilizzare i nostri dati in modo negativo. Alla fine non sono Stati democratici, ma aziende private con i loro interessi. Dobbiamo fidarci del fatto che usino questi dati come la legge impone, in un contesto in cui le differenze tra regolamenti europei e del resto del mondo è ancora profonda. A volte gli strumenti per difenderci ci sono, ma nessuno presta l’attenzione che tutto questo merita.

 

Thomas Ducato
Thomas Ducato

Direttore di Impactscool Magazine. Laureato in Editoria e giornalismo all’Università di Verona e giornalista pubblicista dal 2014, si occupa delle attività di ufficio stampa e comunicazione di Impactscool, curandone anche i contenuti, la loro diffusione e condivisione.

leggi tutto