Città e Trasporti

Volare è sicuro. E quando l’AI aiuterà i piloti lo sarà ancora di più

9 agosto 2018 | Scritto da Stefano Tenedini

La prima causa di incidenti per gli aeroplani è il fattore umano. Una partnership tra equipaggio e computer permetterebbe di interpretare meglio i dati degli strumenti e correggere le anomalie ben prima che i problemi crescano fino a diventare critici.

Volare è sicuro. Ne siamo tutti convinti, anche chi comincia a sudare appena i portelloni si chiudono. Le statistiche confermano che rispetto alle auto e alle biciclette, per tacere delle moto, il rischio di incidenti e il numero di vittime è infinitamente più basso. Ma l’aviazione ha un mantra che tutti onorano e servono: safety first, la sicurezza prima di tutto. E molti spin off della tecnologia aeronautica provengono proprio dalla spinta a ridurre sempre di più il rischio potenziale. È lo scenario ideale nel quale “arruolare” l’Intelligenza artificiale.

In volo non esiste una singola causa di un incidente, ma una catena di errori che porta a un evento più o meno grave. Di questa catena va innanzitutto individuato l’anello più debole, per poi intervenire a rimuoverne le ragioni. E la prima causa di un incidente aereo è quasi sempre, invariabilmente, il fattore umano. Non solo il pilota, ovviamente: l’intoppo si può annidare tra i servizi di terra, il materiale, le comunicazioni, le valutazioni inesatte.

Fatto sta che gli esseri umani sono naturalmente inclini all’errore. La maggior parte delle volte il problema viene superato, ma basta un evento marginale per causare una tragedia. L’organismo stesso è una “calamita” per gli errori. Prendiamo il disorientamento spaziale, che spiega i misteri di aeroplani che si schiantano a terra durante un volo regolare e senza malfunzionamenti, oppure l’errata individuazione dei punti di riferimento. O l’assistenza alla navigazione, che potrebbe ricavare concreti vantaggi aprendo alla realtà aumentata.

Già da qualche anno una delle soluzioni proposte da ingegneri e tecnici è mettere a terra i piloti e progettare aeroplani condotti da roboti completamente autonomi, senza nessuno fisicamente ai comandi. Oggi la tecnologia sarebbe perfino disponibile, con i passi avanti compiuti dai droni: ma i passeggeri sarebbero felici di salire su un aereo senza pilota? Per non parlare dei piloti stessi, che non vorrebbero certo sparire come dinosauri…

L’alternativa alla scelta tra equipaggio e robot esiste, e combina il meglio di entrambi. La sfida non è lasciare a terra il pilota, ma rimuovere l’errore del pilota per una condotta di volo più sicura. L’AI non commette gli errori tipici degli umani: se un pilota vola a bordo di un aereo intelligente, che gestisce in autonomia una parte del controllo e delle routine, la sicurezza aumenta esponenzialmente, per la gioia di compagnie e passeggeri.

Oggi sensori e strumenti presentano dati e informazioni che il pilota può vedere, estrarre e utilizzare. In questa fase possono nascere per diversi errori di lettura, di interpretazione, sulle azioni da intraprendere. Con la tecnologia già oggi a bordo di ogni velivolo l’aereo sa esattamente dove si trova in ogni momento del volo sui tre assi, velocità, quota e orario. Il problema allora è nostro: cosa fare di quei dati? Pilota e AI potrebbero operare in squadra raffrontando cosa fa l’aereo con quello che dovrebbe fare, e reagire agli scostamenti.

Insomma, non un ammutinamento ma una divisione dei ruoli, con il velivolo che diventa partner nel controllo, nella gestione del volo e nel processo decisionale. Naturalmente qui si apre il consueto dilemma etico: chi comanda? La partnership va bene, ma se ci fossero opinioni difformi? In caso di conflitto comanda sempre il pilota o il sistema può “staccargli la spina”? Un caso tutt’altro che ipotetico, perché esiste già una procedura di “command authority override” in cui il primo ufficiale può decidere di esautorare il capitano.

E se l’umano fosse fuori gioco? Pensiamo a un dirottamento: qui l’AI potrebbe intervenire, dialogare con i controllori senza che i terroristi lo sappiano e, se fosse necessario, ricevere istruzioni da terra, prendere l’iniziativa, cambiare rotta, atterrare da solo. Ma anche senza ipotizzare scenari limite, l’auto-monitoraggio consente di riconoscere gli errori in una fase precoce, consigliare il pilota e proporre precocemente le correzioni. È una collaborazione uomo-macchina cui i colossi del cielo come Boeing guardano con progressiva fiducia.

Stefano Tenedini
Stefano Tenedini

Contributor

Giornalista e inviato per quotidiani e periodici, esperienze di ufficio stampa e relazioni esterne nella finanza e in Confindustria. Oggi si occupa di comunicazione per grandi e piccole imprese, professionisti e start-up.

leggi tutto