Intelligenza Artificiale e aviazione: istruzioni per l’uso

Intelligenza Artificiale e aviazione: istruzioni per l’uso

Una rivoluzione senza precedenti, almeno in termini di impatto. Così Patrick Ky, CEO dell’Agenzia europea per la sicurezza aerea (EASA), definisce l’ingresso dell’intelligenza artificiale nel mondo dell’aviazione. È ancora presto per pensare ad aerei passeggeri a guida autonoma. Oggi si lavora soprattutto all’ottimizzazione dell’integrazione tra esseri umani e macchine. Le “fondamenta” di questa nuova partnership destinata a cambiare mansioni e responsabilità di piloti, assistenti e operatori di volo sono in un documento dello High-Level Expert Group on Artificial Intelligence (AI HLEG). Questo gruppo di esperti, istituito nel 2018 dalla Commissione Europea, metterà a punto una strategia per lo sviluppo dell’intelligenza artificiale. Il loro documento parla di orientamenti etici per creare un’AI affidabile che soddisfi, tra gli altri, il requisito della trasparenza.

 

CAPIRE PER FIDARSI: IL PROGETTO MAHALO

Mettere l’intelligenza artificiale (IA) a servizio dell’aviazione porta innegabili vantaggi. Infatti, con il loro potenziale di calcolo e la capacità di apprendere autonomamente, gli algoritmi promettono migliori prestazioni e più sicurezza nella risoluzione dei problemi. Tuttavia, anche se l’IA è in grado di trovare soluzioni eccellenti a problemi complessi, spesso non è in grado di spiegare perché abbia preso certe decisioni e non altre (non è quindi “trasparente”). Quando un operatore umano deve decidere se seguire o meno il consiglio dato da un’intelligenza artificiale, può perciò decidere di rifiutarlo non perché la soluzione non sia corretta o efficiente, ma perché troppo diversa da quella che lui adotterebbe(in questo caso si parla di “conformità”). L’operatore, insomma, non ha informazioni a sufficienza per capire le ragioni della macchina.

«Sei un operatore di volo, devi prendere una decisione in una situazione critica. L’assistente digitale ti dice cosa fare. È più importante che suggerisca qualcosa che avresti fatto anche tu oppure che, indipendentemente da quello che chiede di fare, ti spieghi come è arrivato alla sua decisione?». Se lo domanda Stefano Bonelli, Research & Development Manager esperto in Fattori Umani per Deep Blue. «In altre parole, cosa chiediamo all’’ntelligenza artificiale per poterci fidare e affidare: conformità o trasparenza?».

 

Bilanciare complessità e usabilità

Il progetto europeo Mahalo, coordinato da Deep Blue, cercherà di trovare proprio il giusto compromesso tra conformità e trasparenza dell’intelligenza artificiale per migliorare la collaborazione tra esseri umani e macchine. Non è detto, infatti, che una soluzione conforme sia la più efficace o sicura. D’altra parte, come spiegare il “ragionamento” di un algoritmo in modo che sia comprensibile a un operatore?

«Una delle difficoltà del progetto sarà disegnare interfacce che, senza sovraccaricare l’utente di informazioni, ben illustrino le criticità di una situazione e i vantaggi, in termini di sicurezza, di una particolare strategia. L’approccio è quello dell’Ecological Interface Design che bilancia complessità e usabilità», continua Bonelli.

Inizialmente, il team di Mahalo lavorerà agli algoritmi di rilevazione e risoluzione dei conflitti e svilupperà interfacce “trasparenti”. Poi, passerà alla sperimentazione coinvolgendo operatori di volo in simulazioni in tempo reale. Manipolando di volta in volta i livelli di conformità e trasparenza delle soluzioni suggerite da assistenti digitali, analizzerà le scelte degli operatori. Contestualmente, ne raccoglierà anche feedback qualitativi e quantitativi, come il carico di stress o la capacità di attenzione. Obiettivo: affinare gli algoritmi per rendere l’intelligenza artificiale il più possibile umana.

 

HARVIS: L’INTELLIGENZA ARTIFICIALE NELLA CABINA DI PILOTAGGIO

Si prevede che nei prossimi 15 anni il traffico aereo raddoppierà. I piloti, invece, saranno sempre di meno. Probabilmente dovremo abituarci all’idea di avere un pilota unico in cabina, rassicurati dal fatto che potrà contare su assistenti digitali, specie in caso di situazioni particolarmente complicate o vere e proprie emergenze. Se ne occuperà il progetto europeo Harvis: addestrerà algoritmi ad affrontare situazioni complesse per aiutare il pilota a prendere decisioni sotto pressione. L’addestramento sarà fatto dai piloti stessi, chiamati a gestire casi critici come un atterraggio manuale o di emergenza. Dal modo in cui li risolveranno, gli algoritmi impareranno a comportarsi.

«È questo il valore aggiunto. L’intelligenza artificiale non si limita ad analizzare i dati che gli vengono forniti, per esempio quanto carburante è rimasto o quanto è lunga la pista di atterraggio. Ragiona invece come farebbe una persona, facendo previsioni sulla base dell’esperienza pregressa e valutazioni che vanno al di là dei semplici dati», spiega ancora Bonelli, che per Deep Blue è leader delle azioni di comunicazione del progetto.

Lo sviluppo dell’assistente digitale si lega all’elaborazione di una road map che da qui al 2035 identificherà i presupposti per portare l’intelligenza artificiale nelle cabine di pilotaggio degli aerei. Presupposti non solo tecnologici, ma anche procedurali, normativi e socio-economici. Fondamentale sarà la collaborazione di tutto il settore aviazione.

«Con la road map dimostreremo che avendo a disposizione sufficienti dati potremmo, entro un certo tempo, sviluppare uno strumento capace di sostituire il secondo pilota. Ma abbiamo bisogno di tanti dati per addestrare gli algoritmi. Purtroppo, avendo spesso un valore commerciale, compagnie aeree e service providers sono restii a comunicarli. Non a caso, una delle raccomandazioni della Commissione europea è favorire l’accesso e l’interscambio dei dati, naturalmente in sicurezza».

 

ATTERRARE IN SICUREZZA CON SAFELAND

L’assistente digitale potrebbe essere più di un secondo pilota. Immaginate che il primo si senta male, o sia per qualunque altro motivo impossibilitato a pilotare. Chi fa atterrare l’aereo? È lo scenario esplorato dal progetto Safeland, coordinato da Deep Blue. In una situazione del genere, le possibili soluzioni sono tante, e si distribuiscono tra due estremi: un’intelligenza artificiale che prenda completamente il posto di comando quando il primo pilota non può operare; oppure un operatore remoto che, avendo accesso ai dati della cabina di pilotaggio, manovri l’aeromobile da terra come fosse un drone, senza poter contare sul supporto (o comunque con un supporto limitato) del pilota a bordo.

«Per scegliere l’opzione migliore non terremo conto solo degli aspetti tecnici ma anche di quelli legati alla sicurezza, legali, o relativi ai costi e alla certificazione. È questo il valore aggiunto del progetto: non ha senso lavorare a una soluzione che, per quanto ottima, non sarà mai certificata e quindi applicabile. Sarebbe uno spreco di tempo e risorse».

Questa estate, un’intelligenza artificiale ha battuto un pilota da guerra in uno scontro tra caccia virtuale organizzato dalla Johns Hopkins University e dalla Defense Advanced Research Project Agency (Darpa). Addestrato con quattro miliardi di simulazioni, in pochi mesi l’algoritmo campione ha imparato tanto quanto avrebbero richiesto dodici anni di voli. Le potenzialità dell’IA sono innegabilmente rivoluzionarie. La ricerca delle soluzioni tecnologiche (efficienza e sicurezza), procedurali, e normative è solo all’inizio.

Parla con noi