Assistenti digitali per l’aviazione alla prova del progetto HAIKU

Assistenti digitali per l’aviazione alla prova del progetto HAIKU

Intelligenza Artificiale al fianco di piloti, controllori, operatori aeroportuali, passeggeri. Come far funzionare queste nuove partnership? Il progetto HAIKU coordinato da Deep Blue vuole scoprirlo.

 

Uomo e assistente digitale, una partnership da costruire

Gli assistenti digitali – i più famosi: Siri di Apple, Alexa di Amazon, Cortana di Microsoft e Google Assistant – si preparano a fare il loro ingresso in aviazione. Diversi i possibili usi che se ne faranno: in cabina o nelle torri di controllo a supporto di piloti e controllori del traffico aereo; negli aeroporti in aiuto a chi gestisce la sicurezza sulle piste o ai passeggeri in transito.

Il concetto di assistente digitale supera quello degli strumenti basati su algoritmi di apprendimento automatico che restituiscono dati e informazioni all’operatore umano. Piuttosto è un collega che si interfaccia e “dialoga” con la sua controparte umana. Ciò introduce un altro concetto, quello di Human-Artificial Intelligence teaming, che a sua volta solleva una serie di domande: su quali valori deve fondarsi questa partnership: trasparenza, affidabilità, reciprocità? Le risposte, a cui la ricerca sta lavorando, determineranno alcune delle caratteristiche dell’Intelligenza Artificiale stessa.

 

Il progetto HAIKU

Il progetto HAIKU, finanziato nell’ambito di Horizon Europe – programma dell’Unione europea per la ricerca e l’innovazione – svilupperà e testerà prototipi di assistenti digitali in diversi domini dell’aviazione. “L’approccio è human-centered: mettere al centro della ‘costruzione’ dell’Intelligenza Artificiale valori, motivazioni, abilità, limiti umani. In altre parole, lavoreremo a soluzioni di Intelligenza Artificiale partendo dagli operatori, cioè dalle persone che andranno a utilizzare questi strumenti”, spiegano Simone Pozzi e Vanessa Arrigoni, rispettivamente CEO e Lead Consultant di Deep Blue che coordina il consorzio di 15 partner europei (unica altra italiana la società Engineering). “Questo significa che aviazione, Intelligenza Artificiale e Fattori Umani, tre ‘comunità’ diverse per cultura e interessi, devono sedersi attorno allo stesso tavolo, discutere e mettersi d’accordo su cosa è accettabile e desiderabile – aggiungono – una sfida ambiziosa, ma anche la forza del progetto che fa dell’innovazione un processo sociale”.

 

I casi studio: quale partnership?

Sono sei i casi applicativi del progetto: due riguardano i piloti nelle cabine di pilotaggio; uno i controllori del traffico aereo nelle torri di controllo remote o digitali; uno i gestori del traffico dei droni (una figura che in verità ancora non esiste); uno gli operatori che gestiscono le operazioni di rullaggio e parcheggio al gate degli aerei; uno i passeggeri in transito.

“Nell’immaginare gli assistenti digitali e quindi il tipo di collaborazione con gli operatori umani, la prima domanda da farsi è: quali aspetti della relazione collaborativa vogliamo mantenere?” prosegue Pozzi. Sulla sicurezza non si fanno passi indietro. “In ogni caso, l’assistente digitale deve prestare attenzione alla safety delle operazioni tanto quanto l’operatore umano – continua Pozzi – riguardo agli altri aspetti, invece, tutto dipende dal tipo di compito”.

In uno dei casi studio, l’assistente digitale aiuta il pilota in situazioni critiche improvvise, per esempio un fulmine che colpisce l’aereo in fase di atterraggio. In queste circostanze può accadere che il pilota si “blocchi”, una reazione indesiderata perché può impedirgli di prendere decisioni lucidamente e rapidamente pregiudicando la sua sicurezza e quella di tutti i passeggeri. Per aiutare il suo partner umano, l’assistente deve prima di tutto accorgersi del suo stato (attraverso sensori per rilevare lo stato fisiologico tramite una serie di parametri: conduttività cutanea, battito cardiaco, frequenza respiratoria), poi intervenire, magari con tecniche di coaching che aiutino il pilota a rilassarsi e recuperare lucidità mentale.

“In questo specifico caso la consapevolezza reciproca, cioè la capacità di rendersi conto di come stanno gli altri membri del team, è un valore imprescindibile della partnership – spiega l’esperto – altro aspetto importante è la fiducia”. Un pilota che in situazioni d’emergenza si affida al suo assistente digitale non ha tempo di mettere in discussione quanto suggerito dall’algoritmo, si deve fidare. L’analisi critica degli output la farà a posteriori, in un secondo momento.  A dimostrazione che il tema dell’explainability, la cosiddetta spiegabilità o trasparenza dell’Intelligenza Artificiale, non è sempre prioritario quando si scrive un algoritmo.

 

Il futuro degli assistenti digitali in aviazione, un problema d’impatto

L’esempio dell’assistente digitale in soccorso al pilota aiuta a proiettarsi nel futuro e rispondere alla domanda: quand’è che l’Intelligenza Artificiale farà davvero il suo ingresso in aviazione? Dipenderà soprattutto dal ruolo che sarà chiamata a svolgere. Per esempio, nel caso dell’assistente digitale che aiuta il pilota a “recuperare” l’aereo in situazioni critiche, è evidente che il tema preminente è quello della sicurezza. Una questione che l’aviazione prende molto seriamente e che quindi potrebbe far ritardare l’ingresso del co-pilota digitale in cabina di pilotaggio. Se l’assistente si limita invece a supportare il pilota nella riprogrammazione della rotta (un altro dei casi applicativi di HAIKU), l’elemento critico non è più la sicurezza. Si tratta piuttosto di efficienza del volo, di risparmio di carburante, di minimizzare il ritardo per i passeggeri. Non c’è alcuna difficoltà a immaginare questa partnership, in cui però l’explainability torna ad avere un ruolo importante.

L’explainability è un aspetto rilevante anche per chi gestisce il traffico aereo e di droni, e anche per chi si occupa di controllare le manovre di taxiing (rullaggio) e d’ingresso al gate degli aerei sulle piste. In tutti questi casi, che saranno analizzati dal progetto, la questione sicurezza resta prioritaria, ma i tempi di reazione decisionali sono meno “compressi” – qualche minuto – rispetto a quelli di un pilota alle prese con una situazione di emergenza e lasciano un margine di tempo all’operatore per analizzare criticamente il suggerimento offerto dall’algoritmo.

Tanti distinguo, ma una cosa è certa: l’algoritmo non prenderà mai decisioni in autonomia, né sarà libero di “imparare” tutto ciò che vuole.

 

Un apprendimento controllato

Quando si parla di machine learning, spesso si stressa il concetto che l’Intelligenza Artificiale “evolve” man mano che apprende nuovi dati: cambia continuamente, un’imprevedibilità che è anche la sua qualità. “Questo approccio in aviazione non è possibile – chiarisce Pozzi – l’apprendimento degli algoritmi non è online ma utilizza una serie di dati precedentemente raccolti e opportunamente selezionati”. C’è una ragione specifica per cui l’apprendimento avviene in condizioni strettamente controllate: la sicurezza. Immaginiamo che nonostante un problema meteo imprevisto e inusuale il pilota decida di atterrare ugualmente perché secondo le sue valutazioni è sicuro, o meglio, più sicuro che altre alternative come raggiungere un nuovo aeroporto. Se l’algoritmo “vede” questo atterraggio, ogni volta che si riproporrà il medesimo problema meteo potrebbe suggerire al pilota di atterrare anche se le circostanze sono diverse. “I casi eccezionali devono essere gestiti come tali, non messi a sistema – sottolinea – l’algoritmo, in aviazione, è studiato per essere ‘robusto’ rispetto alle circostanze non conformi”. Ciò significa che queste circostanze devono essere escluse – scartate a priori – dai dati “dati in pasto” all’algoritmo. Oppure l’algoritmo deve essere addestrato per gestirle in modo corretto.

 

Personalizzazione e previsione

All’apprendimento offline dell’algoritmo potrebbero esserci alcune eccezioni. Nelle torri di controllo, per esempio, certi operatori hanno un approccio più “aggressivo”, altri più “conservativo” nella gestione del traffico aereo. Partendo dalle caratteristiche individuali, quindi, sarebbe possibile – auspicabile – sviluppare assistenti digitali personalizzati che restituiscano suggerimenti coerenti con il modo di lavorare del controllore. “Questo presupporrebbe un apprendimento dati più veloce, magari in tempo reale, anche se comunque in condizioni controllate”, aggiunge Vanessa Arrigoni.

Nelle intenzioni dei programmatori, gli assistenti digitali nelle torri di controllo saranno personalizzati anche rispetto alle caratteristiche dell’aeroporto e del traffico aereo dell’aeroporto. Questo scenario è oggetto di analisi di uno dei casi applicativi di HAIKU, in cui si cercherà di sviluppare uno smart assistant bravo nell’ottimizzare atterraggi e partenze all’aeroporto di Alicante, in Spagna, sulla base dei dati di traffico propri dello scalo. “In questo caso la partnership si basa sulla capacità di raccogliere informazioni specifiche e restituirle in maniera già processata”, spiega Arrigoni.

La capacità di anticipare i bisogni è invece ciò che si potrebbe richiedere a un assistente digitale di operatori aeroportuali. “Nel caso che riguarda l’aeroporto londinese di Luton stiamo esplorando soluzioni di Intelligenza Artificiale in grado di anticipare possibili situazioni critiche, mettere in allerta l’operatore sui rischi e suggerirgli come gestire il traffico degli aerei sulle piste in modo sicuro”, spiega Pozzi. Lo scenario ipotetico è quello di una situazione di nebbia improvvisa con conseguente riduzione di capacità dell’aeroporto. L’Intelligenza Artificiale dovrebbe processare una serie di dati storici fornendo soluzioni che scongiurino possibili incidenti. “In questo caso il tema più interessante non è tanto la scoperta della correlazione dei dati quanto capire perché l’Intelligenza Artificiale ha trovato una certa correlazione, per esempio tra un gate di parcheggio e un’errata manovra dell’aereo, quindi la cosiddetta spiegabilità”, sottolinea l’esperto.

 

Un nuovo modo di lavorare

Il valore aggiunto di un progetto come HAIKU è proprio quello di esplorare “costi e benefici” dell’Intelligenza Artificiale in vari domini dell’aviazione: casi applicativi diversi, end user diversi. “Il progetto proseguirà sino ad agosto 2025 e attualmente chi gestisce i diversi casi studio sta procedendo in maniera autonoma – spiega Arrigoni – con i piloti si è più avanti nella definizione del concetto di Human-AI teaming, con i controllori e operatori aeroportuali nello sviluppo tecnico dell’Intelligenza Artificiale, con i droni sul concetto operativo”.

La parte operativa è spesso poco considerata quando si parla di Intelligenza Artificiale. Eppure, conclude Arrigoni: “La tecnologia avrà un impatto sia sulla formazione sia sull’organizzazione del lavoro. Cambieranno i compiti: in futuro alcune mansioni oggi affidate all’uomo saranno svolte da assistenti digitali, quindi si modificheranno ruoli (probabilmente quello umano da operativo diventerà più strategico) e serviranno nuove competenze. Un cambiamento che si rifletterà a livello organizzativo sulle procedure, sul modo di lavorare». Anche quest’aspetto dovrà essere studiato e risolto per ottimizzare la collaborazione uomo-macchine intelligenti.

Parla con noi