Intelligenza Artificiale e Fattori Umani nell’aviazione

Intelligenza Artificiale e Fattori Umani nell’aviazione

L’invenzione dei motori jet negli anni Cinquanta e quella del sistema di controllo Fly-by-Wire negli anni Ottanta sono stati due momenti di svolta nella storia dell’aviazione. Un terzo potrebbe essere l’entrata in scena dell’Intelligenza Artificiale (AI), un’innovazione che nelle attese di molti sarà senza precedenti in termini di impatto sul trasporto aereo a patto di riuscire a capire come integrarla in maniera efficiente e sicura con il lavoro degli operatori umani (Fattori Umani).

 

Una roadmap per l’ingresso dell’Intelligenza Artificiale in aviazione

La Roadmap for Artificial Intelligence in Aviation dell’Agenzia europea per la sicurezza aerea (EASA) prevede nel 2035 le prime operazioni di trasporto aereo commerciale autonomo. «Previsione forse troppo ottimistica» ritiene Matteo Cocchioni, consulente esperto di Fattori Umani in Deep Blue con un master in AI conseguito presso il Consiglio Nazionale delle Ricerche. Secondo il piano dell’EASA e in base al parere dell’industria sulle applicazioni dei sistemi di Intelligenza Artificiale in sviluppo, ai voli autonomi ci si arriverà con gradualità, secondo una tabella di marcia ben definita e scalando un livello alla volta:

  • Livello 1 (2022-2025): l’Intelligenza Artificiale assiste l’operatore umano nelle operazioni migliorandone le prestazioni.
  • Livello 2 (2025-2030): si va verso una maggiore collaborazione tra uomo e macchina, ma questa non prende decisioni e non agisce.
  • Livello 3 (2030-2035): le macchine diventano sempre più autonome e capaci di prendere decisioni e agire. Da qui si passerà a uno scenario di piena autonomia in cui l’uomo interverrà solo nella progettazione e nel controllo dei sistemi di Intelligenza Artificiale.

Il Fly AI Report del 2020 di EUROCONTROL presenta una ventina di applicazioni di Intelligenza Artificiale già disponibili o in sviluppo (di alcune abbiamo parlato anche qui). La maggior parte è stata pensata per ottimizzare le rotte di volo, migliorare le previsioni sul traffico aereo, quelle meteorologiche o il trasferimento dei passeggeri negli aeroporti. L’impatto delle nuove tecnologie sul lavoro degli operatori è ancora limitato a un ruolo di supporto e aiuto, ma crescerà con l’implementazione delle tecnologie stesse e merita di essere ben analizzato. Sono infatti in molti a pensare che l’ingresso dell’AI nell’aviazione debba seguire un approccio human-centered.

 

Rischi e benefici dell’automazione visti dagli esperti di Human Factors

«Per chi si occupa di Fattori Umani, il tema centrale è capire quale impatto avranno i diversi livelli di automazione sul lavoro degli operatori del traffico aereo – dice Cocchioniper esempio, carico di lavoro e stress del lavoratore tenderanno a diminuire con la piena automazione a patto di riuscire a realizzare applicazioni intelligenti davvero utili e utilizzabili. Al contempo, riusciremo a svolgere meglio compiti sempre più complessi grazie alla capacità che hanno gli algoritmi di gestire un’enorme mole di dati in contemporanea. Questo è sicuramente vero nei primi due scenari, ma non è scontato con la piena automazione perché viene meno la “flessibilità” umana nella gestione degli imprevisti»

La perdita di “creatività” è proprio uno dei rischi legati all’automazione: gli algoritmi sono e saranno sempre più bravi nel gestire le situazioni conformi, in cui le condizioni operative e ambientali sono quelle attese, ma in caso di imprevisti le capacità analitiche e decisionali dell’intelligenza umana sono per ora insostituibili. Altro rischio è la perdita delle competenze umane dovuta alla diminuzione o assenza di formazione e pratica, un problema che peserà nella gestione delle emergenze già nello scenario di Livello 2. Per avere un quadro completo dei rischi e benefici dell’automazione nell’aviazione è utile leggere il documento preparato dalla SESAR 2020 Scientific Committee Automation Taskforcesu commissione del SESAR Joint Undertaking (partenariato pubblico-privato europeo che gestisce il progetto SESAR per la modernizzazione dello spazio aereo e del controllo del traffico aereo in Europa). Documento che evidenzia pure le criticità legate all’accettazione delle nuove tecnologie da parte degli user (piloti, controllori del traffico aereo, ecc.) e della società in generale.

Rispetto a quest’ultimo aspetto, per realizzare la piena integrazione dell’Intelligenza Artificiale nell’aviazione, EASA ritiene si debba procedere su più fronti: condurre un’analisi della sua affidabilità secondo le linee guida europee sull’etica (per esempio riguardo a trasparenza, privacy e governance dei dati, non-discriminazione ed equità, benessere sociale e ambientale); verificare l’efficacia degli algoritmi a partire dal controllo dei dati in ingresso; lavorare a un’Intelligenza Artificiale “trasparente” (Explainable AI) per rendere le sue scelte il più possibile comprensibili all’uomo; minimizzare i rischi, per esempio mantenendo un “uomo al comando” o mettendo un agente AI indipendente a supervisionare l’AI stessa.

 

Un’Intelligenza Artificiale “a misura” d’uomo

Sul tema Explainable AI, cioè un’Intelligenza Artificiale che cerca di spiegare all’uomo le soluzioni proposte e come ci è arrivata, Deep Blue è coordinatore del progetto Mahalo (Modern Atm via Human-Automation Learning Optimisation) che sta lavorando alla realizzazione di assistenti digitali per aiutare i controllori del traffico aereo a individuare e risolvere conflitti. Sono in corso simulazioni con controllori dell’Air Navigation Services of Sweden e dell’ANACNA(Associazione Nazionale Assistenti e Controllori Navigazione Aerea): manipolando trasparenza e conformità(corrispondenza al comportamento umano) delle soluzioni proposte dagli assistenti digitali e contemporaneamente ascoltando il parere degli operatori di volo e registrando feedback qualitativi e quantitativi come carico di stress o capacità di attenzione, i ricercatori stanno cercando di capire come progettare e disegnare al meglio questi tool automatizzati.

C’è molto interesse nello sviluppo di strumenti di Intelligenza Artificiale a supporto del lavoro dei controllori del traffico aereo, destinato a complicarsi sempre più sia perché il numero dei voli aumenterà, sia perché inizieranno a operare nuovi tipi di velivoli come i droni. Rientra in questo tipo di progetti SafeOPS. Partendo dal caso-studio della riattaccata o go-around (interruzione della manovra di atterraggio di un aereo che riprende quota poco prima di toccare terra. Avviene per vari motivi, per esempio condizioni meteo diventate inaspettatamente sfavorevoli o presenza improvvisa di ostacoli sulla pista) Deep Blue e gli altri partner del consorzio stanno lavorando alla realizzazione di uno tool digitale che preveda questa manovra di interruzione dell’atterraggio.

«L’algoritmo deve dare ai controllori l’informazione di cui hanno bisogno nei tempi giusti e in modo chiaro. Per esempio, dare un avviso di riattaccata molto in anticipo non è utile perché il pilota ha ancora tutto il tempo per correggere la traiettoria e atterrare regolarmente e il controllore non saprebbe come usare questa informazione. Viceversa, una previsione data a ridosso dell’inizio della riattaccata non aggiungerebbe molto alla attuale gestione delle operazioni», spiega Carlo Abate, esperto in analisi dati in Deep Blue. «Parallelamente alla “costruzione” dell’algoritmo per SafeOPS stiamo lavorando con i controllori di volo per individuare quali sono le situazioni più critiche in cui l’aiuto dell’Intelligenza Artificiale può davvero fare la differenza. Per esempio, sappiamo che è fondamentale prevedere con precisione se un aereo atterrerà o no e se, per ogni fase di volo, arriverà dove deve arrivare nei tempi programmati. Avere un algoritmo che restituisca queste informazioni aiuterebbe i controllori a gestire lo spazio aereo in modo sicuro e ottimale, cioè massimizzando il numero di aeromobili in volo»

Spostandoci dalle torri di controllo in cabina di pilotaggio e focalizzando l’attenzione sul livello di accettazione da parte degli utenti, si è da poco concluso il progetto europeo Harvis, finanziato dalla Clean Sky 2 Joint Undertaking. I ricercatori del consorzio hanno sviluppato due assistenti digitali per supportare i piloti nelle fasi di atterraggio e ri-calcolo delle traiettorie. «Ci interessava capire non solo l’impatto di questi strumenti sulle performance dei piloti – spiega Stefano Bonelli, Research & Development Manager in Deep Blue, partner del progetto – ma soprattutto rispondere a queste domande: i piloti si fidano della tecnologia? Quanto la reputano sicura? In che modo cambia il loro lavoro?». L’introduzione degli assistenti digitali nelle cabine di pilotaggio ha anche lo scopo di supportare in futuro operazioni con un singolo pilota. «I pareri dei piloti che hanno partecipato alle simulazioni di Harvis dimostrano chiaramente che gli assistenti digitali, pur non potendo ancora sostituire un secondo pilota, riescono a fornire un aiuto importante, soprattutto nel supportare la presa di decisioni in situazioni complesse o durante le emergenze».

Dai risultati di Harvis emergono altre importanti considerazioni per il futuro. Per esempio, dalle simulazioni di casi di ri-calcolo delle traiettorie si è vista l’importanza di un approccio centrato sull’utente, i cui metodi e tecniche si adattano all’interazione con l’Intelligenza Artificiale, che è sotto vari aspetti differente rispetto all’interazione con l’automazione “classica”. Uno degli aspetti più importanti emersi è la gestione del livello di automazione: è vero che gli assistenti digitali, raccogliendo e monitorando numerosi parametri, alleggeriscono il lavoro del pilota, ma paradossalmente fidarsi troppo della tecnologia può limitare la situational awareness in cabina. Il giusto compromesso è la chiave del successo, soprattutto in termini di sicurezza che è un principio inderogabile. Venendo poi a una delle questioni cruciali nel dibattito sull’Intelligenza Artificiale, ovvero la fiducia nella tecnologia, sebbene in Harvis i piloti abbiano dichiarato di “credere” agli assistenti digitali, le scelte fatte nelle simulazioni raccontano una storia un po’ diversa, con i piloti che non sempre si sono affidati ai suggerimenti dell’AI. Interessanti in tal senso i suggerimenti forniti dai piloti per aumentare il loro livello di fiducia nel sistema: più formazione per capire come “ragionano” gli algoritmi e un maggior controllo dei dati post-volo. Su questi aspetti dovranno concentrarsi gli sforzi di ricerca affinché l’Intelligenza Artificiale non sia per l’aviazione un’opportunità sfruttata solo a metà.

Parla con noi