Si fa un gran parlare di come l’Intelligenza Artificiale (IA) ci sostituirà non solo nei compiti più ripetitivi, ma anche in quelli più complessi che richiedono logica, flessibilità di ragionamento, capacità decisionali. Sebbene quest’ultimo non sia uno scenario del tutto fantomatico, la ricerca sta andando in un’altra direzione, privilegiando al cosiddetto approccio sostitutivo quello della cooperazione tra persone e IA. Come realizzarla? Dal settore aviazione arrivano le prime indicazioni e Deep Blue è tra i primi a metterle nero su bianco.
Collaborare con l’IA: lo aveva capito anche Kasparov
Nel 1997 il super-campione di scacchi Garry Kasparov fu battuto dal super-computer Deep Blue. Molto più di un calcolatore elettronico, Deep Blue era capace di elaborare 200 milioni di mosse al secondo e memorizzare migliaia di partite giocate. Kasparov aveva in mente di metterlo in difficoltà sorprendendolo, giocando in modo stravagante, ma la strategia fallì e nella partita finale il campione mondiale si arrese in sole 19 mosse. Fu una sconfitta in mondo visione, Kasparov non la prese bene ma negli anni successivi iniziò a interessarsi all’Intelligenza Artificiale arrivando a formulare l’idea di un advanced chess: un uomo e un computer che giocano a scacchi contro un altro uomo e un altro computer. Squadre miste per beneficiare delle capacità di calcolo dei computer e dell’intuizione umana.
Un’alleanza, quella tra persone e IA, possibile in ogni ambito, dall’industria alla medicina, ripeteva Kasparov anticipando i tempi. Che si tratti di applicazioni civili o militari, infatti, oggi lo Human-AI Teaming, ovvero la collaborazione tra esseri umani e Intelligenza Artificiale, è la partnership a cui tendere: una o più persone e uno o più sistemi di IA che cooperano, coordinandosi, per portare a compimento con successo un determinato compito. Un modello che funziona su tutta la linea, perché alcuni studi hanno dimostrato che pur delegando all’Intelligenza Artificiale solo compiti banali e ripetitivi, quindi facilmente automatizzabili, comunque diminuiscono attenzione, situational awareness e in generale le capacità decisionali umane con conseguenze potenzialmente disastrose.
Esseri umani e IA fanno squadra in aviazione
«Non più una semplice interazione in cui la persona riceve gli outputs degli algoritmi, ma una vera e propria collaborazione dinamica e flessibile, questo è il senso dello Human-AI Teaming – spiega Matteo Cocchioni, consulente di Human Factors in Deep Blue (sì, il nome è un omaggio al super-computer) con un master in IA conseguito al CNR – Deep Blue ha lavorato e sta lavorando in numerosi progetti europei che, soprattutto in ambito aviazione, affrontano il tema dell’integrazione dell’Intelligenza Artificiale anche sotto il profilo della partnership con gli esseri umani». Per citarne alcuni recentemente conclusi o in dirittura d’arrivo: MAHALO e ARTIMATION, per realizzare assistenti digitali a supporto dei controllori di volo nella risoluzione dei conflitti e nella gestione del traffico aereo; HARVIS, per un secondo pilota digitale che aiuti il pilota a prendere decisioni in situazioni critiche (di tutti questi progetti abbiamo parlato qui e qui e qui).
«Per ora si lavora alla collaborazione esseri umani-IA da un punto di vista tecnico, cercando di definire il “profilo” di questa partnership – continua Cocchioni – ma in prospettiva sarà fondamentale anche “addestrare” la coppia alla cooperazione. Iniziando dalle basi: in Deep Blue facciamo molto training al personale manageriale che lavora in ambito aviazione, per esempio nelle agenzie nazionali di regolamentazione, sull’Intelligenza Artificiale e sui cambiamenti che introdurrà nel settore: modifiche alle mansioni, possibilità e criticità, nuovi aspetti etici e legali».
Persone e IA: una partnership complessa
Realizzare una collaborazione esseri umani-IA che funzioni non è banale in quanto diversi problemi rischiano di compromettere l’efficienza della partnership: scarsa comprensione degli algoritmi, eccessivo sforzo per interfacciarsi con un sistema di IA, scarsa consapevolezza situazionale, perdita di capacità manuali nel medio-lungo periodo. Criticità che necessitano di essere risolte per sfruttare il valore aggiunto del teaming, ovvero trarre vantaggio delle abilità reciproche raggiungendo prestazioni che vanno al di là di quelle dei singoli. Per riuscirci, la ricerca sta lavorando su diversi aspetti, come ad esempio: un nuovo linguaggio di comunicazione tra persone e IA; un’assegnazione flessibile dei compiti all’interno del team, individuando chi decide il passaggio di consegne tra utenti e IA e qual è il modo migliore per realizzarlo; un training sia alla squadra, per ottimizzare la prestazione, sia al sistema di Intelligenza Artificiale per calibrare i suoi outputs sulle aspettative umane così da aumentare la fiducia all’interno della coppia.
Fiducia che presuppone trasparenza e comprensione degli algoritmi, caratteristiche da sempre ritenute indispensabili alla realizzazione di una piena, efficace cooperazione tra esseri umani e Intelligenza Artificiale. Se un algoritmo è trasparente allora è comprensibile e prevedibile nel suo comportamento; trovare il modo di renderlo tale, senza sacrificare troppo le sue potenzialità ma anche senza sovraccaricare l’operatore umano di informazioni, è uno dei filoni di ricerca più attivi. Dall’aviazione arrivano però nuove, inaspettate indicazioni.
Trasparenza? No (sempre), grazie
Tra i diversi progetti europei su Intelligenza Artificiale e aviazione, MAHALO è certamente uno di quelli che ha restituito i risultati più interessanti. «In fase di sviluppo dell’algoritmo dell’assistente digitale, quello che ci interessava capire era quanto dovesse essere personalizzato sulla persona, quindi offrire soluzioni conformi a quelle dei controllori, oppure non conformi ma trasparenti, così che i controllori potessero comprendere i suoi outputs – continua Matteo Cocchioni – abbiamo scoperto che per prendere decisioni in un contesto safety critical la trasparenza non è poi così importante». Questo perché i controllori non hanno il tempo di mettersi a capire come “ragiona” l’algoritmo, gli interessa piuttosto che la sua soluzione sia sicura ed efficace, o comunque gli suggerisca un’azione che può essere anche parzialmente modificata, “aggiustata”.
«È un risultato controintuitivo ma sicuramente interessante, e non solo a livello tecnico e operativo. Sino a oggi, infatti, le linee guida etiche o di regolamentazione dell’IA, seppur in maniera prematura, indicavano la trasparenza come uno degli elementi fondanti, fondamentali: l’operatore deve essere sempre in grado di capire cosa passa per la testa a un algoritmo. Un assunto in parte contraddetto dai risultati di MAHALO e di altri progetti simili». Nei contesti critici, infatti, l’operatore non necessariamente vuole (e quindi deve) sapere come funziona un algoritmo. Ciò non significa che la fiducia nell’IA non sia importante, piuttosto che debba essere “costruita” in momenti diversi da quelli propriamente operativi. Nella fase di gestione operativa del traffico, per esempio, la pressione e il carico di lavoro, almeno per come a oggi è organizzata questa attività, non lasciano il tempo e le risorse mentali da dedicare all’analisi delle soluzioni proposte dall’algoritmo.
Le Linee Guida di MAHALO
I ricercatori di MAHALO non consigliano quindi di abbandonare il tema della trasparenza, quanto di “modularlo” in funzione del contesto (safety critical o non safety critical): è utile lasciare ai controllori del traffico aereo la possibilità di scegliere quanto, cosa e quando vedere. Un suggerimento proposto e argomentato nelle Linee Guida elaborate dal progetto. «Siamo tra i primi a stendere una proposta di Linee Guida per migliorare le applicazioni di Intelligenza Artificiale in aviazione e in generale il teaming esseri umani-AI – dice Stefano Bonelli, Research & Development Manager in Deep Blue – ed è importante sapere che l’EASA, l’Agenzia Europea per la Sicurezza Aerea, da tempo attiva rispetto al tema dell’IA in aviazione (questa la roadmap per un approccio human-centric all’IA) sta raccogliendo questo tipo di input dai diversi progetti europei che se ne stanno occupando per derivare le sue Linee Guida».
Modulare il livello di trasparenza in base al contesto significa personalizzare l’algoritmo. In effetti, la personalizzazione è un’altra raccomandazione contenuta nelle Linee Guida di MAHALO. Personalizzare significa costruire un algoritmo che “sa” cosa è importante per il controllore e in quale contesto. Per riuscirci, però, serve un’enorme quantità di dati e non bisogna dimenticare che esiste un giusto livello di personalizzazione oltre il quale l’algoritmo diventerebbe una copia del controllore e quindi poco utile alla partnership. Altro punto: la flessibilità nell’interazione. Il controllore può decidere se accettare o modificare un suggerimento ma anche se rifiutarlo. «Sapere di essere al comando dà fiducia all’operatore, soprattutto se ha tutto l’onere della responsabilità», spiega Bonelli. A questo punto, non resta che aspettare di conoscere le indicazioni che arriveranno dagli altri progetti europei e, soprattutto, quale sarà l’opera di raccordo dell’EASA e quali Linee Guida conclusive ne verranno fuori (si veda, come esempio, il primo set di guidelines rilasciato dall’agenzia).