Il futuro dell’IA dipende non solo dalla potenza degli algoritmi, ma anche dalla capacità di costruire validi team ibridi. Deep Blue lavora per definire, progetto dopo progetto, una visione operativa di Human-AI Teaming specifica per contesto e attività.
Chiunque si occupi di Intelligenza Artificiale (IA) sa che l’evoluzione di questa tecnologia in termini di potenzialità e applicazioni è legata all’efficacia della partnership con gli esseri umani. L’approccio centrato sull’utente nel design della tecnologia è il presupposto di una collaborazione human-AI efficace, ma richiede di definire a monte natura e requisiti della collaborazione stessa. La domanda chiave è: cos’è lo Human-AI Teaming e cosa lo fa funzionare bene?
La risposta non è scontata. Nei team di persone, una squadra definita “di successo” ha obiettivi comuni; condivide regole, processi e procedure; comunica in maniera efficace; ogni persona si fida e presta attenzione alle condizioni psico-fisiche altrui. “Non è possibile esportare questa definizione nel contesto della partnership tra essere umano e IA – spiega Simone Pozzi, CEO di Deep Blue – ci sono limiti progettuali che oggi non permettono di replicare tutte le qualità della collaborazione umana, a partire dall’assenza di una componente emotiva e del linguaggio non verbale da parte del partner digitale”. Soprattutto, le caratteristiche di un team ibrido dipendono dal contesto, esattamente come accade con un team di persone, pensiamo solo alle differenze tra un’equipe medica e gli operai di una catena di montaggio. “Nel mettere assieme una squadra, si scelgono le persone e il tipo di interazione tra loro in base a ciò di cui si ha bisogno in quel contesto e in quel momento”, continua Pozzi.
In altre parole, non esiste una definizione unica di Human-AI Teaming. “Qual è la squadra che mi serve? Questa è la domanda importante da porsi, perché guida tutta la fase di progettazione e design della tecnologia. Per non rischiare di avere un robot da cucina velocissimo a tagliare mentre ciò di cui hai bisogno è un robot che sia bravo a farlo con precisione”, aggiunge Stefano Bonelli, a capo dell’area Innovative Human Factors in Deep Blue.
Lo sforzo di Deep Blue per una definizione operativa di Human-AI Teaming
Grazie alle competenze e all’esperienza maturata in ambito Human Factors e human-centered design, Deep Blue è coinvolta in numerosi progetti europei, principalmente nel settore aeronautico ma anche in ambito manifatturiero, che lavorano allo sviluppo di strumenti di IA adottando un approccio multidisciplinare: dallo sviluppo tecnologico al design, affrontando anche la questione dell’accettazione sociale delle nuove soluzioni tecnologiche. Tra questi ci sono CODA, TRUSTY, DIALOG, TADA e HAIKU che si sforzano di definire in modo operativo cosa sia lo Human-AI Teaming, ovvero quali caratteristiche debba avere un assistente basato su IA per lavorare bene in squadra.
L’IA deve sempre farsi capire?
Il progetto HAIKU per lo sviluppo di assistenti digitali a supporto di piloti, controllori del traffico aereo e operatori aeroportuali, ha restituito spunti interessanti su una questione fondamentale: la spiegabilità degli algoritmi. “HAIKU ha mostrato chiaramente che le caratteristiche di una partnership human-AI efficace cambiano non solo in relazione al contesto applicativo, ma anche in base alle mansioni e alla specifica situazione”, spiega Vanessa Arrigoni, consulente in Deep Blue, esperta di Fattori Umani. Uno dei casi studio di HAIKU riguardava un assistente digitale di supporto ai piloti nel caso di situazioni impreviste che possono provocare reazioni di “blocco”, ritardi nei tempi di risposta o comandi errati, aumentando così il rischio incidenti. «In questi casi, l’IA è davvero utile se riesce a fornire un supporto in tempo reale, riconoscendo l’evento critico e guidando il pilota nell’identificare le informazioni più rilevanti per fargli riprendere rapidamente il controllo della situazione», spiega Arrigoni. Qui la spiegabilità dell’algoritmo passa in secondo piano: ciò che conta davvero è la capacità del sistema di agire prontamente, anche senza che il pilota comprenda nel dettaglio il “ragionamento” dell’IA.
Del tutto diverso il caso studio, sempre in HAIKU, su un assistente “intelligente” a supporto degli operatori che quotidianamente lavorano per la sicurezza delle operazioni aeroportuali. “In questo caso abbiamo un sistema che continuamente analizza dati in off-line per identificare aree di rischio poco visibili – prosegue Arrigoni – ed è fondamentale che le modalità di elaborazione dati dell’IA siano chiare e comprensibili per meglio guidare gli operatori nel cercare eventuali soluzioni”.
La “spiegabilità” di un algoritmo, da “modulare” in base al contesto di applicazione, è una questione centrale nel design human-centered delle interfacce. Su questo aspetto si è concentrato il progetto TRUSTY dedicato allo sviluppo di un assistente digitale per i controllori del traffico aereo nelle torri remote. In un contesto in cui c’è bisogno di trasparenza e comprensibilità nell’IA, i ricercatori del consorzio hanno adottato tecniche avanzate di visualizzazione delle informazioni, tra cui visual analytics, data-driven storytelling e immersive analytics, per rendere i processi decisionali dell’assistente digitale più accessibili e interpretabili dagli operatori umani.
Uno vale uno? Non proprio
L’efficienza di un team di persone talvolta richiede flessibilità nei ruoli – anche per adattarsi a situazioni impreviste – così da aumentare la resilienza e le capacità di risposta dell’intero gruppo. Riguardo a questo punto, però, le cose sono più complicate quando si tratta di una partnership ibrida dove gli umani vogliono comunque essere sempre il “capo”. “Quello che è emerso trasversalmente dai vari casi studio di HAIKU è che tutti, dai piloti agli operatori aeroportuali, apprezzano la tecnologia, ma vogliono mantenere la percezione del controllo”, prosegue Arrigoni. Per questo motivo ne prediligono ancora un uso routinario, a supporto dei compiti più noiosi e ripetitivi come identificare una specifica procedura in un manuale. “Questo non significa che non vogliano aiuto in situazioni critiche; anzi, riconoscono pienamente il potenziale dell’IA nel guidare, velocizzare e migliorare il processo decisionale. Tuttavia, in questa fase faticano ancora ad accettare l’idea che l’IA possa agire autonomamente, prendendo decisioni senza supervisione, perché sentono il bisogno di mantenere il controllo e avere sempre l’ultima parola”, chiarisce Arrigoni. Ciò presuppone un importante lavoro a monte di co-progettazione degli strumenti di IA per definire ruoli, perimetri di azione, responsabilità.
Ti “vedo”, mi “allineo”
In un team ibrido, l’efficacia della collaborazione può essere compromessa anche dall’assenza di awareness: l’IA, infatti, non ha consapevolezza dello stato psico-fisico del partner umano. Senza questa consapevolezza, un assistente digitale non può adattare il proprio comportamento, offrire supporto adeguato nei momenti critici o prevenire errori legati a stress, fatica o disorientamento.
“Se sono immobilizzato dalla paura o sotto stress, le persone con cui lavoro se ne accorgono immediatamente perché magari inizio a sudare, impallidisco o non rispondo. Ma come può riuscirci un sistema di IA? Un team ibrido rischia di perdere adattabilità proprio perché alla macchina mancano informazioni importanti sul contesto o sugli esseri umani con cui interagisce. Ma ci sono nuovi approcci e tecnologie che stanno cercando di colmare questa lacuna”, dice Bonelli.
I progetti europei CODA e DIALOG hanno lavorato in questa direzione. Nello sforzo di sviluppare un sistema avanzato per la gestione del traffico aereo in cui le attività di controllo fossero svolte in modo collaborativo e dinamico da team persona-macchina, i ricercatori hanno utilizzato sensori neurofisiologici indossabili, wireless e non invasivi per rilevare attività cerebrale, attività cardiaca e conduttanza della pelle. I dati acquisiti, dati in pasto ad algoritmi per ottenere schemi riconoscibili di stati psico-fisici. “Lo scopo era monitorare in tempo reale e perfino prevedere il livello di carico di lavoro, attenzione, stress, fatica e vigilanza degli operatori affinché il sistema potesse accorgersene e anticipare possibili criticità adattando la struttura del team, ovvero la suddivisione dei compiti, in modo da evitare situazioni indesiderate o pericolose (per esempio un picco di fatica) che possono compromettere le decisioni”, spiega Bonelli.
Un altro aspetto desiderabile in un team ibrido è quello dell’allineamento: l’IA non deve essere troppo avanti o troppo indietro nelle sue elaborazioni, ma sempre accanto all’operatore, al limite un piccolo passo avanti. “Non è banale assicurare questo allineamento, bisogna ‘frenare’ l’IA limitando ingresso ed elaborazione dei dati, altrimenti la tecnologia rischia di distrarre, diventare disruptive od over helping”, spiega il CEO di Deep Blue. “Lavorando allo sviluppo dell’assistente digitale per i controllori di traffico aereo in HAIKU – prosegue Arrigoni – ci siamo resi conto della convenienza di circoscrivere il supporto dell’IA a un intervallo di tempo ristretto, nello specifico ai primi tre aerei nella sequenza di atterraggio e partenza, avendo capito che mostrare l’intera sequenza poteva essere inutile se non confusionario e quindi potenzialmente pericoloso”.
Il lato oscuro dello Human-AI teaming
Per quanto sia auspicabile una valida partnership human-AI, questa collaborazione non è priva di rischi. Il cosiddetto deskilling, per esempio, cioè la perdita di competenze nel tempo. “Se l’operatore non ha più la possibilità di fare esperienza ‘attiva’, di imparare e consolidare le proprie competenze attraverso la pratica, rischia di non svilupparle pienamente o perderle nel tempo – spiega Bonelli – ci sono abilità che si acquisiscono e si mantengono solo con l’esercizio quotidiano e l’interazione diretta”. Lo sanno bene i piloti, che per non “disimparare” gli atterraggi – oggi automatici – si impegnano a farlo manualmente almeno una volta al mese, oltre a partecipare ai periodici training.
Il secondo rischio è quello della complacency, ovvero quando l’operatore si fida troppo del sistema di IA abbandonando il suo senso critico. “Dalla nostra esperienza, questo rischio sembra più elevato per alcune persone e per determinati ruoli e mansioni. Un pilota con molte ore di volo, per esempio, tende comunque a conservare sempre una forma di controllo – spiega Arrigoni – persone con minor esperienza, maggiore familiarità con l’IA e responsabili di attività di pianificazione, invece, possono affidarsi di più. Nel bene e nel male: saranno sicuramente più veloci e produttivi, ma in alcuni casi (per fortuna rari) potrebbero affidarsi troppo e non gestire eventuali rischi”. “Per noi che progettiamo sistemi di supporto, questo è un aspetto da gestire con molta attenzione”, sottolinea il CEO di Deep Blue.
Associato al rischio complacency c’è quello di disconnettersi dai processi decisionali. “Se un operatore si affida troppo alle decisioni del sistema di IA, accettandole anche se non le capisce fino in fondo perché comunque ‘funzionano’, rischia di uscire dal loop – aggiunge Bonelli – il problema è che, nei momenti di emergenza, il sistema si tira indietro. E non per limiti tecnologici, ma per questioni legali ed etiche: in caso di responsabilità, dev’essere la persona a prendere la decisione”. A quel punto, l’operatore si ritrova improvvisamente a dover agire senza avere una visione sufficientemente completa di come si è arrivati a quella situazione, e non sa esattamente cosa fare.
In questo senso, la progettazione della fase del passaggio di consegne dei compiti tra IA e operatore umano è un altro tema critico: bisogna garantire che l’utente sia sempre coinvolto nel processo, almeno a un livello tale da poter reagire con consapevolezza se e quando serve.
Conoscere per capire e accettare
Accanto al rischio di deskilling, dovremmo porci in positivo un’altra domanda fondamentale: quali competenze umane bisogna sviluppare per garantire una collaborazione ibrida efficace? “Spesso l’introduzione di sistemi di IA avviene ‘di rincorsa’: ti danno uno strumento ma ti rendi conto che non sei preparato per usarlo al meglio. Ti manca consapevolezza su come funziona, su come è stato addestrato, sui suoi limiti”, sottolinea il CEO di Deep Blue. Non basta introdurre l’IA, bisogna prima formare le persone affinché sappiano lavorare davvero in sinergia con questi nuovi strumenti. “Ciò aiuta pure a superare le resistenze all’adozione della nuova tecnologia (vale per l’IA come per qualunque altra innovazione tecnologica), perché è normale che se non capisci una cosa, non la vuoi”, conclude Pozzi.