Il ruolo dei fattori umani nell’intelligenza artificiale

Troppo poco si parla dei Fattori Umani, che giocano un ruolo fondamentale nella ricerca, implementazione e applicazione dell’Intelligenza Artificiale (AI). Matteo Cocchioni, Daniele Ruscio e Stefano Bonelli di Deep Blue spiegano perchè si dovrebbe parlare più spesso dei Fattori Umani (o Human Factors).

VERSO UN’EXPLAINABLE AI: MAGGIORE TRASPARENZA NEL FUNZIONAMENTO DI UNA MACCHINA INTELLIGENTE

Nell’Intelligenza Artificiale, un primo tema decisamente importante è quello della “trasparenza”:

«Per eseguire un task, gli algoritmi di machine learning sono addestrati su un’enorme mole di dati nei quali riescono a individuare pattern che né l’uomo né le normali tecniche statistiche vedono» – spiega Matteo Cocchioni, consulente di Human Factors con un master in AI conseguito al CNR. «Il problema è che non sappiamo come fanno. O meglio, non conosciamo i parametri della rete neurale che si vanno a delineare durante l’addestramento. Semplificando, nelle reti neurali ci sono nodi che ricevono dati in ingresso, nodi intermedi che li elaborano e nodi che restituiscono il risultato.

Per risolvere task molto complessi possono essere necessarie reti neurali con molteplici nodi intermedi e, durante l’addestramento, questi nodi vanno alla ricerca della migliore costellazione di parametri possibile, aggiustando i loro “pesi”. Sebbene noi conosciamo le equazioni matematiche dietro questo processo, non possiamo conoscere quali sia il vero valore di questi iperparametri. In questo senso, l’AI è come una scatola nera e da tempo si parla del problema di una Explainable AI, cioè della necessità di rendere il più possibile comprensibile all’uomo il modo con cui una macchina intelligente arriva al suo risultato. Se un operatore, per esempio un pilota o un controllore di volo, non capisce perché la macchina suggerisce una certa soluzione, potrebbe rifiutarla anche se è la migliore e compromettere così la sicurezza. Chi studia i Fattori Umani cerca di “aprire” la scatola nera per mostrare cosa c’è dentro».

PENSARE COME UNA MACCHINA: NUOVI DESIGN PER LE INTERFACCE DELLE APPLICAZIONI INTELLIGENTI

«In verità, non dobbiamo aprirla del tutto e in ogni occasione» – continua Daniele Ruscio, psicologo cognitivo esperto di valutazione dei Fattori Umani nell’interazione persona-macchina. «Quando usiamo un’automobile è il fatto di conoscere davvero cosa succede nel motore a scoppio a rassicurarci del fatto che non esploderà nel momento in cui gireremo la chiave? Naturalmente no. Semplicemente ci fidiamo di questa tecnologia perché ha una sua lunga storia, ci sono processi di certificazione, abbiamo conoscenze precedenti riguardo la sua affidabilità, è largamente diffusa e con una certa percezione sociale riguardo il suo uso e pericolo. Così potrebbe essere nel rapporto tra persone e Intelligenza Artificiale, ma siamo solo all’inizio di questo “sodalizio”.

Per facilitarlo verso una relazione “sana” ed efficace possiamo innanzitutto iniziare a ragionare su come comunicare le decisioni della macchina, studiando nuovi design per le interfacce delle applicazioni intelligenti che permettano di visualizzare in modo chiaro informazioni di una complessità elevata, soprattutto quando l’interazione avviene in un contesto critico, di responsabilità sociale “diffusa” (in cui sono coinvolti molteplici attori, con diversi ruoli) o in cui non c’è tempo per spiegazioni e interazioni (pensiamo a un controllore del traffico aereo che si affida all’AI per dare istruzioni al pilota in fase di atterraggio/decollo). La fiducia nell’Intelligenza Artificiale si costruisce prima dell’uso formando gli operatori, durante, guidandoli con apposite visualizzazioni nella comprensione del “pensiero” della macchina, e dopo valutando l’efficacia delle singole soluzioni proposte dall’AI (e relative spiegazioni) in specifici contesti d’utilizzo».

COME CAMBIERÀ IL RUOLO DEGLI ESPERTI IN HUMAN FACTORS

Chi si occupa di Fattori Umani, in verità, partecipa da sempre al design di nuovi strumenti e procedure, facendo da “ponte” tra tecnici e utenti. Inoltre interviene nella gestione dei cambiamenti, formando gli operatori ogni volta che vengono introdotti nuovi strumenti o procedure; valuta quelli già esistenti in ottica ottimizzazione delle prestazioni umane; fa training agli operatori, per esempio nell’ambito della gestione dei rischi.

«Tutti si aspettano che gli esperti di Fattori Umani continuino a fare quello che hanno sempre fatto, ma con l’AI questo non è più possibile, almeno non come si faceva in passato» – ammette Stefano Bonelli, Research & Development Manager esperto in Fattori Umani. «Prendiamo la gestione dei cambiamenti: quando riguardano l’introduzione di strumenti di Intelligenza Artificiale non è più pensabile andare dall’operatore e spiegargli che la macchina si comporterà in un certo modo semplicemente perché nessuno sa a priori che tipo di risultato restituirà.

Dopotutto è proprio questo che si chiede a una macchina intelligente: trovare soluzioni che l’uomo non trova, almeno non altrettanto velocemente. Possiamo solo, come ha detto Daniele, lavorare al design dei nuovi strumenti in modo da dare quante più informazioni possibili sul perché propongono un certo risultato. Anche la parte di valutazione non sarà più la stessa. Quello che si faceva in passato era spingere uno strumento al suo limite, cioè prevedere una situazione molto complessa e vedere se e come riusciva a cavarsela. Ora è più difficile trovare scenari critici su cui eseguire simulazioni e fare valutazioni: le macchine intelligenti non falliscono perché sono state programmate male ma perché magari gli sono stati forniti dati poco rappresentativi di tutti i possibili scenari».

«Quello dei dati è un altro tema importante» – conclude Ruscio. «Non possiamo lasciare lo sviluppo degli algoritmi esclusivamente ai programmatori, perché potrebbero selezionare solo alcuni tipi di dati in ingresso e così introdurre un bias nel sistema che ne pregiudica l’efficacia. Ecco perché gli esperti di Human Factors dovrebbero partecipare anche alla fase di ricerca, non solo occuparsi di gestione, valutazione, progettazione “fisica” degli strumenti».

AI E AVIAZIONE, I PROGETTI DEEP BLUE

Deep Blue porta avanti molto attività sul fronte Intelligenza Artificiale e aviazione. Numerosi i progetti attualmente in corso: MAHALO, ARTIMATION, SafeOps, HARVIS e XMANAI.

In MAHALO, il consorzio è impegnato sia nella ricerca, ovvero lo sviluppo di algoritmi intelligenti per la rilevazione e la risoluzione dei conflitti in alta quota, sia nel design delle interfacce degli strumenti di AI, cercando un giusto compromesso tra usabilità, comprensibilità e complessità delle situazioni (ne abbiamo parlato qui).

Il focus di ARTIMATION è invece la gestione del traffico aereo supportata da algoritmi di machine learning. Anche in questo caso i controllori faticano ad affidarsi a questi sistemi intelligenti poiché le decisioni suggerite sono spesso poco intuitive e comprensibili. Di nuovo, si lavorerà allo sviluppo di un modello di AI trasparente e interpretabile per favorire la giusta collaborazione tra operatori umani e intelligenza artificiale.

In SafeOps, l’AI viene utilizzata in ambito aeroportuale per supportare i controllori di torre prevedendo se un aereo in avvicinamento avrà problemi e dovrà abortire l’atterraggio. In HARVIS, l’AI supporta i piloti attraverso un assistente che facilita la presa di decisioni in situazioni complesse o di emergenza. Infine, lo scopo di XMANAI è supportare il processo di produzione industriale attraverso un’AI che integra aspetti di etica oltre che di performance.

Isabella Garanzini
isabella.garanzini@dblue.it