L’Intelligenza Artificiale renderà i processi produttivi più flessibili, sostenibili, efficienti. Ma l’Europa avverte, attenzione al rispetto dei diritti umani. Ne parliamo con Paola Lanzi ed Elisa Spiller di Deep Blue, esperte di etica e responsabilità nel manufacturing.
Parole d’ordine, etica e responsabilità. Quando si parla di innovazioni tecnologiche, particolarmente di Intelligenza Artificiale (IA), non si può più prescindere da questi due concetti. L’introduzione di strumenti di IA – in qualsiasi ambito, dalla finanza all’industria o alla sanità – pone infatti un problema di opacità del processo decisionale della macchina e questa opacità può condizionare l’interazione con l’utente e quindi le performance di un operatore. Ma non è solo un problema di prestazioni, è pure un tema di rispetto dei diritti della persona. In ambito manufacturing la questione è fondamentale visto l’impatto che le nuove tecnologie come l’IA o la robotica stanno avendo sui processi produttivi con conseguente stravolgimento di mansioni, organizzazioni e procedure.
Un’Intelligenza Artificiale affidabile: i requisiti dell’UE
Nel 2019, una Commissione di esperti nominata dall’Unione europea ha preparato delle linee guida per un’Intelligenza Artificiale affidabile, ovvero che rispetti principi di legalità (deve osservare leggi e regolamenti), eticità (deve aderire a principi e valori etici) e robustezza tecnica e sociale (le sue ricadute devono beneficiare tutti, nessuno escluso). A riguardo, la Commissione ha definito sette requisiti chiave dell’IA: 1) intervento e sorveglianza umani; 2) robustezza tecnica e sicurezza; 3) riservatezza e governance dei dati; 4) trasparenza; 5) diversità, non discriminazione ed equità; 6) benessere sociale e ambientale; 7) accountability.
Alcuni di questi requisiti si ispirano chiaramente alla tutela dei diritti umani. “Oggi la salvaguardia dei diritti fondamentali passa anche attraverso le nuove tecnologie ma non abbiamo un precedente e quindi manca una prospettiva chiara rispetto alle norme da applicare per la tutela dei diritti nell’uso delle nuove tecnologie”, dice Elisa Spiller, consulente in Deep Blue esperta in AI Ethics and Liability. “Tuttavia, le aspettative che arrivano dai sindacati, dai think tank, dalla società in generale sono chiare: le nuove tecnologie, ovvero il loro design e funzionamento e la loro interazione con l’utente, devono essere allineate ai valori sociali che costituiscono il fondamento di quei diritti – prosegue l’esperta – quindi, in questa fase di rapida evoluzione della tecnologia è bene che l’allineamento valoriale sia perseguito sin dalle fasi di ricerca dei nuovi strumenti e soluzioni tecnologiche”.
Etici in partenza: la ricerca dei bias nel design
Affrontare subito il problema etico significa andare a ricercare tutti quei bias che possono portare al design di uno strumento già “difettoso” – eticamente parlando – in partenza. “Prendiamo il caso di un algoritmo di IA: i dati scelti per addestrarlo potrebbero avere distorsioni che ne condizionano il ‘ragionamento’ e possono diffondersi e rafforzarsi nel sistema”, spiega Paola Lanzi, a capo del settore Head of Automated & Multimodal Transports in Deep Blue. I bias possono essere legati anche all’uso della tecnologia (o meglio, al modo di progettare l’utilizzo della tecnologia). In ogni caso a rimetterci sono sì prestazioni e sicurezza, ma talvolta pure i diritti. “Immaginiamo un operatore che non è in grado di supervisionare il lavoro di una macchina perché il sistema è stato progettato male – aggiunge Lanzi – questo è un problema che si può affrontare dal punto di vista Human Factor o sicurezza, ma anche da quello etico se l’impossibilità di supervisionare il task comporta per la persona delle discriminazioni sul lavoro”.
Etica e responsabilità nel manifatturiero
Il tema etico è particolarmente urgente nel manufacturing perché qui la tecnologia evolve più rapidamente rispetto ad altri settori. Nel manifatturiero Deep Blue sta collaborando a numerosi progetti europei e nazionali finanziati dal PNRR (COGNIMAN, HARTU, SOFIA, 3R-MYDAS). In questo sforzo di ricerca finalizzato allo sviluppo di innovazioni tecnologiche a servizio dei processi produttivi, Deep Blue si occupa anche delle ricadute etiche e di responsabilità legate all’introduzione di tali innovazioni. Al motto di “prevenire è meglio che curare”. “Affianchiamo gli stakeholder già nelle prime fasi di progettazione dei nuovi strumenti, procedure, tecnologie cercando eventuali bias etici per eliminarli o comunque mitigarli – spiega Lanzi – per farlo abbiamo messo a punto un approccio che valuta la ‘copertura’ dei requisiti etici e di responsabilità dell’idea di partenza, ancora poco definita, per ampliarla se necessario nelle successive fase di implementazione”.
Questo approccio è stato validato nel progetto appena concluso XMANAI focalizzato sul tema della cosiddetta Explainable AI, ovvero un’Intelligenza Artificiale il più possibile trasparente e comprensibile con l’obiettivo di aumentare fiducia e quindi “accettazione” da parte degli operatori. Il progetto non solo ha sviluppato algoritmi per aiutare gli operatori ad affrontare una serie di problemi ricorrenti nel manufacturing (per esempio un malfunzionamento delle macchine) ma ha anche lavorato a soluzioni di interfaccia per rendere i loro output, appunto, “spiegabili”.
L’assesment etico di Deep Blue
Come funziona l’approccio di assesment etico di Deep Blue? “Partiamo dallo studio della partnership tra operatore e sistema di IA, ovvero dall’analisi del contesto operativo in cui lavorano – precisa Lanzi – questo permette non solo di comprendere questa relazione ma anche tutte le dinamiche connesse che possono condizionarla”. Definita questa “unità di osservazione” si passa all’individuazione dei requisiti etici, che sono poi quelli indicati dalla Commissione europea. “A questi ne abbiamo però aggiunto un ottavo, quello della liability per determinare il rischio di responsabilità dei diversi attori legato all’uso della tecnologia”, aggiunge l’esperta.
Mentre nella sua idea di sviluppo di un’IA affidabile l’Europa considera tutti i requisiti etici egualmente importanti, nella realtà il “peso” di ognuno cambia in funzione della tecnologia e del suo ambito di applicazione. “Definiamo quindi un’area di impatto, cioè i requisiti più importanti per una determinata tecnologia, e quindi un’area di copertura: quanti dei requisiti individuati, e in che misura, sono coperti dalla tecnologia? Dalla risposta a questa domanda dipendono o meno gli sforzi di implementazione della tecnologia sul fronte etico e di attribuzione di responsabilità”, prosegue Lanzi.
Il punto di forza del processo è che può essere ripetuto per l’intero ciclo di vita del prodotto e quindi applicato nelle diverse fasi di maturità del concetto o della tecnologia. “Il nostro assesment – precisa Lanzi – non si conclude con un ‘bollino verde’ o un livello di coerenza ma con indicazioni pratiche su come agire su questi concept e tecnologie al fine di migliorare la copertura dei requisiti etici o di ridurre la gravità di alcuni rischi di attribuzione di liability individuati”. Nel progetto XAMANAI, per esempio, la ripetizione dell’assesment sulle soluzioni sviluppate nei diversi casi studio è stata fatta a sei mesi di distanza: grazie alle indicazioni fornite nella prima valutazione, è stato possibile alzare significativamente il livello di copertura dei requisiti etici delle soluzioni (in un caso, per esempio, è salito dal 50 al 90%).
Il valore dell’analisi etica e la continuità con lo human centered design
“La valutazione che eseguiamo consente di capire se un progetto soddisfa anche obiettivi di equità e benessere sociale oltre a quelli prettamente tecnici o organizzativi – sottolinea Spiller – solo in questo caso, in effetti, si può dire abbia raggiunto risultati soddisfacenti non solo dal punto di vista della fattibilità e dell’efficienza ma anche dell’accettabilità sul lungo periodo. Quest’ultimo, d’altra parte, è uno dei criteri che da qui in avanti l’Europa userà sempre più frequentemente sia per verificare la qualità dei risultati di ricerca ottenuti sia per continuare a finanziare un progetto”.
Anche se di etica e Intelligenza Artificiale si parla relativamente da poco, in verità chi si occupa di Fattori Umani persegue lo stesso obiettivo: lo sviluppo di sistemi di IA human centered, che mettano cioè al centro esigenze e caratteristiche dell’essere umano. “Da sempre Deep Blue studia come ottimizzare la collaborazione tra essere umano e macchina, il cosiddetto Human-AI Teaming, intervenendo sulla progettazione di strumenti e procedure centrate sull’utente – conclude Lanzi – perciò il nostro assesment etico non è altro che un’estensione del lavoro che già svolgiamo sul fronte FU”. In effetti, i principi di etica definiti dalla Commissione europea si collegano strettamente con altri domini: la robustezza, per esempio, è anche un tema di security e safety; la supervisione un tema di Fattori Umani. “Possiamo dire che andiamo ad aggiungere uno strato di analisi ulteriore a quella che già facciamo, la stiamo in un certo senso approfondendo inserendo gli aspetti di ethic and liability”, conclude l’esperta.