L’AI Act ha introdotto l’obbligo di alfabetizzazione digitale per fornitori e deployer di sistemi di Intelligenza Artificiale (IA): cos’è l’IA, come usarla, quali le implicazioni etiche e legali? Il corso di Deep Blue, pensato per l’aviazione ma esportabile in altri settori, offre una formazione completa sull’AI Literacy.
Lo scorso anno la Commissione europea ha approvato l’AI Act, il regolamento sull’Intelligenza Artificiale, con l’obiettivo di armonizzare il quadro normativo sui sistemi di IA, che qui vengono classificati in base al rischio: a diversi livelli di rischio corrispondono diversi obblighi e responsabilità da parte di fornitori, utilizzatori, produttori, importatori e distributori, anche se basati al di fuori dell’UE ma operanti nel suo mercato.
Gli Articoli 4 e 5 dell’AI Act
Il regolamento prevede un’applicazione graduale, ma alcune disposizioni sono già entrate in vigore dallo scorso 2 febbraio. Parliamo degli articoli 4 e 5 del regolamento. L’Articolo 5 definisce quali sono le pratiche di IA vietate. “Il testo del regolamento contiene solo dei riferimenti a queste applicazioni molto rischiose, tipo la profilazione dell’utente a fini potenzialmente discriminatori, ma non è esaustivo nella formulazione delle varie categorie di rischio” spiega Paola Lanzi, esperta di Human-Centred Automation & Artificial Intelligence in Deep Blue. Con l’entrata in vigore degli articoli 4 e 5, la Commissione ha poi pubblicato delle linee guida sulle pratiche proibite, il cui testo chiarisce cosa non si può fare con l’Intelligenza Artificiale. Per esempio, manipolare o ingannare una persona per influenzarne il comportamento; usare sistemi di identificazione biometrica remota “in tempo reale” in luoghi pubblici (a meno che non ci sia in gioco la sicurezza di altre persone); monitorare le emozioni nei luoghi di lavoro e di istruzione (a meno di una motivazione legata alla salute).
L’Articolo 4 riguarda invece l’obbligo di alfabetizzazione in materia di IA (AI Literacy) per fornitori e deployer, la cui definizione, da regolamento, è la seguente: qualsiasi persona fisica o giuridica, compresi un’autorità pubblica, un’agenzia o altro organismo, che utilizza un sistema di IA sotto la sua autorità, salvo nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale. Nello specifico, l’Articolo 4 dice che: “I fornitori e i deployer dei sistemi di IA adottano misure per garantire nella misura del possibile un livello sufficiente di alfabetizzazione in materia di IA del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell’utilizzo dei sistemi di IA per loro conto, prendendo in considerazione le loro conoscenze tecniche, la loro esperienza, istruzione e formazione, nonché il contesto in cui i sistemi di IA devono essere utilizzati, e tenendo conto delle persone o dei gruppi di persone su cui i sistemi di IA devono essere utilizzati”.
AI Literacy: obblighi e rischi
“L’obbligo di formazione rispetto alla natura dei sistemi di IA e alle potenziali criticità legate al loro utilizzo vale per tutte le organizzazioni che usano tali strumenti, anche i più semplici e di consultazione quotidiana”, prosegue Lanzi. Se il significato di alfabetizzazione viene definito al punto 56 dell’Articolo 3 (le competenze, le conoscenze e la comprensione che consentono ai fornitori, ai deployer e alle persone interessate, tenendo conto dei loro rispettivi diritti e obblighi nel contesto del presente regolamento, di procedere a una diffusione informata dei sistemi di IA, nonché di acquisire consapevolezza in merito alle opportunità e ai rischi dell’IA e ai possibili danni che essa può causare), non è ben chiaro cosa significhi nella misura del possibile e un livello sufficiente. “Abbiamo una finestra di tempo per scoprirlo: entro inizio agosto la Commissione chiarirà questi aspetti, anche perché da questa data scatteranno i controlli”, dice Lanzi. A oggi non sono previste sanzioni per la non conformità rispetto all’obbligo, ma non è escluso che in futuro verranno introdotte multe (quelle per la violazione dell’Articolo 5, per esempio, sono salatissime: fino ad un massimo di 35.000.000 € o il 7% del fatturato annuo mondiale totale dell’anno finanziario precedente). Inoltre, nei casi di malfunzionamento o danni causati dai sistemi di IA, nell’attribuzione delle responsabilità in sede legale potrà pesare il non aver assolto a quanto previsto dall’articolo. «Quello delle possibili sanzioni è certamente un tema rilevante per chi lavora a vario titolo con sistemi di IA, ma la formazione è fondamentale a prescindere – sottolinea Lanzi – gli operatori devono sapere che corrono rischi a loro sconosciuti nel momento in cui utilizzano strumenti di IA senza conoscerne le criticità. Prendiamo uno dei casi più semplici ma verosimili: un o una dipendente di un’azienda che inserisce in un report un’informazione fornita da Chat GPT che però è sbagliata. Quali sono le conseguenze? Un rimbrotto da parte del capo, un danno d’immagine all’azienda, qualcosa di ancora più grave? E ancora: in quali condizioni la responsabilità è personale e quando invece ricade sull’azienda? Come può quest’ultima identificare preventivamente e mitigare i rischi?”.
Il corso di AI Literacy di Deep Blue
“In attesa che la Commissione fornisca indicazioni più chiare rispetto alla formazione in tema di IA, molte società stanno già fornendo corsi ai propri dipendenti – spiega Lanzi – anche noi in Deep Blue, dentro e fuori l’azienda”. Sono anni che Deep Blue tiene corsi di AI Literacy al personale dell’aviazione e, per com’è strutturato il corso, i moduli sono perfettamente esportabili in altri domini più o meno complessi. “Rispetto alla maggior parte dei ‘pacchetti’ esistenti, che tendono ad avere un focus tecnico, il nostro corso di tre giorni (che può anche essere seguito in remoto) è completo: offre un’introduzione tecnica, la presentazione di casi reali, un approfondimento sulle implicazioni organizzative dell’introduzione di un sistema di IA e una parte sui risvolti etici e legali, il tutto finalizzato alla comprensione e alla mitigazione dei rischi”, spiega Lanzi.
L’introduzione tecnica (cos’è l’IA, qual è la differenza tra un’IA simbolica e sub-simbolica, tra un machine learning supervised e no, cosa significano reinforcement learning, generative AI, predictive AI, ecc.) è necessaria per avere una conoscenza minima di ciò di cui si sta parlando e comprendere quali sono le implicazioni – organizzative, etiche e legali – relative all’uso di questi sistemi. “Quindi passiamo alla parte applicativa, declinabile a seconda del dominio: mostriamo casi reali, anche un po’ prospettici, di uso dell’AI. Segue la parte che riguarda gli utenti: trattiamo temi come trasparenza ed explainability, sottolineando l’importanza di un design centrato sull’utente di queste tecnologie per permettere un buon human-AI teaming. L’operatore deve sempre poter avere un ruolo chiave nell’interazione con lo strumento, perché non necessariamente il massimo livello di automazione è quello preferito o preferibile: bisogna sempre ‘tararlo’ in base a come si vuole strutturare l’interazione con l’operatore”, dice Lanzi. Quest’ultimo aspetto è strettamente legato a quello dell’organizzazione: gli strumenti di IA non sono plug and play, devono essere inseriti in un contesto organizzativo ed è quindi necessario strutturare le procedure degli operatori, i metodi di lavoro e la formazione, cioè il modo in cui il sistema si inserisce nel “lavoro”.
“Affrontiamo pure gli impatti etici legati all’uso di un sistema di IA – aggiunge Lanzi – a seconda di come il sistema è stato progettato o viene utilizzato, infatti, possono nascere bias discriminatori. È successo nel caso di traduttori che traducevano automaticamente alcuni mestieri al maschile o al femminile, generando quindi una discriminazione rispetto al genere, perché l’algoritmo era stato ‘allenato’ su dataset da cui emergeva, per esempio, che quasi tutti i medici sono uomini e le infermiere donne”. Il corso si conclude con un approfondimento sul quadro regolatorio dell’IA, generale – cioè comune a tutti i domini – e specifico di dominio. “Nel caso dell’aviazione, per esempio, oltre all’AI Act, ci riferiamo alle linee guida contenute nella roadmap di EASA – spiega Lanzi – affrontando anche la distribuzione delle responsabilità per chi produce questi strumenti, per le organizzazioni che li adottano e per gli utenti finali”.
Un corso pratico e personalizzabile
“Uno degli aspetti più stimolanti dei nostri corsi è che hanno un approccio basato sul coinvolgimento diretto dei partecipanti mediante esercizi – aggiunge Lanzi – li facciamo lavorare al design concettuale di una tecnologia incoraggiandoli a considerarlo da diverse prospettive: prima quella puramente tecnologica, quindi il tipo di algoritmi o dataset da usare; poi rispetto a come questa tecnologia va utilizzata e i suoi possibili impatti etici e legali. Ed è interessante vedere come le soluzioni individuate cambino completamente a seconda della prospettiva con cui si affronta il compito. Ai partecipanti stupisce molto perché è un modo di lavorare al quale non sono abituati: il tecnico è chiamato a ragionare sulla soluzione tecnica del problema mentre il manager pensa a come utilizzare lo strumento all’interno dell’organizzazione ma non va a questionare, per esempio, se è il dataset è completo o meno. In questo senso, il nostro corso offre una visione a 360°”.
Il corso è pensato per tutti, indipendentemente dal ruolo nell’azienda. “Ma può essere ‘accorciato’ e customizzato per esigenze più specifiche – sottolinea Lanzi – inoltre, organizziamo focus di approfondimento sui diversi moduli. Per esempio, relativamente alla parte introduttiva abbiamo un corso più approfondito in cui i partecipanti lavorano allo sviluppo degli algoritmi; mentre altri si concentrano sugli aspetti organizzativi o legali”.
Aviazione e non solo
Deep Blue vanta un’esperienza di ricerca e consulenza decennale nel settore dell’aviazione, ma negli ultimi anni ha ampliato i suoi progetti di ricerca anche al settore manifatturiero, uno dei più coinvolti nella transizione digitale e nell’introduzione dell’IA. “Abbiamo affrontato le problematiche legali ed etiche legate all’adozione delle tecnologie di IA, come l’attribuzione di responsabilità in caso di incidenti, e la necessità di avere un’Intelligenza Artificiale comprensibile, etica e responsabile – spiega Lanzi- nel progetto XMANAI, per esempio, i nostri esperti legali e in Fattori Umani hanno lavorato insieme alla realizzazione di un framework per la valutazione e la mitigazione dei rischi legati alle applicazioni di IA nell’industria”.
È in questo contesto che sono nati i corsi di AI Literacy, anticipando le stesse richieste dell’AI Act. “Lavoriamo da anni per offrire una formazione ‘robusta’ e responsabile, in linea con le direttive europee – aggiunge Lanzi – le aziende non devono farsi trovare impreparate e i nostri corsi forniscono gli strumenti necessari per orientarsi nel mondo dell’IA, esplorandola da diverse prospettive: tecnica, umana, regolamentare e legale”.