L’Intelligenza Artificiale oggi: capacità, limiti e futuro

GPT-3 FIRMA IL PRIMO EDITORIALE SUL GUARDIAN 

Un annetto fa, sul quotidiano britannico The Guardian veniva pubblicato il primo editoriale a firma di una macchina, l’algoritmo di deep learning GPT-3 sviluppato dalla società californiana OpenAI. «Per iniziare, non ho alcuna intenzione di eliminare la specie umana», scriveva GPT-3 rassicurando i lettori sui timori di un’Intelligenza Artificiale con deliri di onnipotenza. Dal Guardian spiegavano che quello pubblicato era il prodotto di un’operazione di “taglia e cuci”: GPT-3 aveva scritto otto diversi editoriali, e dal giornale avevano preso e combinato le parti più interessanti di ciascuno. Le versioni grezze, a quanto pare, alternavano frasi di senso compiuto a sentenze surreali.

“Anche i pezzi dei giornalisti hanno bisogno di editing prima della pubblicazione” risposero dal quotidiano a chi obiettava che GPT-3, in verità, era ben lontano dall’aver scritto un editoriale (la critica di fondo era che il Guardian si fosse prestato a un’operazione di marketing, visto che l’obiettivo di OpenAI era lanciare sul mercato un software per analisi e produzione di testi). Polemiche a parte, GPT-3 è un prodotto molto sofisticato, che ben rappresenta potenzialità e limiti dell’attuale Intelligenza Artificiale.

MACHINE LEARNING, DEEP LEARNING E RETI NEURALI

Le tecnologie utilizzate da OpenAI per sviluppare il suo software di produzione automatica di testi sono quelle su cui oggi si basano le applicazioni di Intelligenza Artificiale di maggior successo: motori di ricerca per immagini, traduttori automatici, assistenti di ricerca (Siri, Alexa, Google Assistant), chat bot per l’assistenza dei clienti, computer vision, veicoli a guida autonoma, diagnostica medica, ecc. Stiamo parlando di deep learning e reti neurali artificiali, due domini del machine learning o apprendimento automatico (qui definizioni e differenze).

Machine learning e deep learning

Semplificando, sono sistemi di algoritmi che a partire da dati di input restituiscono un risultato “ragionato” al quale arrivano grazie all’addestramento su un’enorme mole di dati. Questo spiega perché, nonostante siano idee degli anni Cinquanta, abbiano trovato applicazione solo nel nuovo millennio: sono aumentati la potenza di calcolo dei computer e la disponibilità di dati digitali per il training degli algoritmi. Rispetto al machine learning, in cui i dati di ingresso sono già strutturati (a monte c’è un lavoro di parziale elaborazione da parte dell’uomo), il deep learning ambisce a “fare tutto da solo”. L’analisi, inoltre, come suggerisce il nome, è più profonda perché più numerosi sono i passaggi di elaborazione che portano al risultato. Le reti neurali non sono altro che un modello di organizzazione degli algoritmi che imita quello dei neuroni nel cervello, e possono funzionare sia col machine learning sia col deep learning.

Ecco come funzionano deep learning e reti neurali artificiali, prendendo ancora GPT-3 come esempio. Il suo “cervello” è fatto di neuroni simulati o nodi (numeri da 0 a 1) organizzati in più livelli: ci sono quelli che ricevono l’input, una parola; quelli intermedi (almeno 2 in una rete “profonda”) che decidono quali parole possono seguire alle precedenti; quelli che restituiscono il risultato, la frase. A collegarli sono sinapsi matematiche, cioè funzioni che vengono confermate o “bocciate” in base all’efficacia delle combinazioni prodotte (analogamente alla sinapsi neuronali, potenziate o indebolite a seconda dell’efficacia della comunicazione).

Se le combinazioni sono buone o meno viene deciso mettendole a confronto con ciò che GPT-3 ha già appreso, cioè il suo “bagaglio di conoscenze”. Che è enorme: il software è stato addestrato con 450 gigabyte di dati, l’equivalente di milioni e milioni di pagine web. GPT-3 è in effetti il programma di deep learning più potente mai realizzato (ha 175 miliardi di sinapsi digitali), eppure non è ancora perfetto. Nulla vieta di pensare che in futuro questo tipo di programmi possano essere ulteriormente potenziati, ma anche se così fosse, cosa ne guadagneremo?

INTELLIGENZA ARTIFICIALE RISTRETTA E GENERALE

«Gli algoritmi di machine learning sono molto abili nel riconoscere pattern e in alcuni compiti come quelli percettivi sono fortissimi, con prestazioni pari o superiori a quelli dell’essere umano” ci ha spiegato Amedeo Cesta, dirigente di ricerca in Intelligenza Artificiale presso l’Istituto di Scienze e Tecnologie della Cognizione (ISTC) del CNR. «Ma l’intelligenza umana è qualcosa in più di un task di riconoscimento di un pattern, ha un aspetto sintetico che le permette di stabilire, ad esempio, rapporti causali tra dati, cose, fenomeni». Questo è ciò che manca agli attuali algoritmi di machine learning, che sono bravissimi nel risolvere un determinato compito ma non possono generalizzare la loro conoscenza.

Non a caso, quella che abbiamo oggi è un’Intelligenza Artificiale Ristretta. L’obiettivo degli scienziati e dei matematici che nel 1955 alla conferenza di Dartmouth “idearono” l’Intelligenza Artificiale come disciplina scientifica, però, era ben più ambizioso: creare una macchina che percepisse, elaborasse, ragionasse come un essere umano, partendo dal presupposto che «…ogni aspetto dell’apprendimento o una qualsiasi altra caratteristica dell’intelligenza possano essere descritte così precisamente da poter costruire una macchina che le simuli». Avevano in mente quella che oggi chiamiamo Intelligenza Artificiale Generale, capace di passare da un compito all’altro senza dover essere continuamente addestrata allo specifico task. Siamo ancora lontani dal raggiungere questo obiettivo, soprattutto ci si divide sulle strade da seguire.

DOVE VA LA RICERCA SULL’AI

Secondo il ricercatore Google François Chollet, puntare tutto sul potenziamento dell’apprendimento automatico non è la soluzione: «Le persone credono ingenuamente che aumentando la complessità di un algoritmo di deep learning, per esempio moltiplicando per cento i parametri e per mille i dati, otterremo una rete neurale in grado di fare ciò che fa il cervello umano. Non è così», ha detto.

Integrazione del paradigma sub-simbolico con quello simbolico

Non è il solo a pensarla in questo modo. In un articolo, Gary Marcus, ex-professore di psicologia cognitiva alla New York University e grosso esperto di AI, parlava dei diversi approcci in esame per superare i limiti del machine learning e avvicinarsi all’obiettivo di un’Intelligenza Artificiale Generale. Molti scommettono sull’integrazione del paradigma attuale, chiamato sub-simbolico perché applica procedure statistiche e numeriche, con quello simbolico, che rappresenta la conoscenza umana nella macchina attraverso simboli e regole per manipolarli. Quest’ultimo rappresenta la “vecchia scuola” dell’AI (chiamata anche Symbolic o Classic AI), quella su cui si è concentrata la ricerca dagli anni Cinquanta sino agli Ottanta, quando l’apprendimento automatico e le reti neurali le hanno rubato la scena.

«L’idea è lavorare sul concetto di astrazione per poter completare il ragionamento automatico e ricongiungere vecchie e nuove AI in un modello integrato, che è personalmente ciò su cui sto lavorando – racconta Cesta – questo approccio, tra l’altro, potrebbe permettere di superare altri problemi. Nessuno parla abbastanza di quanto siano energy-consuming i metodi di apprendimento automatico, che hanno bisogno di macchine super-potenti e tempi di elaborazione significativi. Mentre sappiamo quanto sia urgente ridurre i consumi energetici.

Il dibattito sull’Explainable AI

Altro tema, questo molto dibattuto, è quello della cosiddetta Explainable AI, cioè un’Intelligenza Artificiale che sia comprensibile. Gli esseri umani hanno un’intelligenza simbolica, un algoritmo di machine learning allo stato dell’arte no, quindi è molto difficile riuscire a spiegare come raggiunge determinati risultati. La costruzione di spiegazioni intellegibili agli umani è tutt’ora un problema aperto, e senza mutual-understanding tra macchine e uomini sarà complicato farli lavorare assieme. Puntare sul “mantenere viva” anche la rappresentazione simbolica è la strada giusta anche per questo motivo, altrimenti avremo macchine che fanno cose incredibili ma non sappiamo come. E sarà difficile fidarsi».

MACCHINE INTELLIGENTI E UOMINI: NON IGNORARE IL CONFLITTO

Quali saranno gli effetti dell’ingresso dell’AI nella società è un altro tema sottovalutato. «Nonostante l’Intelligenza Artificiale sia ancora limitata nelle sue applicazioni, indubbiamente il suo ingresso nel mondo del lavoro porterà sconvolgimenti sociali – ci ha detto Mario Paolucci, ricercatore del Laboratory of Agent Based Social Simulation dell’ISTC-CNR, dove si studiano i fenomeni sociali simulandoli virtualmente con un approccio che ricade nella cosiddetta Intelligenza Artificiale Distribuita (un esempio di applicazione? Un modello virtuale sul fenomeno malavitoso del pizzo per studiare le strategie più efficaci per combatterlo).

«Una visione troppo semplicistica racconta che per ogni posto di lavoro perso, sostituito dalle “macchine”, ne guadagneremo altrettanti perché avremo bisogno di programmatori. Ma qui parliamo di ordini di grandezza non paragonabili: per organizzare e realizzare gli spostamenti di merci in Europa, per esempio, c’è bisogno di un numero di persone incomparabilmente superiore a quello dei programmatori che servirebbero per scrivere i software di guida autonoma. Ignorare il conflitto è sbagliato, perché esiste in qualsiasi cosa abbia ricadute sociali: ci saranno sempre parti una contro l’altra, con interessi divergenti, e il ruolo della politica è anche saper riconoscere, ridirezionare e dove necessario ricomporre il conflitto».

Isabella Garanzini
isabella.garanzini@dblue.it