Le automobili a guida autonoma stanno diventando realtà. Ma per il loro corretto inserimento è innanzitutto necessario sfatare alcuni miti, come l’incidente di Uber in Arizona ci insegna.
Sull’incidente mortale provocato lo scorso marzo in Arizona da un’auto a guida autonoma di Uber, il servizio di trasporto automobilistico privato che collega direttamente passeggeri e autisti tramite un’app, si leggono molte analisi, spesso discordi tra loro: “L’incidente era inevitabile e Uber non ha colpe”è stato il commento della Polizia di Tempe dopo le prime indagini; “L’incidente era evitabile e non sarebbe accaduto se alla guida ci fosse stata una persona” la reazione di vari esperti intervistati; “Qualcosa, da un punto di vista tecnologico, di sicuro non ha funzionato” hanno ipotizzato altri. Pareri così netti e contrastanti possono polarizzare gli schieramenti tra chi vorrebbe bloccare lo sviluppo delle auto autonome e chi, invece, vorrebbe vederle nelle strade subito. Per fare chiarezza sullo sviluppo di una tecnologia che va sostenuta nei giusti modi e tempi, è utile sfatare quattro falsi miti sulle auto a guida autonoma.
Mito 1: le auto autonome si guidano da sole
Nell’incidente di Tempe, che ha visto la morte della quarantanovenne Elaine Herzberg mentre attraversava la strada di notte con la sua bicicletta, è evidente che qualcosa nei sistemi di sicurezza della Volvo XC90 di Uber non ha funzionato. Dal video dell’incidente si vede chiaramente che l’auto non accenna né a frenare né a sterzare, colpendo in pieno la donna alla velocità di 70 km/h. La polizia ha confermato di non aver trovato tracce di frenata né sull’asfalto, né nella “scatola nera” dell’automobile. Il fatto che fosse notte e che la donna stesse attraversando al di fuori delle strisce pedonali potrebbe essere un’attenuante per un guidatore, ma non per i sistemi radar e lidar che le auto autonome montano.
Una recente inchiesta del New York Times ha evidenziato come il progetto dei veicoli autonomi di Uber mostrasse già da tempo numerosi problemi; e tuttavia, nell’autunno del 2017 Uber aveva deciso di ridurre da due a uno il numero di operatori per automobile impiegati nei test del veicolo, che fino a quel momento si dividevano i compiti di supervisione della guida e monitoraggio del computer di bordo. Le numerose difficoltà del progetto a guida autonoma di Uber emergono dai documenti e dalle testimonianze raccolte dal New York Times: Uber era ben lontana dall’obiettivo prefissato delle 13000 miglia percorse senza intervento umano sull’auto; al contrario, nei recenti test in California era stato necessario un intervento umano ogni 1200 miglia percorse, con un rate 10 volte maggiore delle aspettative.
Le performance di Waymo, il progetto concorrente di Google, sono decisamente migliori, ma comunque lontane dal permettere la circolazione di auto autonome senza pilota. Nel 2017 le auto di Google hanno percorso in California 352.545 miglia, e per 63 volte hanno disattivato la guida automatica restituendo il veicolo nelle mani dell’autista: una volta ogni 5596 miglia percorse. Non è andata altrettanto bene alla divisione a guida autonoma di General Motors, le cui auto hanno percorso 131.676 miglia e richiesto l’intervento del guidatore per ben 105 volte: una volta ogni 1254 miglia percorse. In tutti questi casi, le aziende non hanno comunicato se queste miglia sono state percorse o meno in ambienti impegnativi per le auto autonome (come ponti, gallerie, città trafficate) o in condizioni avverse (di notte o con la pioggia).
Ma come interpretare questi dati? Sono numeri preoccupanti o incoraggianti? Dipende dai punti di vista. Sicuramente sono rassicuranti per quanto riguarda lo sviluppo della tecnologia e gli enormi passi in avanti fatti rispetto agli anni precedenti. Più prudente la lettura, invece, se l’obiettivo è quello di vedere in strada in breve tempo automobili senza autista a bordo. L’intervento umano, per quanto occasionale, rimarrà necessario ancora per molto tempo.
Mito 2: la sicurezza è un problema unicamente della macchina
Dall’inchiesta del New York Times emerge anche un altro aspetto che sposta in avanti il momento in cui vedremo circolare auto senza pilota: i sensori delle automobili di Uber mostrano di avere i problemi maggiori a distinguere segnali stradali e pericoli in prossimità di grandi costruzioni o di veicoli pesanti. Come a dire, riusciamo a far circolare auto autonome in autostrada, ma in città è un’altra storia!
A dire il vero, questo non è un problema soltanto di Uber ma di tutti i sistemi che funzionano grazie alle deep neural networks, le reti di intelligenza artificiale che si basano sull’apprendimento profondo e che permettono alle macchine autonome, ad esempio, di riconoscere i segnali o di distinguere i pedoni dai ciclisti o dalle altre automobili. Chi si occupa di intelligenza artificiale conosce bene i limiti che i modelli di apprendimento profondo tutt’ora presentano. Uno studio intitolato Robust Physical-World Attacks on Deep Learning Models, pubblicato a settembre 2017 su arXiv e promosso da ricercatori delle Università di Berekley (California), Ann Arbor (Michigan), Washington e Stony Brook, mostra proprio le difficoltà dell’intelligenza artificiale a riconoscere i segnali stradali in situazioni “alterate” rispetto a quelle standard: ad esempio se i segnali sono imbrattati con vernice o adesivi, oppure se sotto il segnale stradale si trova un altro oggetto di dimensioni simili.
Si tratta di problemi tecnologici naturali per un settore in continuo sviluppo, e che per altro negli ultimi anni ha fatto registrare progressi eccezionali. Il cuore del problema, piuttosto, è riuscire a coniugare la necessità di ricerca e di sperimentazione delle auto autonome — che inevitabilmente attraverserà momenti di errore e parziali fallimenti — con il più importante bisogno di sicurezza nelle strade, per ridurre al minimo la possibilità di incidenti ed evitare che si ripetano tragedie come quella di Tempe.
Un primo passo in questa direzione dovrebbe essere quello di non lasciare soli i produttori di automobili ed indirizzare risorse anche verso le infrastrutture che permetteranno alle auto autonome di circolare in un ambiente meno ostile, meno caotico e quindi più sicuro. Abbiamo già parlato del bisogno di adeguare le infrastrutture per permettere, ad esempio, l’integrazione dei droni senza pilota; le stesse considerazioni valgono per il trasporto su strada. Le auto a guida autonoma hanno maggiori difficoltà a guidare nelle strade di città perché si tratta di ambienti caotici e disorganizzati: non è un caso, infatti, se ad oggi i sistemi automatizzati sono stati introdotti con successo nelle ferrovie, nelle metropolitane, su strade interne a zone perimetrate oppure nello spazio aereo: tutti sistemi “chiusi”, isolati, ordinati e quindi più facili da interpretare per un sistema automatizzato.
Ecco perché immettere nelle strade di oggi macchine completamente autonome appare un’idea azzardata. È necessario prima ripensare l’intero sistema di circolazione (strade, marciapiedi, barriere di protezione, corsie dedicate e preferenziali) e di comunicazione, come anche la segnaletica stradale. In prospettiva, un’auto autonoma può essere più sicura di una guidata da un essere umano, ma l’intelligenza artificiale va assistita con cambiamenti infrastrutturali nel suo percorso di crescita, sviluppo e apprendimento. Non parliamo di società avveniristiche: esistono già studi in questo senso, come il Blueprint for Autonomous Urbanism della statunitense National Association of City Transportation Officials, che suggerisce delle linee guida per lo sviluppo futuro delle città parallelamente all’introduzione di veicoli automatizzati. L’obiettivo è creare un sistema di trasporto incentrato sulle persone e non sui veicoli, capace di sfuttare a pieno il potenziale benefico dell’automazione.
Mito 3: la morale viene prima della tecnologia
Ripensare all’ambiente in cui dovranno muoversi le auto autonome significa sviluppare un sistema di infrastrutture più centralizzato, in cui ogni parte è connessa con quelle circostanti. In un sistema simile, un’automobile autonoma saprà in anticipo se sta arrivando in prossimità di un semaforo, di un attraversamento pedonale oppure di un incidente. Dovrà saper scegliere il tragitto migliore e più sicuro in base ai dati sul traffico, sul meteo, sulle condizioni stradali trasmessi dalle infrastrutture. Sviluppare questo genere di infrastrutture significa anche creare una serie di barriere di sicurezza capaci di rendere superflua la necessità di dotare l’auto autonoma di una morale, riducendo al minimo la possibilità di pericolo sia per l’auto sia per i pedoni tramite difese in profondità che prendano decisioni tali da prevenire un’eventuale emergenza.
Ciò renderebbe superflui esperimenti come la Moral Machine del Massachussets Institute of Technology, o studi come The social dilemma of autonomous vehicles apparso sulla rivista Science il 23 giugno 2016 (a firma di J.F. Bonnefon dell’Università di Tolosa), volti a stabilire le decisioni moralmente più giuste che un’auto autonoma dovrebbe prendere in situazioni di pericolo. Cosa dovrebbe fare il computer di bordo, ad esempio: investire una persona che sta attraversando la strada oppure schiantare l’auto con cinque passeggeri contro un muro? E se le persone che attraversano sono cinque, invece di una? E ancora, se invece ad attraversare è un solo bambino? Tutti questi scenari, realistici al giorno d’oggi, diventerebbero altamente improbabili (con probabilità prossime allo zero) se le automobili autonome fossero rilasciate in un sistema di difese tecnologiche, strutturali e infrastrutturali, come quello descritto. Insomma, all’auto autonoma spetterebbe il compito di prevenire l’incidente, non di affrontarne le conseguenze morali: l’auto non si troverà a decidere chi è giusto investire ma, piuttosto, si concentrerebbe sulla scelta del percorso migliore per un viaggio più comodo, rilassante e sicuro per tutti.
Mito 4: le auto autonome non saranno mai più sicure di quelle guidate dall’uomo
Riusciranno le automobili autonome, un giorno, ad aumentare la sicurezza delle strade? Noi crediamo di sì. Ma concordiamo con Don Norman, psicologo cognitivo, padre di una visione della progettazione centrata sugli utenti: il loro inserimento deve essere cauto e graduale e passare per opportuni test, un po’ come si fa con un nuovo farmaco prima di introdurlo sul mercato. L’attuale dibattito sull’auto autonoma, così polarizzato tra chi tuona contro questa tecnologia e chi invece la difende ad ogni costo, non è una novità: l’automazione è un settore che fin dalla sua nascita ha suscitato pareri contrastanti, non solo in campo automobilistico.
Siamo di fronte ad una transizione storica: nelle strade, nei cieli, nei luoghi di lavoro, perfino nelle nostre case, abbiamo davanti una rivoluzione che cambierà per sempre il volto della società. E come sempre accade, davanti ai grandi cambiamenti, dapprima dominano la paura delle novità, i timori per l’ignoto, l’insicurezza verso un futuro che arriva in maniera dirompente ma nel quale non si è ancora immersi, che non si comprende né si controlla.
Chi ricorda il dibattito agli albori di internet? Qualcuno ne parlava come di una strepitosa rivoluzione democratica, che avrebbe dato a tutti libero accesso all’informazione, nuove possibilità di lavoro e molto altro ancora; qualcuno invece lo vedeva come un terribile strumento di alienazione e di controllo sulle nostre vite, che avrebbe ridotto gli spazi di libertà. Alla fine, internet è stato entrambe le cose: ha portato enormi benefici sociali, seppur con contraddizioni e lati oscuri, come quelli recenti di Facebook legati alla sicurezza delle nostre identità digitali.
Tutte le grandi innovazioni portano profondi cambiamenti e hanno bisogno di tempo per essere metabolizzate; ma soprattutto hanno bisogno di regole efficaci che permettano di introdurre le novità gradualmente, coniugando il vecchio con il nuovo e riducendo il più possibile i rischi collegati, che comunque non possono essere evitati.
Insomma, automazione sì, ma senza fretta.