Dall’esperienza e dalle competenze di Deep Blue in aviazione nasce HAIKAI, società di sviluppo di soluzioni di Intelligenza Artificiale per domini complessi e safety critical. Conoscenza di dominio, competenza tecnica IA e metodologie di certificazione: così HAIKAI vuole bucare il mercato.
L’Intelligenza Artificiale, una bolla tecnologica?
Tutti la cercano, tutti la vogliono. Ma quanti davvero la utilizzano? O forse sarebbe più interessante chiedersi: chi è che la usa, per fare cosa e con quali vantaggi? Stiamo parlando dell’Intelligenza Artificiale (IA) – e di cosa sennò – un argomento assai inflazionato di questi tempi. Siri, Alexa & co. ce l’hanno portata in casa e in alcuni settori (ricerca farmaceutica, finanza, logistica, energia) si è già ritagliata un suo spazio. Ma in ambiti complessi e safety critical come l’aviazione, l’adozione di strumenti di IA deve superare alcuni “ostacoli”: competenze IA da costruire, infrastrutture IT non adeguate, poca trasparenza degli algoritmi più sofisticati nonché l’assenza di un quadro regolamentare per la loro certificazione, con tutte le conseguenze che ne derivano sul piano delle responsabilità legali.
“In aviazione, come in molti altri settori, l’IA ha scatenato una vera e propria ‘corsa all’oro’, con aspettative gonfiate da strumenti di uso quotidiano come Chat GPT, ma poco realistiche alla luce di tutta una serie di considerazioni relative al livello di maturità raggiunto dalla tecnologia, alle complessità di governance e agli effettivi benefici economici o sociali di una sua introduzione nei diversi settori – dice Simone Pozzi, CEO di Deep Blue, esperto in Human-AI Teaming – e difatti sulle reali applicazioni della tecnologia in aviazione c’è ancora molta confusione e incertezza”.
HAIKAI, dove IA e aviazione si incontrano
Sulla scorta di queste riflessioni, Deep Blue si è imbarcata in un nuovo progetto: HAIKAI, una società specializzata in soluzioni di IA principalmente per l’aviazione e la gestione del traffico aereo. “Vogliamo andare oltre l’euforia del momento e analizzare con lucidità cosa può rimanere di utile e applicabile in contesti safety critical come l’aviazione – continua Pozzi, rappresentante Deep Blue in HAIKAI – in un contesto di alta inflazione tecnologica cerchiamo di fare chiarezza e guidare i nostri partner attraverso il ‘rumore’ delle aspettative, focalizzandoci sugli effettivi benefici che l’IA può portare in un settore complesso come questo. Prima che le aspettative si smorzino è necessario analizzare concretamente potenzialità e ricadute di queste soluzioni”.
HAIKAI offre ai suoi clienti soluzioni software basate su IA per safety management, telemetria predittiva e visione artificiale. Con un valore aggiunto rispetto ai concorrenti: combina una profonda conoscenza del settore dell’aviazione con competenze tecniche avanzate nello sviluppo degli algoritmi di IA.
“Abbiamo sia le competenze AI hardware sia 20 anni di esperienza nel settore dell’aviazione – sottolinea Daniele Baranzini, partner di HAIKAI, statistico ed esperto IA in advanced machine learning – non ci limitiamo ad applicare un modello di IA generico all’aviazione, ma sviluppiamo soluzioni progettate appositamente per questo settore, unendo tecnologia avanzata ed expertise specifica. È proprio la nostra conoscenza del dominio che ci consente di ideare soluzioni efficaci per rispondere alle esigenze di compagnie aeree, aeroporti e gestori del traffico aereo”.
Il mondo dell’IA è polarizzato da università e centri di ricerca da un lato e grandi industrie dall’altro, con colossi come OpenAI o DeepSeek. In mezzo piccole realtà. Ne risulta un contesto estremamente frammentato, dove è difficile farsi strada, soprattutto se si vuole “conquistare” un settore chiuso e generalmente conservativo come l’aviazione. “Dall’esperienza accumulata negli anni, sappiamo che la comunità dell’IA e quella dell’aviazione parlano due lingue differenti e non capiscono cosa l’una può chiedere all’altra – ammette Pozzi – c’è bisogno di un lavoro di traduzione complesso, che non sempre va a buon fine, e senza una vera comprensione delle dinamiche del settore è difficile ottenere risultati concreti nello sviluppo di soluzioni di IA”.
L’approccio “olistico” di HAIKAI
Conoscere i bisogni di un settore non è sufficiente per sviluppare una tecnologia efficace. È necessario un approccio a 360°. Un esempio è FOD.Vision, uno dei servizi offerti da HAIKAI: un software avanzato basato su algoritmi di IA progettato per automatizzare il rilevamento e la rimozione di detriti da oggetti estranei (FOD) dalle superfici degli aeroporti e dagli hangar di manutenzione. “Sappiamo che questo strumento di visione artificiale funziona bene e può migliorare questo tipo di operazioni aeroportuali- spiega Pozzi – ma la sua efficacia dipende dal modo con cui viene utilizzato, cioè dall’interazione con gli operatori. Questo significa impegnarsi a monte in un lavoro di progettazione, sviluppo e disegno centrato sull’utente, nonché preoccuparsi della formazione di coloro che useranno lo strumento”.
Quest’ultimo non è un aspetto secondario, anzi. “L’AI Act (il regolamento europeo sull’Intelligenza Artificiale) dice chiaramente che gli operatori di sistemi di IA devono avere un livello di conoscenza minimo per gestire in modo sicuro e consapevole questa tecnologia – aggiunge Baranzini – formare adeguatamente gli operatori (e anche rivedere organizzazioni e procedure aziendali) significa abbassare ulteriormente il rischio legato all’adozione di strumenti di IA. HAKAI, consapevole dell’importanza del tema, organizza corsi di AI Training proprio per assicurare una comprensione del funzionamento dei sistemi di IA”.
Tornando a FOD.Vision, il software sarà utilizzato in uno studio di prova da un importante aeroporto italiano, mentre un’industria aeronautica di primo livello si è affidata ad HAIKAI per i servizi legati alla gestione della sicurezza, quindi software per l’analisi e la gestione dei rischi con un approccio predittivo. “Oggi, le banche date relative alla safety sono molto macchinose nella consultazione, mentre il nostro software prevede una modalità di interazione spontanea e immediata: lo interroghi come faresti con Chat GPT – spiega Pozzi – soprattutto, è un modello privato. È completamente staccato da Internet, non c’è il rischio che i tuoi dati finiscano in server esterni”.
La telemetria predittiva
Il servizio più innovativo di HAIKAI è quello della telemetria predittiva, basata su algoritmi che lavorano in una finestra temporale futura rispetto all’osservatore del modello IA. “Il 100% dell’IA allena gli algoritmi su dati storici e fa previsioni di una variabile target sulla base di questi dati storici – chiarisce Baranzini – invece la telemetria predittiva, la vera frontiera dell’innovazione in campo IA, non allena l’algoritmo su dati del passato ma su dati che sono proiezione future, cioè fa previsioni di previsioni riuscendo così ad anticipare anche gli stessi profili predittivi, cioè le stesse variabili che determinano una previsione. Se la telemetria standard lavora in real time, la telemetria predittiva è beyond real time: abbiamo un sistema molto più anticipatorio che permette di dare risposte utili prima ancora di comprenderne la necessità. Questo metodo risolve alla radice i problemi di avere una previsione anche in real time ma che non garantisce sufficiente tempo per reagire in modo utile”. In settori come l’aerospazio, è evidente che riuscire a proiettarsi in avanti anche di pochi minuti può fare la differenza tra un rischio scampato e una potenziale catastrofe. “Pensate a un pilota di aereo e alla possibilità di prevedere un minuto prima un momento di sovraccarico di lavoro mentale o fisico”, aggiunge Baranzini.
Ottimo, però… ci si può fidare?
Trustworthiness e certificazione
Una delle grandi barriere all’adozione in aviazione di algoritmi probabilistici – i più utili ma anche i più “incerti” – è la certezza della loro affidabilità. “È naturale ci siano diffidenze nell’accettare un sistema di IA probabilistico in un settore safety critical come l’aviazione dove ogni errore può avere conseguenze anche molto gravi- sottolinea Baranzini – qui non è in gioco il successo della vendita commerciale di un paio di scarpe, ma un possibile incidente aereo. Sappiamo che il rischio zero non esiste, ma gli algoritmi devono minimizzarlo e soprattutto bisogna certificarla questa ‘robustezza’”.
“Di solito un sistema di IA viene addestrato su un set di dati ed è bravissimo a ‘ragionare’ partendo da ciò che conosce – spiega Pozzi – il problema è che non sa gestire le eccezioni. Noi facciamo in modo che i nostri sistemi di IA ‘vedano’ e sappiano gestire i casi eccezionali. Per esempio, spieghiamo perché restituiscono un certo tipo di output: giustifichiamo le risposte dell’algoritmo con delle reference”. È il tema della trustworthiness, cioè di un’IA robusta, sicura, trasparente, giusta, spiegabile. “Cerchiamo di rassicurare chi acquista un nostro software di IA che quest’ultimo è stato sviluppato secondo criteri rigorosi perché riesca a gestire le varie eventualità che possano accadere, e facciamo vedere come le gestisce. In questo modo l’utente può decidere se affidarsi o meno”, prosegue Pozzi.
Il tema della trustworthiness è strettamente legato a quello della certificazione. “Certificare significa dimostrare a un ente terzo come gli enti regolatori che il prodotto produce risultati affidabili, quindi è sicuro – spiega Pozzi – come si fa? In parte misurando gli output per mostrare che le prestazioni del prodotto sono sicure, in parte dimostrando che il processo con cui è stato sviluppato è stato corretto, che si è partiti da un set di dati ‘giusti’, che sono stati fatti test per verificare eventuali eccezioni, ecc. In altre parole, si deve dimostrare che il processo di addestramento è stato di qualità”.
“Attualmente nessun sistema di IA è certificabile in aviazione perché non esistono linee guida – sottolinea Baranzini – con HAIKAI stiamo facendo proprio uno sforzo di sviluppo di metodologie per rispondere alla domanda: ma questo sistema è certificabile dentro il mio settore? Abbinandolo a uno studio dell’analisi di rischio legato all’introduzione di una nuova tecnologia”.
Portandosi in questo modo avanti rispetto alla tabella di marcia dell’Europa, dove la certificazione dei sistemi di IA è ancora lontana in ogni settore (per esempio in aviazione è prevista per il 2026). “Gli Stati Uniti hanno un approccio molto guidato dalla Silicon Valley perché credono che introdurre troppi obblighi e regolamenti possa ostacolare l’innovazione – spiega Pozzi – l’Europa è più cauta e ha introdotto l’AI Act che stabilisce che la regolamentazione dell’IA dipende dalla proporzionalità del rischio: per i sistemi ad alto rischio dice che non possono essere utilizzati senza specifiche condizioni e lascia ai singoli settori l’onere di produrre i propri regolamenti”. Le industrie, quindi, stanno sviluppando metodi interni per dimostrare che i loro sistemi sono sicuri, in attesa che gli enti regolatori stabiliscano linee guida per la certificazione. L’impegno di HAIKAI è anche quello di suggerire all’aviazione come procedere su questo fronte. Che poi è fondamentale per definire eventuali responsabilità legali in caso di errori dei sistemi. Solo superando tutte queste barriere, di progettazione, certificazione, gestione della privacy, legali, l’IA avrà la sua occasione nel mondo dell’aviazione e in altri settori complessi.