La salute mentale negli ex-pazienti oncologici
Affrontare un tumore è fisicamente ed emotivamente spossante. Lo stress psicologico, per alcuni, continua anche dopo il completamento della terapia, fuori dagli ospedali. Secondo uno studio del 2019 che raccoglie i dati presenti in letteratura, il 7% degli ex-pazienti oncologici è angosciato, il 21% soffre di ansia e altrettanti di depressione. Stati psichici, questi, che aumentano anche il rischio suicidio, in un momento di grande vulnerabilità. Se durante la malattia il paziente è costantemente seguito, anche sul piano psicologico, una volta terminate le cure il rapporto con il personale sanitario si allenta. Ciò inibisce il tempestivo riconoscimento di possibili segnali spia di problemi di salute mentale più o meno importanti.
Il progetto FAITH, un aiuto per non cadere in depressione
Tra le linee di ricerca più interessanti finanziate dal programma Horizon 2020 dell’Unione europea dedicato allo sviluppo tecnologico e all’innovazione ci sono quelle che riguardano raccolta, condivisione e analisi dei big data in ambito sanitario. Anche con lo scopo di monitorare la salute degli ex-pazienti oncologici e migliorare la loro qualità della vita.
Il progetto FAITH (Federated Artificial Intelligence solution for moniToring mental Health status after cancer treatment) rientra in questo filone; il suo obiettivo è utilizzare l’intelligenza artificiale per identificare indicatori di depressione nelle persone che hanno avuto un tumore. I data scientist del progetto, coordinato dal Waterford Institute Of Technology in Irlanda, sono al lavoro per sviluppare un’applicazione per smartphone, un “AI Angel” che “dialogherà” con gli ex-pazienti raccogliendo informazioni sulle loro abitudini (attività fisica, assunzione di farmaci, dieta, ecc.) e stati d’animo. Braccialetti del tipo fitness-tracker, invece, serviranno a monitorare indicatori fisiologici come quantità e qualità del sonno. Raccolti i dati, l’algoritmo dell’app li analizzerà per rilevare disturbi dell’umore che possono preludere a ben più gravi problemi mentali.
Un supporto per il personale sanitario
«Sgombriamo subito il campo da un possibile equivoco: l’applicazione non farà una diagnosi di depressione. Il suo obiettivo non è sostituire il parere di un medico con l’output di un algoritmo, per quanto “bravo” quest’ultimo possa essere», spiega Giuseppe Frau, data scientist ed esperto in Fattori Umani per Deep Blue, tra i partner del progetto. «L’AI Angel è uno strumento intelligente e data driven che fornirà ai medici dati oggettivi sulla salute degli ex-pazienti. Segnalerà al medico potenziali situazioni a rischio e darà la possibilità, anche nei momenti in cui i contatti diretti sono più difficili da tenere, di intervenire prima che l’ex-paziente sia clinicamente depresso, e aiuterà gli ex-pazienti ad avere più consapevolezza del loro benessere. Non sappiamo ancora come intervenire nel caso l’app rilevi una traiettoria negativa nella salute mentale. Forse, previo parere medico, potrebbe inviare alla persona una sorta di invito o notifica per incoraggiarla a consultare uno specialista. Oppure, nei casi più gravi, allertare direttamente il medico».
Le fasi di sviluppo e test dell’applicazione prevedono la raccolta di dati in tre ospedali; in Irlanda, Spagna e Portogallo. Centinaia di ex-pazienti oncologici che sono stati in cura presso queste strutture terranno un diario delle loro giornate e dell’umore, mentre i medici continueranno a seguirli per controllare il loro benessere mentale. Dall’incrocio di questi dataset gli algoritmi impareranno a individuare i possibili segnali di ansia e depressione.
Il problema della privacy dei dati sanitari
La creazione di uno spazio europeo dei dati sanitari è una delle priorità della Commissione per i prossimi quattro anni. Obiettivo è migliorarne l’accesso e la condivisione; non solo per facilitare l’erogazione di servizi, ma anche a fini di ricerca e realizzazione di politiche sanitarie. Eppure, i timori legati alla violazione della privacy di dati così sensibili sono molti. Per citare un recente caso di cronaca, il via libera della Commissione europea all’acquisizione di Fitbit da parte di Google è arrivato solo dopo che il colosso di Mountain View ha accettato di non utilizzare i dati raccolti dai braccialetti a fini pubblicitari, ovvero per personalizzare gli avvisi promozionali in base al profilo (che contiene anche informazioni sullo stato di salute) dei possessori dei fitness-tracker.
Un aiuto dal Federated Learning
Le criticità legate a protezione, sicurezza e diritto di accesso dei dati sanitari potrebbero essere superate con un modello di apprendimento automatico conosciuto come Federated Learning (qui spiegato a fumetti), che è esattamente quello adottato nell’AI Angel di FAITH.
«Il modello centralizzato dell’intelligenza artificiale funziona così: i dispositivi, oggetti intelligenti o applicazioni, inviano i dati a un server centrale che li elabora restituendo il risultato. Una delle specificità di FAITH – sottolinea Frau – è che l’analisi dei dati è decentralizzata, cioè avviene localmente nei device stessi. Ad arrivare al server sono modelli già elaborati, che vengono integrati per produrre un unico modello ottimizzato. Questo torna nuovamente ai dispositivi, dove viene ulteriormente migliorato grazie all’acquisizione di nuovi dati, in un circolo virtuoso che permette di generare modelli specializzati rispettando la privacy. In questo processo i dati sensibili non lasciano mai la persona, garantendo una maggiore tranquillità sia a quest’ultima sia a chi li riceve, nel nostro caso il medico. È questo uno degli aspetti fondamentali del Federated Learning: “portare il codice ai dati, non i dati al codice”».
Tecnicamente è una sfida complessa. I singoli dispositivi, infatti, hanno una potenza computazionale minore del server centrale e funzionano solo in determinate condizioni, per esempio sotto carica e collegati a una rete Wi-Fi. Tuttavia, è una strada valida e percorribile. Restando in ambito medico, è stato dimostrato che il Federated Learning per l’analisi delle immagini diagnostiche raggiunge un’accuratezza pari al 99% dei modelli tradizionali. Qual è il vantaggio? Una maggiore collaborazione tra le strutture ospedaliere che potrebbero scambiarsi modelli di machine learning a scopo diagnostico già “confezionati” anziché i dati dei pazienti. In questo modo sarebbero sollevati dai relativi problemi legali e di privacy.
Gli algoritmi, “scatole chiuse” da esplorare
C’è qualcos’altro però che rischia di frenare ricerca e applicazioni in ambito dati sanitari e intelligenza artificiale: ovvero, il fatto che gli algoritmi non sono interpretabili. Vengono percepiti come “scatole chiuse”, insondabili; ma un’intelligenza artificiale etica e affidabile deve essere trasparente, cioè fornire una spiegazione il più possibile chiara del suo “modo di ragionare”. Il tema è così sentito che è entrato anche nel dibattito pubblico; ne ha parlato tra gli altri il New York Times Magazine in un articolo di qualche anno fa.
«Gli algoritmi elaborano dati e restituiscono un risultato, ma chi lo riceve non sa come ci sono arrivati. Sono algoritmi a scatola chiusa, ma se vogliamo un’intelligenza artificiale alla quale poterci affidare bisogna che data scientist e sviluppatori trovino il modo di spiegare agli utenti perché i modelli si comportano in un certo modo».
Della trasparenza dell’AI Angel si preoccupano anche i ricercatori di FAITH. Stanno infatti studiando il modo di fornire agli ex-pazienti e ai dottori una spiegazione dei risultati prodotti dall’algoritmo, cosicché i medici possano correttamente interpretare la “segnalazione” fatta dall’intelligenza artificiale e decidere se avviare un percorso di cura. Un aspetto da non trascurare: il successo di questo tipo di applicazioni dipenderà anche dal livello di fiducia che vi ripongono gli utenti.
Il progetto FAITH, visto da vicino
Lo scopo ultimo di FAITH è supportare il benessere psicologico degli ex-pazienti oncologici. La soluzione che il progetto sta sviluppando combina monitoraggio passivo degli utenti e raccolta attiva di informazioni. Sulla base di questi dati, analizzati da un’intelligenza artificiale, FAITH monitorerà i pazienti per rilevare possibili peggioramenti nella loro salute mentale. L’obiettivo finale è che in caso di necessità questi utenti possano ricevere attenzione da parte del servizio sanitario il prima possibile, migliorando così la loro qualità di vita.
Ma come funziona davvero la soluzione proposta da FAITH? Ce lo spiegano le stesse persone che lavorano al progetto in un video uscito di recente.