Il 21 giugno è stato lo SLA GLOBAL DAY per ricordare la comunità delle persone con SLA e l’importanza della ricerca. Anche quella che si occupa degli ausili tecnologici per migliorare la qualità della vita dei pazienti
Il 21 giugno è una data legata a un punto di svolta. Per questo è stata scelta come giornata per ricordare e celebrare a livello mondiale la comunità di persone con la SLA e le loro famiglie. La svolta starebbe nel trovare un trattamento efficace per la SLA, una malattia che riguarda 29 mila persone in Europa secondo le stime del 2019.
Oggi la principale cura è l’intervento tempestivo per gestire i sintomi. Così la qualità della vita dei pazienti è migliorata. C’è una maggiore consapevolezza delle esigenze dei pazienti. Sono aumentati i centri clinici specializzati e le figure professionali coinvolte nella gestione della malattia. Anche gli ausili tecnologici aiutano ad affrontare le sfide che la SLA lancia ogni giorno che passa.
Una di queste sfide è quella di continuare a comunicare. Si tratta dell’esigenza di farsi comprendere per esprimere bisogni primari. Man mano che la malattia progredisce solo i famigliari più vicini possono interpretare gli sguardi, le espressioni o i suoni con cui le persone cercano di comunicare. I muscoli coinvolti nell’articolazione delle parole si atrofizzano e il malato perde la capacità di pronunciare suoni e fonemi che compongono le parole. I cambiamenti sono spesso repentini e inaspettati. E le parole si riducono a suoni e schiocchi di labbra in poco tempo.
Un’app per comunicare
Un team di ricercatori dell’IIT di Genova e del San Raffaele di Milano ha pensato di rispondere al bisogno di comunicare puntando sulle capacità che restano nella persona colpita da SLA. “Abbiamo creato un app, AllSpeak,basata su una rete neurale capace di riconoscere i suoni emessi dai pazienti, quando non sono piu capaci di pronunciare parole comprensibili”, ha raccontato Alberto Inuggi, ricercatore dell’IIT di Genova.
La rete neurale è un modello di calcolo con una struttura simile alla rete di neuroni nel cervello. È capace di apprendere dai dati. Ma in questo caso è una bella sfida far accadere questo apprendimento. Per le voci altamente disartriche tipiche dei pazienti SLA non esistono le stesse vaste banche dati che hanno permesso ai nostri cellulari di diventare degli efficienti traduttori simultanei. Insomma siamo lontani dalle potenzialità di Google.
“Per rendere possibile il riconoscimento dei suoni e la loro traduzione in parole abbiamo dovuto addestrare l’algoritmo a riconoscere i differenti suoni che ciascuna persona è in grado di emettere. E la rete neurale è capace di imparare man mano che la voce del paziente peggiora”.
Sostenere la ricerca
Il progetto AllSpeak è stato finanziato nel 2016 da AriSLA, la Fondazione Italiana di Ricerca per la Sclerosi Laterale Amiotrofica, con la campagna Ice Bucket Challenge.
AriSLA è tutt’ora molto attiva nella raccolta fondi per finanziare progetti volti a indagare i meccanismi della malattia e alla ricerca di una cura. In questi 10 anni, la Fondazione ha investito oltre 12,4 milioni di euro in attività di ricerca, ha finanziato 78 progetti e supportando 130 ricercatori. Tra i progetti finanziati non mancano quelli per la realizzazione di ausili e servizi di tecnologia assistenziale. Anche quest’anno, con il bando AriSLA 2020 darà la possibilità ai progetti più di validi e innovativi di essere sviluppati.
AllSpeak è stata anche testata con l’aiuto di un gruppo di pazienti seguiti dall’Ospedale San Raffaele di Milano. Ma purtroppo il confronto con la situazione reale ha fatto emergere nuove esigenze dei pazienti oltre ai limiti dell’app.
“In un contesto clinico ai pazienti è richiesto un grosso sforzo. Per addestrare l’algoritmo devono ripetere più volte un suono, sempre pronunciato allo stesso modo. A volte la stanchezza impedisce la perfetta ripetizione del comando”. E a quel punto l’app non è più in grado di riconoscere la voce. Chi tenta di parlare talvolta vive la situazione come l’ennesima frustrazione.
Ridare voce alle persone con SLA
“Ci siamo un po’ arenati sul progetto. L’algoritmo andrebbe aggiornato per meglio rispondere alle variazioni della voce. O forse bisognerebbe raccogliere i comandi del paziente in diversi momenti della giornata seguendo le variazioni nella vocalizzazione”. Inuggi riflette quasi a voce alta, mentre spiega che gli algoritmi per il riconoscimento del linguaggio sono stati migliorati in questi anni. Dunque un aggiornamento potrebbe aumentare l’usabilità e le performance dell’app.
“Finire questo lavoro significa ridare voce alle persone con la SLA, ma anche aumentare le conoscenze mediche” ha continuato Inuggi. L’app infatti era progettata per seguire un paziente durante tutta l’evoluzione delle sue capacità vocali, dall’esordio della malattia fino all’incapacità di parlare. “Misurare la potenza della voce o la velocità di lettura, ad esempio, e confrontare questi parametri con i dati clinici potrebbe essere utile per creare modelli predittivi. Le persone con la SLA sperimentano durante la malattia riduzioni repentine, inaspettate e molto forti della qualità del loro parlato. Tali modelli li aiuterebbero a farsi trovare più preparati ad affrontarli. E in futuro potrebbero aiutare i clinici a ritardarli”.
Cosa manca per arrivare a questo punto di avanzamento? “Ci servirebbe un gruppo più numeroso che lavori al progetto, più tempo e finanziamenti per creare un app con performance più robuste”, ha concluso Inuggi.