Sanità
Tecnologia di ‘Neuroprotesi del Linguaggio’ Restaura la Capacità di Parlare a un Paziente con Paralisi Grave

In un altro importante sviluppo nell’ambito delle protesi di intelligenza artificiale (AI), i ricercatori dell’Università della California di San Francisco hanno sviluppato con successo una “neuroprotesi del linguaggio” che ha in parte restaurato la capacità di parlare a un uomo con paralisi grave. La nuova tecnologia gli ha permesso di parlare in frasi quando ha tradotto i segnali dal suo cervello al tratto vocale. Le parole sono poi apparse come testo su uno schermo.
Il lavoro ha coinvolto il primo partecipante di una sperimentazione clinica e faceva parte di un corpus di lavoro più ampio che è stato in corso per oltre dieci anni da parte del neurochirurgo dell’UCSF Edward Chang, MD, che ha cercato di sviluppare una tecnologia che consenta alle persone con paralisi di comunicare anche quando non sono in grado di parlare da soli.
Lo studio è stato pubblicato il 15 luglio sulla New England Journal of Medicine.
Primo Sistema del Suo Genere
Chang è il Joan e Sanford Weill Chair of Neurological Surgery all’UCSF e Jeanne Robertson Distinguished Professor. È anche l’autore senior dello studio.
“Per quanto ne sappiamo, questa è la prima dimostrazione di successo della decodifica diretta di parole complete dall’attività cerebrale di qualcuno che è paralizzato e non può parlare”, ha detto Chang. “Mostra una forte promessa per restaurare la comunicazione sfruttando la macchina del linguaggio naturale del cervello”.
Il lavoro in questo campo tradizionalmente ruota attorno al ripristino della comunicazione attraverso approcci basati sulla scrittura per scrivere lettera per lettera nel testo. Tuttavia, il nuovo studio si concentra sulla traduzione dei segnali che sono effettivamente destinati a controllare i muscoli del sistema vocale per parlare parole. Ciò è diverso dal lavoro tradizionale, che si concentra sui segnali che muovono il braccio o la mano.
Secondo Chang, il nuovo approccio sfrutta gli aspetti naturali e fluidi del linguaggio e potrebbe portare a molti più progressi in questo settore. Ha anche detto che gli approcci basati sulla scrittura che si basano sulla digitazione, sulla scrittura e sul controllo di un cursore sono molto più lenti.
“Con il linguaggio, di solito comunichiamo informazioni a un ritmo molto alto, fino a 150 o 200 parole al minuto”, ha detto. “Andare direttamente alle parole, come stiamo facendo qui, ha grandi vantaggi perché è più vicino a come parliamo normalmente”.
Il lavoro precedente di Chang si basava su pazienti del Centro per l’epilessia dell’UCSF che stavano subendo un intervento di neurochirurgia per rilevare cosa stava causando le loro crisi, e utilizzava array di elettrodi posizionati sulla superficie del cervello dei pazienti. I pazienti avevano un linguaggio normale e i risultati hanno aiutato a condurre alla sperimentazione attuale per individui con paralisi.
Alcuni dei nuovi metodi sviluppati dal team includevano un modo per decodificare i modelli di attività corticale e il linguaggio statistico per migliorare l’accuratezza.
David Moses, PhD, è un ingegnere post-dottorato nel Chang Lab e un altro degli autori principali.
“I nostri modelli dovevano imparare la mappatura tra modelli di attività cerebrale complessi e linguaggio inteso”, ha detto Moses. “Ciò rappresenta una grande sfida quando il partecipante non può parlare”.
Il Primo Partecipante
Il primo partecipante della sperimentazione era un uomo alla fine dei trent’anni che aveva subito un ictus del tronco cerebrale oltre 15 anni fa che aveva lasciato la connessione tra il suo cervello e il tratto vocale e gli arti gravemente danneggiata.
Sviluppando un vocabolario di 50 parole che il team di Chang poteva utilizzare con algoritmi computerizzati avanzati per riconoscere, il partecipante è stato in grado di creare centinaia di frasi che esprimevano concetti della vita quotidiana.
È stato necessario che avesse un array di elettrodi ad alta densità impiantato sopra la sua corteccia motoria del linguaggio e, dopo il suo recupero, oltre 22 ore di attività neurale in questa regione cerebrale sono state registrate in 48 sessioni.
Sean Metzger, MS e Jessie Liu, BS, sono entrambi studenti di dottorato in bioingegneria nel Chang Lab e sono stati responsabili dello sviluppo di modelli di reti neurali personalizzate che potevano tradurre i modelli di attività neurale registrata in parole specifiche intese.
Dopo il test, il team ha scoperto che il sistema poteva decodificare parole dall’attività cerebrale a un ritmo di fino a 18 parole al minuto e che era del 93% accurate. Il team ha applicato una funzione di “correzione automatica” al modello del linguaggio, che ha aiutato a migliorare l’accuratezza.
“Siamo stati entusiasti di vedere la decodifica accurata di una varietà di frasi significative”, ha detto Moses. “Abbiamo dimostrato che è effettivamente possibile facilitare la comunicazione in questo modo e che ha potenziale per l’uso in ambienti conversazionali”.
Il team ora allargherà la sperimentazione per includere più partecipanti che soffrono di paralisi grave e problemi di comunicazione. Stanno anche allargando il numero di parole nel vocabolario e lavorando per migliorare il ritmo del linguaggio.
“Questo è un importante traguardo tecnologico per una persona che non può comunicare naturalmente”, ha detto Moses, “e dimostra il potenziale di questo approccio per dare una voce alle persone con paralisi grave e perdita del linguaggio”.












