Sundhedsvæsen
‘Tale Neuroprotese’ Teknologi Genopretter Tale for Patient Med Svær Lammelse

I en ny større udvikling inden for kunstig intelligens (AI) proteser, har forskere ved University of California San Francisco succesfuldt udviklet en “tale neuroprotese”, der delvist genoprettede tale for en mand med svær lammelse. Den nye teknologi hjalp ham med at tale i sætninger, da den oversatte signaler fra hans hjerne til strubehovedet. Ordene dukkede herefter op som tekst på en skærm.
Arbejdet indebar den første deltager i en klinisk forskningsprøve, og det var en del af et større arbejde, der havde været i gang i over ti år af UCSF neurokirurgen Edward Chang, MD, der havde forsøgt at udvikle en teknologi, der giver mennesker med lammelse mulighed for at kommunikere, selv når de ikke kan tale på egen hånd.
Studiet blev offentliggjort den 15. juli i New England Journal of Medicine.
Første System Af Sin Art
Chang er Joan og Sanford Weill formand for neurokirurgi ved UCSF og Jeanne Robertson Distinguished Professor. Han er også senior forfatter af studiet.
“Til vores viden er dette den første succesfulde demonstration af direkte afkodning af fulde ord fra hjernens aktivitet hos en person, der er lammet og ikke kan tale,” sagde Chang. “Det viser stærk løfte til at genoprette kommunikation ved at tæppe ind i hjernens naturlige talemaskineri.”
Arbejdet på dette område drejer sig traditionelt om at genoprette kommunikation gennem stavning-baserede tilgange til at skrive bogstaver én for én i tekst. Men den nye studie fokuserer på at oversætte signaler, der faktisk er beregnet til at kontrollere musklerne i taleapparatet for at tale ord. Dette er anderledes end det traditionelle arbejde, der fokuserer på signalerne, der flytter armen eller hånden.
Ifølge Chang udnytter den nye tilgang de naturlige og flydende aspekter af tale, og det kan føre til langt mere fremskridt på dette område. Han sagde også, at stavning-baserede tilgange, der afhænger af skrivning, skrivning og kontrol af en cursor, er langt langsommere.
“Med tale kommunikerer vi normalt information på en meget høj hastighed, op til 150 eller 200 ord per minut,” sagde han. “At gå direkte til ord, som vi gør her, har store fordele, fordi det er tættere på, hvordan vi normalt taler.”
Changs tidligere arbejde afhang af patienter på UCSF Epilepsi Center, der gennemgik neurokirurgi for at opdage, hvad der forårsagede deres anfald, og det brugte elektrode-arrays, der blev placeret på overfladen af patienternes hjerner. Patienterne havde normal tale, og resultaterne hjalp med at føre til den nuværende prøve for personer med lammelse.
Nogle af de nye metoder, der blev udviklet af teamet, inkluderede en måde at afkode corticale aktivitetsmønstre og statistisk sprog til at forbedre nøjagtigheden.
David Moses, PhD, er en postdoc-ingeniør i Chang Lab og en af de andre medforfattere.
“Vore modeller skulle lære kortlægningen mellem komplekse hjernens aktivitetsmønstre og intentioner tale,” sagde Moses. “Det stiller et stort udfordring, når deltageren ikke kan tale.”
Den Første Deltager
Prøvens første deltager var en mand i hans sene 30’ere, der led en hjernestamme-slå den for over 15 år siden, der efterlod forbindelsen mellem hans hjerne og strubehoved og lemmer alvorligt beskadiget.
Ved at udvikle en 50-ord-vokabular, som Changs team kunne bruge avancerede computer-algoritmer til at genkende, kunne deltageren oprette hundredvis af sætninger, der udtrykte dagliglivs-begreber.
Han skulle have en høj-densitets-elektrode-array implantation over hans tale-motor cortex, og efter hans restitution, blev der optaget over 22 timer af neural aktivitet i denne hjerneregion over 48 sessioner.
Sean Metzger, MS og Jessie Liu, BS, er begge bioingeniør-studerende i Chang Lab og var ansvarlige for at udvikle brugerdefinerede neurale netværksmodeller, der kunne oversætte mønstrene af optaget neural aktivitet i bestemte intentioner ord.
Efter testen fandt teamet, at systemet kunne afkode ord fra hjernens aktivitet med en hastighed på op til 18 ord per minut, og det var 93 procent nøjagtigt. Teamet anvendte en “auto-rettelse”-funktion til sprogmodellen, der hjalp med at forbedre nøjagtigheden.
“Vi var begejstrede for at se den nøjagtige afkodning af en række meningsfulde sætninger,” sagde Moses. “Vi har vist, at det faktisk er muligt at facilere kommunikation på denne måde, og at det har potentiale til brug i konversations-sammenhænge.”
Teamet vil nu udvide prøven til at inkludere flere deltagere med svær lammelse og kommunikations-problemer. De er også udvider antallet af ord i vokabularen og arbejder på at forbedre talehastigheden.
“Dette er et vigtigt teknologisk milepæl for en person, der ikke kan kommunikere naturligt,” sagde Moses, “og det demonstrerer potentialet for denne tilgang til at give en stemme til mennesker med svær lammelse og tale-tab.”












