Connect with us

‘Speech Neuroprothese’ Technologie Herstelt Spraak bij Patiënt Met Ernstige Verlamming

Gezondheidszorg

‘Speech Neuroprothese’ Technologie Herstelt Spraak bij Patiënt Met Ernstige Verlamming

mm

In een andere belangrijke ontwikkeling op het gebied van kunstmatige intelligentie (AI) prothesen, hebben onderzoekers aan de University of California San Francisco met succes een “spraak neuroprothese” ontwikkeld die gedeeltelijk spraak herstelde bij een man met ernstige verlamming. De nieuwe technologie hielp hem in zinnen te spreken toen deze signalen van zijn hersenen naar het spraakorgaan vertaalde. De woorden verschenen vervolgens als tekst op een scherm. 

Het werk betrof de eerste deelnemer van een klinische onderzoeksstudie, en het was onderdeel van een groter onderzoeksproject dat al meer dan tien jaar gaande is door UCSF-neurochirurg Edward Chang, MD, die heeft geprobeerd een technologie te ontwikkelen die het mensen met verlamming mogelijk maakt om te communiceren, zelfs als ze niet in staat zijn om zelf te spreken. 

De studie werd op 15 juli gepubliceerd in de New England Journal of Medicine

Eerst Systeem van zijn Soort

Chang is de Joan en Sanford Weill Chair of Neurological Surgery aan de UCSF en Jeanne Robertson Distinguished Professor. Hij is ook de senior auteur van de studie. 

“Volgens onze kennis is dit de eerste succesvolle demonstratie van direct decoderen van volledige woorden uit de hersenactiviteit van iemand die verlamd is en niet kan spreken”, zei Chang. “Het toont een sterk potentieel om communicatie te herstellen door gebruik te maken van de natuurlijke spraakmachinerie van de hersenen.”

Onderzoek in dit veld draait traditioneel om het herstellen van communicatie door middel van spellingsgebaseerde benaderingen om letters een voor een in tekst te schrijven. De nieuwe studie richt zich echter op het vertalen van signalen die eigenlijk bedoeld zijn om de spieren van het spraakorgaan voor het spreken van woorden te controleren. Dit is anders dan het traditionele onderzoek, dat zich richt op de signalen die de arm of hand bewegen. 

Volgens Chang maakt de nieuwe benadering gebruik van de natuurlijke en vloeiende aspecten van spraak, en kan het leiden tot veel meer vooruitgang in dit gebied. Hij zei ook dat spellingsgebaseerde benaderingen die afhankelijk zijn van typen, schrijven en het controleren van een cursor veel langzamer zijn.

“Met spraak communiceren we normaal gesproken informatie op een zeer hoge snelheid, tot 150 of 200 woorden per minuut”, zei hij. “Rechtstreeks naar woorden gaan, zoals we hier doen, heeft grote voordelen omdat het dichter bij de manier ligt waarop we normaal gesproken spreken.”

Chang’s eerdere werk was gebaseerd op patiënten bij het UCSF Epilepsiecentrum die neurochirurgie ondergingen om te detecteren wat de oorzaak was van hun aanvallen, en het gebruikte elektrode-arrays die op het oppervlak van de hersenen van de patiënten werden geplaatst. De patiënten hadden normale spraak, en de resultaten hielpen bij het leiden naar de huidige proef voor personen met verlamming. 

Sommige van de nieuwe methoden die door het team zijn ontwikkeld, omvatten een manier om corticale activiteitspatronen te decoderen en statistische taal om de nauwkeurigheid te verbeteren. 

David Moses, PhD, is een postdoctorale ingenieur in de Chang Lab en een van de andere lead authors.

 “Onze modellen moesten leren om de mapping tussen complexe hersenactiviteitspatronen en bedoelde spraak te leren”, zei Moses. “Dat vormt een grote uitdaging wanneer de deelnemer niet kan spreken.”

De Eerste Deelnemer

De eerste deelnemer van de proef was een man van eind dertig die meer dan 15 jaar geleden een hersenstamslag had gehad die de verbinding tussen zijn hersenen en spraakorgaan en ledematen ernstig had beschadigd. 

Door een 50-woord vocabulaire te ontwikkelen dat Chang’s team kon gebruiken om geavanceerde computeralgoritmes te herkennen, kon de deelnemer honderden zinnen creëren die dagelijkse levensconcepten uitdrukten. 

Hij moest een hoogdichtheidselektrode-array hebben geïmplanteerd boven zijn spraakmotorcortex, en na zijn herstel werd meer dan 22 uur neurale activiteit in deze hersenregio opgenomen over 48 sessies. 

Sean Metzger, MS en Jessie Liu, BS, zijn beide bio-engineeringdoctoraalstudenten in de Chang Lab en waren verantwoordelijk voor het ontwikkelen van aangepaste neurale netwerkmodellen die de patronen van opgenomen neurale activiteit in specifieke bedoelde woorden konden vertalen. 

Na de test vond het team dat het systeem woorden uit hersenactiviteit kon decoderen met een snelheid van maximaal 18 woorden per minuut, en het was 93 procent nauwkeurig. Het team paste een “auto-correction”-functie toe op het taalmodel, wat de nauwkeurigheid verbeterde.

 “We waren verheugd om de nauwkeurige decodering van een verscheidenheid aan betekenisvolle zinnen te zien”, zei Moses. “We hebben aangetoond dat het inderdaad mogelijk is om communicatie op deze manier te faciliteren en dat het potentieel heeft voor gebruik in conversatie-instellingen.”

Het team zal nu de proef uitbreiden om meer deelnemers met ernstige verlamming en communicatieproblemen te includeren. Ze zijn ook het aantal woorden in het vocabulaire aan het uitbreiden en werken aan het verbeteren van de spraaksnelheid. 

“Dit is een belangrijke technologische mijlpaal voor een persoon die niet op een natuurlijke manier kan communiceren”, zei Moses, “en het toont het potentieel voor deze benadering om een stem te geven aan mensen met ernstige verlamming en spraakverlies.”

Alex McFarland is een AI-journalist en schrijver die de laatste ontwikkelingen op het gebied van kunstmatige intelligentie onderzoekt. Hij heeft samengewerkt met talloze AI-startups en publicaties wereldwijd.