Connect with us

Gesundheitswesen

‘Speech Neuroprothese’ Technologie stellt bei Patienten mit schwerer Lähmung die Sprache wieder her

mm

In einer weiteren bedeutenden Entwicklung auf dem Gebiet der künstlichen Intelligenz (KI) Prothetik haben Forscher an der University of California San Francisco erfolgreich eine “Sprachneuroprothese” entwickelt, die teilweise die Sprache eines Mannes mit schwerer Lähmung wiederhergestellt hat. Die neue Technologie half ihm, in Sätzen zu sprechen, als sie Signale von seinem Gehirn zum Stimmtrakt übersetzte. Die Wörter erschienen dann als Text auf einem Bildschirm. 

Die Arbeit umfasste den ersten Teilnehmer einer klinischen Studie und war Teil einer größeren Arbeit, die über einen Zeitraum von über zehn Jahren von dem UCSF-Neurochirurgen Edward Chang, MD, durchgeführt wurde, der versucht hat, eine Technologie zu entwickeln, die es Menschen mit Lähmung ermöglicht, zu kommunizieren, auch wenn sie nicht in der Lage sind, selbst zu sprechen. 

Die Studie wurde am 15. Juli in der New England Journal of Medicine veröffentlicht. 

Erstes System seiner Art

Chang ist der Joan und Sanford Weill Chair of Neurological Surgery an der UCSF und Jeanne Robertson Distinguished Professor. Er ist auch der Senior-Autor der Studie. 

“Unseres Wissens ist dies die erste erfolgreiche Demonstration der direkten Dekodierung von vollständigen Wörtern aus der Gehirnaktivität eines Menschen, der gelähmt ist und nicht sprechen kann”, sagte Chang. “Es zeigt großes Potenzial, die Kommunikation wiederherzustellen, indem es auf die natürliche Sprachmaschinerie des Gehirns zugreift.”

Arbeiten in diesem Bereich konzentrieren sich traditionell auf die Wiederherstellung der Kommunikation durch schreibbasierte Ansätze, um Buchstaben einzeln in Text zu schreiben. Die neue Studie konzentriert sich jedoch auf die Übersetzung von Signalen, die tatsächlich dazu bestimmt sind, die Muskeln des Stimmtrakts zum Sprechen von Wörtern zu steuern. Dies unterscheidet sich von der traditionellen Arbeit, die sich auf die Signale konzentriert, die den Arm oder die Hand bewegen. 

Laut Chang nutzt die neue Methode die natürlichen und fließenden Aspekte der Sprache und könnte zu weit größeren Fortschritten in diesem Bereich führen. Er sagte auch, dass schreibbasierte Ansätze, die auf Tippen, Schreiben und Steuern eines Cursors angewiesen sind, viel langsamer seien.

“Mit der Sprache kommunizieren wir normalerweise Informationen mit einer sehr hohen Rate, bis zu 150 oder 200 Wörtern pro Minute”, sagte er. “Direkt zu Wörtern zu gehen, wie wir es hier tun, hat große Vorteile, weil es näher an der Art und Weise ist, wie wir normalerweise sprechen.”

Changs vorherige Arbeit basierte auf Patienten im UCSF-Epilepsiezentrum, die einer Neurochirurgie unterzogen wurden, um herauszufinden, was ihre Anfälle verursachte, und es verwendete Elektroden-Arrays, die auf der Oberfläche der Patientengehirne platziert wurden. Die Patienten hatten normale Sprache, und die Ergebnisse halfen, zur aktuellen Studie für Menschen mit Lähmung zu führen. 

Einige der neuen Methoden, die vom Team entwickelt wurden, umfassten eine Möglichkeit, kortikale Aktivitätsmuster zu dekodieren und statistische Sprache zu verbessern. 

David Moses, PhD, ist ein Postdoktorand-Ingenieur im Chang-Labor und ein weiterer der Lead-Autoren.

 “Unsere Modelle mussten die Zuordnung zwischen komplexen Gehirnaktivitätsmustern und beabsichtigter Sprache lernen”, sagte Moses. “Das stellt eine große Herausforderung dar, wenn der Teilnehmer nicht sprechen kann.”

Der erste Teilnehmer

Der erste Teilnehmer der Studie war ein Mann in seinen späten 30ern, der vor über 15 Jahren einen Hirnstamm-Schlaganfall erlitt, der die Verbindung zwischen seinem Gehirn und seinem Stimmtrakt und seinen Gliedern schwer beschädigte. 

Indem Changs Team eine 50-Wörter-Vokabular entwickelte, das sie mit fortschrittlichen Computer-Algorithmen erkennen konnte, konnte der Teilnehmer Hunderte von Sätzen erstellen, die tägliche Lebenskonzepte ausdrückten. 

Er musste eine hochdichte-Elektroden-Array über seinem Sprachmotor-Cortex implantiert haben, und nach seiner Genesung wurden über 22 Stunden neuronale Aktivität in dieser Gehirnregion über 48 Sitzungen aufgezeichnet. 

Sean Metzger, MS und Jessie Liu, BS, sind beide Bioingenieur-Doktoranden im Chang-Labor und waren für die Entwicklung von benutzerdefinierten neuronalen Netzwerk-Modellen verantwortlich, die die Muster der aufgezeichneten neuronalen Aktivität in bestimmte beabsichtigte Wörter übersetzen konnten. 

Nach dem Test fand das Team heraus, dass das System Wörter aus Gehirnaktivität mit einer Rate von bis zu 18 Wörtern pro Minute dekodieren konnte und 93 Prozent genau war. Das Team wandte eine “Auto-Korrektur”-Funktion auf das Sprachmodell an, die half, die Genauigkeit zu verbessern.

 “Wir waren begeistert, die genaue Dekodierung einer Vielzahl von sinnvollen Sätzen zu sehen”, sagte Moses. “Wir haben gezeigt, dass es tatsächlich möglich ist, die Kommunikation auf diese Weise zu erleichtern und dass es Potenzial für den Einsatz in konversationellen Umgebungen hat.”

Das Team wird nun die Studie auf weitere Teilnehmer mit schwerer Lähmung und Kommunikationsproblemen erweitern. Sie erweitern auch die Anzahl der Wörter im Vokabular und arbeiten an der Verbesserung der Sprechrate. 

“Dies ist ein wichtiger technologischer Meilenstein für eine Person, die nicht natürlich kommunizieren kann”, sagte Moses, “und es zeigt das Potenzial für diesen Ansatz, Menschen mit schwerer Lähmung und Sprachverlust eine Stimme zu geben.”

Alex McFarland ist ein KI-Journalist und Schriftsteller, der die neuesten Entwicklungen im Bereich der künstlichen Intelligenz erforscht. Er hat mit zahlreichen KI-Startups und Veröffentlichungen weltweit zusammengearbeitet.