Brain-Machine-Schnittstelle
Gehirnimplantate und KI-Modell zur Übersetzung von Gedanken in Text

Forscher der University of California in San Francisco haben kürzlich ein KI-System entwickelt, das Texte erstellen kann, indem es die Gehirnaktivität einer Person analysiert und im Wesentlichen ihre Gedanken in Text übersetzt. Die KI nimmt neuronale Signale eines Benutzers auf und entschlüsselt sie. Basierend auf einem Satz von 250 bis 30 Sätzen kann sie bis zu 50 Wörter in Echtzeit entschlüsseln.
Wie der Independent berichtetDas KI-Modell wurde anhand neuronaler Signale trainiert, die von vier Frauen gesammelt wurden. Den Versuchsteilnehmern wurden Elektroden ins Gehirn implantiert, um das Auftreten epileptischer Anfälle zu überwachen. Die Teilnehmer wurden angewiesen, Sätze laut vorzulesen, und ihre neuronalen Signale wurden dem KI-Modell zugeführt. Das Modell war in der Lage, neuronale Aktivitäten zu erkennen, die mit bestimmten Wörtern korrelierten, und die Muster stimmten in etwa 97 % der Fälle mit den tatsächlichen Wörtern überein, mit einer durchschnittlichen Fehlerquote von etwa 3 %.
Dies ist nicht das erste Mal, dass neuronale Signale mit Sätzen korreliert werden. Neurowissenschaftler arbeiten bereits seit über einem Jahrzehnt an ähnlichen Projekten. Das von den Forschern erstellte KI-Modell weist jedoch eine beeindruckende Genauigkeit auf und arbeitet mehr oder weniger in Echtzeit. Das Modell nutzt ein wiederkehrendes neuronales Netzwerk, um die neuronale Aktivität in Darstellungen zu kodieren, die in Worte übersetzt werden können. Wie die Autoren sagen in ihrem Aufsatz:
„In Anlehnung an die jüngsten Fortschritte in der maschinellen Übersetzung haben wir ein rekurrentes neuronales Netzwerk trainiert, um jede satzlange Sequenz neuronaler Aktivität in eine abstrakte Darstellung zu kodieren und diese Darstellung dann Wort für Wort in einen englischen Satz zu dekodieren.“
Laut ArsTechnicaUm besser zu verstehen, wie Verbindungen zwischen neuronalen Signalen und Wörtern hergestellt werden, experimentierten die Forscher, indem sie verschiedene Teile des Systems deaktivierten. Die systematische Deaktivierung machte deutlich, dass die Genauigkeit des Systems auf der neuronalen Darstellung beruhte. Es wurde auch festgestellt, dass das Deaktivieren der Audioeingänge zum System zu einem Anstieg der Fehler führte, die Gesamtleistung jedoch weiterhin als zuverlässig angesehen wurde. Dies bedeutet natürlich, dass das System möglicherweise als Gerät für diejenigen nützlich sein könnte, die nicht sprechen können.
Als verschiedene Teile des Elektrodeneingangs deaktiviert wurden, stellte sich heraus, dass das System bestimmten wichtigen Gehirnregionen, die mit der Sprachverarbeitung und -produktion verbunden sind, die größte Aufmerksamkeit schenkte. Beispielsweise beruhte ein beträchtlicher Teil der Systemleistung auf Gehirnregionen, die beim Sprechen auf den Klang der eigenen Stimme achten.
Obwohl die ersten Ergebnisse vielversprechend erscheinen, ist sich das Forschungsteam nicht sicher, wie gut sich das Modell auf größere Vokabulare skalieren lässt. Es ist wichtig, dass das Prinzip auf größere Vokabeln übertragen werden kann, da der durchschnittliche Englischsprecher über einen aktiven Wortschatz von etwa 20,000 Wörtern verfügt. Die aktuelle Decodermethode interpretiert die statische Struktur eines Satzes und nutzt diese Struktur, um fundierte Vermutungen über die Wörter anzustellen, die einem bestimmten neuronalen Aktivitätsmuster entsprechen. Mit zunehmendem Vokabular könnte die Gesamtgenauigkeit abnehmen, da möglicherweise mehr neuronale Muster dazu neigen, ähnlich auszusehen.
Die Autoren des Papiers erklären, dass sie zwar hoffen, dass der Decoder irgendwann lernt, regelmäßige, zuverlässige Muster in der Sprache zu erkennen, sie aber nicht sicher sind, wie viele Daten erforderlich sind, um ein Modell zu trainieren, das in der Lage ist, auf die alltägliche englische Sprache zu verallgemeinern. Eine mögliche Lösung dieses Problems besteht darin, das Training mit Daten zu ergänzen, die von anderen Gehirn-Computer-Schnittstellen unter Verwendung verschiedener Algorithmen und Implantate gesammelt werden.
Die von den Forschern der University of California durchgeführte Forschung ist nur eine aktuelle Entwicklung in einer wachsenden Welle von Forschung und Entwicklung im Bereich neuronaler Schnittstellen und Computer. Die Royal Society veröffentlichte letztes Jahr einen Bericht, in dem vorhergesagt wurde, dass neuronale Schnittstellen, die Menschen mit Computern verbinden, es den Menschen schließlich ermöglichen werden, gegenseitig die Gedanken zu lesen. Der Bericht verweist auf das von Elon Musk gegründete Neuralink-Startup und die von Facebook entwickelten Technologien als Beweis für die kommenden Fortschritte im menschenorientierten Computing. Die Royal Society stellt fest, dass Mensch-Computer-Schnittstellen in den nächsten zwei Jahrzehnten eine wirksame Option bei der Behandlung neurodegenerativer Erkrankungen wie Alzheimer sein werden.








