talón La tecnología de 'neuroprótesis del habla' restaura el habla a un paciente con parálisis severa - Unite.AI
Contáctanos

Healthcare

La tecnología de 'neuroprótesis del habla' devuelve el habla a un paciente con parálisis severa

Publicado

 on

En otro desarrollo importante en las prótesis de inteligencia artificial (IA), los investigadores de la Universidad de California en San Francisco han desarrollado con éxito una "neuroprótesis del habla" que restauró parcialmente el habla a un hombre con parálisis severa. La nueva tecnología lo ayudó a hablar en oraciones cuando tradujo las señales de su cerebro al tracto vocal. Luego, las palabras aparecieron como texto en una pantalla. 

El trabajo involucró al primer participante de un ensayo de investigación clínica y fue parte de un cuerpo de trabajo más amplio que ha estado realizando durante más de diez años el neurocirujano de la UCSF Edward Chang, MD, quien ha estado intentando desarrollar una tecnología que permita a las personas con parálisis para comunicarse incluso cuando no pueden hablar por sí mismos. 

La estudio fue publicado el 15 de julio en el New England Journal of Medicine

Primer sistema de este tipo

Chang es la Cátedra Joan y Sanford Weill de Cirugía Neurológica en UCSF y Profesora Distinguida Jeanne Robertson. También es el autor principal del estudio. 

"Hasta donde sabemos, esta es la primera demostración exitosa de la decodificación directa de palabras completas de la actividad cerebral de alguien que está paralizado y no puede hablar", dijo Chang. "Muestra una gran promesa para restaurar la comunicación al aprovechar la maquinaria del habla natural del cerebro".

El trabajo en este campo tradicionalmente gira en torno a restaurar la comunicación a través de enfoques basados ​​en la ortografía para escribir letras una por una en el texto. Sin embargo, el nuevo estudio se enfoca en traducir señales que en realidad están destinadas a controlar los músculos del sistema vocal para hablar palabras. Esto es diferente al trabajo tradicional, que se centra en las señales que mueven el brazo o la mano. 

Según Chang, el nuevo enfoque aprovecha los aspectos naturales y fluidos del habla y podría conducir a muchos más avances en esta área. También dijo que los enfoques basados ​​en la ortografía que se basan en escribir, escribir y controlar un cursor son mucho más lentos.

“Con el habla, normalmente comunicamos información a una velocidad muy alta, hasta 150 o 200 palabras por minuto”, dijo. “Ir directamente a las palabras, como lo estamos haciendo aquí, tiene grandes ventajas porque es más cercano a cómo hablamos normalmente”.

El trabajo anterior de Chang se basó en pacientes del Centro de Epilepsia de la UCSF que se sometían a neurocirugía para detectar la causa de sus convulsiones, y utilizó conjuntos de electrodos que se colocaron en la superficie del cerebro de los pacientes. Los pacientes tenían un habla normal y los resultados ayudaron a conducir al ensayo actual para personas con parálisis. 

Algunos de los nuevos métodos desarrollados por el equipo incluyeron una forma de decodificar patrones de actividad cortical y lenguaje estadístico para mejorar la precisión. 

David Moses, PhD, es ingeniero postdoctoral en el Laboratorio Chang y otro de los autores principales.

 “Nuestros modelos necesitaban aprender el mapeo entre los patrones complejos de actividad cerebral y el habla prevista”, dijo Moses. “Eso plantea un gran desafío cuando el participante no puede hablar”.

El primer participante

El primer participante del ensayo fue un hombre de unos 30 años que sufrió un derrame cerebral hace más de 15 años que dejó la conexión entre su cerebro y el tracto vocal y las extremidades gravemente dañada. 

Al desarrollar un vocabulario de 50 palabras que el equipo de Chang podía reconocer mediante algoritmos informáticos avanzados, el participante pudo crear cientos de oraciones que expresaban conceptos de la vida diaria. 

Se le pidió que le implantaran una matriz de electrodos de alta densidad sobre su corteza motora del habla y, después de su recuperación, se registraron más de 22 horas de actividad neuronal en esta región del cerebro durante 48 sesiones. 

Sean Metzger, MS y Jessie Liu, BS, son estudiantes de doctorado en bioingeniería en el Laboratorio Chang y fueron responsables de desarrollar modelos de redes neuronales personalizados que podrían traducir los patrones de actividad neuronal registrada en palabras específicas. 

Después de la prueba, el equipo descubrió que el sistema podía decodificar palabras de la actividad cerebral a una velocidad de hasta 18 palabras por minuto, y tenía una precisión del 93 por ciento. El equipo aplicó una función de "autocorrección" al modelo de lenguaje, lo que ayudó a mejorar la precisión.

 “Nos emocionó ver la decodificación precisa de una variedad de oraciones significativas”, dijo Moses. "Hemos demostrado que en realidad es posible facilitar la comunicación de esta manera y que tiene potencial para su uso en entornos conversacionales".

El equipo ahora ampliará el ensayo para incluir a más participantes que sufran parálisis severa y problemas de comunicación. También están ampliando la cantidad de palabras en el vocabulario y trabajando para mejorar la velocidad del habla. 

“Este es un hito tecnológico importante para una persona que no puede comunicarse de forma natural”, dijo Moses, “y demuestra el potencial de este enfoque para dar voz a las personas con parálisis severa y pérdida del habla”.

 

Alex McFarland es un periodista y escritor sobre inteligencia artificial que explora los últimos avances en inteligencia artificial. Ha colaborado con numerosas empresas emergentes y publicaciones de IA en todo el mundo.