Connect with us

Tecnología de ‘Neuroprótesis del Habla’ Restablece el Habla a Paciente con Parálisis Severa

Salud

Tecnología de ‘Neuroprótesis del Habla’ Restablece el Habla a Paciente con Parálisis Severa

mm

En otro importante avance en prótesis de inteligencia artificial (IA), investigadores de la Universidad de California en San Francisco han desarrollado con éxito una “neuroprótesis del habla” que ha restaurado parcialmente el habla a un hombre con parálisis severa. La nueva tecnología lo ayudó a hablar en oraciones cuando traducía señales de su cerebro al tracto vocal. Las palabras luego aparecían como texto en una pantalla.

El trabajo involucró al primer participante de un ensayo clínico de investigación, y fue parte de un cuerpo de trabajo más grande que ha estado llevándose a cabo durante más de diez años por el neurocirujano de la UCSF Edward Chang, MD, quien ha estado tratando de desarrollar una tecnología que permita a las personas con parálisis comunicarse incluso cuando no pueden hablar por sí mismas.

El estudio se publicó el 15 de julio en el New England Journal of Medicine.

Primer Sistema de su Tipo

Chang es el presidente de la cátedra Joan y Sanford Weill de Cirugía Neurológica en la UCSF y profesor distinguido Jeanne Robertson. También es el autor senior del estudio.

“Hasta donde sabemos, esta es la primera demostración exitosa de decodificación directa de palabras completas de la actividad cerebral de alguien que está paralizado y no puede hablar”, dijo Chang. “Muestra un gran potencial para restaurar la comunicación al aprovechar la maquinaria natural del habla del cerebro”.

El trabajo en este campo tradicionalmente gira en torno a la restauración de la comunicación a través de enfoques basados en el deletreo para escribir letras una a una en texto. Sin embargo, el nuevo estudio se centra en traducir señales que en realidad están destinadas a controlar los músculos del sistema vocal para hablar palabras. Esto es diferente del trabajo tradicional, que se centra en las señales que mueven el brazo o la mano.

Según Chang, el nuevo enfoque aprovecha los aspectos naturales y fluidos del habla, y podría conducir a muchos avances en este área. También dijo que los enfoques basados en el deletreo que dependen de la escritura, la escritura y el control de un cursor son mucho más lentos.

“Con el habla, normalmente nos comunicamos información a un ritmo muy alto, de hasta 150 o 200 palabras por minuto”, dijo. “Ir directamente a las palabras, como estamos haciendo aquí, tiene grandes ventajas porque es más cercano a cómo normalmente hablamos”.

El trabajo anterior de Chang se basó en pacientes del Centro de Epilepsia de la UCSF que se sometían a neurocirugía para detectar qué causaba sus convulsiones, y utilizó matrices de electrodos que se colocaron en la superficie del cerebro de los pacientes. Los pacientes tenían un habla normal, y los resultados ayudaron a llevar al ensayo actual para personas con parálisis.

Algunos de los nuevos métodos desarrollados por el equipo incluyeron una forma de decodificar patrones de actividad cortical y lenguaje estadístico para mejorar la precisión.

David Moses, PhD, es un ingeniero postdoctoral en el laboratorio de Chang y otro de los autores principales.

“Nuestros modelos necesitaban aprender el mapeo entre patrones de actividad cerebral complejos y habla intencionada”, dijo Moses. “Eso plantea un gran desafío cuando el participante no puede hablar”.

El Primer Participante

El primer participante del ensayo fue un hombre de finales de los 30 años que sufrió un accidente cerebrovascular en el tallo cerebral hace más de 15 años que dejó dañada la conexión entre su cerebro y el tracto vocal y las extremidades.

Al desarrollar un vocabulario de 50 palabras que el equipo de Chang podría utilizar con algoritmos informáticos avanzados para reconocer, el participante pudo crear cientos de oraciones que expresaban conceptos de la vida diaria.

Se requirió que tuviera una matriz de electrodos de alta densidad implantada sobre su corteza motora del habla, y después de su recuperación, se grabaron más de 22 horas de actividad neural en esta región del cerebro durante 48 sesiones.

Sean Metzger, MS y Jessie Liu, BS, son estudiantes de doctorado en bioingeniería en el laboratorio de Chang y fueron responsables de desarrollar modelos de redes neuronales personalizados que pudieran traducir los patrones de actividad neural registrada en palabras específicas intencionadas.

Después de la prueba, el equipo encontró que el sistema podía decodificar palabras de la actividad cerebral a un ritmo de hasta 18 palabras por minuto, y tenía un 93 por ciento de precisión. El equipo aplicó una función de “autocorrección” al modelo de lenguaje, lo que ayudó a mejorar la precisión.

“Estuvimos emocionados de ver la decodificación precisa de una variedad de oraciones significativas”, dijo Moses. “Hemos demostrado que es posible facilitar la comunicación de esta manera y que tiene potencial para su uso en entornos conversacionales”.

El equipo ahora ampliará el ensayo para incluir a más participantes que sufren de parálisis severa y problemas de comunicación. También están ampliando la cantidad de palabras en el vocabulario y trabajando en mejorar la tasa de habla.

“Este es un hito tecnológico importante para una persona que no puede comunicarse de manera natural”, dijo Moses, “y demuestra el potencial de este enfoque para dar voz a las personas con parálisis y pérdida del habla severas”.

Alex McFarland es un periodista y escritor de inteligencia artificial que explora los últimos desarrollos en inteligencia artificial. Ha colaborado con numerosas startups y publicaciones de inteligencia artificial en todo el mundo.