Connect with us

医疗健康

‘语音神经假肢’ 技术恢复了严重瘫痪患者的语音能力

mm

在人工智能(AI)假肢领域的又一重大发展中,旧金山加州大学的研究人员成功开发了一种“语音神经假肢”,它部分恢复了一个严重瘫痪的人的语音能力。当它将他的大脑信号转换为声带信号时,这项新技术帮助他用句子说话。这些话出现在屏幕上的文字中。

这项工作涉及临床研究试验的第一位参与者,是加州大学旧金山分校神经外科医生Edward Chang博士十多年来更大规模工作的一部分,他一直试图开发一种能够让瘫痪的人即使无法自己说话也能交流的技术。

研究于7月15日发表在新英格兰医学杂志上。

首个此类系统

Chang是加州大学旧金山分校神经外科的Joan和Sanford Weill讲座教授,也是Jeanne Robertson杰出教授。他也是这项研究的高级作者。

“据我们所知,这是首次成功展示了从无法说话和瘫痪的人的大脑活动中直接解码完整的词语,”Chang说。“它显示出强大的希望,通过利用大脑的自然语音机制来恢复交流。”

该领域的传统工作围绕通过基于拼写的方法来恢复交流,通过写出一个一个的字母来书写文本。然而,这项新研究专注于转换实际上旨在控制声带肌肉以说话的信号。这与传统工作不同,传统工作专注于移动手臂或手的信号。

根据Chang的说法,这种新方法利用了语音的自然和流畅方面,并可能在这一领域带来更大的进步。他还说,依赖于打字、写作和控制光标的基于拼写的方法要慢得多。

“通过语音,我们通常以非常高的速度传达信息,高达每分钟150或200个词,”他说。“像我们这里一样直接使用词语有很大的优势,因为它更接近我们通常的说话方式。”

Chang的前期工作依赖于加州大学旧金山分校癫痫中心的患者,他们正在接受神经外科手术,以检测他们癫痫的原因,并使用放置在患者大脑表面的电极阵列。这些患者有正常的语音,这些结果有助于导致针对瘫痪个体的当前试验。

团队开发的一些新方法包括一种解码皮层活动模式和统计语言以提高准确性的方法。

David Moses博士是Chang实验室的博士后工程师,也是另一位主要作者。

“我们的模型需要学习复杂的大脑活动模式和预期语音之间的映射,”Moses说。“当参与者无法说话时,这是一个重大挑战。”

第一位参与者

试验的第一位参与者是一位三十多岁的男子,他在15多年前遭受了一次脑干中风,这次中风严重损害了他大脑和声带以及四肢之间的连接。

通过开发Chang团队可以使用高级计算机算法识别的50个词汇,参与者能够创建数百个句子来表达日常生活概念。

他需要在他的语音运动皮层上植入高密度电极阵列,并在康复后,在48个会话中记录了该脑区域22个小时的神经活动。

Sean Metzger和Jessie Liu都是Chang实验室的生物工程博士生,他们负责开发自定义的神经网络模型,可以将记录的神经活动模式转换为特定的预期词语。

测试后,团队发现该系统可以以每分钟高达18个词的速度从大脑活动中解码词语,其准确率为93%。团队在语言模型中应用了“自动更正”功能,这有助于提高准确率。

“我们很高兴看到各种有意义的句子的准确解码,”Moses说。“我们已经证明了通过这种方式促进交流是可能的,并且它具有在对话环境中使用的潜力。”

该团队现在将扩大试验范围,以包括更多患有严重瘫痪和交流障碍的参与者。他们还将扩大词汇量,并致力于提高语速。

“对于无法自然交流的人来说,这是一个重要的技术里程碑,”Moses说。“它表明了这种方法的潜力,可以为严重瘫痪和失去语音能力的人提供发言权。”

Alex McFarland 是一名人工智能记者和作家,探索最新的人工智能发展。他曾与世界各地的众多人工智能初创公司和出版物合作。