2021-07-27 19:07

“神经修复术”让瘫痪的人恢复语言能力

'Neuroprosthesis' restores words to man with paralysis

加州大学旧金山分校(UC San Francisco)的研究人员已经成功开发出一种“语言神经假肢”,使严重瘫痪的患者能够用句子进行交流,将大脑发送到声道的信号直接转换成文字,在屏幕上显示为文本。

成就,是与第一个参与者的临床研究试验,基于十多年的努力,加州大学旧金山分校神经外科医生Edward Chang医学博士开发技术,使瘫痪的人交流,即使他们自己无法说话。这项研究发表在7月15日的《新英格兰医学杂志》上。

“据我们所知,这是第一次成功地从瘫痪和不能说话的人的大脑活动中直接解码完整的单词,”Chang说,她是加州大学旧金山分校神经外科Joan和Sanford Weill主席,Jeanne Robertson杰出教授,该研究的资深作者。“这表明,通过利用大脑的自然语言机制,有很大希望恢复沟通。”

每年都有成千上万的人因为中风、事故或疾病而失去说话的能力。随着进一步的发展,这项研究中描述的方法可能有一天会使这些人完全沟通。

把大脑信号翻译成语言

在此之前,沟通神经修复术领域的工作主要是通过基于拼写的方法在文本中一个接一个地打出字母来恢复沟通。Chang的研究在一个关键的方面与这些努力不同:他的团队翻译的信号是为了控制发声系统的肌肉来说话,而不是为了移动手臂或手来打字。Chang说,这种方法利用了语言的自然和流畅性,保证了更快速和有机的交流。






他说:“在语言中,我们通常以非常高的速度交流信息,每分钟可达150或200个单词。”他指出,打字、书写和控制光标等基于拼写的方法要慢得多,也更费力。“就像我们现在做的那样,直接用语言说话有很大的好处,因为它更接近我们通常的说话方式。”

在过去的十年里,UCSF癫痫中心的患者通过神经外科手术,通过放置在大脑表面的电极阵列来确定癫痫发作的来源,促进了Chang在这个目标上的进展。这些患者都有正常的语言能力,自愿对他们的大脑记录进行语言相关活动的分析。这些病人志愿者的早期成功为目前在瘫痪患者中进行的试验铺平了道路。

此前,Chang和他在加州大学旧金山分校威尔神经科学研究所的同事绘制了与声道运动相关的皮层活动模式,声道运动产生每一个辅音和元音。为了将这些发现转化为完整单词的语音识别,Chang实验室的博士后工程师、这项新研究的主要作者大卫·摩西博士开发了实时解码这些模式的新方法,并结合统计语言模型来提高准确性。

但他们在能够说话的参与者身上成功解码语音,并不能保证该技术在声带瘫痪的人身上也能起作用。摩西说:“我们的模型需要学习复杂的大脑活动模式和预期语言之间的映射。”“当参与者不能说话时,这就构成了一个重大挑战。”

此外,研究小组还不知道,对于那些多年无法活动声带肌肉的人来说,控制声道的大脑信号是否仍然完好无损。摩西说:“要想知道这种方法是否可行,最好的办法就是试试。”

前50个单词

为了研究这项技术在瘫痪患者身上的潜力,Chang与神经学副教授、医学博士Karunesh Ganguly合作开展了一项名为“BRAVO”(手臂和声音的脑-计算机接口恢复)的研究。试验的第一位参与者是一名30多岁的男子,他在15年前遭受了毁灭性的脑干中风,严重破坏了他的大脑、声道和四肢之间的连接。自从受伤以来,他的头部、颈部和四肢的活动都非常有限,只能通过一个系在棒球帽上的指针在屏幕上戳字母来进行交流。

要求被称为BRAVO1的参与者与研究人员一起创建了一个50个单词的词汇表,Chang的团队可以利用先进的计算机算法从大脑活动中识别出来。这些词汇——包括“水”、“家庭”和“好”等词汇——足以创建数百个句子,表达适用于BRAVO1日常生活的概念。

在这项研究中,Chang通过外科手术在BRAVO1的语言运动皮层上植入了高密度电极阵列。在参与者完全康复后,他的团队记录了在48个疗程和几个月的时间里这个大脑区域22小时的神经活动。在每个实验中,BRAVO1试图多次说出50个词汇中的每一个,同时电极记录来自他语言皮层的大脑信号。

将尝试的演讲翻译成文本

为了将记录的神经活动模式翻译成特定的意图词汇,摩西的两位合著者,肖恩·梅泽尔和杰西·刘,都是Chang实验室的生物工程研究生,使用了定制的神经网络模型,这是人工智能的形式。当参与者试图说话时,这些网络区分出大脑活动的微妙模式,以检测说话尝试,并识别出他想要说的单词。

为了测试他们的方法,研究小组首先向BRAVO1展示了由50个词汇组成的短句,并让他试着说几次。在他尝试的过程中,这些单词在屏幕上一个接一个地从他的大脑活动中被解码出来。

然后,研究小组转而用“你今天怎么样?”和“你想喝点水吗?”这样的问题来激励他。和之前一样,BRAVO1尝试的演讲出现在屏幕上。“我很好,”和“不,我不渴。”

Chang和Moses发现,该系统能够以每分钟18个单词的速度从大脑活动中解码单词,准确率高达93%(中值为75%)。摩西应用的语言模型实现了“自动更正”功能,这与消费者短信和语音识别软件使用的功能类似。

摩西认为早期的审判结果是原则的证明。他说:“我们很激动地看到了对各种有意义的句子的准确解码。”“我们已经证明,用这种方式促进交流实际上是可能的,而且它有可能在会话环境中使用。”

展望未来,张和摩西表示,他们将扩大试验,包括更多患有严重瘫痪和沟通障碍的参与者。该团队目前正在努力增加可用词汇的数量,同时提高说话的速度。

两人都表示,虽然这项研究只关注单个参与者和有限的词汇量,但这些限制并不会减少成就。摩西说:“对于无法自然交流的人来说,这是一个重要的技术里程碑。它表明,这种方法有潜力让严重瘫痪和语言丧失的人发出声音。”