

在德国神经学家 Hans Berger 于 1924 年开创人类脑活动描记法近一个世纪后,斯坦福大学的研究人员设计了两种微型脑内植入式传感器,并连接到计算机算法,以帮助将想法转化为语言,从而帮助瘫痪患者表达自己。8 月 23 日,《自然》杂志发表了一项在人类患者身上使用此类设备的研究。(同一天,《自然》杂志也发表了另一项类似研究。)
研究人员创建的是一种脑机接口(BCI)——一个将神经活动转化为意图语言的系统——它可以帮助瘫痪患者,如脑干中风或肌萎缩侧索硬化症(ALS)患者,通过电脑屏幕表达他们的想法。一旦植入,药丸大小的传感器就可以将大脑皮层(大脑中与记忆、语言、解决问题和思维相关的部分)的电信号发送到一个定制的人工智能算法,该算法可以利用这些信号预测意图的语言。
该脑机接口学会识别与 39 个音素(或最小的语音单元)相关的独特神经活动模式。这些是英语语言中的声音,例如 "qu" 在 "quill" 中的发音,"ear" 在 "near" 中的发音,或 "m" 在 "mat" 中的发音。当患者尝试说话时,这些解码的音素会输入到一个复杂的自动更正程序中,该程序会将它们组装成反映其意图语言的单词和句子。通过持续的练习,人工智能软件能够逐渐提高解读用户大脑信号和准确翻译其语言意图的能力。
“该系统有两个组成部分。第一个是神经网络,它在参与者尝试说话时,实时地从神经信号中解码音素,即语音单元,”该研究的合著者、斯坦福大学电气工程博士生 Erin Michelle Kunz 通过电子邮件表示。“然后,这个网络的输出音素序列被传递到一个语言模型,该模型根据英语语言的统计信息将其转换为文本单词。”
经过 25 次、每次 4 小时的训练,患有肌萎缩侧索硬化症(一种攻击神经系统、影响身体运动和功能的疾病)的 Pat Bennett 会练习数据库中随机选择的句子样本。例如,患者会尝试说:“过去五年一直是这样”或“我半途就走了”。当现年 68 岁的 Bennett 尝试阅读给定的句子时,她的脑活动会记录到植入的传感器,然后植入物会通过连接的电线将信号发送到人工智能软件,算法会根据音素列表解码大脑尝试的语言,然后将这些音素组合成显示在电脑屏幕上的单词。本质上,该算法就像手机在发短信时会启动的自动更正功能。
“该系统经过训练,能够知道哪些单词应该跟在其他单词后面,以及哪些音素构成哪些单词,”Willett 说。“如果有些音素被错误地解读,它仍然可以做出很好的猜测。”
Kunz 和她的团队表示,通过近半年的每周两次软件训练,Bennet 能够以每分钟 62 个单词的速度将她尝试说的语言翻译出来,这比以前记录的基于机器的语音技术更快。最初,该模型的词汇量限制为 50 个单词——用于简单的句子,如“你好”、“我”、“饿了”、“家人”和“渴了”,错误率低于 10%,然后扩展到 125,000 个单词,错误率略低于 24%。
Willett 解释说,这“不是人们可以在日常生活中使用的实际设备”,但它是加快沟通速度的一个步骤,这样语言障碍者就可以更好地融入日常生活。
“对于那些遭受损伤或患有 ALS 并失去说话能力的人来说,这可能是毁灭性的。这会影响他们工作和与朋友家人保持关系的能力,还会影响他们沟通基本生活需求的能力,”Kunz 说。“我们这项工作的目标是改善这些人的生活质量,让他们能够以更自然的方式进行交流,而且速度与正常对话相当。”
观看下面关于该研究的简短视频
