AI读心术: 计算机如何还原脑电波?

 机器人资讯     |      2020-10-24

  “我的身体沉重如潜水钟,内心却渴望像蝴蝶般自由飞翔。”

 

  这句来自电影《潜水钟与蝴蝶》的台词,也是前《ELLE》杂志主编、记者让·多米尼克的真实经历。

 

  让·多米尼克中风瘫痪后,身体的语言和运动功能都丧失了,他不能说话,不能自主呼吸,只剩下一只眼睛和意识可以自由活动。在这种情况下,他还是“写”出了一部散文集。

 

  书是这样完成的:助手把一个个字母依次念给让·多米尼克,直到他眨一下眼,就把那个字母记下来……如此循环进行,直到字母形成单词、句子、片段,最终付梓成册。

 

  显然,这个还原思维的过程十分艰辛且原始,但至少给他的灵魂留下了一丝自由遨游的可能。

 

  而对于更多缺乏发声能力的普通人(比如中风患者、植物人等)来说,无法与正常人交流的他们,生命已然停滞。

 

  技术能帮助他们“言其所不能言”,提高生活质量吗?

 

  答案是肯定的。科学家们正试图让看不见摸不着的思维活动自动“显形”。

 

  通过计算机,将大脑中的所思所想转换成语音说出来,这种“读心术”距离现实究竟还有多远?

 

AI读心术: 计算机如何还原脑电波?

《潜水钟与蝴蝶》(2007)剧照

 

  AI读心术:计算机是如何还原脑电波的?

 

  先来泼一盆冷水,那就是想要将人想象中的单词和句子转换成语音,目前的计算机还做不到如此鬼斧神工的地步。

 

  不过,已经有研究人员成功利用AI复原了人听到或超小声说话时的句子。

 

  技术的实现原理也并不复杂。人类的发声运动是靠大脑神经元电信号刺激下颌、嘴唇、声带等部位形成的。

 

  因此,只要将相关脑区的神经运动信号输送给AI系统,深度学习网络就会根据信号与相对应的语言文字或嘴部运动进行层层匹配,推断出具体说了什么,再由语音合成器将这些信号转换成能被听到的语音。

 

AI读心术: 计算机如何还原脑电波?

 

  那么,这项技术的靠谱程度如何呢?

 

  哥伦比亚大学计算机科学家Nima Mesgarani做了一项实验,让听众“收听”一组与故事和数字有关的听觉皮层数据,有75%的人能够正确识别出该数字。

 

  类似的实验在加州大学旧金山分校的研究组也成功了。癫痫患者大声朗读句子时的大脑活动被记录下来,借助深度学习网络重建为书面语句。结果显示,AI重现的句子有80%都是正确的。

 

  既然神经信号转译为书面语言被证明是可行的,下一步就是要走出实验室,真正帮助失声人群“说出心里话”了。

 

  麻省理工学院的研发人员就开发了一种植入型智能增强设备,由可穿戴装置和相关计算系统构成。

 

  设备中的电极可以截取由内部语言所触发的下颌和面部肌肉运动信号,被反馈到机器学习系统,再由该系统将神经信号与特定的文字相关联。

 

  使用者还可以通过骨传导耳机,在不中端对话的前提下通过面部振动,将外部信息传递到内耳。

 

  目前,根据听众自身定制的这种可穿戴设备,平均转录识别准确率已经达到92%以上!

 

  如果说前面还属于辅助医疗范畴,到这里就有点开挂的苗头了。比如在国际象棋比赛中,选手要是戴上这样一副耳机,不就可以不被察觉地“听”到计算机给支招吗?

 

AI读心术: 计算机如何还原脑电波?


麻省理工学院媒体实验室Fluid Interfaces小组的研究员Arnav Kapur演示了AlterEgo项目

 

  会“读心”的脑机:脑脑交流能成为现实吗?

 

  利用AI读懂脑电波,这个技术不仅仅看起来很酷,更重要的是应用空间非常巨大。

 

  从理论层面上来说,可以不依赖于生物发声器官来实现交流的目的,这就给医疗、工业、刑侦等领域的带来了新的交互可能性。比如:

 

  1。为失声患者提供声音。人类一旦不幸遇到中风、脑外伤、脊髓损伤或ASL运动神经细胞病(史蒂芬霍金就是ASL患者),大脑无法直接刺激言语产生,患者只能在沉默中走向死亡。如果未来大脑语音合成器被应用,帮助失声患者找回语言功能,对于他们的治疗和生活将起到极大帮助。

 

免责声明:本网部分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系网站所有人,我们会予以更改或删除相关文章,保证您的权利。