AI系统利用患者自身声音恢复瘫痪患者的言语能力

更新时间:2025-04-17 02:50:14
源新闻来源:Fox News
语言:英语,所在国:美国
分类:AI与医疗健康

加利福尼亚的研究人员在一项临床试验中取得了重大突破,他们开发了一种由人工智能驱动的系统,能够实时恢复瘫痪患者的自然语音,并使用患者自身的声音。这项创新技术是由加州大学伯克利分校(UC Berkeley)和加州大学旧金山分校(UC San Francisco)的研究团队共同开发的,它结合了脑机接口(BCI)和先进的人工智能技术,将神经活动解码为可听的语音。

与最近其他尝试从脑信号创建语音的技术相比,这个新系统是一个重大进步。该系统使用高密度电极阵列等设备直接从大脑表面记录神经活动,同时使用穿透大脑表面的微电极和放置在面部的非侵入性表面肌电图传感器来测量肌肉活动。这些设备通过大脑获取神经活动数据,然后人工智能学习将这些数据转换成患者的声音。

神经假肢从大脑的运动皮层采样神经数据,该区域控制语音产生。根据研究的共同主要作者Cheol Jun Cho的说法,神经假肢在思想转化为发音的过程中拦截信号,并在其中进行运动控制。

关键进展

  • 实时语音合成:基于人工智能的模型可以近乎实时地从大脑中流式传输可理解的语音,解决了语音神经假肢中的延迟问题。Gopala Anumanchipalli表示,这种“流式方法将Alexa和Siri等设备的快速语音解码能力带到了神经假肢中”。该模型以80毫秒的增量解码神经数据,使解码器能够不间断地使用,进一步提高了速度。
  • 自然主义语音:该技术旨在恢复自然主义语音,实现更流畅和富有表现力的交流。
  • 个性化声音人工智能训练使用患者受伤前的声音,生成听起来像他们的音频。对于没有残余发声能力的患者,研究人员使用预训练的文本到语音模型和患者受伤前的声音来填补缺失的细节。
  • 速度和准确性:系统可以在患者试图说话的一秒钟内开始解码大脑信号并输出语音,这是对2023年的一项研究中八秒延迟的重大改进。

克服挑战

一个关键挑战是在患者没有残余发声能力的情况下,将神经数据映射到语音输出。研究人员通过使用预训练的文本到语音模型和患者受伤前的声音来克服这一挑战。

影响和未来方向

这项技术有可能显著改善瘫痪患者和ALS等疾病患者的生活质量。它使他们能够表达需求、传达复杂的思想并与亲人更自然地交流。加州大学旧金山分校的神经外科医生Edward Chang表示:“令人兴奋的是,最新的人工智能进步正在极大地加速BCI的实际应用。”

下一步包括加快人工智能的处理速度,使输出的声音更具表现力,并探索将音调、音高和响度变化纳入合成语音的方法。研究人员还希望从脑活动中解码副语言特征,以反映音调、音高和响度的变化。


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。