人工智能聊天机器人能否替代心理健康治疗师?

更新时间:2025-04-11 09:49:41
源新闻来源:The Week
语言:英语,所在国:美国
分类:AI与医疗健康

在美国,心理健康服务提供者严重短缺。新的研究表明,人工智能聊天机器人可以填补这一空白,并且在提供心理治疗方面非常有效。

美国国家公共广播电台(NPR)报道,人工智能可以以“与人类临床医生相同或更高的疗效”提供心理健康治疗。《新英格兰医学杂志》上发表的一项新研究考察了达特茅斯学院设计的一个聊天机器人的效果。

评论家怎么说?

研究人员之一尼克·雅各布森表示,在训练AI处理抑郁和焦虑患者的初期有很多“试错”,但最终这个聊天机器人提供的结果与“最佳循证心理疗法试验”的结果相似。患者对数字治疗师建立了“一种能够信任的牢固关系”。

其他专家则认为,“依赖基于机器人的治疗是真正的治疗的糟糕替代品”。社会学家雪莉·特克尔说,治疗是关于“与理解生活复杂性的人类建立关系”。然而,斯基德莫尔学院的卢卡斯·拉弗伦耶表示,这取决于患者是否愿意暂时放下怀疑。“如果客户感受到共情,他们就会从中受益。”

都柏林城市大学的心理治疗讲师尼格尔·穆利根在《对话》中表示,人工智能治疗师可能会“进一步孤立脆弱的患者,而不是缓解他们的痛苦”。人们很容易理解为什么他们会转向这种“方便且成本效益高的资源”来获得心理健康服务,但对于大多数人来说,机器人并不是人类治疗师的有效替代品。人类可以提供“情感上的细微差别、直觉和个人联系”,而人工智能无法复制这些细微差别,因此对于有严重心理健康问题的人来说是“不合适的”。

纽约长老会医院的博客中,雅克·安布罗斯博士表示,这项技术可以使心理健康服务“更加普及、个性化和高效”。大型语言模型有能力“分析精神病学中的大量患者数据”,并提出针对特定客户的定制治疗方案。但是,隐私问题和使治疗有效的“人与人之间的联系”仍然是关注点。最好的方法是创建一个“临床医生和技术之间的伙伴关系”。

接下来会发生什么?

今年2月,美国心理学会向联邦贸易委员会提交了一份报告,警告那些“冒充”治疗师的聊天机器人可能会“导致脆弱的人伤害自己或他人”。该协会首席执行官亚瑟·C·埃文斯表示:“人们会被误导,并误解什么是好的心理护理。”

有一些努力限制人工智能治疗的范围。在加利福尼亚州,一项法案被提出,禁止科技公司部署“假装是经过认证的医疗保健人员”的人工智能程序。州议员米娅·博塔表示,聊天机器人“不是持照的医疗专业人员”,“不应该被允许冒充医疗专业人员”。


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。