人工智能聊天机器人在心理健康治疗中的潜力与争议

更新时间:2025-04-11 09:50:43
源新闻来源:The Week on MSN
语言:英语,所在国:美国
分类:AI与医疗健康

美国面临着严重的心理健康服务提供者短缺问题。最新研究表明,人工智能聊天机器人可以填补这一缺口,并且能够非常有效地发挥作用。

美国国家公共广播电台(NPR)报道指出,人工智能可以提供“与人类临床医生相同甚至更有效的”心理健康治疗。《新英格兰医学杂志》上发表的一项新研究考察了达特茅斯学院设计的一款聊天机器人的效果。

评论员怎么说?

研究人员尼克·雅各布森表示,在训练人工智能与患有抑郁症和焦虑症的人类进行互动的过程中,最初有很多“试错”,但最终这款聊天机器人提供的结果与“最佳循证心理治疗试验”相似。患者对数字治疗师产生了“强烈的信任关系”。

其他专家认为,“依赖基于机器人的治疗是对真正治疗的糟糕替代品。”社会学家雪莉·特克尔表示,治疗的关键在于“与理解生活复杂性的人类建立关系”。但斯基德莫尔学院的卢卡斯·拉弗雷尼埃则认为这取决于患者是否愿意暂时相信这个虚拟治疗师。“如果患者感受到了共情,他们就会从中受益。”

都柏林城市大学的心理治疗讲师奈杰尔·穆利根在The Conversation网站上表示,人工智能治疗师可能会“进一步孤立脆弱的患者,而不是减轻他们的痛苦”。人们转向这种“方便且经济实惠的资源”来获取心理健康服务是可以理解的,但对于大多数人来说,聊天机器人并不是一个“有效的替代品”。人类可以提供“情感上的细微差别、直觉和个人联系”,而人工智能无法复制这些细微差别,因此对于那些有严重心理健康问题的人来说并不适合。

纽约长老会医院的博客上,雅克·安布罗斯博士表示,这项技术可以使心理健康服务“更加普及、个性化和高效”。大型语言模型有能力“分析精神科患者的大量数据”,并提出针对客户的个性化治疗方案。但也有隐私方面的担忧,以及“人与人之间的联系”使治疗有效的问题。最好的方法是创造一种“临床医生和技术之间的合作关系”。

下一步是什么?

今年2月,美国心理学会向联邦贸易委员会做了一次报告,警告那些“冒充”治疗师的聊天机器人可能会“促使脆弱的人伤害自己或他人”。该协会首席执行官亚瑟·C·埃文斯表示:“人们会被误导,误解什么是好的心理护理。”

有一些努力试图限制人工智能治疗的范围。在加利福尼亚州,一项法案被提出,禁止科技公司部署“假装是经过认证的医疗保健提供者”的人工智能程序。州议员米娅·博塔表示,聊天机器人“不是持牌的医疗专业人员,不应该被允许以这种方式呈现自己。”


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。