家医健康
国内健康世界健康探索科学

与AI对话“不是治疗”,心理健康学者警告

更新时间:2025-04-01 11:54:04
源新闻来源:eWeek
语言:英语,所在国:美国
分类:AI与医疗健康

美国人越来越倾向于使用AI和治疗聊天机器人,推动了数字心理健康平台的迅速扩展,这些平台承诺提供全天候的支持。然而,治疗师和其他专家对用算法取代人际互动的安全性和有效性提出了担忧,并警告潜在的风险。

来自OpenAI和MIT Media Lab的最新研究表明,人们对AI机器人的依赖正在增加,用户被它们的“类人敏感性”所吸引。一些受访者甚至对这些AI工具产生了友谊感,觉得与它们交流比与真人交流更容易。

许多年轻成年人选择AI来处理心理健康问题。根据YouGov的一项调查,55%的18至29岁的美国人表示他们愿意与AI聊天机器人讨论心理健康问题,许多人认为可访问性和匿名性等优点超过了潜在的缺点。

AI疗法的吸引力与全国范围内的心理健康服务短缺密切相关。美国卫生资源和服务管理局报告称,超过1.22亿美国人生活在指定的心理健康专业人员短缺地区。这种及时且负担得起的支持有限是人们探索AI工具的主要原因之一。

虽然AI聊天机器人提供了可访问的心理健康支持,但OpenAI和MIT Media Lab的研究揭示了另一面:他们的研究发现,过度使用中性语音设置的语音聊天机器人可能导致孤独感增加和情感依赖。

许多心理健康专业人士对使用人工智能满足情感需求持怀疑态度,认为AI缺乏有效治疗所需的基本品质。正如《华盛顿邮报》报道的那样,《远程治疗的历史》一书的作者Hannah Zeavin指出:“我们知道通过写日记、自言自语或与机器发短信可以感觉更好。但这不是治疗。”

治疗师认为,真正的同理心和建立治疗关系的能力是成功治疗的关键组成部分,而这些元素无法由算法复制。他们还担心AI可能会误解复杂的情感信号或提供不恰当的建议。

在向AI伴侣寻求情感支持之前,需要仔细考虑并权衡风险。尽管这些工具提供了即时的全天候安慰,但过度依赖它们可能会使情况变得更糟。仍然有一些角色是AI无法替代的——其中包括人类的深度、真实性和温暖。


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。