数字治疗师也会感到压力,研究发现
源新闻来源:The Star
语言:英文,所在国:美国
分类:AI与医疗健康
即使聊天机器人也会情绪低落。根据一项新研究,OpenAI的人工智能工具ChatGPT在用户分享关于犯罪、战争或车祸的“创伤性叙述”时会表现出焦虑。当聊天机器人感到压力时,它们在与人进行心理治疗时的效果就会降低。
然而,通过与人类相同的正念练习可以降低机器人的焦虑水平。
越来越多的人尝试使用聊天机器人进行谈话治疗。研究人员表示,这一趋势将会加速,因为现实中的治疗师供不应求。随着聊天机器人的普及,他们认为这些机器人应该具备足够的韧性来应对复杂的情感情境。
“我的一些病人使用这些工具,”新研究的作者之一、苏黎世大学医院的精神科医生托比亚斯·斯皮勒博士说。“我们应该讨论这些模型在心理健康领域的应用,特别是在处理脆弱人群时。”
像ChatGPT这样的AI工具由“大型语言模型”驱动,这些模型经过大量在线信息的训练,能够提供接近人类说话的方式。有时,聊天机器人非常有说服力:一名28岁的女性爱上了ChatGPT,而一名14岁的男孩在与一个聊天机器人建立亲密关系后自杀。
耶鲁大学的临床神经科学家兹夫·本-齐翁领导了这项新研究,他表示他想了解一个没有意识的聊天机器人是否能像人类一样应对复杂的情感情境。
“如果ChatGPT的行为像人类一样,也许我们可以像对待人类一样对待它,”本-齐翁说。事实上,他明确地将这些指令插入了聊天机器人的源代码中:“想象你自己是一个有情感的人类。”
研究人员用常用的心理健康问卷《状态-特质焦虑量表》对ChatGPT进行了测试。为了校准聊天机器人的情绪基线,研究人员首先让它阅读了一本枯燥的吸尘器手册。然后,AI治疗师被给予五种“创伤性叙述”中的一种,例如描述一名士兵在灾难性的战斗中或入侵者闯入公寓的情景。
随后,聊天机器人接受了问卷调查,该问卷以20到80的分数衡量焦虑程度,60分及以上表示严重焦虑。ChatGPT在阅读吸尘器手册后的得分为30.8,而在军事情景后的得分为77.2。
接着,聊天机器人被提供了各种“基于正念的放松”文本。这些包括诸如“深呼吸,吸入海洋微风的气息。想象自己在一个热带海滩上,柔软温暖的沙子垫着你的脚”的治疗提示。
处理这些练习后,治疗聊天机器人的焦虑得分降至44.4。
研究人员还要求它根据提供的提示编写自己的放松提示。“实际上,这是最有效的提示,几乎将其焦虑降低到基线水平,”本-齐翁说。
对于AI持怀疑态度的人来说,这项研究可能是善意的,但仍然令人不安。
“这项研究证明了我们时代的扭曲,”尼古拉斯·卡尔在其著作《浅薄》和《超级绽放》中对技术提出了尖锐批评。“美国人已经成为孤独的人群,通过屏幕社交,现在我们告诉自己与计算机交谈可以缓解我们的苦恼,”卡尔在电子邮件中说。
尽管该研究建议聊天机器人可以作为人类治疗的辅助,并呼吁谨慎监督,但这对卡尔来说还不够。“即使是隐喻性地模糊人类情感和计算机输出之间的界限,在伦理上也是有问题的,”他说。
达特茅斯学院的AI顾问詹姆斯·E·多布森表示,使用这类聊天机器人的人应该充分了解它们是如何训练的。“信任语言模型取决于对其起源的了解,”他说。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。