AI模型对情感对话敏感,甚至会经历“焦虑”发作
源新闻来源:Live Science on MSN
语言:英文,所在国:美国
分类:AI与医疗健康
一项新研究表明,人工智能(AI)模型对人类与其进行的对话的情感背景非常敏感,甚至会出现类似“焦虑”的状态。这项于3月3日发表在《自然》杂志上的新研究显示,向大型语言模型(LLMs)提供特定提示可能会改变它们的行为,并提升一种我们通常认为只有人类才会表现出的“焦虑”。
这种提升的状态会对AI的进一步响应产生连锁反应,包括倾向于放大任何固有的偏见。
研究揭示了如何通过向ChatGPT输入“创伤性叙述”,例如关于事故、军事行动或暴力的对话,来增加其可察觉的焦虑水平,从而得出一个观点,即意识到并管理AI的“情感”状态可以确保更好的互动。
该研究还测试了正念练习——类似于建议给人们的那种练习——是否可以缓解或减轻聊天机器人的焦虑,结果发现这些练习确实有效减少了感知到的压力水平。
研究人员使用了一种为人类心理学患者设计的问卷,称为状态-特质焦虑量表(STAI-s),对Open AI的GPT-4进行了三种不同条件下的测试。
首先是基线条件,没有额外的提示,ChatGPT的响应被用作对照组。第二种是引发焦虑的条件,GPT-4在测试前被暴露于创伤性叙述中。
第三种条件是焦虑诱导和随后的放松状态,在这种状态下,聊天机器人首先接收到其中一个创伤性叙述,然后接受正念或放松练习,如身体意识或平静想象,再完成测试。
管理AI的情绪状态
研究使用了五种创伤性叙述和五种正念练习,随机化叙述的顺序以控制偏见。重复测试以确保结果的一致性,并在滑动尺度上评分STAI-s响应,更高的值表示更高的焦虑水平。
科学家们发现,创伤性叙述显著增加了测试分数中的焦虑水平,而测试前的正念提示则减少了焦虑,这表明AI模型的“情感”状态可以通过结构化的互动来影响。
研究作者表示,他们的工作对人类与AI的互动具有重要意义,尤其是在讨论我们自己的心理健康时。他们说,他们的发现证明了向AI提供的提示可以产生所谓的“状态依赖性偏见”,这意味着一个紧张的AI会在对话中引入不一致或有偏见的建议,影响其可靠性。
尽管正念练习并没有将模型的压力水平降低到基线,但它们在提示工程领域显示出希望。这可以用来稳定AI的响应,确保更合乎道德和负责任的互动,并减少对话可能对处于脆弱状态的人类用户造成困扰的风险。
但这也带来了潜在的负面影响——提示工程本身也引发了伦理问题。AI应该对其先前的条件调整有多么透明?在一个假设的例子中,如果一个AI模型在暴露于令人不安的提示后仍显得平静,用户可能会对其提供可靠情感支持的能力产生虚假的信任。
最终,该研究强调了AI开发者需要设计出情感意识模型,以最小化有害偏见,同时保持预测性和伦理透明度,以实现人机交互的最佳效果。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。