斯坦福大学启动AI心理健康新项目
源新闻来源:Forbes
语言:英文,所在国:美国
分类:AI与医疗健康
斯坦福大学已经启动了一个重要的新项目,名为AI4MH,该项目由斯坦福大学医学院的精神与行为科学系负责。该项目的正式启动日期为2025年4月15日,著名精神病学家和神经科学家Tom Insel博士担任了启动仪式的主讲人。Insel博士以其在心理健康研究和技术方面的杰出工作而闻名,并曾担任国家心理健康研究所(NIMH)的主任。他还创立了几家将高科技融入心理健康护理的公司。
这个对AI突破的分析是我持续报道AI最新进展的一部分,包括识别和解释各种有影响力的AI复杂性(详见此处链接)。
AI与心理健康领域的不断扩展
熟悉我对AI心理健康报道的读者可能会记得,我已经详细审查并回顾了这一快速发展的主题的许多重要方面,在我的专栏文章中发表了超过一百篇相关文章。
这包括分析最新的重要研究论文,以及评估使用生成式AI和大型语言模型(LLMs)进行心理健康治疗的应用程序和聊天机器人的实际效用。我在去年的CBS《60分钟》节目中讨论了这些进展,并将这些分析编入两本广受欢迎的书籍中,描绘了AI对心理健康护理的颠覆和转型。
我非常乐观地分享斯坦福大学医学院在AI4MH上的新举措,并完全预期该计划将为确定AI心理健康的发展方向及其对社会的整体影响提供又一个关键步骤。根据AI4MH的使命声明:
- “AI4MH旨在通过创建和使用负责任的AI来改变精神和行为障碍的研究、诊断和治疗。为了实现这一愿景,我们创建了针对精神病学应用的AI工具,促进其在部门内的使用,促进跨学科合作,并提供前沿知识”(来源:斯坦福大学AI4MH官方网站,详见此处链接)。
感谢AI4MH的组织者们,包括我在启动仪式上遇到的Kilian Pohl教授(精神病学和行为科学系的主要实验室和孵化器)、Ehsan Adeli助理教授(公共卫生和人口科学系)、Carolyn Rodriguez教授(公共卫生和人口科学系)等人,感谢他们敏锐的视野和坚定的热情,使这项至关重要的倡议得以启动。
主旨演讲设定基调
在他的演讲中,Insel博士仔细设定了背景,描绘了当前AI心理健康护理的现状,并深入探讨了这一动态领域的发展方向。他的讲话确立了一个我一直反复强调的重要观点,即我们现有的心理健康护理方法严重不足,需要重新思考和重构当前的做法。
对心理健康护理的需求或说是日益增长的需求是巨大的,但优质治疗师和心理健康顾问的可用性和可及性在许多方面都远远不够。
我很高兴Insel博士将这种直觉性的认识转化为五个主要因素:
- (1) 诊断
- (2) 参与度
- (3) 容量
- (4) 质量
- (5) 责任
我将简要回顾这些重要因素。
五个因素的解释
首先从诊断作为关键因素开始,或许有些人会惊讶地发现,心理健康诊断比想象中更加随意。普通人通常认为存在一种精确且完全可计算的方法来进行心理健康诊断。事实并非如此。如果你浏览DSM-5标准指南,你会很快意识到,诊断过程中存在很大的灵活性和不精确性。结果是,诊断缺乏清晰度,我们需要认识到这是一个严重的问题,需要更多的严谨性和可靠性。
关于DSM-5以及生成式AI如何在执行基于AI的心理健康诊断时依赖于指南内容的详细分析,请参见此处链接。
第二个关键因素是参与度。
问题是这样的。需要或希望获得心理健康护理的人往往无法轻易获得心理健康资源。这可能是由于成本、物流以及其他经济和供需考虑。Insel博士提到一个统计数据,大约60%的潜在受益者没有接受心理健康护理,因此大量人群没有得到所需帮助。这是一个值得密切关注并需要创新思维解决的问题。
相关的第三个因素是容量。
我们没有足够的治疗师和心理健康专业人士及相关设施来满足现有的和不断增长的心理健康护理需求。例如在美国,各种公布的数据显示大约有20万名治疗师和10万名心理学家,支持近3.5亿人口。这个比例显然不够,研究表明,执业心理健康专业人士常常过劳、压力大,难以合理管理可能危及护理质量的工作负荷。
关于治疗师如何使用AI来增强他们的实践,使他们能够更多地关注客户并合理应对增加的工作量,请参见此处链接。
第四个因素是质量。
从其他因素可以看出,质量很容易被削弱。如果治疗师时间紧张,试图尽可能多地看病人,以最大化他们的心理健康护理人数,质量受到影响的可能性是显而易见的。总体而言,即使意图良好,质量也经常是碎片化和间歇性的。还有一种反应式的质量现象,即在意识到质量下降后,短期内质量有所提升,但很快就会消退,其余的限制性基础设施会再次将质量拉回到某种程度的混乱水平。
关于如何使用AI来提高心理健康护理的质量,请参见此处链接。
第五个因素是责任。
彼得·德鲁克有一句名言:“能衡量的东西才能管理。”相应的智慧是,不能衡量的东西很可能管理得不好。对于心理健康护理也是如此。总的来说,关于心理健康治疗结果的数据很少。更糟糕的是,循证心理健康护理的采用很稀少,使我们对治疗效果的整体情况知之甚少。
关于AI作为一种收集心理健康数据并推动循证护理的方法,请参见此处链接和此处链接。
引入AI
演讲明确指出了我们目前在心理健康护理方面存在的系统性问题,如果我们不采取大规模行动,前景将是更加恶化。
心理健康需求的海啸正向我们袭来。目前漂浮的心理健康治疗船队尚未准备好应对这种情况,而且现在几乎已经不堪重负。
该怎么办?
其中一个交织的机会是现代AI的使用。
先进的生成式AI和LLMs的出现已经显著影响了心理健康咨询的各个方面。人们每天都在就心理健康问题咨询生成式AI。最近的研究,如哈佛商业评论中的一项研究,表明生成式AI的第一大用途现在是与治疗相关的建议(我将在即将发布的文章中详细介绍)。
我们还没有确切的数字来说明生成式AI用于心理健康目的的普及程度,但在我的人口层面探索中,我们知道每周有4亿活跃用户使用ChatGPT,可能还有数亿用户与Anthropic Claude、Google Gemini、Meta Llama等交互。估计使用AI获取心理健康见解的比例值得关注,我在此处链接中提供了各种方法。
为什么AI在这方面如此受欢迎
人们转向生成式AI寻求心理健康方面的帮助是有充分理由的。大多数生成式AI应用程序都是免费的,几乎全天候可用,并且可以在地球上的任何地方使用。你可以在几分钟内创建一个账户,立即开始讨论广泛的心理健康问题。
相比之下,寻找和使用人类治疗师则需要经历很多麻烦。首先,你需要找到一个治疗师并确定他们是否符合你的偏好。接下来,你需要与治疗师达成服务协议,安排与治疗师的会话,处理治疗师的时间限制,承担使用治疗师的费用等等。使用人类治疗师有很多摩擦。
当代AI相比之下几乎没有摩擦。
还有更多原因。
人们倾向于喜欢使用AI进行此目的时的匿名感。如果你寻求人类治疗师,你的身份会被知道,一个真实的人会了解你的最深秘密。AI用户假设他们在AI面前基本上是匿名的,AI不会向任何人透露他们的私人心理健康考虑。
另一个角度是,与AI交谈通常比与人类治疗师交谈容易得多。AI已经被AI制造商调整得非常包容。部分原因是保持用户的忠诚度,如果AI过于苛刻,用户可能会转而使用其他供应商的AI。
判断是一个隐藏的考虑因素,也是一个重要的区别。这是这样的。你去看一个人类治疗师。在一个会话中,你可能会感觉到治疗师在评判你,也许是通过他们扬起眉毛或声音变得严厉。治疗师可能会直接对你表达评判,这在提供心理健康指导时是有道理的,尽管最好是以合适的床边态度进行。
使用AI时通常不会出现这种情况。
大多数生成式AI应用程序的默认模式是它们极力避免评判你。这种调整是在AI制造商的指导下进行的(如果你想了解更多,这里有一个未过滤、不受限制的生成式AI可能会对用户说的话,详见此处链接)。
使用AI的用户可以感到完全没有被评判。当然,你可以争论这种方法是否适合进行心理健康咨询,但无论如何,重点是人们更喜欢AI的非评判性区域。
值得一提的是,我演示了你可以轻松提示AI变得更“评判性”,并对你的心理健康更具洞察力,这会覆盖默认设置并提供较少保守的评估(详见此处链接)。在这种情况下,AI不会陷入一味讨好的模式,这似乎与适当的心理健康评估和指导不符。
用户可以根据自己的喜好轻松指导AI,或者使用定制的GPT来提供相同的功能更改,详见此处链接。
使用AI的平衡
在这种情况下使用AI并不是万能的,但它在许多关键方面提供了巨大的优势。我经常被问到的一个反复出现的问题或疑虑是,AI的缺点或陷阱是否会阻碍并可能误导用户在传达适当的心理健康建议方面。
例如,现实是AI制造商通常通过许可协议保留手动检查用户输入数据的权利,并重复使用这些数据来进一步训练他们的AI,详见此处链接。要点是,人们输入的数据不一定会被按照医疗相关的隐私或保密性来处理。
另一个问题是所谓的AI幻觉。有时,生成式AI会产生凭空捏造的内容,看起来像是真实的,但实际上并不基于事实。想象一下,有人正在使用生成式AI进行心理健康咨询,突然AI告诉这个人去做一些不合适的事情。这不好。这个人可能会对AI产生依赖,建立起信任感,而没有意识到AI幻觉的发生。
关于AI幻觉的更多信息,请参见此处链接。
我们该如何看待这些缺点?
首先,我们应该小心不要因噎废食(一句老话)。
全面拒绝AI在这种类型的使用似乎是短视的,甚至可能不切实际(关于禁止某些生成式AI使用的呼吁,详见此处链接)。据我们所知,目前生成式AI在心理健康方面的广泛应用似乎超过了缺点(请注意,还需要更多研究和调查来证实这些事项)。
此外,AI的进步正在缓解或消除许多缺点。AI制造商足够聪明,意识到他们需要不断进步,以满足用户需求并保持产品的可行性和盈利性。
另一个转折点是,AI可以被心理健康治疗师作为其心理健康护理工具箱中的一个组成部分。我们不需要陷入患者要么使用AI要么使用人类治疗师的思维定势——他们可以以一种共同设计的明智方式同时使用两者。传统的非AI方法是经典的客户-治疗师关系。我提出我们正在进入一个新的三方关系,称为客户-AI-治疗师关系。治疗师在心理健康护理过程中无缝使用AI,并拥抱而不是拒绝AI的能力。
关于客户-AI-治疗师三方关系的更多信息,请参见此处链接和此处链接。
我赞同美国心理学家卡尔·罗杰斯的名言:“在我早期的职业生涯中,我问自己,我如何治疗、治愈或改变这个人?现在我会这样问:我如何提供一种关系,让这个人可以用来促进个人成长?”
这种关系将不可避免地包括AI。
前景令人鼓舞
一个非常可能的未来景象是,我们将不可避免地拥有完全自主的AI,能够提供与人类治疗师完全相当甚至超越的心理健康治疗。AI将能够在没有人类治疗师的情况下自主胜任。
这可以比作当今自动驾驶汽车的Waymo或Zoox。作为一个微妙的澄清,目前现有的自动驾驶汽车仅处于标准自主级别的第4级,尚未达到最高级别的第5级。同样,我预测心理健康AI最初将达到第4级,类似于今天的自动驾驶汽车,然后进一步发展到第5级。
关于心理健康AI的自主级别详细解释和框架,请参见此处链接。
我完全同意Insel博士提出的观点,我们需要从投资回报率的角度考虑AI的使用,从而进行苹果对苹果的比较。根据他概述的现有困境中的紧迫问题,我们必须采取审慎的态度,通过比较AI与我们现有的情况进行评估。
我们需要认识到,如果AI被适当地设计和采用,它可以显著帮助克服当前的心理健康护理系统问题。此外,AI可能会打开新的可能性。也许我们会发现AI不仅有助于循证心理健康护理,还会将其推进几步。
巧妙使用AI可能会帮助我们揭示人类心智的工作原理。我们可以从现有的黑箱方法转向理解心理健康,并揭示导致心理健康问题的内部机制。正如Insel博士所说,AI可能是心理健康领域的DNA。
我们显然正处于心理健康护理的大规模颠覆和转型之中,AI是一个令人惊叹和激动人心的催化剂,推动我们朝着定义未来的心理健康护理迈进。让我们都利用我们的主动性和精力来定义和引导即将到来的AI采用,使其对我们所有人有益。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。