在医疗AI中建立信任:HIMSS25关于部署、责任和创新的关键见解
来源:Health Data Management
语言:英语,所在国:美国
分类:科技与健康 , 关键词:AI与医疗健康
信任是医疗AI的基础。在HIMSS25上,医疗领域的领导者通过负责任的部署、透明度和人工监督来建立对AI的信任。
在HIMSS 2025会议上,题为“探索医疗领域生成式AI的微妙之处:部署、信任和负责任的创新”的小组讨论汇集了医疗AI领域的一些最具影响力的声音。该讨论由Health Data Management的首席执行官Mitchell Josephson主持,参与讨论的嘉宾包括:
- MEDITECH市场总监Rachel Wilkes
- Google高级临床专家Peter Clardy博士
- Frederick Health副总裁兼CIO Jackie Rice
讨论的重点是如何部署生成式AI,信任在采用过程中所起的作用,以及AI治理和实施必须如何发展以跟上大规模语言模型(LLM)的快速进步。
AI在医疗中的角色:现实与炒作
小组讨论开始时承认了AI在医疗领域的爆炸性增长以及新模型出现的速度之快。Google的Clardy博士指出,在过去12到18个月里,部署AI工具所需的专业知识显著减少。
“我们看到医疗AI正在迅速民主化,”Clardy解释说。“采用门槛已经大大降低——这意味着即使没有深厚技术专长的机构也可以开始实施这些工具。”
然而,随着AI变得越来越容易获得,信任、治理和实际应用的问题变得更加关键。虽然Google正在开创基础AI技术,但MEDITECH和Frederick Health正在努力将这些创新转化为实际的、适合临床的工作流程。
MEDITECH的Wilkes强调了EHR提供商作为中介的角色,帮助弥合AI开发者和医疗机构之间的鸿沟。
“我们的角色是将尖端AI无缝、高效且安全地引入临床工作流程,”Wilkes解释说。“这意味着要考虑提供者如何与AI互动,需要设置哪些护栏,以及如何保持AI驱动洞察的透明度。”
从AI实验到可扩展解决方案
位于马里兰州的独立社区医院系统Frederick Health一直处于早期AI采用的前沿。该系统的CIO兼副总裁Jackie Rice详细介绍了该组织如何采取慎重且分阶段的方法进行AI集成。
“我们不能坐等观望,”Rice表示。“但我们也不能盲目地实施AI。我们必须确保我们的提供者信任我们引入的工具。”
Frederick Health采取了以下措施逐步部署AI:
- 基因组学和临床试验整合:AI驱动的基因组学工具允许医生在EHR中实时获取药理基因组学见解,帮助他们做出个性化的药物决策。
- AI驱动的搜索和总结:Frederick Health正在试点AI驱动的搜索工具,使提供者能够立即从非结构化记录中提取相关临床数据——这对于通常只有13-15分钟看诊时间的初级保健提供者来说是一个巨大的改变。
- 战略试点而非系统范围的推广:而不是广泛而冒险的部署,Frederick Health选择特定的提供者群体测试AI功能,确保其可用性后再进行扩展。
“我们不会简单地说,‘这是AI——去用它吧’,”Rice强调。“我们从小规模开始,在实际工作流程中进行测试,并根据临床反馈进行改进。”
AI信任方程:透明度和可用性如何影响采用
讨论的一个关键主题是信任如何影响AI的采用。为了让提供者接受AI驱动的决策支持,他们需要了解这些工具是如何生成见解的。
Clardy博士指出,AI驱动的总结面临的最大挑战之一是可能会遗漏临床医生做出知情决策所需的细节。
“将患者的1000页病史总结成一段文字是很棒的——但前提是这个总结准确、无偏见并且适当引用来源,”他说。“如果我们不能显示信息的来源,提供者怎么能信任它呢?”
Google通过确保AI生成的摘要在EHR环境中明确指出信息来源并引用来源来解决这个问题。
平衡创新与谨慎:AI的速度与临床治理
小组讨论中最紧迫的话题之一是如何让医疗机构跟上AI发展的惊人速度。
“我们从未见过创新如此迅速,”Josephson评论道。“AI模型几乎每月都在改进,医疗机构需要找到平衡采用与谨慎治理的方法。”
Clardy博士对此表示赞同,解释说Google必须在创新与责任之间取得平衡,明确哪些AI工具已准备好用于临床部署,哪些仍处于实验阶段。
“‘前沿’和‘临床就绪’之间有很大的区别,”Clardy说。“我们必须清楚今天AI能做什么——以及它还不应该做什么。”
人在环路中:AI作为助手,而不是替代品
在整个讨论中,三位小组成员都强调,医疗AI必须用于增强人类决策——而不是取代它。
Wilkes概述了MEDITECH的基于反馈的AI实施策略,确保临床医生始终控制AI生成的输出。
“我们不希望AI做决策——我们希望它提供见解,使临床决策更高效和准确,”Wilkes说。“我们构建的AI系统有明确的免责声明、人工监督和反馈循环,以便根据实际临床使用情况实时改进技术。”
这种人在环路的方法对于AI驱动的临床文档工具尤为重要。Wilkes描述了MEDITECH如何开发了一种反馈机制,临床医生可以对AI生成的摘要进行评分、建议编辑和报告不准确性。
“我们根据实际临床使用情况积极改进AI,”她指出。“这不是一个‘一劳永逸’的系统——它会根据临床医生的需求不断发展。”
最后的结论:医疗AI信任的三个原则
讨论结束时,小组提出了建立医疗AI信任的三个核心原则:
1. 管理期望——AI并不完美,不应该期望它一夜之间解决所有问题。提供者需要在采用之前了解AI能做什么和不能做什么。
2. 接受反馈并迭代——AI在不断进化,其实施也应该如此。机构需要明确的反馈循环,根据实际临床输入不断改进AI工具。
3. 信任但验证——不应毫无保留地接受任何AI生成的见解。临床医生应被赋予审查、编辑和验证AI驱动输出的能力,然后再采取行动。
展望未来:医疗中的负责任AI部署
小组传达的总体信息很明确:AI将在医疗领域发挥变革作用,但其成功取决于负责任的部署、透明度和信任。
“AI不是魔法棒——它是一种工具,”Wilkes说。“它的价值完全取决于我们如何实施、管理和根据实际临床需求进行改进。”
对于医疗领导者来说,未来的挑战将是找到创新与谨慎之间的正确平衡,确保AI改善患者护理的同时,保持最高的准确性、隐私性和信任标准。
有了像Google、MEDITECH和Frederick Health这样的组织引领潮流,医疗AI的未来充满希望——但前提是负责任地实施。
(全文结束)