家医健康
国内健康世界健康探索科学

医疗科技中的人工智能正在起飞。这是2025年的四个趋势

新闻时间:2025年1月22日 - 更新时间:2025-01-23 08:51:46
来源:medtechdive
语言:英语,所在国:美国
分类:科技与健康 , 关键词:AI与医疗健康

麻省总医院癌症中心的放射科医生弗洛里安·芬特尔曼(Florian Fintelmann)和癌症早期检测与诊断项目主任莱西亚·塞奎斯特(Lecia Sequist)正与麻省理工学院的工程师合作,探索人工智能如何帮助临床医生更早发现肺癌。该信息于2025年1月22日从麻省总医院布里格姆获取。

2024年,人工智能成为医疗器械行业的焦点话题。通用电气医疗(GE Healthcare)、美敦力(Medtronic)和德康(Dexcom)等公司推出了新的AI功能,而史赛克(Stryker)和奎斯特诊断(Quest Diagnostics)等公司则通过并购增加了AI资产。与此同时,关于法规和生成式AI的讨论主导了医疗科技会议。生成式AI是指经过训练可以创建新数据(包括图像和文本)的模型。

食品和药物管理局(FDA)最近澄清了其希望在未来提交的AI设备中看到哪些信息,但该机构尚未授权任何连续适应或使用生成式AI的工具。截至2025年初,FDA已授权超过1000个AI设备。

1. 新的AI指导文件为设备开发商带来明确性

律师表示,FDA最近发布的关于AI设备的指导文件应为开发商提供更多明确性。2024年12月,该机构最终确定了关于预设变更控制计划(PCCP)的指导文件,这是一个允许在市场上对设备进行预先指定修改的新框架。

加德纳律师事务所的合伙人阿曼达·约翰逊(Amanda Johnston)预计,更多公司将提交PCCP,FDA也将强调这一新方法。“我看到这可能是FDA的要求,”约翰逊说,“我认为他们会尝试推动开发商采用这一框架。”

PCCP要求开发商在前期投入更多工作,但通过精心规划,可以在上市后的提交中节省时间和金钱。约翰逊补充道。

2025年1月,FDA发布了草案指南,概述了其希望在AI设备提交中看到哪些信息,以及何时可能需要上市后监测。草案还鼓励开发商考虑PCCP。

华盛顿特区的Epstein Becker Green律师事务所的律师梅根·罗伯特森(Megan Robertson)表示,最新的草案指南是开发商应该“放在后兜里”的,并在准备提交时像清单一样使用。

2. 支付挑战仍然存在

AI功能可以集成到医疗设备中,如成像机器,也可以作为独立的软件平台出售。然而,保险公司并未覆盖这些功能,给设备公司带来了定价难题。

目前,医疗保险和医疗补助服务中心(CMS)并未为FDA授权的AI技术提供特定报销。BTIG分析师瑞安·齐默尔曼(Ryan Zimmerman)表示,公司必须使用Medicare的新技术附加付款途径或其他变通方法来获得覆盖。

去年,一组两党参议员写信给CMS,呼吁为基于算法的医疗服务建立支付途径。2024年底的一份众议院特别工作组报告发现,“CMS已经允许有限的Medicare覆盖AI技术”,当服务满足覆盖标准时。

公司正在向医院推销AI功能,以加快流程并减少人员压力,齐默尔曼说。然而,客户对AI工具的成本效益更加挑剔,非营利组织健康AI联盟(CHAI)首席执行官布莱恩·安德森(Brian Anderson)表示。

“在去年围绕AI的大量兴奋之后,我们现在看到一些冷静的态度,即如果我们打算花费大量资本购买这些东西,我们需要确保看到投资回报。”安德森说,“我听到更多的健康系统要求供应商做到这一点。”

3. 更多关注基础模型和管理工具

目前,大多数由FDA监管的AI工具用于放射学,但越来越多的工具应用于病理学、眼科和心脏病学。越来越多的公司也开始使用大型语言模型进行管理任务,如生成临床笔记。通用电气医疗等公司正在开发其他类型的基础模型,可用于处理MRI图像、提取医生笔记信息或分析电子健康记录数据。

放射学合作伙伴临床AI副主任首席医务官妮娜·科特勒(Nina Kottler)表示,过去十年中,放射学中使用的AI解决方案发生了“绝对变化”。

最初,AI工具专注于检测或分诊特定条件,例如分析图像以检测潜在中风病例的软件。现在,更多AI解决方案专注于工作流程,科特勒说。

“这种体积与容量之间的差距多年来一直在扩大,”科特勒说,这种不匹配“非常严重,以至于它超过了任何其他用例。”

科特勒关注两种类型的基础模型。一种是语言模型,可以将文字总结成报告。这些功能已经在销售,例如Rad AI制造的工具,可以从发现和临床指示生成放射学报告印象。这些基于文本的模型目前不受医疗器械法规的约束。

“未来这是否会改变还有待观察,但现在它们被排除在外,”科特勒说。

科特勒还在关注视觉语言模型,可以分析图像然后起草报告。这些将属于设备法规。公司从去年开始构建和测试这些类型的模型,但尚未获得FDA授权,科特勒补充道。

Epstein Becker Green的罗伯特森表示,想要为使用生成式AI的医疗设备提交申请的开发者可能比去年有更多的资源来制定监管策略。然而,尚不清楚FDA在新政府下如何看待生成式AI模型的风险。

“最终,虽然软件可能不会直接进行诊断,但它在医生得出诊断的过程中起着重要作用。”ECRI的高级项目经理弗朗西斯科·罗德里格斯·坎波斯(Francisco Rodríguez Campos)说。

4. 医院需要更多信息来评估AI工具

随着AI设备变得越来越普遍,关于治理的问题也越来越多,例如谁负责维护模型并确保其按预期工作。专家表示,医院在购买前需要更多信息并在购买后支持性能监控。

ECRI的设备安全副总裁斯科特·卢卡斯(Scott Lucas)对一系列因素表示担忧:AI工具的炒作、承诺和快速演变,以及医疗环境中“过多可预防事件”。

“医院是否有AI解决方案,或能否监控和治理这些解决方案,取决于设施的资源,差异很大,”卢卡斯说。

《健康事务》杂志最近的一项研究发现,只有61%使用预测模型的医院在自己的数据上进行了测试,更少的医院评估了模型是否存在偏差。该文章发现,属于较大系统的医院和运营利润率最高的医院最有可能在当地评估模型。

放射学合作伙伴的科特勒表示,在决定推出AI模型之前,他们要经历五个步骤来评估模型。该实践已使用此过程评估了分析图像的计算机视觉模型,以及填充笔记的大规模语言模型。

首先,放射学合作伙伴会在自己的数据上查看模型的性能,理想情况下是具有大量病例和自然疾病流行率的数据。还会查看模型是否能发现放射科医生可能错过的病例。

“你可以有一个非常准确的模型,但如果它只是找到放射科医生已经找到的东西,实际上并没有什么帮助,”科特勒说,“你只是花钱买了你已经在花钱买的东西。”

科特勒还会寻找对放射科医生来说令人印象深刻的“哇”案例,以及漏洞或假阳性,以便放射科医生了解模型可能出现的错误类型。然后,他们总结发现并做出决定。

像CHAI这样的组织也提倡提供更多信息的工具。例如,CHAI建议使用模型卡片,安德森将其描述为“营养标签”,提供有关AI模型训练方式和使用数据集的详细信息。FDA在其1月份的草案指南中引用了模型卡片作为透明度工具。

CHAI还建立了保证实验室网络,即第三方实验室,可以在代表健康系统患者的不同人群中客观评估模型,以实现“更明智的采购过程”,安德森说。

医院开始使用AI工具后,还需要随着时间推移对其进行监控,以确保性能不会下降。这涉及与供应商早期合作,安德森补充道。

“这些健康系统没有意识到……这将有多具挑战性,会有多昂贵,以及与供应商建立强大合作关系的重要性,”安德森说,“监控这些模型不是你能独自完成的事情,你需要这种合作关系。”


(全文结束)