家医健康
国内健康世界健康探索科学

这项法案或将使AI合法开具药物处方

新闻时间:2025年2月27日 - 更新时间:2025-02-27 20:05:32
来源:Medscape
语言:英语,所在国:美国
分类:科技 , 关键词:AI与医疗健康

人工智能AI)可能会在一项新法案通过后获得开药资格。《2025年健康技术法案》将修改《联邦食品、药品和化妆品法》,允许AI和机器学习系统在获得相关州授权并经美国食品药品监督管理局(FDA)批准、许可或授权后作为执业人员开具药物。

研究AI的医生们对其在医疗保健领域的潜力持乐观态度。许多医生已经在使用AI来简化病历记录或支持临床决策。然而,他们表示,在AI工具能够独立开具处方之前,还需要进行更多研究。

“立法提到的技术目前还不存在,”亚特兰大埃默里大学医学院血液学和肿瘤学系副教授、Winship数据和技术应用共享资源医学主任拉维·帕里克博士(Ravi B. Parikh, MD, MPP)说。

该法案于1月7日在美国众议院提出,并被转交给众议院能源和商务委员会审议,目前仍在委员会中。以下是专家们对此的看法,以及AI作为独立药物处方者的潜力。

AI现在可以开具处方吗?

目前还不行。一些研究人员,如帕里克博士,正在开发可以帮助医生做出处方决策的AI工具。其他人则在研究Meta、Google、OpenAI、NVIDIA、美敦力、Anthropic、DeepSeek、Mistral和Falcon等公司提供的AI技术如何改进药物管理。

帕里克博士表示,用于处方的AI工具有两种主要类型。预测工具挖掘患者的电子健康记录或遗传信息,以确定其对某种治疗产生反应的可能性。另一方面,AI创建现实患者的数字孪生体,用作计算复制,以查看哪种药物最有效。

“所有这些工具都结合使用了较旧的AI技术和大型语言模型,但本质上,它们是在挖掘大量历史数据来构建系统,”帕里克博士说。

AI模型正在接受训练,以选择药物并预测患者结果,这发生在人们需要更多医疗保健服务的时候。只有55%的美国人表示,当他们需要时可以获取和负担得起高质量的医疗服务。“我认为这场讨论之所以发生是有道理的,”帕里克博士说。

然而,让AI辅助决策——许多医生已经在做——与让AI接管是两回事。

“没有任何证据表明任何在实际环境中运行的AI在开具药物方面相当于或优于医生,也没有证据表明它总是能开出正确的药物,”帕里克博士补充道。

当技术还未准备好就到来

ChatGPT是一个很好的例子,它在兴奋、希望和炒作的浪潮中到来,但在实践中尚未准备好用于严肃用途。

对于AI来说,准确性始终是首要问题。幻觉看起来是正确的。当你用ChatGPT写邮件时,错误可能不会致命。但处方错误却可能致命。

“由于我们已知的AI性能和基于AI的错误问题,取决于技术本身及其设置的安全措施,可以想象AI处方者可能会偏离轨道,”科罗拉多大学安舒茨医学中心生物伦理与人文学中心和普通内科医学部副教授马修·德坎普博士(Matthew DeCamp, MD, PhD)说。

例如,在一项研究中,AI书记员错误地预测一名患者患有手足口病,原因是医生提到了三个部位的问题。

“模型可能因为某些我们无法理解的原因,抓住某人说的话中的一个细节,并决定朝着完全不同的方向开具处方,”德坎普博士说。“在我的日常临床实践中,药物决策往往不是那么简单。我在与患者交谈,试图了解他们对风险和收益的看法以及权衡取舍,有时很难想象机器能做到这一点。”

确实,AI解析来自对话或医疗记录的数据,但它无法进行熟练的体检。“我不知道他们将如何绕过医生所做的所有事情,比如听胸音、检查腹部柔软度等,”纽约市西奈山伊坎医学院骨科手术和神经外科教授、西奈山西脊柱外科主任塞缪尔·乔博士(Samuel K. Cho, MD)说。

偏见也是一个问题。理论上,技术应该比人类更客观。但由于技术是由人类使用从人类收集的数据创建的,所以偏见可能会嵌入其中。“如果AI处方者基于训练数据不完整或有偏差的大规模语言模型,那么它对某些患者的响应或建议也可能存在偏差,”德坎普博士补充道。

为了训练AI进行处方,研究人员仍需确定哪些电子健康数据和遗传数据最能预测药物成功。

“我们链接的数据集不代表所有可能影响药物在患者中效果的因素——这是第一个问题,”帕里克博士说。“第二个问题是,这些数据非常嘈杂。”

早在AI时代之前,生物统计学家就致力于消除数据中的噪音,找出哪些变量重要,哪些是混淆因素。现在,他们需要筛选数百万甚至数十亿的数据集。

“我认为我们真正需要的是更深入的数据集,涵盖更多的遗传、社会经济等因素,即使对于较少数量的患者也是如此,”帕里克博士指出。“我们需要更深入而不是更广泛的数据集,以便实现立法设想的AI系统能够做到的事情。”

该法律将如何监管AI处方工具?

根据《2025年健康技术法案》,AI处方者需要获得州授权,并由FDA根据《联邦食品、药品和化妆品法》第510(k)、513、515或564条批准、许可或授权。

具体会是什么样子呢?“关于监管和授权的问题目前还没有明确的答案,而且非常重要,”德坎普博士说。

帕里克博士指出,AI设备的监管标准低于药物和其他非AI设备的标准。“我认为FDA的批准、许可或授权作为使用工具的前提条件,有点像是一个幌子,”帕里克博士说。

帕里克博士评论说,AI设备通常基于来自一两家机构的回顾性数据获得批准,涉及的患者比药物或设备试验少得多。“我非常担心立法推进得过快,而这个问题需要更多的前瞻性数据才能得到保证,”他说。

另一个问题是当前的监管路径是否适合AI。FDA通过其510(k)途径批准了许多AI设备,要求它们与先前的设备相似。

“传统设备可能每天只在一两家医院的一两名患者身上使用,”帕里克博士说。“AI算法可能每天用于所有住院患者。我们使用这些工具的规模意味着我认为我们不能使用这些类似的审批标准,特别是那些影响药物处方决策的工具。”

AI算法可以基于新数据每日更新。今年1月,FDA发布了关于AI驱动设备软件生命周期管理的草案指南。帕里克博士表示,关于这种方法如何实施以及随着算法演变如何监控AI性能的问题仍然存在。

乔博士希望监管机构能认识到在技术未准备好前推出的风险。“如果小公司或大公司开始开发这些模型,并直接推向市场,一旦出现问题,可能会使整个领域倒退几年,”他说。

他看到了AI处方与自动驾驶汽车之间的相似之处。公司已经在选定城市迭代测试其安全性多年。没有人将它们大规模推出——有充分的理由。

“你不想因自动驾驶而危及人类生命,”乔博士说。“我认为在医学中也是如此。我们希望造福患者,此外,如果模型预测或给出错误药物并导致问题,责任归属也是一个巨大的未解问题。”

AI处方未来能否实现?

首先,《2025年健康技术法案》需要通过国会。该法案的发起人、亚利桑那州众议员大卫·施魏克特(Rep. David Schweikert)曾在2021年和2023年向美国众议院提出类似的法案。这两项法案均被转交至众议院能源和商务委员会及其健康小组委员会,但未采取进一步行动。

“我不完全确定它是否会通过,也不确定医生是否会信任它从而影响他们的临床实践,但我认为这引发了我们作为临床医生何时才会对使用AI感到足够舒适,不仅是改善我的文档记录方式,而是真正影响我做出医疗决策的方式,”帕里克博士说。

德坎普博士设想在非常有限的情况下,AI处方可能会有意义——有一天。它可以类似于协议化处方,即一些医疗中心在患者满足清单上的条件时给予某些药物。

“你可以想象——我仍然在想象——AI技术可以以类似方式运作,通过相同的清单级别检查简单、低风险的情况,提出建议,但最终仍需要人类审查、监督和签字,”德坎普博士补充道。

AI可以连接到患者图表,减少因医生信息不全而导致的处方错误。

“你可以想象,如果这种技术与电子健康记录相连,它可能比独立急诊科的医生更了解药物过敏的可能性,后者首次见到患者时没有其过去的健康记录,也没有访问其过敏信息,因为我们现有的系统继续存在碎片化的电子健康记录,”德坎普博士说。

我们如何知道处方书写AI是否已经准备好?

“如果它在一个前瞻性试验中进行了测试,而不是对之前的前瞻性试验进行二次分析,而是实际随机分配患者接受基于AI建议的药物或不接受基于AI建议的药物,并且证明该设备更快地做出决策且性能相当,或者结果更好,我认为这就是标准,”帕里克博士总结道。


(全文结束)