当AI在医疗中犯错时,谁应承担责任?
源新闻来源:Study Finds
语言:英语,所在国:美国
分类:AI与医疗健康
当AI系统在医疗中犯错时,谁应承担责任?
AI正在诊断患者,但医生仍然被追究责任
- 医生因AI的错误而受到不公平指责。即使AI系统提供了错误的指导,医生通常比AI开发者、机构或工具本身承担更多的责任——这突显了一个危险的责任缺口。
- 医生面临一个不可能的平衡行为。他们必须决定何时信任AI以及何时推翻它,在过度依赖和怀疑之间找到平衡——同时缺乏明确的法规或法律保护。
- 支持医生至关重要。解决方案不是完美的AI,而是更好的培训、更清晰的标准和共同的责任,这样医生就不会被期望成为管理机器生成决策的“超人”。
德克萨斯州奥斯汀—— 医生越来越多地被要求使用AI系统来帮助诊断患者,但当出现错误时,他们却要承担责任。新的研究表明,医生陷入了一个不可能的困境:使用AI以避免错误,但当同样的AI失败时,他们要承担所有责任。这个“超人困境”是一个没有人谈论的医疗危机。
医生的负担:在AI和责任之间
发表在《JAMA Health Forum》上的新研究解释了人工智能在医疗领域的快速部署如何为医生创造了一个不可能的局面。虽然AI承诺减少医疗错误和医生的职业倦怠,但它可能通过将不切实际的负担放在医生身上而使这两个问题恶化。
德克萨斯大学奥斯汀分校的研究人员发现,医疗机构采用AI技术的速度远远快于法规和法律标准的发展速度。这种监管差距迫使医生承担巨大的负担:他们必须依靠AI来减少错误,同时还要完全负责确定这些系统何时可能会出错。
研究表明,当医生受到AI建议时,普通人会赋予他们更大的道德责任,而不是当他们受到人类同事的指导时。即使有明确证据表明AI系统产生了错误信息,人们仍然会责怪人类医生。
医生常常被视为超人。人们期望他们具备非凡的心理、身体和道德能力。这些期望远远超出了任何人的合理范围。
当两种决策系统发生冲突时
AI系统在医疗领域用于支持医生,但有时只会增加压力。
(照片由国家癌症研究所提供)
医生在与AI系统合作时面临复杂的挑战。他们必须在“假阳性”(过于信任错误的AI指导)和“假阴性”(不信任正确的AI建议)之间找到平衡。这种平衡行为发生在相互竞争的压力下。
医疗机构经常提倡基于证据的决策,鼓励医生将AI系统视为客观的数据解释者。这可能导致对有缺陷工具的过度依赖。与此同时,医生也感到压力,需要相信自己的经验和判断,即使AI系统在某些任务上可能表现更好。
增加复杂性的是“黑箱”问题。许多AI系统在提供推荐时并不解释其推理过程。即使系统变得更加透明,医生和AI处理决策的方式也不同。AI从大量数据集中识别统计模式,而医生则依赖推理、经验和直觉,通常关注患者的特定情况。
超人期望的隐藏成本
这些期望的影响不仅影响患者护理,还影响医生的福祉。其他高压领域的研究表明,承受不切实际期望的员工往往会犹豫不决,担心受到批评。同样,医生可能会变得过于谨慎,只在AI的建议符合既定护理标准时才信任AI。
这种防御性的方法会带来自己的问题。随着AI系统的改进,过度谨慎越来越难以证明,特别是当拒绝合理的AI建议导致更糟糕的患者结果时。医生可能会更频繁地质疑自己,从而可能增加医疗错误。
除了患者护理之外,这些期望还会对心理造成影响。研究表明,即使是非常积极的专业人士也难以在持续的不切实际压力下保持参与度。这可能会损害护理质量和医生的目标感。
前进的方向:共同责任和更好的培训
解决方案不仅仅是让AI系统更加值得信赖。医疗机构需要为医生提供技能和策略,以有效地校准他们的信任。
实用的方法包括:
- 实施标准化实践,如清单来评估AI建议
- 系统地跟踪AI辅助决策的结果,以识别可靠性模式
- 将AI模拟培训纳入医学教育和医院项目
- 创建一种共同责任的文化,而不是个人指责
未来的医生不可避免地会与AI合作,但他们不应该独自承担这一负担。通过创建共享责任、优先培训且不要求完美无缺的环境,我们可以确保人工智能增强而不是削弱始终处于良好医疗核心的人类智能。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。