当医疗领域的人工智能失败时,谁该负责?
源新闻来源:Medindia
语言:英语,所在国:美国
分类:AI与医疗健康
辅助性人工智能(AI)技术有潜力通过支持医生诊断、管理和治疗患者来彻底改变医疗保健。然而,《JAMA Health Forum》上发表的一篇简报提出了担忧,认为这些技术的整合可能会无意中加剧与医疗错误和医生职业倦怠相关的问题。
亮点:
- AI技术有望提升医疗水平,但也可能增加医生的责任
- 医生面临对AI决策不切实际的期望
- 有效的AI整合需要有支持性的组织结构
约翰霍普金斯凯里商学院、约翰霍普金斯医学院和德克萨斯大学奥斯汀分校麦库姆斯商学院的研究人员撰写的这篇简报指出,人们越来越期望医生依赖AI来减少医疗错误。尽管AI技术在医疗环境中的快速采用,但在法律和监管框架方面仍存在显著差距,无法保护医生在使用AI辅助决策时免受风险。
研究人员提出,当AI系统出现故障或错误时,医疗责任问题将取决于社会对过错的看法。这给医生带来了不切实际的负担,他们被期望判断何时信任或推翻AI建议。这种压力可能导致职业倦怠和更高的患者护理错误率。
德克萨斯大学麦库姆斯商学院的访问副教授Shefali Patil强调了这一矛盾:“AI本应减轻负担,但反而将责任转移到医生身上——迫使他们解释连其创造者也无法完美解释的技术。这种不切实际的期望导致犹豫,并直接威胁到患者护理。”
为应对这些挑战,简报倡导医疗机构将重点从个体医生的表现转向建立组织支持和学习。这种方法可以减轻医生的压力,并促进AI在临床实践中的协作整合。
约翰霍普金斯凯里商学院创新领导力中心的副教授兼教务主任Christopher Myers将这种情况比作要求飞行员在飞行时设计自己的飞机。他认为,医疗机构必须建立支持系统,使医生能够有效校准AI的使用,确保他们在做出关键决策时不质疑这些工具。
《JAMA Health Forum》简报中的见解强调了重新评估如何将AI整合到医疗保健中的必要性。通过优先考虑组织支持并创建合作文化,医疗行业可以更好地装备医生应对AI的复杂性,最终提高而不是阻碍患者护理。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。