医疗领域的人工智能需要结构信任而非模拟同情
源新闻来源:Devdiscourse
语言:英语,所在国:美国
分类:AI与医疗健康
人工智能正在改变医疗决策,但患者和临床医生对机器的信任必须通过努力获得,而不能想当然。一项新的研究呼吁在医疗技术中重新定义信任的概念。这项题为《不是某人,而是某物:在医学AI时代重新思考信任》的研究,对人工智能在临床护理中日益增长的角色所带来独特挑战进行了全面的哲学和伦理分析。
该论文由Jan Beger撰写,认为信任不应从人类医生无缝转移到AI系统,而是一种根本不同的关系,必须以道德清晰度和结构性透明度进行设计、管理和维护。研究借鉴了哲学理论、临床伦理学和卫生系统设计,认为传统的情感信任模型不适用于人工智能。相反,它建议将信任重新定义为可靠性、问责制以及与护理核心价值观的一致性。
研究的核心观点是,医疗领域的信任本质上是关系性的,根植于医生和患者之间的共同脆弱性和道德责任。信任使患者能够敞开心扉,授权他人,并在不确定性下接受治疗,这不仅基于能力,还基于护理者的感情存在和道德意图。然而,人工智能缺乏这种道德亲密性。它无法解读恐惧、识别语气或回应不确定性。因此,对人工智能的信任更多是技术性的,而非关系性的。
这种转变创造了一种单向的信任动态。患者和临床医生越来越依赖那些无法体验被信任感觉的系统。研究表明,即使是经验丰富的专业人士也常常依赖AI的建议,有时甚至在明显错误的情况下也是如此,这是由于初始信任或自动化偏见所致。
研究还引用了北美和中东地区的调查数据,显示即使是对技术熟悉的医疗专业人员也普遍对医疗AI感到不安。这表明信任并不随着接触的增加而自动增强。相反,它取决于感知到的透明度、治理以及用户对系统尊重伦理边界的信心,而这些是机器本身无法保证的。
研究的一个主要关注点是,在AI嵌入医疗工作流程时,明确的责任归属会变得模糊。虽然临床医生仍然在法律和道德上对患者的治疗结果负责,但当AI系统严重影响诊断或治疗决策时,责任界限变得模糊。AI可能不会完全取代人类判断,但它可以以微妙的方式指导、限制或影响它,从而削弱医生的独立作用。
报告警告说,随着AI系统不断更新和适应,责任会在开发者、机构、监管者和最终用户之间进一步分散。在这种环境中,当出现问题时,很难确定谁或什么负有责任。这种分散的风险在于,不是因为恶意行为,而是因为没有一个个体或实体明确承担决策的道德重量。
为了解决这个问题,研究提出了一种分布式问责制模型,重点从信任AI本身转移到信任其运行的更广泛的社会技术系统。它引用了“信任八角形”框架,该框架评估AI系统在公平性、透明度、法律合规性和社会责任方面的表现。作者认为,建立对医疗AI的信任不应涉及模仿人类的同理心或意图,而应强制执行结构完整性并建立确保伦理一致性和可解释性的治理机制。
研究进一步探讨了在动态且持续学习的AI系统中如何实现适应性信任的挑战。与缓慢且严格监督的传统医疗程序和协议不同,AI模型可以快速更新,有时甚至是无声地重新训练新数据或重新平衡内部参数,而无需临床医生的知晓。这破坏了连续性,这是信任形成的关键因素。
为了在这种快速变化的系统中保持信任,作者呼吁建立新的基础设施:实时监控仪表板、可解释的不确定性信号和透明的更新沟通。论文指出,许多临床医生不需要完全理解AI输出,但他们确实需要明确的可靠性、局限性和风险指标,尤其是在AI建议影响高风险决策时。
研究强调了“适应性信任”的必要性,这是一种基于模型性能、透明度和与人类护理价值观一致性的持续重新评估的信任形式。如果没有让临床医生跟踪变化并评估不断演变的风险的机制,论文警告说,对AI的信任将在每次意外系统行为或不一致输出后逐渐减弱。
最后,作者批评了趋向拟人化的设计趋势,即让AI看起来更像人类以增加用户的舒适感。虽然研究表明人们更喜欢类似人类的界面,但论文认为这可能会产生虚假的同理心或道德代理印象,进一步复杂化信任问题。相反,AI应专注于完整性、清晰度和强化人类判断,而不是模拟理解。
研究断言,对医疗AI的信任不应被视为静态属性,也不应仅通过情感设计来实现。它是一种动态的、情境敏感的关系,必须通过透明度、可解释性、治理和问责制不断赢得。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。