'偏见输入,偏见输出':耶鲁大学研究揭示医疗AI中的偏见
来源:Medical Xpress
语言:英语,所在国:美国
分类:科技与健康 , 关键词:AI与医疗健康
在一项新的综述中,耶鲁大学的研究人员深入分析了AI开发不同阶段的偏见如何导致不良临床结果并加剧健康不平等。作者表示,他们的研究结果反映了计算领域的一句老话:“垃圾进,垃圾出。”
“偏见输入,偏见输出,”耶鲁大学医学院(YSM)放射学与生物医学影像学及泌尿学助理教授John Onofrey博士说。“这个观点绝对适用。”该文章于11月7日发表在《PLOS数字健康》上,通过假设和真实的例子说明了偏见如何影响医疗结果,并提供了缓解策略。
“在机器学习/AI领域工作多年后,算法中存在偏见这一观点并不令人惊讶,”Onofrey说。“然而,列出所有可能进入AI学习过程的偏见方式是令人难以置信的。这使得偏见缓解似乎是一项艰巨的任务。”研究作者在医疗AI开发的每个阶段——训练数据、模型开发、出版和实施——识别了偏见来源,并提供了具体的例子和缓解策略。
在一个例子中,先前的研究发现,在估计肾功能时使用种族作为因素可能导致黑人移植患者等待更长时间才能被列入移植名单。耶鲁团队指出,未来算法应使用更精确的措施,如社会经济因素和邮政编码。
“在用于临床风险预测的医疗AI模型中,更好地捕捉和使用健康的社会决定因素将是至关重要的,”耶鲁大学医学院一年级医学生James L. Cross说,他是该研究的第一作者。
“偏见是一个人类问题,”放射学与生物医学影像学副教授Michael Choma博士补充道。“当我们谈论‘AI中的偏见’时,我们必须记住计算机是从我们这里学习的。”
更多信息:James L. Cross等,《医疗AI中的偏见:对临床决策的影响》,《PLOS数字健康》(2024)。DOI: 10.1371/journal.pdig.0000651
期刊信息:PLOS数字健康
提供者:耶鲁大学医学院
引用:'偏见输入,偏见输出':耶鲁大学研究揭示医疗AI中的偏见(2024年11月25日),2024年11月25日从https://medicalxpress.com/news/2024-11-bias-medical-ai.html 获取
(全文结束)