家医健康
国内健康世界健康探索科学

医疗专业人士被警告关于滥用生成式AI的风险

新闻时间:2024年5月8日 - 更新时间:2025-02-18 16:39:53
来源:Digital Health
语言:英语,所在国:英国
分类:科技与健康 , 关键词:AI与医疗健康

数字健康网络(Digital Health Networks)发布声明,警告医疗专业人员在创建临床笔记和记录时使用生成式AI工具的风险。该声明指出,像Chat GPT这样的AI工具有可能改变内容的上下文和意义,错误解读临床发现,并产生转录错误。此外,声明还对通过这些平台传输的数据所带来的信息治理风险表示担忧。

Euan McComiskie是特许理疗师学会(Chartered Society of Physiotherapy)的健康信息学负责人,同时也是数字健康网络首席护理信息官(CNIO)咨询小组成员,他表示:“我们担心的是,我们在AI的应用上走得太快太远,开始考虑如何采购和实施这些解决方案,而尚未完全理解它们的工作原理。”

他补充道:“例如,我们如何将非常敏感的健康和社会护理数据暴露给AI工具?我们必须绝对确保其安全性和保密性。”

该声明援引了由健康基金会(The Health Foundation)委托进行的研究,该研究于2024年7月发布,结果显示76%的NHS员工支持使用AI帮助患者护理,81%的人支持将其用于行政任务。

McComiskie提到,他听到了一些关于医疗专业人员使用AI的“恐怖故事”。

他说:“我对使用生成式AI的担忧在于,我们知道它们会‘幻觉’,基于可能是‘幻觉’的结果做出任何决定都会引发一系列令人担忧的事件。因此,我们希望阻止医生使用不适当的AI,而不是完全停止使用它。”

他还提到了AI算法中固有的偏见问题。

“英国的大部分健康数据都是基于白人、男性、中年、中产阶级、健康素养较高、受过大学教育、英语为母语、异性恋和顺性别者。那么,对于超过50%不是男性的群体怎么办?如果我们基于一个不完整的数据集开发AI工具和算法,那么我们实际上是在加剧健康不平等的可能性。”

该声明还警告医学生不要过度依赖生成式AI来完成课程作业。

“研究表明,GPT会‘幻觉’学术参考文献,因此我们不希望学生过度依赖生成式AI来生成课程作业。我希望他们将其作为信息来源之一,但不能作为唯一的信息来源,他们需要像对待已发表的同行评审期刊文章、政策文件或战略文件一样,对其应用所有学术批判。”

“我们并不是说绝对不能使用它,只是要确保使用它是为了正确的目的。”

与此同时,根据2025年2月发布的由医学总会(General Medical Council)进行的研究,使用生成式AI的医生认为这对提高自身效率和改善患者护理有益,并且有信心管理其风险。


(全文结束)