医疗领域中的人工智能:福音还是负担?
来源:Inside Precision Medicine
语言:英语,所在国:英国
分类:科技与健康 , 关键词:AI与医疗健康
毫无疑问,人工智能(AI)正迎来其辉煌时刻。从今年的诺贝尔奖到AI总结占据搜索引擎结果的榜首,其影响力已从尖端科学延伸至最普通的Google答案。
医生们对这项技术表现出了特别的热情,将其变革潜力比作基因疗法。AI迅速融入临床实践,承诺改善诊断、支持治疗并优化治疗输送。这些模仿人类智能和思维敏捷性的机器有望彻底改变患者护理。
未来看起来充满希望。作为诊断工具,这些算法可以闪电般地读取磁共振成像(MRI)扫描和病理切片。在基因组学领域,它们可以筛选庞大的遗传数据集,发现潜在的新药物,从而缩短药物发现的时间线。
德国公司Semalytix的联合创始人兼首席产品官Janik Jaskolski表示:“如果有人问我,你是希望你的MRI由人类还是AI来诊断?我永远会选择AI,因为它要好得多。”
“如果你面对的是处理大量数据向量的问题,并且有适当的算法,AI总是会胜出,这无可争议。”
然而,对于AI的快速普及,人们也感到不安,担心它被广泛应用而缺乏应有的谨慎。其日益增加的使用意味着医疗工作者的重大变化。而且,在某些专科中,AI似乎至少能与临床医生一样准确地进行诊断,引发了技能退化和失业的担忧。
此外,还存在患者数据保护、个性化不足、文本生成伦理问题以及固有偏见等议题。尽管这些算法因其一致性及相比人类缺乏偏见而受到赞誉,越来越多的证据表明,它们的表现可能因系统差异而异,需要根据每个医疗系统的特性进行调整。
AgileMD的联合创始人兼首席医务官Dana Edelson博士强调了模型中使用的输出、输入变量及其在临床实践中的一致性的重要性。“即使你在训练模型时有一个完美的数据集,但在现实中,临床团队可能不会实时输入生命体征。”她解释说。
Jaskolski同意人类因素至关重要。“如果你标注数据,不仅仅是标注数据,还需要找到能够以特定方式标注数据的专家,然后确保其质量。你不能期望AI在一个连人类都只能达到30%精度的问题上达到99%的精度。”
荷兰特文特大学应用哲学副教授Nolan Gertz博士指出,谁标注数据最为关键。“现在,你有这些第三世界国家的数据中心——肯尼亚、巴基斯坦、委内瑞拉——人们几乎不拿工资去处理海量数据并进行标注。”
Gertz指出,每次人们通过互联网上的CAPTCHA安全验证,实际上是在为AI无法做到的事情进行数据标注。
Jaskolski称,Semalytix在开发其AI工具PatientGPT时也遇到了这个问题。他们最终选择雇佣具有计算语言学、医学、制药和卫生经济学背景的专业人士,以确保数据的质量和准确性。
Semalytix利用AI从患者的视角看待世界,但患者的体验也越来越多地受到AI的影响。去年,由AI驱动的聊天机器人出现在主要搜索引擎中,增强了与人类对话的能力。
多伦多大学医学系助理教授Amol Verma博士警告说,虽然聊天机器人可能听起来比简单的互联网搜索更权威,但它可能同样不可靠且难以评估其可信度。
德国埃尔兰根-纽伦堡大学的博士生Wahram Andrikyan指出,AI聊天机器人可以帮助患者获取健康信息,但也应谨慎使用。他强调,标准的非专业聊天机器人模型从未设计用于提供或替代医疗建议。
随着新技术的发展,管理、自主权和责任问题也随之而来。去年,时任美国总统乔·拜登宣布了一项具有里程碑意义的行政命令,旨在推动安全和负责任的AI系统和技术的协调发展。欧盟也在今年7月通过了《人工智能法案》,成为全球首个全面的AI法律框架。
Semalytix对此非常重视。“我们是一个小团队,但我们仍有法律专家和数据安全专家,这也是我们工作的重要部分。”Jaskolski说。
他认为,确保AI以道德和安全的方式运行是可能的。“有一些技术,如分散式学习,可以在不交换数据的情况下进行,使数据保留在拥有者手中。我认为这是正确的方向。”
但他补充道,“没有免费的午餐”,要建立一个数据驱动的医疗系统,就必须让数据可访问。
Jaskolski认为,指导方针和政策必须来自高层。“要么从上到下达成共识,要么永远是一幅破碎的画面。”
最近的一项调查显示,五分之一的英国全科医生已经将聊天机器人纳入临床实践,但尚无正式指南或工作政策。Gertz预测,这种广泛采用可能不利于未来的就业前景。
Jaskolski则较为乐观。“我不认为短期内医学领域会出现大量失业。事实上,每个人都忙得不可开交……因此,我认为我们不会面临这种危险。”
关于AI是否会降低医疗工作者的技能水平,Edelson认为这可以从两个方面来看。她将其类比为卫星导航。“我的GPS让我失去了使用纸质地图的技能,但我认为这并不意味着我的孩子在了解邻里或城市方面不如我。相反,他们可能会知道以前不知道的地方。”
她认为,最大的问题是算法缺乏透明度。“如果我们盲目跟随GPS,理论上可能会把车开进河里。我们确实听到过这样的例子……我们倾向于信任这些工具,有时甚至盲目信任。它们也有错误,只是与人类的错误不同。”
(全文结束)