管理人工智能驱动的生物医学研究中的风险
来源:Stanford HAI
语言:英语,所在国:美国
分类:科技与健康 , 关键词:AI与医疗健康
阿特姆·特罗茨尤克(Artem Trotsyuk)并不想吓唬任何人,但他希望那些在生物医学研究中使用人工智能的人能引起重视。作为斯坦福生物医学伦理中心的研究员,特罗茨尤克表示,人工智能技术的迅猛发展为加速药物发现、改善疾病诊断和创造更个性化的治疗方案提供了巨大潜力,但同时也带来了巨大的风险,其中一些我们尚未完全理解。
“我们的意图并不是过度夸张或使用最坏情况的恐吓手段,但确实存在非常现实的问题,”他说。
这些问题包括生物医学研究中利用人工智能可能会加剧个人隐私和安全的侵犯,加剧种族偏见,甚至更可怕的是,可能导致新型生物武器的制造。为此,斯坦福大学的一组科学家、伦理学家和研究人员正在撰写一系列论文,旨在探讨管理这些风险的最佳方法。最近,该小组在《自然机器智能》(Nature Machine Intelligence)杂志上发表了一篇文章,呼吁建立一个伦理框架,以帮助使用人工智能的生物医学研究人员考虑并防止其工作可能产生的不良后果。
这项工作的初衷是为了跟上快速发展的技术步伐,这些技术比机构创建保护措施和法规的速度更快地进入新的伦理领域。斯坦福医学院的托马斯·A·拉芬医学和生物医学伦理学教授大卫·马格努斯(David Magnus)是这篇论文的共同负责人之一,他表示,解决这一问题需要研究人员、行业和监管决策者共同努力,创建一个有道德的研究体系。
“这个项目源于我们在[人工智能伦理审查委员会流程]中的经验,当时研究人员寻求帮助以减轻其技术被滥用的潜在风险,但他们不知道该怎么做,”他说,“这个由斯坦福HAI健康政策小组部分资助的项目是我们初步的回答,现在可以提供给HAI资助的项目,以应对下游滥用的可能性。希望这一努力可以成为扩展到新领域的模式。”
行动号召
2022年的一篇论文展示了研究人员如何在六小时内使用人工智能将原本用于善的药物发现过程逆转,生成超过40,000种有毒分子,这突显了这项技术被滥用的潜在风险。对此,两位斯坦福化学家在《自然机器智能》杂志上发表了一封信,呼吁采取行动防止这种滥用。
特罗茨尤克与来自斯坦福生物医学伦理中心、HAI、胡佛研究所、斯坦福法学院、斯坦福医学院、哈佛医学院、克利夫兰诊所等机构的科学家、政策制定者、伦理学家和研究人员一起致力于实现这一目标。
“人工智能的发展速度很快,”特罗茨尤克说,“我们这篇文章的核心在于展示潜在的合理滥用情景,并提供一个框架来预防这种情况的发生。”
风险识别
特罗茨尤克和其他从事这项研究的研究人员不仅借鉴了现有的指南,还试图识别与利用人工智能进行生物医学研究相关的独特风险。
他们指出,要防止这些风险,首先必须识别它们。研究小组确定了三个滥用风险突出的领域:
- 人工智能在药物和化学品发现中的应用:人工智能用于开发治疗药物,但恶意行为者可能会反过来用它制造有毒物质或生物武器。
- 人工智能用于生成合成数据:研究人员使用人工智能创建合成数据集,这可以提高科学家在人群中的生物医学研究能力,并保护个人隐私。然而,同样的合成数据也可能导致虚假或误导性的结果,造成巨大危害。
- 环境智能:人工智能驱动的被动数据收集旨在帮助监测患者的健康状况,但恶意行为者或政府可能会利用这些数据进行监视或侵犯隐私。
为了应对这些风险,研究团队参考了现有的关于负责任地利用人工智能进行生物医学研究的指南和法规,如世界卫生组织、经合组织人工智能政策观察站和国家标准技术研究院的指南。他们还考虑了当前的风险缓解方法,包括使用模拟对抗测试或红队测试。
注意到上述指南中的空白,团队着手开发解决方案。他们建议研究人员在其人工智能模型中嵌入保护措施以防止滥用。这些措施可能包括限制访问、审计基础数据以消除偏见,以及在模型内部保持透明度,以便了解其工作原理及其构建的数据。他们还建议这是一个持续的过程,研究人员应在工作中与其他利益相关者沟通。
最后,研究团队建议制定协议,在潜在风险大于收益时停止特定项目或行为者。
展望未来
特罗茨尤克希望这个框架不仅能为研究人员提供指导,还能为政策制定者提供帮助。
他表示,官员们可以将这些建议和该小组未来的工作转化为具体的政策,使进步得以继续,同时减少滥用。
“我不知道具体的政策会是什么样子,”特罗茨尤克说,“但很高兴看到更多人开始思考[滥用问题]。”
可以在2024年11月26日的《自然机器智能》杂志上找到论文《关于防范人工智能在生物医学研究中潜在滥用的框架》。
(全文结束)