独家报道:AI超越病毒专家,引发生物安全担忧

更新时间:2025-04-23 06:53:36
源新闻来源:AOL
语言:英语,所在国:美国
分类:AI与医疗健康

一项新的研究表明,像ChatGPT和Claude这样的AI模型在湿实验室中解决问题的能力已经超过了博士级别的病毒学家。湿实验室是科学家们分析化学物质和生物材料的地方。专家表示,这一发现是一把双刃剑。超智能的AI模型可以帮助研究人员预防传染病的传播,但非专业人士也可能利用这些模型来制造致命的生物武器。

这项研究由TIME独家获得,由人工智能安全中心、麻省理工学院媒体实验室、巴西UFABC大学和大流行病预防非营利组织SecureBio的研究人员共同进行。作者咨询了病毒学家,设计了一个极其困难的实际测试,以衡量解决复杂实验室程序和协议的能力。虽然博士级别的病毒学家在其专业领域平均得分22.1%,但OpenAI的o3达到了43.8%的准确率,谷歌的Gemini 2.5 Pro得分为37.6%。

SecureBio的研究科学家兼该论文的合著者Seth Donoughe表示,这个结果让他“有点紧张”,因为这是历史上第一次几乎任何人都可以访问一个无偏见的AI病毒学专家,这可能会引导他们通过复杂的实验室过程来制造生物武器。

“纵观历史,有很多人试图制造生物武器——其中一个主要原因是他们没有足够的专业知识。”他说,“因此,对于这些能力如何分布,我们应该谨慎对待。”

几个月前,论文的作者将结果发送给了主要的AI实验室。作为回应,xAI发布了一份风险管理框架,承诺将在其未来的AI模型Grok中实施病毒学防护措施。OpenAI告诉TIME,它为其上周发布的新模型“部署了新的系统级生物风险缓解措施”。Anthropic在其最近的系统卡片中包括了模型性能结果,但没有提出具体的缓解措施。谷歌的Gemini拒绝向TIME发表评论。

AI在生物医学中的应用

病毒学和生物医学一直是AI领导者们推动开发越来越强大的AI模型的主要动力。“随着这项技术的发展,我们将以前所未有的速度治愈疾病。”OpenAI首席执行官Sam Altman在今年1月在白宫宣布Stargate项目时说。在这方面已经有一些令人鼓舞的迹象。今年早些时候,佛罗里达大学新兴病原体研究所的研究人员发布了一种能够预测哪种冠状病毒变种可能传播最快的算法。

但到目前为止,还没有一项重大研究专门分析AI模型实际进行病毒学实验室工作的能力。“我们已经知道一段时间以来,AI在提供学术风格的信息方面相当强大。”Donoughe说,“但不清楚这些模型是否也能提供详细的实用帮助。这包括解释图像、可能没有写在任何学术论文中的信息,或从更有经验的同事那里口头传递的信息。”

因此,Donoughe和他的同事们为这些难以搜索的问题创建了一个测试。“这些问题的形式是:‘我在这个特定的细胞类型中培养这种特定的病毒,在这些特定条件下,经过这段时间。我有这些关于出了什么问题的信息。你能告诉我最可能的问题是什么吗?’”Donoughe说。

几乎所有AI模型在这项测试中的表现都超过了博士级别的病毒学家,即使是在他们的专业领域内也是如此。研究人员还发现,这些模型随着时间的推移显著改进。例如,Anthropic的Claude 3.5 Sonnet从2024年6月的26.9%准确率提高到了2024年10月的33.6%。而OpenAI的GPT 4.5预览版在2月份比GPT-4o高出了近10个百分点。

“之前,我们发现这些模型有很多理论知识,但没有实际知识。”人工智能安全中心主任Dan Hendrycks告诉TIME。“但现在,它们正在获得令人担忧的实际知识。”

风险与回报

如果AI模型确实在湿实验室环境中如研究发现那样有能力,那么其影响将是巨大的。从好处来看,AI可以帮助经验丰富的病毒学家在抗击病毒的关键工作中发挥作用。约翰霍普金斯健康安全中心主任Tom Inglesby表示,AI可以加速药物和疫苗的开发,改善临床试验和疾病检测。“这些模型可以帮助世界各地的科学家,他们在自己国家发生的疾病上进行有价值的日常工作,但还没有这种技能或能力。”他说。例如,一组研究人员发现,AI帮助他们更好地理解撒哈拉以南非洲地区的出血热病毒。

但恶意行为者现在可以使用AI模型来指导他们如何制造病毒——而且无需具备进入处理最危险和奇特感染性病原体的四级生物安全实验室(BSL-4)所需的典型培训。“这意味着世界上会有更多的人,用更少的培训就能管理和操纵病毒。”Inglesby说。

Hendrycks敦促AI公司设置护栏以防止这种用途。“如果公司在六个月内没有良好的防护措施,我认为这是鲁莽的。”他说。

Hendrycks表示,一种解决方案不是关闭这些模型或减缓其进展,而是使其受控,只有可信的第三方才能访问其未过滤版本。“我们希望那些有合法需求询问如何操纵致命病毒的人——比如麻省理工学院生物系的研究人员——能够这样做。”他说,“但刚刚注册账号的人不应该拥有这些功能。”

Hendrycks表示,AI实验室应该能够相对容易地实施这些类型的防护措施。“从技术上讲,行业自我监管是可行的。”他说,“问题是有些公司是否会拖延或根本不做。”

Elon Musk的AI实验室xAI在2月份发布了一份风险管理框架备忘录,承认了该论文,并表示公司将“可能利用”某些围绕回答病毒学问题的防护措施,包括训练Grok拒绝有害请求并应用输入和输出过滤器。

OpenAI在周一给TIME的一封电子邮件中写道,其最新的o3和o4-mini模型配备了多种生物风险相关的防护措施,包括阻止有害输出。该公司写道,它进行了一次为期一千小时的红队测试活动,其中98.7%的不安全生物相关对话被成功标记并阻止。“我们重视在前沿模型的安全保障方面的行业合作,包括在敏感领域如病毒学。”一位发言人写道,“随着能力的增长,我们将继续投资这些安全保障。”

Inglesby认为,行业自我监管是不够的,呼吁立法者和政治领导人制定政策来监管AI的生物风险。“目前的情况是,最正直的公司花费时间和金钱来做这项工作,这对所有人都有好处,但其他公司不必这样做。”他说,“这不合理。公众对发生的事情一无所知是不好的。”

“当一个新的大型语言模型即将发布时,”Inglesby补充说,“应该要求对该模型进行评估,以确保它不会产生大流行级别的后果。”


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。