AI在病毒学领域崭露头角引发的生物安全隐忧
一项开创性的研究揭示,包括ChatGPT和Claude等平台在内的高级人工智能(AI)模型,在病毒学湿实验室中展现出的问题解决能力,已经超越了持有博士学位的资深病毒学家。这一发现虽然蕴含着推动疾病预防的巨大潜力,但也引发了人们对AI可能被滥用以制造致命生物武器的严重担忧,尤其是在缺乏必要专业知识和伦理考量的情况下。
AI在病毒学领域的双刃剑效应
这项研究由AI安全中心、麻省理工学院媒体实验室、UFABC(一所巴西大学)以及致力于预防大流行的非营利组织SecureBio的研究人员合作完成,并独家与《时代》杂志分享。研究团队咨询了顶尖病毒学家,设计了一项极具挑战性的实践测试,旨在评估AI模型有效解决病毒学研究中常见复杂实验室程序和协议问题的能力。
测试结果令人震惊。尽管拥有广泛的培训和经验,博士级病毒学家在其所声明的专业领域中的平均准确率仅为22.1%。与此形成鲜明对比的是,OpenAI的o3模型达到了令人印象深刻的43.8%的准确率,而谷歌的Gemini 2.5 Pro则达到了37.6%。这些发现表明,AI模型正在迅速获取在病毒学实验室中执行复杂任务所需的知识和技能,并可能在某些领域超越人类专家的能力。
对生物武器制造的担忧
SecureBio的研究科学家兼该研究的合著者Seth Donoughe表达了他对这些发现的担忧。他指出,有史以来第一次,几乎任何有权访问这些AI模型的人都可以拥有一位公正的AI病毒学专家,从而有可能指导他们完成制造生物武器所需的复杂实验室流程。
Donoughe强调,纵观历史,人们曾多次尝试开发生物武器,但由于缺乏必要的专业知识,许多尝试都失败了。他警告说,能够提供这种专业知识的AI模型的广泛可用性,引发了人们对潜在滥用的严重担忧,以及在如何分发这些能力时需要谨慎。
- 非专家的滥用风险。
- 制造致命生物武器的可能性。
- 在分发AI病毒学专业知识时需要谨慎。
AI实验室对担忧的回应
针对该研究的发现,作者与主要的AI实验室分享了结果,促使一些实验室采取了行动。例如,xAI发布了一个风险管理框架,概述了其在未来版本的AI模型Grok中实施病毒学保护措施的意图。OpenAI告知《时代》杂志,它已为其上周发布的新模型’部署了新的系统级生物风险缓解措施’。Anthropic在最近的系统卡片中包含了模型在论文上的性能结果,但没有提出具体的缓解措施。谷歌的Gemini拒绝向《时代》杂志发表评论。
这些回应表明,AI开发者越来越意识到AI在病毒学领域日益增长的能力所带来的潜在风险,以及实施保护措施以防止滥用的必要性。
AI在对抗疾病方面的潜力
尽管存在对生物武器制造的担忧,但AI也蕴含着推动病毒学研究和对抗传染病的巨大潜力。AI领导者长期以来一直认识到AI有可能彻底改变生物医学,并加速开发新的治疗方法和疗法。
例如,OpenAI首席执行官Sam Altman今年1月在白宫表示’随着这项技术的进步,我们将看到疾病以空前的速度得到治愈’。这一乐观情绪得到了该领域令人鼓舞的进展迹象的支持。今年早些时候,佛罗里达大学新兴病原体研究所的研究人员开发了一种算法,能够预测哪种冠状病毒变种可能传播最快。
评估AI进行病毒学实验室工作的能力
虽然AI在提供与病毒学相关的学术风格信息方面显示出了潜力,但在理解其进行病毒学实验室工作的实际能力方面仍然存在一个重大差距。为了弥合这一差距,Donoughe和他的同事们专门为困难的、无法通过谷歌搜索到的问题设计了一项测试,这些问题需要实际帮助以及对通常在学术论文中找不到的图像和信息的解释。
这些问题旨在模拟病毒学家在日常工作中面临的挑战,例如在特定细胞类型和条件下培养病毒时遇到的问题。
格式设计如下:
- 呈现一个特定的场景。
- 提供有关实验设置的详细信息。
- 要求AI识别最有可能的问题。
AI在实践测试中优于病毒学家
测试结果显示,几乎每个AI模型都优于博士级病毒学家,即使在他们自己的专业领域内也是如此。这一发现表明,AI模型不仅能够访问和处理大量的病毒学知识,而且能够应用这些知识来解决实验室中的实际问题。
研究人员还观察到,这些模型随着时间的推移显示出显著的改进,表明它们正在不断学习和改进其在病毒学方面的技能。例如,Anthropic的Claude 3.5 Sonnet从其2024年6月的模型到其2024年10月的模型,准确率从26.9%跃升至33.6%。OpenAI的GPT 4.5的2月份预览版也比GPT-4o高出近10个百分点。
AI日益增长的能力的影响
AI安全中心主任Dan Hendrycks强调,AI模型现在正在获取令人担忧的大量实践知识。如果AI模型在湿实验室环境中的能力确实如该研究所示,那么其影响将是深远的。
一方面,AI可以为经验丰富的病毒学家在对抗病毒的关键工作中提供宝贵的帮助,加速药物和疫苗的开发时间表,并改善临床试验和疾病检测。约翰·霍普金斯大学健康安全中心主任Tom Inglesby指出,AI可以帮助世界不同地区的科学家,特别是那些缺乏专业技能或资源的科学家,对发生在他们国家的疾病进行有价值的日常工作。
- 加速药物和疫苗的开发。
- 改善临床试验和疾病检测。
- 帮助资源有限环境中的科学家。
恶意行为者滥用的风险
另一方面,该研究引发了人们对恶意行为者可能滥用AI的严重担忧,他们可能会利用这些模型来学习如何在不需要进入生物安全等级4级(BSL-4)实验室的典型培训和访问权限的情况下制造病毒,而BSL-4实验室处理最危险和奇异的传染性病原体。Inglesby警告说,AI可能会让更多受过较少培训的人来管理和操纵病毒,从而可能导致灾难性后果。
Hendrycks敦促AI公司实施护栏以防止此类使用,并建议如果在六个月内不这样做,将是鲁莽的。他建议,一种解决方案是使这些模型受到限制,以便只有具有操纵致命病毒的合法理由的受信任的第三方,例如麻省理工学院生物学系的研究人员,才能访问其未经过滤的版本。
- 通过实施护栏来防止滥用。
- 限制模型的访问权限,仅限于受信任的各方。
- 确保只有授权的研究人员才能访问敏感功能。
行业自我监管的可行性
Hendrycks认为,AI公司在技术上可行进行自我监管并实施此类保护措施。但是,他担心某些公司是否会拖延或根本未能采取必要的步骤。
埃隆·马斯克的AI实验室xAI承认了这篇论文,并表示该公司将’可能利用’某些围绕回答病毒学问题的保护措施,包括训练Grok拒绝有害请求以及应用输入和输出过滤器。
OpenAI表示,其最新的模型o3和o4-mini已部署了一系列与生物风险相关的保护措施,包括阻止有害输出。该公司还报告说,它进行了一项为期一千小时的红队演练活动,其中98.7%的不安全生物相关对话已成功标记并阻止。
- 训练AI模型拒绝有害请求。
- 应用输入和输出过滤器来阻止危险内容。
- 进行红队演练以识别和减轻风险。
对政策和监管的需求
尽管做出了这些努力,Inglesby认为行业自我监管是不够的,并呼吁立法者和政治领导人制定一项政策方针来监管AI的生物风险。他强调,虽然一些公司正在投入时间和金钱来解决这些风险,但其他公司可能不会这样做,从而导致公众无法了解正在发生的事情。
Inglesby建议,在发布新版本的LLM之前,应对其进行评估,以确保其不会产生大流行级别的结果。这将需要一种更全面和协调的方法来监管AI在病毒学领域的能力,包括行业和政府利益相关者。
- 在发布LLM之前对其进行评估,以防止大流行级别的结果。
- 制定一项全面的政策方针来监管AI的生物风险。
- 让行业和政府利益相关者参与监管过程。
在创新与安全之间取得平衡
挑战在于在促进AI创新与确保这些强大的技术不被滥用以制造致命生物武器之间取得平衡。这需要一种多方面的方法,包括:
- 开发强大的保护措施以防止滥用。
- 限制受信任的各方访问敏感功能。
- 监管AI在病毒学领域的能力。
- 促进负责任的创新和伦理考量。
通过采取这些措施,我们可以利用AI的巨大潜力来推进病毒学研究和对抗传染病,同时减轻与其滥用相关的风险。AI在病毒学领域的未来取决于我们负责任地驾驭这一复杂前景并确保这些强大的技术用于造福人类的能力。