AI 在病毒學中日益精通引發的生物危害隱憂
一項突破性研究揭示,先進的人工智慧 (AI) 模型,包括為 ChatGPT 和 Claude 等平台提供動力的模型,現在在病毒學濕實驗室中展現的問題解決能力,已超越擁有博士學位的資深病毒學家。 這項發現雖然在推動疾病預防方面具有巨大的潛力,但也引發了對 AI 可能被濫用來製造致命生物武器的重大疑慮,特別是由於缺乏必要專業知識和倫理考量的人。
AI 在病毒學中的雙面刃
這項獨家與 TIME 分享的研究,是來自 AI 安全中心、麻省理工學院媒體實驗室、UFABC(一所巴西大學)以及致力於大流行病預防的非營利組織 SecureBio 的研究人員共同努力的成果。 研究團隊諮詢了頂尖的病毒學家,設計了一項極具挑戰性的實務測試,評估 AI 模型有效排除病毒學研究中常用之複雜實驗室程序和協定的能力。
測試結果令人震驚。 博士級病毒學家儘管接受了廣泛的培訓和經驗,但在其聲明的專業領域中,平均準確率僅達到 22.1%。 形成鮮明對比的是,OpenAI 的 o3 模型達到了令人印象深刻的 43.8% 準確度,而 Google 的 Gemini 2.5 Pro 則獲得了 37.6%。 這些發現表明,AI 模型正在迅速掌握在病毒學實驗室中執行複雜任務所需的知識和技能,可能在某些領域超越人類專家的能力。
對生物武器創造的擔憂
SecureBio 的研究科學家兼該研究的合著者 Seth Donoughe 對於這些發現的影響表示擔憂。 他指出,有史以來第一次,幾乎任何可以使用這些 AI 模型的人都可以擁有一位公正的 AI 病毒學專家,可以指導他們完成創建生物武器所需的複雜實驗室過程。
Donoughe 強調,縱觀歷史,已經進行了許多開發生物武器的嘗試,但由於缺乏必要的專業知識,其中許多嘗試都失敗了。 他警告說,有能力提供這種專業知識的 AI 模型之廣泛可用性,引發了對潛在濫用的嚴重擔憂,以及在分配這些能力時需要謹慎。
- 非專家濫用的風險。
- 創造致命生物武器的可能性。
- 在分配 AI 病毒學專業知識時需要謹慎。
AI 實驗室對疑慮的回應
為了回應研究的發現,作者與主要的 AI 實驗室分享了結果,促使一些實驗室採取行動。 例如,xAI 發布了一個風險管理框架,概述了其在未來版本的 AI 模型 Grok 中實施病毒學保護措施的意圖。 OpenAI 告知 TIME,它已為上週發布的新模型「部署了新的系統級生物風險緩解措施」。 Anthropic 在最近的系統卡片中包含了關於論文的模型效能結果,但沒有提出具體的緩解措施。 Google 的 Gemini 拒絕對 TIME 發表評論。
這些回應表明,AI 開發人員越來越意識到 AI 在病毒學中日益增強的能力所帶來的潛在風險,以及實施保護措施以防止濫用的必要性。
AI 在對抗疾病方面的希望
儘管對創造生物武器的擔憂,AI 也為推進病毒學研究和對抗傳染病帶來了巨大的希望。 AI 領導者長期以來一直認識到 AI 徹底改變生物醫學並加速開發新療法和治癒方法的潛力。
例如,OpenAI 執行長 Sam Altman 在一月份在白宮表示「隨著這項技術的發展,我們將看到疾病以史無前例的速度被治癒」。 這種樂觀情緒得到了該領域令人鼓舞的進展跡象的支持。 今年稍早,佛羅里達大學新興病原體研究所的研究人員開發了一種演算法,能夠預測哪種冠狀病毒變體可能傳播最快。
評估 AI 執行病毒學實驗室工作的能力
雖然 AI 在提供與病毒學相關的學術風格資訊方面顯示出希望,但理解其是否能實際執行病毒學實驗室工作仍然存在一個主要差距。 為了填補這一差距,Donoughe 及其同事專門針對困難的、無法在 Google 上找到答案的問題設計了一項測試,這些問題需要實際協助以及解讀學術論文中通常找不到的圖像和資訊。
這些問題旨在模仿病毒學家在日常工作中面臨的挑戰,例如在特定細胞類型和條件下培養病毒時遇到的問題排除。
格式設計如下:
- 呈現特定情境。
- 提供關於實驗設定的詳細資訊。
- 要求 AI 識別最有可能的問題。
AI 在實務測試中勝過病毒學家
測試結果顯示,幾乎每個 AI 模型都勝過博士級病毒學家,即使是在他們自己的專業領域中也是如此。 這一發現表明,AI 模型不僅能夠存取和處理大量的病毒學知識,而且還能夠應用這些知識來解決實驗室中的實際問題。
研究人員還觀察到,這些模型隨著時間的推移顯示出顯著的改進,表明它們正在不斷學習和完善其在病毒學中的技能。 例如,Anthropic 的 Claude 3.5 Sonnet 從其 2024 年 6 月的模型到其 2024 年 10 月的模型,準確度從 26.9% 躍升至 33.6%。 並且 OpenAI 的 GPT 4.5 的預覽版在二月份的表現比 GPT-4o 高出近 10 個百分點。
AI 能力增長的影響
AI 安全中心主任 Dan Hendrycks 強調,AI 模型現在正在獲得令人擔憂的實務知識量。 如果 AI 模型在濕實驗室環境中的能力確實如研究所示,那麼其影響將是深遠的。
一方面,AI 可以為經驗豐富的病毒學家提供寶貴的幫助,以進行對抗病毒的關鍵工作,加速藥物和疫苗開發的時間表,並改善臨床試驗和疾病檢測。 約翰霍普金斯大學健康安全中心主任 Tom Inglesby 指出,AI 可以授權世界不同地區的科學家,特別是那些缺乏專業技能或資源的科學家,對其國家發生的疾病進行有價值的日常工作。
- 加速藥物和疫苗開發。
- 改善臨床試驗和疾病檢測。
- 授權資源有限環境中的科學家。
惡意行為者濫用的風險
另一方面,這項研究也引發了對 AI 可能被惡意行為者濫用的嚴重擔憂,他們可以使用這些模型來學習如何創建病毒,而無需進入生物安全四級 (BSL-4) 實驗室所需的典型培訓和許可,該實驗室處理最危險和奇特的傳染病病原體。 Inglesby 警告說,AI 可以授權更多受過較少培訓的人來管理和操縱病毒,可能導致災難性的後果。
Hendrycks 敦促 AI 公司實施防護措施以防止此類使用,並建議如果在六個月內不這樣做將是魯莽的。 他建議,一個解決方案是讓這些模型受到管制,以便只有具有合法理由操縱致命病毒的受信任第三方,例如麻省理工學院生物學系的研究人員,才能訪問其未經篩選的版本。
- 透過實施防護措施來防止濫用。
- 管制模型以限制對受信任方的存取。
- 確保只有授權的研究人員才能存取敏感能力。
行業自我監管的可行性
Hendrycks 認為 AI 公司在技術上可以進行自我監管並實施這些類型的保護措施。 然而,他對某些公司是否會拖延或根本不採取必要步驟表示擔憂。
伊隆·馬斯克 (Elon Musk) 的 AI 實驗室 xAI 承認了這篇論文,並表示該公司將「可能利用」某些針對回答病毒學問題的保護措施,包括訓練 Grok 拒絕有害請求以及應用輸入和輸出篩選器。
OpenAI 表示,其最新模型 o3 和 o4-mini 部署了一系列與生物風險相關的保護措施,包括阻止有害輸出。 該公司還報告說,它進行了一項為期一千小時的紅隊演練,其中 98.7% 的不安全生物相關對話已成功標記和阻止。
- 訓練 AI 模型拒絕有害請求。
- 應用輸入和輸出篩選器來阻止危險內容。
- 進行紅隊演練以識別和緩解風險。
對政策和監管的需求
儘管做出了這些努力,Inglesby 認為行業自我監管是不夠的,並呼籲立法者和政治領導人制定一項政策方法來監管 AI 的生物風險。 他強調,雖然有些公司正在投入時間和金錢來解決這些風險,但其他公司可能不會,從而造成公眾無法了解正在發生的事情的情況。
Inglesby 建議,在發布新版本的 LLM 之前,應對其進行評估,以確保它不會產生大流行等級的結果。 這將需要一種更全面和協調的方法來監管 AI 在病毒學中的能力,涉及行業和政府利益相關者。
- 在發布之前評估 LLM 以防止大流行等級的結果。
- 制定一項全面的政策方法來監管 AI 的生物風險。
- 讓行業和政府利益相關者參與監管過程。
在創新和安全之間取得平衡
挑戰在於在促進 AI 創新和確保這些強大的技術不會被濫用來創建致命生物武器之間取得平衡。 這需要一種多面向的方法,其中包括:
- 開發健全的保護措施以防止濫用。
- 將對敏感能力的存取權限制於受信任方。
- 監管 AI 在病毒學中的能力。
- 促進負責任的創新和倫理考量。
透過採取這些步驟,我們可以利用 AI 的巨大潛力來推進病毒學研究和對抗傳染病,同時降低與其濫用相關的風險。 AI 在病毒學中的未來取決於我們是否有能力負責任地應對這種複雜的局面,並確保這些強大的技術用於造福人類。