AIのウイルス学能力向上とバイオハザード懸念

AIのウイルス学における二面性

画期的な研究により、ChatGPTやClaudeなどのプラットフォームを支える高度な人工知能(AI)モデルが、ウイルス学ウェットラボにおいて、博士号を持つ経験豊富なウイルス学者を凌駕する問題解決能力を示すことが明らかになりました。この発見は、感染症予防の進歩に計り知れない可能性を秘めている一方で、特に必要な専門知識や倫理的配慮を持たない個人によるAIの悪用、すなわち致命的な生物兵器の作成につながる可能性について重大な懸念を引き起こしています。

TIMEに独占的に共有されたこの研究は、AI Safetyセンター、MITメディアラボ、UFABC(ブラジルの大学)、そしてパンデミック予防に専念する非営利団体であるSecureBioの研究者による共同作業です。研究チームは、一流のウイルス学者に相談し、AIモデルがウイルス学研究で一般的に使用される複雑な実験手順やプロトコルを効果的にトラブルシューティングする能力を評価する、非常に困難な実技試験を設計しました。

試験の結果は衝撃的でした。博士号レベルのウイルス学者は、広範な訓練と経験にもかかわらず、専門分野における平均正解率がわずか22.1%にとどまりました。対照的に、OpenAIのo3モデルは43.8%という目覚ましい正解率を達成し、GoogleのGemini 2.5 Proは37.6%を獲得しました。これらの結果は、AIモデルがウイルス学ラボで複雑なタスクを実行するために必要な知識とスキルを急速に習得しており、特定の分野では人間の専門家の能力を凌駕する可能性を示唆しています。

生物兵器作成に関する懸念

SecureBioの研究科学者であり、本研究の共著者であるセス・ドノヒュー氏は、これらの発見がもたらす影響について懸念を表明しました。彼は、歴史上初めて、これらのAIモデルにアクセスできるほぼすべての人が、偏見のないAIウイルス学専門家を手に入れることができ、生物兵器を作成するために必要な複雑なラボプロセスをガイドしてもらう可能性があると指摘しました。

ドノヒュー氏は、歴史を通じて、生物兵器の開発は何度も試みられてきたものの、必要な専門知識へのアクセス不足のために失敗に終わった事例が多いと強調しました。彼は、この専門知識を提供できるAIモデルの普及は、悪用の可能性と、これらの能力をどのように配布するかについて慎重になる必要があるという深刻な懸念を引き起こすと警告しました。

  • 専門知識のない者による悪用のリスク。
  • 致命的な生物兵器を作成する可能性。
  • AIウイルス学の専門知識の配布における慎重さの必要性。

AIラボの懸念への対応

研究結果を受けて、著者は主要なAIラボと結果を共有し、いくつかのラボは行動を起こしました。たとえば、xAIは、将来のAIモデルGrokのバージョンにウイルス学の安全対策を実装する意向を示すリスク管理フレームワークを公開しました。OpenAIはTIMEに対し、先週リリースされた新しいモデルに対して「生物学的リスクに対する新しいシステムレベルの軽減策を展開した」と述べました。Anthropicは、最近のシステムカードに論文のモデルパフォーマンスの結果を含めましたが、具体的な軽減策は提案しませんでした。GoogleのGeminiはTIMEへのコメントを控えました。

これらの回答は、AI開発者の間で、ウイルス学におけるAIの能力向上に伴う潜在的なリスクと、悪用を防ぐための安全対策を実施する必要性に対する意識が高まっていることを示しています。

疾病対策におけるAIの可能性

生物兵器の作成に関する懸念はあるものの、AIはウイルス学研究の進歩と感染症との闘いにおいても計り知れない可能性を秘めています。AIのリーダーたちは、AIが生物医学に革命をもたらし、新しい治療法や治療法の開発を加速する可能性を長年認識してきました。

OpenAIのCEOであるサム・アルトマン氏は、たとえば、1月にホワイトハウスで「この技術が進歩するにつれて、前例のない速さで病気が治癒するのを目にするだろう」と述べました。この楽観的な見方は、この分野における進歩の兆候によって裏付けられています。今年の初めには、フロリダ大学の新興病原体研究所の研究者が、どのコロナウイルスの変異株が最も速く広がるかを予測できるアルゴリズムを開発しました。

ウイルス学ラボ作業を実施するAIの能力の評価

AIは、ウイルス学に関連する学術的なスタイルの情報を提供する上で有望であることが示されていますが、実際にウイルス学ラボ作業を実施するAIの能力を理解するには、大きなギャップが残っていました。このギャップに対処するために、ドノヒュー氏と彼の同僚は、実用的な支援と、学術論文では通常見られない画像や情報の解釈を必要とする、困難でGoogleでは検索できない質問に特化したテストを設計しました。

質問は、特定の細胞の種類や条件下でウイルスを培養する際に遭遇する問題のトラブルシューティングなど、ウイルス学者が日々の業務で直面する課題を模倣するように設計されました。

形式は次のように設計されました。

  • 特定のシナリオを提示する。
  • 実験設定の詳細を提供する。
  • AIに最も可能性の高い問題を特定するように依頼する。

AIは実技試験でウイルス学者よりも優れた成績を収める

テストの結果、事実上すべてのAIモデルが、博士号レベルのウイルス学者よりも、自身の専門分野であっても優れた成績を収めました。この発見は、AIモデルが膨大な量のウイルス学の知識にアクセスして処理できるだけでなく、この知識をラボでの実際的な問題を解決するために適用できることも示唆しています。

研究者たちはまた、モデルが時間の経過とともに大幅な改善を示していることも観察しました。これは、モデルが継続的に学習し、ウイルス学のスキルを磨いていることを示しています。たとえば、AnthropicのClaude 3.5 Sonnetは、2024年6月のモデルから2024年10月のモデルまで、正解率が26.9%から33.6%に向上しました。そして、OpenAIのGPT 4.5のプレビューは、2月にGPT-4oよりもほぼ10パーセントポイント上回りました。

AIの能力向上による影響

AI Safetyセンターのディレクターであるダン・ヘンドリックス氏は、AIモデルが現在、懸念すべき量の実践的な知識を習得していることを強調しました。AIモデルが実際にウェットラボ環境で研究が示唆するように有能である場合、その影響は広範囲に及びます。

一方で、AIは、ウイルスと闘う重要な作業において経験豊富なウイルス学者に貴重な支援を提供し、医療とワクチンの開発のタイムラインを加速し、臨床試験と疾患の検出を改善する可能性があります。ジョンズ・ホプキンス健康安全保障センターのディレクターであるトム・イングルスビー氏は、AIは、特に専門的なスキルやリソースが不足している世界のさまざまな地域の科学者が、自国で発生する疾患に関する貴重な日常業務を実施できるようにする可能性があると指摘しました。

  • 医療とワクチンの開発を加速する。
  • 臨床試験と疾患の検出を改善する。
  • リソースが限られた環境で科学者を支援する。

悪意のある行為者による悪用のリスク

他方で、本研究は、これらのモデルを使用して、最も危険でエキゾチックな感染性物質を扱うバイオセーフティーレベル4(BSL-4)の研究室に入るために必要な典型的な訓練やアクセスを必要とせずに、ウイルスを作成する方法を学ぶ可能性がある悪意のある行為者によるAIの悪用についても深刻な懸念を引き起こしています。イングルスビー氏は、AIは、ウイルスを管理および操作するために必要な訓練を受けていない人々を増やす可能性があり、壊滅的な結果につながる可能性があると警告しました。

ヘンドリックス氏は、AI企業に対し、この種の用途を防ぐためのガードレールを実装するように促し、6か月以内にそうしないことは無謀であると示唆しました。彼は、1つの解決策は、これらのモデルをゲーテッドにすることであり、MIT生物学部などの致命的なウイルスを操作する正当な理由を持つ信頼できる第三者のみが、フィルター処理されていないバージョンにアクセスできるようにすることだと提案しました。

  • ガードレールを実装することにより、悪用を防ぐ。
  • 信頼できる関係者へのアクセスを制限するために、モデルをゲーティングする。
  • 許可された研究者のみが機密性の高い機能にアクセスできるようにする。

業界の自主規制の実現可能性

ヘンドリックス氏は、AI企業が自主規制を行い、これらの種類の安全対策を実施することは技術的に可能であると考えています。しかし、一部の企業が足踏みをするか、必要な措置を講じないのではないかと懸念を表明しました。

イーロン・マスク氏のAIラボであるxAIは、論文を認め、Grokに有害な要求を拒否させたり、入力および出力フィルターを適用するなど、ウイルス学の質問への回答に関する特定の安全対策を「潜在的に利用する」ことを示唆しました。

OpenAIは、最新モデルであるo3およびo4-miniが、有害な出力をブロックするなど、生物学的リスク関連の安全対策を多数展開してリリースされたと述べました。同社はまた、安全でない生物関連の会話の98.7%が正常にフラグ付けされ、ブロックされた1000時間のレッドチーミングキャンペーンを実施したと報告しました。

  • AIモデルに有害な要求を拒否させるようにトレーニングする。
  • 入力および出力フィルターを適用して、危険なコンテンツをブロックする。
  • リスクを特定および軽減するために、レッドチーミング演習を実施する。

政策と規制の必要性

これらの取り組みにもかかわらず、イングルスビー氏は、業界の自主規制だけでは不十分であり、議員や政治指導者に対し、AIの生物学的リスクを規制するための政策アプローチを開発するよう求めています。彼は、一部の企業はこれらのリスクに対処するために時間とお金を投資していますが、そうでない企業もある可能性があり、国民は何が起こっているのかを知ることができない状況になっていると強調しました。

イングルスビー氏は、新しいバージョンのLLMをリリースする前に、パンデミックレベルの結果を生み出さないことを確認するために評価する必要があると提案しました。これには、業界と政府の関係者の両方が参加する、ウイルス学におけるAIの能力を規制するための、より包括的かつ協調的なアプローチが必要になります。

  • パンデミックレベルの結果を防ぐために、リリース前にLLMを評価する。
  • AIの生物学的リスクを規制するための包括的な政策アプローチを開発する。
  • 規制プロセスに業界と政府の関係者の両方を関与させる。

イノベーションと安全性のバランスを取る

課題は、AIのイノベーションを促進し、これらの強力なテクノロジーが致命的な生物兵器の作成に悪用されないようにすることのバランスを取ることです。これには、次のような多面的なアプローチが必要です。

  • 悪用を防ぐための堅牢な安全対策を開発する。
  • 機密性の高い機能へのアクセスを信頼できる関係者に制限する。
  • ウイルス学におけるAIの能力を規制する。
  • 責任あるイノベーションと倫理的配慮を促進する。

これらの措置を講じることにより、AIの計り知れない可能性を活用して、ウイルス学研究を進め、感染症と闘いながら、その悪用に関連するリスクを軽減することができます。ウイルス学におけるAIの未来は、この複雑な状況を責任を持ってナビゲートし、これらの強力なテクノロジーが人類の利益のために使用されるようにする能力にかかっています。