Google Gemini 2.5 Pro:安全性報告の欠如で精査

約束違反と未達成のコミットメント

GoogleがGemini 2.5 Proのリリースに際して安全性研究報告書を提供しなかったことは、過去の約束の違反と見なされています。2023年7月、Googleはバイデン政権が主催したホワイトハウス会議に参加し、他の著名なAI企業と共に一連の誓約に署名しました。その重要なコミットメントの一つは、当時の最先端AIを超える主要な公開モデルリリースすべてについて、報告書を公開することでした。その進歩を考えると、Gemini 2.5 Proはほぼ確実にこれらのホワイトハウスコミットメントの範囲に含まれるはずです。

当時、Googleはこれらの報告書が以下を含むべきであることに同意しました。

  • 危険な能力の評価を含む、実施された安全性評価。
  • 適切なユースケースに影響を与える可能性のある重大なパフォーマンスの制限。
  • 公平性とバイアスのような社会的リスクに対するモデルの影響に関する議論。
  • モデルの展開への適合性を評価するための敵対的テストの結果。

2023年10月に広島で開催されたG7会議に続き、Googleと他の企業は、高度なAIの開発のための自主的な行動規範を遵守することを誓約しました。このG7コードは、高度なAIシステムの能力、制限、および適切および不適切なアプリケーションを公に報告することの重要性を強調しました。その目的は、AI分野における透明性と説明責任を強化することでした。

2024年5月、ソウルで開催されたAI安全に関する国際サミットで、Googleはそのコミットメントを改めて表明しました。同社は、モデルの能力、制限、適切および不適切なユースケースを公に開示し、リスク評価と結果に関する透明性を提供することを約束しました。

Googleの対応と遅延する透明性

欠落している安全性報告書に関する問い合わせに応じて、Geminiモデルの開発を担当するGoogle DeepMindの広報担当者は、最新のGeminiはリリース前にテストを受けていると述べました。これには、モデルのリリース前に行われた内部開発評価と保証評価が含まれます。広報担当者はまた、追加の安全性情報とモデルカードを含む報告書は「近日公開予定」であると示しました。しかし、4月2日に最初の声明が出されたにもかかわらず、現在までにモデルカードは公開されていません。

安全性報告の軽視という広範な傾向

AIの安全性へのコミットメントに関して批判に直面しているのはGoogleだけではありません。今年の初めには、OpenAIもDeep Researchモデルのタイムリーなモデルカードのリリースを怠ったとして精査に直面しました。代わりに、彼らはプロジェクトの最初のリリースから数週間後にシステムカードを公開しました。同様に、MetaのLlama 4に関する最近の安全性報告書は、内容が短すぎて詳細が不足していると批判されています。

これらの事例は、AI業界内で懸念される傾向を浮き彫りにしています。それは、一部の主要な研究所がモデルリリースに沿った安全性報告を優先していないことです。これは、これらの企業が米国政府およびグローバルコミュニティに対して行った、そのような報告書を作成するという自主的なコミットメントを考えると、特に問題です。これらのコミットメントは、当初2023年にバイデン政権に対して行われ、その後、広島でのAIサミットでG7諸国によって採択されたAI行動規範を遵守するという誓約を通じて強化されました。

Center for Democracy and TechnologyのAIガバナンスに関するアドバイザーであるKevin Bankstonは、これらの失敗が関係企業の信頼性を損ない、責任あるAI開発へのコミットメントに関する疑問を投げかけていると述べ、失望感を表明しました。

未回答の質問と外部評価

Googleの広報担当者の声明はまた、Gemini 2.5 Proが英国AIセキュリティ研究所または米国AI安全研究所による外部評価に提出されたかどうかという具体的な質問にも答えていませんでした。以前、Googleは以前の世代のGeminiモデルを英国AI安全研究所に評価のために提供していました。

ソウルの安全サミットで、Googleは「フロンティアAI安全コミットメント」に署名し、その中には安全性評価の実施に関する公開の透明性を提供するという誓約が含まれていました。唯一の例外は、そうすることがリスクを高めるか、社会的な利益に不均衡な程度まで機密の商業情報を漏洩する場合でした。この誓約はまた、公に共有できないより詳細な情報は、企業が拠点を置く国の政府、つまりGoogleの場合は米国と共有する必要があるとも述べています。

企業はまた、政府、市民社会、学界、一般の人々などの外部関係者がAIモデルのリスク評価のプロセスにどのように関与しているかを説明することを約束しました。GoogleがGemini 2.5 Proを米国または英国の政府評価者に提出したかどうかという直接的な質問に答えられなかったことは、このコミットメントにも違反する可能性があります。

透明性よりも展開を優先

安全性報告書の欠如は、Googleが透明性と徹底的な安全性評価よりも迅速な展開を優先しているのではないかという懸念を引き起こしています。オックスフォードインターネット研究所の教授兼上級研究員であるSandra Wachterは、責任ある研究とイノベーションにおける透明性の重要性を強調しました。彼女は他の業界との類似点を描き、「これが車や飛行機であれば、『できるだけ早く市場に投入して、安全性の側面については後で調べる』とは言わないでしょう」と述べました。Wachterは、ジェネレーティブAI分野では「それをそこに置いておき、心配し、調査し、後で問題を修正する」という考え方が蔓延していることを懸念しました。

政治的変化と競争圧力

最近の政治的変化と、ビッグテック企業間の激化する競争が相まって、企業がAIモデルの展開を急ぐにつれて、以前の安全性のコミットメントからの転換に貢献している可能性があります。Wachterは、「これらの企業にとって、より速く、より迅速に、最初であり、最高であり、支配的であるというプレッシャーポイントは、以前よりも一般的になっている」と指摘し、業界全体で安全基準が低下していると付け加えました。

これらの低下する基準は、AI安全手順がイノベーションを妨げているというテクノロジー国と一部の政府の間の高まる懸念によって推進されている可能性があります。米国では、トランプ政権がバイデン政権と比較してAI規制に対してより寛容なアプローチを採用する意向を示しています。新政権はすでにバイデン時代のAIに関する大統領令を撤回し、テクノロジーリーダーとのより緊密な関係を築いています。パリで開催された最近のAIサミットで、米国のJD Vance副大統領は、「成長志向のAI政策」は安全性よりも優先されるべきであり、AIは「トランプ政権が逃さない機会」であると述べました。

同じサミットで、英国と米国はどちらも、テクノロジーの開発に対する「オープン」、「包括的」、「倫理的」なアプローチを推進する人工知能に関する国際協定への署名を拒否しました。

明確な透明性要件の必要性

Bankstonは、「新しいモデルをリリースするときに、これらの企業が最も基本的な安全性と透明性のコミットメント(彼ら自身が自主的に行ったコミットメント)さえも満たすことを当てにできない場合、競争の激化の中でモデルを急ぎすぎているのは明らかです」と強調しました。彼は、AI開発者がこれらのコミットメントを履行し続けることができないため、議員が企業が回避できない明確な透明性要件を開発し、施行することが義務付けられると付け加えました。

AIガバナンスに対するより広範な影響

GoogleのGemini 2.5 Proとその欠落している安全性報告書をめぐる論争は、堅牢なAIガバナンスフレームワークの必要性を強調しています。これらのフレームワークは、次のような主要な問題に対処する必要があります。

  • 透明性: AI開発者が、モデルの能力、制限、潜在的なリスクについて透明性を確保すること。
  • 説明責任: AIシステムの開発と展開について明確な説明責任のラインを確立すること。
  • 安全性: 危害のリスクを最小限に抑えるために、厳格な安全性テストと評価手順を実施すること。
  • 倫理的考慮事項: 倫理的原則をAIシステムの設計と開発に組み込むこと。
  • 公衆の関与: AIとその影響についてのより広い理解を促進するために、公衆と関わること。
  • 国際協力: AIガバナンスのための共通の基準とベストプラクティスを開発するために、国際的に協力すること。

Gemini 2.5 Proをめぐる透明性の欠如は、AIガバナンスのこれらの重要な側面を無視することの潜在的な結果を浮き彫りにしています。適切な透明性と説明責任がなければ、AIシステムの真の影響を評価し、それらが責任ある倫理的な方法で開発および展開されることを保証することは困難になります。

前進:より大きな責任への呼びかけ

AI業界は重要な岐路に立っています。AI技術がますます強力になり、普及するにつれて、開発者は安全性、透明性、倫理的考慮事項を優先することが不可欠です。Gemini 2.5 Proをめぐる論争は、自主的なコミットメントだけでは常に十分ではないことを思い出させるものです。政府および規制機関は、明確な基準を確立し、コンプライアンスを施行する上で、より積極的な役割を果たす必要があります。

さらに、AI開発者が公衆と関わり、AIとその影響についてのより広い理解を促進することも重要です。これには、AIシステムの制限事項と潜在的なリスク、およびそれらのリスクを軽減するために講じられている措置について透明性を確保することが含まれます。AI業界、政府、および公衆が協力することで、AI技術が社会全体に利益をもたらす方法で開発および展開されることを保証できます。