規制の迷路:統一(と先制)の呼びかけ
複数の主要AI企業の提出書類に共通する懸念は、州レベルでのAI規制が急増し、複雑化していることである。ChatGPTの開発元であるOpenAIは、現在州レベルで検討されている700以上の法案から救済を求めた。しかし、OpenAIが提案する解決策は、連邦法ではなく、狭義の自主的な枠組みである。この枠組みは、州の規制を先取りし、AI企業に一種のセーフハーバーを提供する。この保護と引き換えに、企業は有利な政府契約を獲得し、潜在的なセキュリティ脅威に関する事前警告を受け取る。政府は、新しいモデルの機能をテストし、外国の競合他社と比較する権限を与えられる。
Googleもこの意見に同調し、「最先端AIモデルのための統一された国家フレームワーク」によって州法を先取りすることを提唱している。Googleによれば、このフレームワークは国家安全保障を優先すると同時に、米国のAIイノベーションを促進する環境を醸成する必要がある。しかし、OpenAIとは異なり、Googleは連邦政府によるAI規制に本質的に反対しているわけではなく、テクノロジーの特定の応用に焦点を当てることを条件としている。Googleにとって重要な注意点は、AI開発者は他者によるツールの誤用に対して責任を負うべきではないという点である。Googleはまた、AI業界に影響を与えるとして、新しい連邦プライバシーポリシーを推進する機会を利用した。
国内規制を超えて、Googleは米国政府に対し、AI法制に関して他の政府と積極的に関わるよう促している。同社は特に、企業に企業秘密の開示を強いる可能性のある法律に対して警告している。同社は、企業の母国政府のみがAIモデルの詳細な評価を行う権限を持つという国際的な規範を構想している。
中国の挑戦:輸出規制と戦略的競争
AI分野における中国の急速な進歩は、すべての主要企業の提出書類に大きく影を落としている。2024年1月にバイデン政権が導入した、中国による米国の先端技術へのアクセスを抑制するための「AI拡散」ルールは、議論の焦点となった。すべての企業がこのルールの存在を認めているが、提案された修正案は、全く異なるアプローチを示している。
OpenAIは、「商業外交」戦略を提案している。現在、米国のAIチップの無制限輸入を許可しているルールの最上位層を拡大し、より多くの国を含めることを提案している。その条件は?これらの国は、「民主的なAI原則」にコミットし、「市民の自由を促進する」方法でAIシステムを展開しなければならない。このアプローチは、米国の技術的リーダーシップを活用して、価値観に沿ったAIガバナンスの採用を世界的に奨励しようとするものである。
Microsoftは、OpenAIと同様に、拡散ルールの最上位層の拡大を望んでいる。しかし、Microsoftは、執行強化の必要性も強調している。同社は、最先端のAIチップが、米国政府によって信頼され安全であると認証されたデータセンターでのみ輸出および展開されるように、商務省のリソースを増やすことを求めている。この措置は、中国企業が、アジアや中東にある、より小規模で監視の緩いデータセンタープロバイダーの「グレーマーケット」を通じて強力なAIチップにアクセスすることで、規制を回避することを防ぐことを目的としている。
Claude AIモデルの開発元であるAnthropicは、AI拡散ルールの第2層の国に対する規制をさらに強化し、特にNvidiaのH100チップへのアクセスを制限することを提唱している。さらに、Anthropicは、既存の米国規制に準拠するために中国市場向けに特別に設計されたNvidiaのH20チップにまで、輸出規制を拡大するよう米国に求めている。これは、中国がAI能力を強化する可能性のあるいかなる技術も取得することを阻止するという、Anthropicのより強硬な姿勢を示している。
Googleは、競合他社とは著しく異なり、AI拡散ルールに対する明確な反対を表明している。国家安全保障上の目標の妥当性は認めつつも、このルールは「米国のクラウドサービスプロバイダーに不均衡な負担」を課していると主張している。このスタンスは、規制がイノベーションを阻害し、同社の国際競争力を損なう可能性に対するGoogleの広範な懸念を反映している。
拡散ルールを超えて、OpenAIは、Huaweiチップと、「ユーザーのプライバシーを侵害し、IP盗難のリスクなどのセキュリティリスクを生み出す」中国の「モデル」の世界的な禁止を提案することで、さらに踏み込んでいる。これは、DeepSeekへの当てこすりとしても広く解釈されている。
著作権とAIの燃料:知的財産のナビゲート
AIモデルのトレーニングにおける著作権の問題も、特に注目されている。OpenAIは、欧州のAI法を明確に否定し、権利者にAIトレーニングへの作品の使用をオプトアウトする権利を与える条項を批判している。OpenAIは米国政府に対し、「革新性の低い国が、米国のAI企業に自国の法制度を押し付け、進歩の速度を遅らせることを阻止する」よう求めている。このスタンスは、データへの無制限のアクセスが、AIにおける米国の競争力を維持するために不可欠であるというOpenAIの信念を反映している。
一方、Googleは、「バランスの取れた著作権法」と、公に入手可能な情報に対する自動的な免除を認めるプライバシー法を求めている。これは、クリエイターの権利を認めつつ、AI開発におけるデータの重要性も認識するという、より微妙なアプローチを示唆している。Googleはまた、「誤って付与されたAI特許」の見直しを提案し、中国企業によって取得される米国のAI特許が増加していることを強調している。
未来を動かす:インフラとエネルギー需要
高度なAIモデルのトレーニングと運用に必要な膨大な計算能力は、インフラとエネルギー資源の大幅な拡大を必要とする。OpenAI、Anthropic、Googleはすべて、新しいAIデータセンターをサポートするためのエネルギーインフラの構築を加速するために、送電線の許認可プロセスを合理化することを提唱している。
Anthropicは特に大胆な姿勢を示しており、2027年までに米国で、AI専用に追加で50ギガワットのエネルギーを要求している。これは、急速に進化するAI分野の莫大なエネルギー需要と、AIがエネルギー消費の主要な推進力となる可能性を浮き彫りにしている。
セキュリティ、政府による採用、そしてAIを活用した国家
提出書類は、AI、国家安全保障、政府運営の交差点にも触れている。OpenAIは、政府機関がトップレベルのAIツールをより容易にテストおよび展開できるように、サイバーセキュリティの承認を加速することを提案している。また、分類された核関連のタスク用に設計されたモデルなど、商業市場で実現可能ではない国家安全保障に焦点を当てたAIモデルを開発するための官民パートナーシップを提案している。
Anthropicも、AIを政府機能に統合するための調達手続きの迅速化を求めている。注目すべきは、Anthropicが、National Institute of Standards and Technology (NIST)とU.S. AI Safety Instituteの堅牢なセキュリティ評価の役割の重要性も強調していることである。
Googleは、国家安全保障機関がAIのニーズのために商業的なストレージと計算リソースを利用することを許可されるべきだと主張している。また、政府が商業的なAIトレーニングのためにデータセットを公開し、「AI主導の洞察」を促進するために、異なる政府のクラウド展開全体でオープンデータ標準とAPIを義務付けることを提唱している。
社会的影響:労働市場とAI主導の変革
最後に、提出書類は、AIのより広範な社会的影響、特に労働市場への潜在的な影響について触れている。Anthropicは、政府に対し、労働市場の動向を注意深く監視し、重大な混乱に備えるよう促している。Googleも同様に、変化が起こりつつあることを認め、より広範なAIスキルの開発の必要性を強調している。Googleはまた、AI研究への資金増額と、米国の研究者が計算能力、データ、モデルに十分アクセスできるようにするための政策を要求している。
要するに、「AI Action Plan」への提出書類は、重要な岐路に立つ業界の姿を描き出している。AI技術を進歩させるという野心では一致しているものの、米国の主要企業は、規制、国際競争、社会的影響という複雑な課題をどのように乗り越えるかについて、根本的に異なる見解を持っている。今後数ヶ月、数年の間に、これらの異なるビジョンが、米国だけでなく世界的にAIの未来をどのように形作るかが明らかになるだろう。