DeepSeekのR1のような洗練された人工知能モデルの出現は、西側のテクノロジー界に波紋を広げ、AI開発に関する戦略、特にコスト効率と最先端能力というしばしば競合する要求を巡る内省を促しています。しかし、その影響は単なる技術的ベンチマークや経済効率をはるかに超えています。DeepSeekが示す軌跡は、より深く、より緊急の考察を強いるものです。特定の種類のAI、特に非民主主義国家によって推進されるAIの台頭は、アルゴリズムによってますます形作られる時代において、民主主義自体の将来の健全性と原則にとって何を意味するのでしょうか?
この課題の中心にあるのは、open-source AIの概念です。これは、基盤となるコードからトレーニングに使用されるデータセットに至るまで、AIシステムの基本的な構成要素が公にアクセス可能になっているAIシステムを指します。この透明性により、ユーザーはツールを利用するだけでなく、その内部構造を研究し、特定の目的のために変更し、自身のイノベーションを共有することができます。複雑なAIモデルの文脈における「open source」の正確な定義はまだ議論されていますが、その可能性は計り知れません。AI開発を民主化し、開発者が協力し、互いの成果の上に構築できる活気あるエコシステムを育成することを約束します。この協力的な精神は、個人、研究者、コミュニティが教育、ヘルスケア提供、金融サービスなどの重要なセクター向けにAIソリューションを調整することを可能にし、潜在的に大きなイノベーションを解き放ち、経済全体の進歩を加速させる可能性があります。
しかし、この有望な技術的道筋には、特にそのガバナンスと根底にある価値観に関して、固有の複雑さとリスクが伴います。例えば、DeepSeek R1モデルに関する報告は、ユーザーからの情報を検閲したり、選択的に差し控えたりするメカニズムを組み込んでいる可能性を示唆しています。この一つの例は、より大きな危険性を浮き彫りにします。民主主義国家は、優れたAI性能を求める技術競争で遅れをとるリスクに直面しているだけではありません。AIのガバナンスを形成するという重要な戦いで地歩を譲るという、同様に重大な危険に直面しています。これにより、表現の自由や情報へのアクセスといった民主主義的規範を支持するように設計されたシステムを覆い隠し、権威主義的な原則が組み込まれたシステムが世界的に蔓延する可能性があります。
したがって、現在の状況は、積極的かつ協調的な対応を要求しています。米国が民主主義的な同盟国、特に極めて重要な協力者であるEUと強力なパートナーシップを築き、open-source AIに特化したグローバルスタンダードとベストプラクティスを確立することが不可欠です。既存の法的枠組みと相当な市場影響力を活用し、これらの大西洋横断パートナーは、この急成長分野のための堅牢なガバナンス構造の創設を主導すべきです。重要な第一歩は、規制の明確性と有効性を確保するために、open-source AIの機能的な定義について公式に合意することです。これに続き、透明性、公平性、説明責任、基本的人権の尊重といった民主主義的価値観が、開発・推進されているopen-source AIモデルに深く組み込まれることを確実にするための取り組みを協調して加速する必要があります。このような戦略的な推進は、独裁的な支配によって巧妙に形作られるのではなく、真にオープンで透明性があり、すべての人々にとって力となるAIの未来への道を開くために不可欠です。
中国の計算されたオープン性への傾倒
現在の力学を理解するには、AI領域における中国の戦略的な動きを評価する必要があります。DeepSeekの注目すべき成功の一部は、単なる技術力だけではありません。それは、open-source AIの規範設定を自国の法政策アーキテクチャに直接統合する意図を示す、中国共産党(CCP)からのますます明確なシグナルと一致しています。重要な指標は、2024年4月のModel AI Law草案で示されました。この文書は、国内のopen-source AIエコシステムの育成に対する北京の支持を明確に表明しています。
この法案の第19条は、国家が「オープンソースエコシステムの構築を促進」し、「関連主体がオープンソースプラットフォーム、オープンソースコミュニティ、およびオープンソースプロジェクトを構築または運営することを積極的に支援する」と宣言しています。さらに、企業が「ソフトウェアソースコード、ハードウェア設計、およびアプリケーションサービスを公に利用可能にする」ことを奨励し、表向きは業界全体の共有と協調的なイノベーションを促進するためとしています。おそらく最も示唆的なのは、この草案が、「国家基準」に準拠したガバナンスシステムを確立し、「対応する安全対策」を実施することを条件に、open-source AIモデルを提供する事業体の法的責任を軽減または免除することを示唆している点です。これは、しばしばユーザーの権利保護をより明確に強調していた中国の以前のAI関連法規からの潜在的に重要な転換を表しています。まだ草案段階ではありますが、Model AI Law内の特定の条項は貴重な青写真を提供し、中国が国内でopen-source AIをどのように展開することを構想しているか、そして決定的に、その輸出されるAIモデルがどのような特性を持つ可能性があるかを明らかにしています。
この戦略的方向性をさらに強化するのが、AI Safety Governance Frameworkです。これは、中国が「世界レベルでのAI安全ガバナンスに関する国際協力を促進する」ために国際的に活用する意向の文書です。このフレームワークは、open-source AIに関する同国の増大する自己主張を反映しています。中国の国家標準化管理委員会(National Technical Committee 260 on Cybersecurity)によって起草されたこのフレームワーク(この組織は、2024年9月にCCPによってサイバーセキュリティガイドラインが正式に採用された強力なCyberspace Administration of Chinaと密接に関連しています)は、明確に次のように述べています。「我々はAIにおける知識共有を促進し、オープンソース条件の下でAI技術を公衆に利用可能にし、AIチップ、フレームワーク、ソフトウェアを共同で開発すべきである。」世界的な聴衆を対象とした文書にこのような強力な声明を含めることは、中国がopen-source AI運動に参加するだけでなく、この重要な技術領域における主要な提唱者および標準設定者としての地位を確立しようとする野心を明確に示しています。しかし、この計算された「オープン性」への傾倒は、明確に管理された環境の中で行われており、国家目標との整合性を維持しながらオープンソースの革新的な力を活用することを目指しています。
アメリカのためらい:方向性よりも防御
太平洋の対岸では、米国におけるopen-source AIを取り巻く状況は対照的です。かなり以前から、テクノロジー業界や学界の支持者たちは、オープンソースアプローチの相当な利点を擁護してきました。著名な業界関係者は、米国政府に対し、open-source AI開発の育成により大きな戦略的重点を置くよう公に促してきました。注目すべき例は、Mark ZuckerbergによるオープンソースモデルLlama 3.1の発表であり、彼はオープンソースがすべての人々に広範な「経済的機会と安全保障」を創出するための「世界最良のチャンス」であると主張しました。
影響力のある方面からのこのような声高な主張にもかかわらず、米国はopen-source AIの開発を促進または指導するために特別に設計された重要な法的枠組みを確立することに著しく失敗しています。ある米国上院議員が2023年にオープンソースソフトウェアセキュリティのための枠組み構築を目指す法案を提出しましたが、この法案は意味のある進展なく停滞しています。連邦機関はこの問題に触れていますが、しばしば慎重または反応的な姿勢をとっています。昨年、National Telecommunications and Information Administration (NTIA) は、「オープンウェイト」を持つデュアルユースAI基盤モデルを調査する報告書を発表しました。「オープンウェイト」とは通常、モデルのパラメータが利用可能であることを意味しますが、必ずしも真にオープンソースであるための完全な基準(しばしばトレーニングデータやコードへのアクセスを含む)を満たすわけではないことに注意が必要です。NTIA報告書は、政府に対し、適切な制限を決定するため、これらのオープンウェイトモデルに関連する潜在的リスクの監視を強化するよう助言しました。その後、Biden政権の最終的なAI規制枠組みは、オープンモデルに対してやや寛容な姿勢を採用し、最も強力なクローズドウェイトモデルに対してより厳しい要件を設定する一方で、オープンウェイトモデルをこれらの特定の制約から大部分除外しました。
それにもかかわらず、民主的なopen-source AIを擁護するための明確で積極的な国家戦略は依然として見当たりません。潜在的な指導者の交代による将来の方向性は、さらなる不確実性の層を加えています。Donald Trump前大統領は、open-source AIに関する特定の政策やガイダンスを明確に示していません。彼はBiden大統領の最初のAI大統領令を撤回しましたが、発行された代替命令は、open-source AIの開発を育成または誘導するための具体的なイニシアチブを概説していません。
全体として、米国の アプローチは主に防御的に見えます。主な焦点は、高度に有能な、しばしばプロプライエタリなAIモデルを開発することにあるようで、同時に、敵対者、特に中国が、先進的な半導体技術やAI能力にアクセスするのを防ぐために多大な努力を費やしています。この防御的な姿勢は、国家安全保障の観点からは理解できますが、重要な攻撃戦略、すなわち民主主義的原則に根ざしたopen-source AIのグローバルエコシステムを積極的に育成し促進することをおろそかにするリスクがあります。米国は自国の技術的要塞を守ることに preoccupied しているように見え、オープンで権利を尊重するAI代替案の積極的な普及を通じて、より広範なグローバルランドスケープを形成する機会を逃している可能性があります。
ヨーロッパの規制パラドックス:権力と麻痺
デジタル領域における積極的な規制姿勢で知られるEUは、open-source AIに関して異なる種類の課題を提示しています。画期的なGeneral Data Protection Regulation (GDPR) の施行以来、EUはデジタル経済のグローバルスタンダードセッターとしての地位を確立することに成功しました。世界中の国々や多国籍企業は、しばしばEUのコンプライアンスフレームワークに自社の慣行を合わせており、この傾向は包括的なEU AI Actの登場により人工知能の領域にも及んでいます。この法律は、EU全体でAIシステムに対するリスクベースの規制を確立することを目指しています。
しかし、open-source AIに具体的に対処することになると、EUの強力な規制機構は驚くほどためらいがちで、その取り組みはやや未発達に見えます。AI Actの第2条には簡単な言及があり、open-source AIモデルに対する規制からの特定の免除を定めています。しかし、この免除の実質的な影響は限定的に見えます。特に、商業目的で展開されるモデルには通常適用されないためです。この狭い範囲は、急成長するopen-source AIランドスケープに対するその現実世界での効果を著しく制限します。
この逆説的な状況、すなわちオープンソースを認めながらも積極的に育成することに失敗している状況は、他のEUガイダンス文書でも続いています。この議論のために仮に2025年3月に発行されたとされる最新のGeneral-Purpose AI Code of Practiceは、安全で人間中心の信頼できるAIの開発に対するオープンソースモデルの肯定的な貢献を認識するかもしれません。しかし、そのような文書はしばしば、これらの潜在的に有益なopen-source AIモデルの開発と広範な採用を積極的に促進するために設計された意味のある詳細な説明や具体的な措置を欠いています。EU Competitiveness Compassのような戦略的枠組み(表向きは過剰規制に対処し、AIなどの主要分野における戦略的競争力を強化するために設計されている)内でさえ、「open source」という用語は conspicuously absent であるか、最小限の注意しか払われていません。
ブリュッセルからの、open-source AIを完全に受け入れ規制することに対するこの慎重で、ほとんど寡黙なアプローチは、いくつかの要因に起因する可能性があります。一つの重要なハードルは、open-source AIを正確に定義する固有の困難さです。主にソースコードを扱う従来のオープンソースソフトウェアとは異なり、open-source AIは複雑な事前訓練済みモデル、広大なデータセット、および複雑なアーキテクチャを含みます。Open Source Initiative (OSI) のような組織による努力にもかかわらず、普遍的に受け入れられた法的定義の欠如は、欧州委員会のような規制機関が通常不快に感じるレベルの法的 不確実性を生み出します。
しかし、この相対的な不活動の根底にある推進力は、より深いところにあるかもしれません。GDPRのような広範な規制体制を確立したEU自身の成功が、委員会をして、AIのように強力で急速に進化する技術、特にそのオープンソース版がやや不明確なままである場合に、広範な免除を設けることに慎重にさせているのかもしれません。完全に確立されたガードレールなしにopen-source AIをあまりにも容易に受け入れることが、EUが苦労して獲得したグローバルな規制影響力を意図せず弱めるかもしれないという恐れがある可能性があります。これは戦略的な賭けです。よりダイナミックで、予測可能性は低いかもしれないが、オープンなイノベーションエコシステムを育成する可能性よりも、包括的な管理を優先するという賭けであり、ブリュッセルはこれまで、決定的に取ることにほとんど意欲を示していません。この規制上の麻痺は、他者が容易に埋めている空白を残しています。
AIの地政学的景観の変化
中国のopen-source AIへの戦略的推進と、米国およびEUの相対的なためらいの合流は、人工知能の地政学的地形を積極的に再形成しています。中国の技術的自給自足への断固たる推進(現在ではopen-source AIに関する戦略の強化を明確に含んでいるキャンペーン)は、数年前から続く国家安全保障、経済競争力、知的財産保護に関する米国の懸念により実施された、高度なコンピューティングハードウェアと半導体を標的とした持続的な米国の輸出規制への対応として部分的に理解できます。オープンソースへの傾倒を含む中国の対抗措置は、二つの世界大国間の技術的覇権をめぐる、より広範で激化する戦略的競争を反映しています。一方、EUは通常、この競争において、同規模の直接的な技術競争を通じてではなく、基本的人権、プライバシー、公平性やアルゴリズムの説明責任といった民主主義的価値観の保護に焦点を当てたグローバルな規範を設定することによって影響力を行使します。これらの基準は、実際に主要なグローバルテクノロジー企業のポリシーを形作ってきました。
しかし、open-source AIのリーダーおよび提唱者として積極的に自らを位置づけることによって、中国は巧妙に課題(特定の西側技術へのアクセス制限)を戦略的機会に変えています。それは、効果的にAIのオープンネスの独自のバージョンを作り上げ、世界コミュニティ、特にアクセス可能なAIツールを求める開発途上国に売り込んでいます。DeepSeekのR1のような有能な中国製モデルの出現は、Alibabaなどの他の国内テックジャイアントからの提供とともに、グローバルな力学を変化させ始めています。特にオープンな代替案がよりアクセスしやすく、またはコスト効率が高いように見える場合、排他的にクローズドなプロプライエタリAIモデルに対する世界的な需要を潜在的に減少させます。例えば、DeepSeekは、処理能力が限られたデバイスに適した、より小型で計算要求の少ないモデルをリリースしました。AI開発の主要ハブであるHugging Faceのようなプラットフォームは、自社のモデルを改善するためにDeepSeek-R1のトレーニング方法の側面を分析し、再現し始めたと報告されています。Microsoft、OpenAI、Metaのような西側のテックジャイアントでさえ、DeepSeekの開発によって一部注目を集めたモデル蒸留のような技術をますます探求しています。
この進化するランドスケープは、中国がAIのオープンネスに関するグローバルな対話を積極的に推進し、米国に初めて、この言説に対応し適応することを強いていることを明らかにしています。同時に、EUはオープンソースに関する法的および規制上の慣性の状態にやや囚われたままです。この非対称性は、open-source AIのガバナンスと普及という重要な領域において、顕著なパワーバランスの不均衡を生み出しています。
決定的に重要なのは、中国によって広められているopen-source AIのバージョンが、民主主義社会にとって重大な懸念を伴うことです。CCPは戦略的に「二重トラック」システムを実施しているように見えます。イノベーションを促進するためにAI開発者と企業の間で相対的なオープンネスと協力を奨励する一方で、同時に、情報フローと表現の自由を制限するために、公衆向けのモデル内に制御と制限を埋め込んでいます。この「オープンネス」は、中国の確立された技術的制御のパターンによって強く条件付けられており、しばしばモデルの入力と出力が国家公認の物語、CCPの価値観に合致し、肯定的な国家イメージを投影することを要求します。中国当局がオープンソース原則を公然と受け入れているグローバル志向のAI Safety Governance Framework内でさえ、AI生成コンテンツが「イデオロギー的安全保障」に脅威をもたらすという示唆的な言葉遣いがあります。これは、思想と言論の自由に対するCCP固有の制限の明確なシグナルです。
民主主義的原則と基本的人権の保護に根ざした堅牢な代替フレームワークがなければ、世界は中国のより制限的なopen-source AIの解釈が広範に複製され採用されるのを目撃するリスクがあります。権威主義的な政権や、潜在的には非国家主体でさえ、世界中でこれらのモデルを容易に基盤として利用し、洗練された検閲と監視を可能にしながら、単に技術的アクセシビリティを促進しているだけだと誤解を招く主張をする可能性があります。したがって、中国の技術的パフォーマンスに匹敵することだけに焦点を当てることは不十分です。民主主義国家は、open-source AI時代の民主的ガバナンスを確立し促進することで主導権を握ることによって、戦略的に対応しなければなりません。
大西洋横断的な前進の道を切り開く
現在の軌道は、世界の主要な民主主義国家間の断固たる行動と新たな協力を要求しています。米国とEUは、open-source diplomacy戦略に着手することを真剣に検討すべきです。これは、権威主義的な代替案への対抗策として、有能で信頼でき、権利を尊重するAIモデルの開発と共有を世界中で積極的に推進することを含みます。この取り組みの中心となるのは、米国とEUが共同で開発するopen-source AIのための統一されたガバナンスフレームワークの創設です。
民主的なAIの未来を効果的に形作るためには、open-source AIに関する大西洋横断ワーキンググループの設置が重要な次のステップです。このグループは、Global Partnership on Artificial Intelligence (GPAI) のような既存の構造を適切に活用すべきですが、フレームワーク開発プロセス全体を通じて、大西洋両岸の主要なテクノロジー企業、学術研究者、市民社会の専門家の積極的な参加と意見を確実にすることが決定的に重要です。この包括的なアプローチは、原則的かつ実用的な基準を作成するために不可欠です。
第二に、米国とEUの両方が、このビジョンを具体的に支援する必要があります。これは、民主主義的価値観に明確に合致するopen-source AIモデルの開発に特化した学術機関、研究所、革新的なスタートアップに戦略的に資金を振り向けることを意味します。そのようなモデルの主な特徴は次のとおりです。
- 設計とトレーニングデータの透明性。
- 検閲と操作に対する堅牢な保護措置。
- 説明責任とバイアス緩和のためのメカニズム。
- プライバシーと基本的人権の尊重が組み込まれていること。
これらの民主的なモデルを推進するには、ワシントンとブリュッセルの両方の政策立案者が、これらの原則に基づくグローバルエコシステムを育成することの長期的な戦略的利益が、オープンネスに関連する短期的なリスク認識を大幅に上回ることを明確に認識する必要があります。同時に、EUはこの特定の分野で確立された規制能力をより断固として活用する必要があります。高い基準へのコミットメントを維持しつつ、ブリュッセルはopen-source AIの法的定義に関するためらいを克服し、明確なガイドラインとインセンティブをより迅速に確立し、それによってグローバルな規範形成における中国の増大する勢いに対抗する必要があります。ある程度の管理された不確実性を受け入れることが、さらなる地歩を譲ることを避けるために必要かもしれません。
大西洋横断関係は様々な面で周期的な混乱に直面するかもしれませんが、open-source AIにおける中国の台頭によってもたらされる課題は、この領域における競争よりも米EU協力の絶対的な必要性を強調しています。この極めて重要な技術分野でリーダーシップを取り戻すには、協調的で未来志向の大西洋横断イニシアチブが必要です。このイニシアチブは、積極的な政策開発、的を絞った研究資金提供、イノベーション支援を統合し、すべてが世界中の人々にとって真に権利を尊重し、透明性があり、創造的で、力となるAIの未来のためのグローバルスタンダードを設定することを目指さなければなりません。ためらいがちな観察の時は終わりました。断固たる、統一された行動の時が今なのです。