ジャイプールからDeepSeekへ:AIの未来

文学祭、そしてAIの啓示

数週間前、インドで開催された活気あふれるジャイプール文学祭(JLF)は、人工知能の未来に関する重要な議論の場となった。表向きは帝国の遺産に焦点を当てたパネルディスカッション中に、会話は急展開を見せた。Pankaj Mishraの’From the Ruins of Empire: The Revolt Against the West and the Remaking of Asia’に魅了された聴衆は、文学についてではなく、中国の新しい生成AIモデルであるDeepSeekについて、一連の鋭い質問を投げかけた。

「私たちはどのようにしてここに至ったのか?AIの未来のために、どのように最良の道筋を描くことができるのか?なぜAI開発においてオープンソースが重要なのか?」これらの質問は、文学祭の会場をはるかに超えて響き渡った。それらは、深く根付いた歴史的な対立、自立への渇望、そしてAI開発へのよりオープンで協力的なアプローチを提唱する世界的な動きの高まりに触れていた。

DeepSeekの受容の歴史的背景

DeepSeekが文学祭で注目を集めたことは、一見奇妙に思えるかもしれない。しかし、その重要性は、歴史的な出来事、特にアジアと西側諸国との間の長年の対立と深く結びついている。ヨーロッパのAI研究所はオープンソースのブレークスルーで称賛を集めているが、アジアにおけるDeepSeekの受容は、はるかに深い歴史的共鳴を伴っている。

DeepSeekの発表は、激しいメディア報道で迎えられた。JLFでのその受容は、単なるAIのパフォーマンスに関する議論を超えた感情を明らかにした。中国を批判することが多いインドの作家やジャーナリストは、アメリカのAI企業(AICs)の支配に対する共通の闘争によって団結していることに気づいた。アジア全体でのDeepSeekに対するこの熱意は、植民地時代の歴史、そしてより最近では、挑発的な企業の声明に根ざしている。

AI:自立のための現代の闘争

‘Imperial Twilight: The Opium War and The End of China’s Last Golden Age’の著者であるStephen Plattにとって、中国の技術的野心は、その歴史的な傷跡と切り離せない。アヘン戦争(1839–1860)は、イギリスの技術的および軍事的優位性が中国をどのように屈辱したかを示す強力な象徴となっている。この「屈辱の世紀」は、中国の現在の自立への推進力、AI、半導体、およびその他の重要な技術への積極的な投資を促進している。それは、西側の技術への依存を回避するという決意であり、国民意識に刻まれた教訓である。

JLFのインド人パネリストは、この物語に共通点を見出した。中国と同様に、インドは東インド会社の影響という暗い痕跡を負っている。さらに、イギリス人ジャーナリストのAnita Anandは、OpenAIのCEOであるSam Altmanが、インドが基盤モデルのトレーニングでAICsと競争できる可能性を「全く絶望的」であると述べ、否定した বিতর্কিতビデオを強調した。このような発言は、この地域における自立への決意をさらに強めただけである。

オープンソースAI:抵抗の象徴

DeepSeek、そしてそれに先立つヨーロッパの研究所は、AI競争において希望の光を提供してきた。オープンソースを受け入れるという彼らの選択は、プロプライエタリなAIモデルの支配に対する抵抗の強力な象徴となっている。

DeepSeek R1のリリースは、特に米国との深く根付いた対立という文脈の中で理解されなければならない。この対立は非常に深刻であるため、米国技術との競争に関する議論では、ヨーロッパはしばしば見過ごされる。

AICsの支配は、西側諸国でさえ植民地主義との比較を引き起こしている。2024年8月の’The Rise of Techno-Colonialism’と題された論説で、欧州イノベーション評議会のメンバーであるHermann Hauserと、ユニバーシティ・カレッジ・ロンドン(UCL)の上級研究員であるHazem Danny Nakibは、次のように書いている。「かつての植民地主義とは異なり、テクノコロニアリズムは領土を掌握することではなく、世界経済と私たちの日常生活を支える技術を制御することである。これを達成するために、米国と中国は、グローバルサプライチェーンの最も革新的で複雑なセグメントをますます国内に回帰させ、それによって戦略的なチョークポイントを作り出している。」

Mistral、kyutai、MetaのFAIR Parisチーム、そして現在のDeepSeekのようなヨーロッパのAI研究所の先駆的なオープンソースアプローチは、AICsのプロプライエタリなAIモデル戦略に対する魅力的な代替案を提示してきた。これらのオープンソースの貢献は世界的に共鳴しており、アメリカのAI支配に対する抵抗の象徴としてのオープンソースAIの受け入れをさらに強固なものにしている。

オープンソースの事例:歴史は繰り返す

技術協力は、エネルギーとスピードによって促進される。これは、ソフトウェアコードの進化に内在するものである。

フランスのノーベル経済学賞受賞者であるJean Tiroleは、当初オープンソースの出現に困惑し、2000年のJosh Lernerとの論文’The Simple Economics of Open Source’で次のように問いかけた。「なぜ何千人もの一流のプログラマーが公共財の提供に自由に貢献するのか?利他主義に基づく説明は、ある程度までしか通用しない。」

当時としては理解できるが、近年のAIの進歩、特にDeepSeek R1のリリース後を追っている人なら誰でも、答えは自明であることに気づくだろう。MetaのFAIR ParisによるLlamaのオープンソース化の影響、Mistralとその創設者たちの7B言語学習モデル(LLM)のオープンソース化による急上昇、そしてDeepSeek R1は、これらのプログラマーや科学者たちのオープンソースへの献身の背後にある説得力のある理由を示している。

また、Sam Altmanと彼の共同創設者たちが、才能を引き付けるために’OpenAI’という名前を選んだ理由も明らかになる。これらのフロンティアラボがプロプライエタリなアプローチを選択していたら、これほどの大々的な宣伝を達成し、AIコミュニティ内でこれほど強力なパーソナルブランドを構築できただろうか?答えは、断固としてノーである。

1999年のプログラマーRichard Stallmanと開発者Eric Raymondによる2つの強力な引用は、論文の冒頭に含まれており、JLFでのDeepSeekの受容を明らかにし、より深いイデオロギー的な力を強調している。

  • 「プロプライエタリソフトウェアの社会システム、つまりソフトウェアを共有したり変更したりすることを許可しないシステムは、非社会的であり、非倫理的であり、単に間違っているという考えは、一部の人々にとっては驚きかもしれない。しかし、公共を分割し、ユーザーを無力な状態に保つことに基づくシステムについて、他に何と言えるだろうか?」 - Richard Stallman

  • 「Linuxハッカーが最大化している効用関数は、古典的な経済学的なものではなく、他のハッカーの間での彼ら自身のエゴの満足と評判という無形のものである。… このように機能する自発的な文化は、実際には珍しいことではない。私が長く参加してきたもう1つの文化は、SFファンダムであり、ハッカーダムとは異なり、エゴブー(他のファンの間での評判の向上)を明示的に認識している。」 - Eric Raymond

1970年代と1980年代のUnixの軌跡は、現在のAIの状態に対する説得力のあるアナロジーを提供する。AT&Tの当初のUnixの推進と学界内での無料配布は、イノベーションと採用を促進した。しかし、AT&Tが1970年代後半にプロプライエタリなライセンスを課したとき、それは必然的にバークレー大学がオープンな代替手段であるBSD Unixを立ち上げ、最終的にLinus TorvaldsがLinuxを作成することにつながった。TorvaldsによるヨーロッパでのLinuxの開発は、オープンソースソフトウェアの中心を米国から遠ざけた。

AIの進化においても、地理的にも類似点は顕著である。しかし今回は、新しい地域が登場した。アブダビのTIIとそのFalcon Models、中国のDeepSeek、AlibabaのQwen、そして最近では、インドのKrutrim AI Labとそのインド語向けのオープンソースモデルである。

Meta FAIR Parisチームは、ヨーロッパの主要なAI研究所や新しいフロンティアラボ(DeepSeek、Falcon、Qwen、Krutrim)とともに、AIのイノベーションを大幅に加速させてきた。研究論文とコードをオープンに共有することで、彼らは以下を実現した。

  • 最先端のAI技術における新世代のAIエンジニアと研究者を育成した。
  • オープンな協力のエコシステムを構築し、プロプライエタリなAI研究所の外での急速な進歩を可能にした。
  • 代替のAIモデルを提供し、AIがアメリカのAI企業によって独占されないようにした。

これら4つのエコシステム(ヨーロッパ、インド、アブダビ、中国)は、依然としてプロプライエタリなAIの考え方で運営されている支配的なAICsに挑戦するために、強力なオープンソースAIアライアンスを形成することができる。

DeepSeek R1のリリース後の2025年1月31日のAsk Me Anything(AMA)の質問票で、Altmanは、プロプライエタリなAIモデルのアプローチが歴史の誤った側にあったことを認めた。

やがて、世界中のAI研究所がこのアライアンスに参加し、共同でこの分野を前進させることを選択するかもしれない。これは、科学分野が非営利イニシアチブを通じて境界や政治的イデオロギーを超越した最初の事例ではない。それは、グローバル・サウスによってしばしば表明される反植民地主義の不満を引き起こすことなく競争するモードを提供する。

歴史的前例:AIのモデルとしてのヒトゲノムプロジェクト

生物学者として、私は特にHuman Genome Project(HGP)の成果と、それが最終的にCelera Genomicsの営利イニシアチブを上回り、分野と人類全体に利益をもたらしたことを認識している。

HGPは、ヒトゲノム全体をマッピングし、配列決定した画期的な国際研究イニシアチブであった。2003年に13年間の協力を経て完了し、2011年のレポート(2013年に更新)によると、30億ドルの投資から8000億ドル近くの経済効果を生み出した(米国経済への投資収益率は141対1であり、連邦政府のHGP投資1ドルごとに、経済に141ドルが生み出された)。それは、個別化医療、疾患予防、ゲノム研究の進歩を可能にし、医学、バイオテクノロジー、遺伝学に革命をもたらした。配列決定作業と研究は、米国、英国、フランス、ドイツ、日本、中国の6カ国の20の研究所によって実施された。

Celera Genomicsが営利目的でゲノム配列を決定しようとした一方で、HGPは、そのバミューダ原則に明記されているように、オープンなデータ共有を優先した。1996年2月にバミューダで開催されたInternational Strategy Meeting on Human Genome Sequencingで確立されたこれらの原則は、HGPのデータ共有ポリシーを形成する上で重要であり、世界中のゲノム研究慣行に永続的な影響を与えてきた。その主な原則は次のとおりである。

  1. 即時データ公開: HGPによって生成されたすべてのヒトゲノム配列データは、できれば生成後24時間以内に公開データベースに公開されること。この迅速な普及は、科学的発見を加速し、社会的利益を最大化することを目的としていた。
  2. 自由かつ無制限のアクセス: データは、研究または開発目的での使用に制限なく、世界の科学コミュニティと一般に自由に利用できるようにすること。
  3. 知的財産権の主張の防止: 参加者は、主要なゲノム配列データに関する知的財産権を主張しないことに同意し、オープンサイエンスの精神を促進し、特許取得による研究への潜在的な妨害を防いだ。

ガバナンスの観点から、HGPは、独立した組織や企業ではなく、協調的かつ調整された科学的イニシアチブであった。それは、さまざまな研究機関への政府の助成金と契約を通じて資金提供された分散型の取り組みであった。その予算の一部(3〜5%)は、ヒトゲノム配列決定に関連する倫理的、法的、社会的問題の研究と対処に充てられた。

AIの安全性とオープンソースAIの橋渡し

オープンソースAIのもう1つの重要な利点は、AIの安全性研究におけるその役割である。

2024年のAIソウルサミットは、AICsが世界の他の地域よりも大幅にリードしていた時期に、実存的リスクのみに焦点を当てた。2024年5月の時点で、Googleの元CEOであるEric Schmidtは、米国はAIにおいて中国より2〜3年進んでおり、ヨーロッパは規制に気を取られすぎて関係がないと主張した。サミットが成功していれば、AIの安全性に関する決定権をこれらの企業に効果的に譲り渡すことになっただろう。幸いなことに、そうはならなかった。

オープンソースAIが技術的なギャップを埋めつつある今、安全性に関する議論は、もはや少数の支配的なプレーヤーによってのみ決定されることはない。代わりに、ヨーロッパ、インド、中国、アブダビの研究者、政策立案者、AI研究所を含む、より広範で多様な利害関係者が、AICsとともに議論を形成する機会を得ている。

さらに、オープンソースAIは、グローバルな抑止力を強化し、単一の主体が説明責任なしに高度なAIシステムを独占したり悪用したりできないようにする。AIの安全性に対するこの分散型アプローチは、能力と監視の両方を世界のAIエコシステム全体に、より公平に分配することにより、潜在的な実存的脅威を軽減するのに役立つ。

Paris PrinciplesによるHuman AI Project

来週パリで開催されるAI Action Summitは、AIの未来を形作る上でどのような役割を果たすことができるだろうか?

これは、Human Genome ProjectをモデルにしたHuman AI Projectを確立し、世界規模でオープンソースAI開発を推進およびサポートする絶好の機会を提供する。ヨーロッパの先駆的なAI研究所からDeepSeekまで、現在のオープンソースの貢献は、すでにこの分野を加速させ、AICsとのギャップを埋めるのに役立っている。

AIの能力は、一般的なオープンソースエコシステムの成熟度によって大幅に強化されており、何千もの成熟したプロジェクト、専用のガバナンスモデル、企業、学界、政府への深い統合がある。

AIオープンソースエコシステムは、GithubやGitlabなどのプラットフォームからも恩恵を受けている。最近では、3人のフランス人起業家によって共同設立された米国企業であるHugging Faceなど、オープンソースAI専用のプラットフォームが、コミュニティの流通プラットフォームとして重要な役割を果たし始めている。

1990年代初頭のヒトゲノム配列決定と比較して、オープンソースAIエコシステムの相対的な成熟度を考えると、オープンソースAIはHuman AI Projectからどのように恩恵を受けることができるだろうか?

1つには、欧州連合は、AICsや独自のフロンティアAIラボから、オープンソースの規制についてしばしば批判されている。Human AI Projectは、参加国および地域全体での規制の調整と標準の開発に共同で取り組むことができる。ヨーロッパ、インド、アブダビ、中国からの最初の貢献による協調的なアプローチは、この共有された規制地域(オープンソースのための自由貿易地域のようなもの)全体でのオープンソースモデルの普及を促進することができる。

決定的に証明されてはいないが、JLFでのDeepSeekへの反応を形作った対立主導のダイナミクスとの類似点がある。同様に、AI規制は、AICsの進歩を妨げたり、ギャップを埋めようと努力している自国のAIチャンピオンを妨害したりするための潜在的なメカニズムとして機能するのではなく、イノベーションを促進し、企業と消費者の両方にとって公共の利益を最大化することに焦点を当てて作成することができる。

このプロジェクトは、人材交流を促進し、オープンソースAIのための共有コンピューティングインフラストラクチャ(エネルギーインフラストラクチャにリンク)に資金を提供することもできる。下の図から明らかなように、世界の一部の地域では、才能のあるSTEM卒業生が、自国に欠けている世界クラスのAIインフラストラクチャにアクセスするのに苦労している可能性がある。

もう1つの協力分野は、モデルとデータセット(重み、コード、ドキュメントを含む)のオープンアクセス標準に関するベストプラクティスを確立することである。

このプロジェクトは、AIの安全性研究に関するグローバルな協力を促進することもできる。秘密裏にアライメントの問題を修正するために競争する代わりに、パリから北京、バンガロールまでの研究者が協力してモデルを評価し、リスクを軽減することができる。すべての安全性の調査結果(例えば、有害な出力を削減する方法や解釈可能性のためのツール)は、オープンドメインで迅速に共有することができる。

この原則は、AIの安全性がグローバルな公共財であることを認識するだろう。ある研究所でのブレークスルー(例えば、AIの推論を透明にする新しいアルゴリズム)は、すべての人に利益をもたらすはずであり、プロプライエタリに保たれるべきではない。共同の安全性ベンチマークとチャレンジイベントを組織して、集団的責任の文化を奨励することができる。安全性研究をプールすることにより、プロジェクトは潜在的なAIの誤用や事故に先んじることを目指し、強力なAIシステムが注意深く管理されていることを国民に保証する。

2023年のブレッチリー・パークでの英国AI安全サミットでの実存的リスクへの焦点は、核拡散のアナロジーを過度に強調することにより、安全性が公共財と見なされる他の分野(サイバーセキュリティ、抗生物質と免疫学(Covid-19後のいくつかの興味深いイニシアチブを含む)、航空安全)を検討する機会を逃した。

このプロジェクトは、安全で高度なAIシステムの開発を促進するために、民間のARC Prize Foundationによって現在実施されている作業と提携し、さらに推進することもできる。Kerasオープンソースライブラリの作成者であるFrançois Cholletと、Zapierソフトウェア会社の共同創設者であるMike Knoopによって共同設立されたARC Prizeは、人工汎用知能(AGI)の研究を推進するための公開コンペティションを主催する非営利団体である。彼らの主力イベントであるARC Prizeコンペティションは、ARC-AGIベンチマーク(AIシステムが新しいスキルを効率的に一般化し、習得する能力を評価するために設計されたテスト)に対するソリューションを開発し、オープンソース化できる参加者に100万ドル以上を提供する。

ARC Prize Foundationのオープンソースソリューションと公開コンペティションへの重点は、ARC Prize Foundationのウェブサイトの’AGI’の下に記載されているように、AI開発における国際協力と透明性を促進するというHuman AI Projectの目標とシームレスに一致している。

「LLMは想像を絶するほど膨大な量のデータでトレーニングされているが、トレーニングされていない単純な問題に適応したり、どんなに基本的なものであっても、斬新な発明をしたりすることはできない。強力な市場インセンティブにより、フロンティアAIの研究はクローズドソースになった。研究の注意とリソースは、行き止まりに向かって引き寄せられている。ARC Prizeは、研究者がオープンなAGIの進歩を推進する新しい技術的アプローチを発見するように促すように設計されている。」

HGPと同様に、Human AI Projectは、その資金の一部を倫理的なガバナンスと監視に充てる。これには、著作権に関する議論が含まれる。プロジェクトは、トレーニングのために無料で最高の情報源にアクセスし、その上にプロプライエタリなモデルを開発することの倫理を社会が検討するのに役立つ可能性がある。生物学の分野では、Google DeepMindのAlphaFoldモデルがタンパク質の構造を予測するために不可欠であったProtein Data Bankが、50年間で100億ドル相当の資金を必要とした可能性が高いことがよく知られている。プロジェクトは、AI開発に資金を提供し続ける方法や、プロプライエタリなAICsが元の作品の作成者と収益を共有する方法について考えるのに役立つ可能性がある。

これらのParis PrinciplesとHuman AI Projectは、既存のオープンソースソフトウェアとAI固有のフレームワークおよびプラットフォーム内で、ヨーロッパから中東、インド、そして現在の中国までの主要なオープンソース貢献者の成果に基づいて、AIをよりオープンで、協力的で、倫理的な方法で世界的に前進させるのに役立つだろう。

AIと歴史の反復

私たちの前にある機会は計り知れない。Mistral AI、kyutai、BFL、Stability、そして最近ではDeepSeekは、協力がプロプライエタリなAICsに匹敵するか、それを上回る未来が可能であるという希望を国民に与えてきた。

私たちはまだ、この技術的ブレークスルーの初期段階にある。私たちは、AICsがこの分野に貢献してきたことに感謝すべきである。AI Action Summitは、前例のない規模で協力的なイノベーションを促進し、できるだけ多くのプレーヤーを歴史の正しい側に導く機会となるはずである。

それは再び1789年である。私たちは、技術的主権のための戦い、権力の分散化、そして公共財としてのAIの呼びかけを目撃している。そして、1789年と同様に、この革命は封じ込められることはない。