最初の衝撃:DeepSeekと効率性の幻想
今年初めに中国のDeepSeek AIが登場したことは、テクノロジー投資の世界に衝撃を与えました。その一見画期的なアプローチは、大幅に低い計算オーバーヘッドで強力な人工知能を約束し、即座に憶測を呼びました。特殊なチップやシステムの大規模購入に特徴づけられる、AIインフラの絶え間ないコストのかかる拡大が減速するのではないか、という物語が急速に形成されました。市場は反応し、費用対効果の高いAIの新時代が、予想される支出ブームを劇的に抑制するかもしれないという信念を反映しました。
しかし、最近開催された業界の識者によるハイレベルな会合からの洞察は、まったく異なる状況を描き出しています。Bloomberg Intelligenceがニューヨークで開催した生成AIカンファレンスは、潜在的なコスト削減のみに焦点を当てた当初の解釈が、より大きな物語を見逃していたことを示唆しました。支出の減速を示唆するどころか、このイベントは、AI能力に対するほとんど飽くなき渇望を浮き彫りにしました。コンセンサスは削減に関するものではなく、メニューがもっと安価であってほしいと切実に願いながらも、指数関数的に増大するインテリジェントシステムへの欲求をいかに満たすかということでした。
現場の声:満たされることのないキャパシティへの渇望
開発者、戦略家、投資家が一堂に会した終日のイベントでの議論は、一貫して、需要の増大が巨大な投資を推進するというテーマに戻りました。Bloomberg Intelligenceのシニアテクノロジーアナリストであり、イベント主催者の一人であるMandeep Singh氏は、一般的な感情を簡潔に捉えました。数多くのパネルディスカッションや専門家の議論を振り返り、彼は普遍的な繰り返しを指摘しました:関係者の誰もが十分なAIキャパシティを持っているとは感じていなかったのです。圧倒的な感覚は、多すぎるのではなく、もっと必要だというものでした。
重要なことに、Singh氏は、急速に拡大するテクノロジーセクターで一般的な懸念である「インフラバブル」の亡霊が、会話の中で著しく欠けていたと付け加えました。焦点は、業界全体が直面している根本的な課題にしっかりと置かれていました。Singh氏の同僚であり、Bloomberg IntelligenceのITサービスおよびソフトウェア担当シニアアナリストであるAnurag Rana氏は、それを最重要課題として位置づけました:「我々はその[AIインフラ構築]サイクルのどこにいるのか?」
この大規模な構築の正確な段階を特定することは依然として困難である(Rana氏が認めたように、「誰も確実には知らない」)一方で、DeepSeek現象は間違いなく視点を変えました。それは、重要なAIワークロードがより経済的に処理できる可能性があるという強力な希望をもたらしました。「DeepSeekは多くの人々を揺さぶりました」とRana氏は述べました。その意味は明らかでした:洗練されたAIモデルが、要求の少ないハードウェアで効率的に実行できるのであれば、主要なテクノロジー企業が関与するコンソーシアムによって計画されていると噂される数千億ドル規模の巨大プロジェクトのようなものが、再評価されたり、異なる規模で展開されたりするかもしれません。
Rana氏によれば、業界全体で響き渡る夢は、AIの運用コスト、特にinference(訓練済みモデルが予測やコンテンツを生成する段階)が、過去10年間にクラウドコンピューティングストレージで見られた劇的な下降軌道をたどることです。彼は、Amazon Web Services (AWS)のようなプラットフォームに大量のデータを保存する経済性が、約8年間で劇的に改善したことを思い出しました。「そのコストカーブの低下…経済性は良かった」と彼は述べました。「そして、誰もが望んでいるのは、inference側で…カーブがそのレベルまで下がれば、ああ、AIの採用率は…壮観なものになるだろうということです。」Singh氏も同意し、DeepSeekの登場が根本的に「効率達成に関する皆の考え方を変えた」と述べました。
この効率性への渇望は、カンファレンスのセッション全体を通して明白でした。多くのパネルがエンタープライズAIプロジェクトを構想段階から本番稼働に移す実践的な側面を掘り下げましたが、並行する議論では、これらのAIモデルの展開と実行に関連するコストを削減する必要性が常に強調されました。目標は明確です:より広範なアプリケーションとユーザーにとってAIを経済的に実行可能にすることで、アクセスを民主化することです。Bloomberg自身のチーフテクノロジストであるShawn Edwards氏は、DeepSeekは必ずしも完全な驚きではなく、むしろ普遍的な願望の強力な例証であると示唆しました。「それが私に考えさせたのは、魔法の杖を振ってこれらのモデルが信じられないほど効率的に実行できれば素晴らしいだろうということでした」と彼は述べ、その願いを特定のブレークスルーだけでなく、AIモデルの全範囲に広げました。
普及の原則:コンピューティング需要を煽る
効率性を追求しているにもかかわらず、専門家がAIインフラへの継続的かつ大幅な投資を予測する主な理由の1つは、AIモデルの純粋な普及にあります。ニューヨークのカンファレンス全体を通して繰り返されたテーマは、すべてのタスクを処理できる単一のモノリシックなAIモデルという概念からの決定的な脱却でした。
- モデルファミリー: BloombergのEdwards氏が述べたように、「我々はモデルのファミリーを使用しています。最高のモデルというものは存在しません。」これは、異なるAIアーキテクチャが異なるタスク(言語生成、データ分析、画像認識、コード補完など)で優れているという理解が深まっていることを反映しています。
- エンタープライズカスタマイゼーション: パネリストは、大規模で汎用的な「基盤」または「フロンティア」モデルが主要なAIラボによって開発され、改良され続ける一方で、企業内での実際の活動は、潜在的に数百または数千もの特化型AIモデルの展開を伴うことに広く同意しました。
- Fine-Tuningと独自データ: これらのエンタープライズモデルの多くは、fine-tuningと呼ばれるプロセスを通じてベースモデルから適合されます。これには、事前に訓練されたニューラルネットワークを、企業の特定の、しばしば独自のデータで再訓練することが含まれます。これにより、AIは独自のビジネスコンテキスト、用語、顧客とのやり取りを理解し、汎用モデルよりもはるかに関連性が高く価値のある結果を提供できます。
- 開発の民主化: データサイエンスプラットフォームDataikuを代表するJed Dougherty氏は、エンタープライズAIエージェントにとって「モデル間の選択肢」の必要性を強調しました。彼は、企業にAIツールの制御、作成能力、および監査可能性を与えることの重要性を強調しました。「我々はこれらのものを構築するためのツールを人々の手に渡したいのです」とDougherty氏は主張しました。「我々は10人の博士号取得者がすべてのエージェントを構築することを望んでいません。」開発におけるより広範なアクセシビリティへのこの推進自体が、これらの分散型作成努力をサポートするためのより多くの基盤となるインフラストラクチャの必要性を意味します。
- ブランド固有のAI: クリエイティブ産業は主要な例を提供します。Adobeで新規事業ベンチャーを率いるHannah Elsakr氏は、カスタムモデルを主要な差別化要因として賭ける戦略を説明しました。「新しい広告キャンペーンの助けとなる、あなたのブランド向けのカスタムモデル拡張機能をトレーニングできます」と彼女は例示し、AIが特定のブランドの美学とメッセージングを維持するためにどのように調整できるかを示しました。
モデルの多様化を超えて、企業ワークフロー内でのAI agentsの展開の増加は、処理需要のもう1つの重要な推進力です。これらのエージェントは、受動的なツールとしてだけでなく、複数ステップのタスクを実行できるアクティブな参加者として構想されています。
MicrosoftのCopilot Studioエージェントおよび自動化の取り組みを率いるRay Smith氏は、ユーザーがCopilotのような統一されたインターフェースを通じて、潜在的に数百もの特化型エージェントと対話する未来を予測しました。「プロセス全体を1つのエージェントに詰め込むのではなく、部分に分割するでしょう」と彼は説明しました。これらのエージェントは、彼が示唆したように、本質的にプログラミングの「新しい世界におけるアプリ」です。ビジョンは、ユーザーが単に目標を述べるだけで(「達成したいことを伝える」)、エージェントが必要なステップを調整するというものです。「エージェント的なアプリは、単なる新しいワークフローの方法です」とSmith氏は述べ、このビジョンを実現することは技術的な可能性の問題(「それはすべて技術的に可能です」)ではなく、むしろ「我々がそれを構築するペース」の問題であると強調しました。
AIエージェントを日常の組織プロセスにより深く組み込むこの動きは、コスト削減と効率的な展開への圧力をさらに強めます。マイクロプロセッサ大手ARM Holdingsの製品管理責任者であるJames McNiven氏は、アクセシビリティの観点から課題を捉えました。「より多くのデバイスでアクセスを提供するにはどうすればよいか?」と彼は熟考しました。特定のタスクでほぼ「博士号レベル」の能力を達成するモデルを観察し、彼は数年前に発展途上国にモバイル決済システムをもたらした変革的な影響との類似点を描きました。核心的な問いは残ります:「その[AI能力]を、その能力を使用できる人々にどのように届けるか?」洗練されたAIエージェントを幅広い労働者層のアシスタントとして容易に利用できるようにするには、賢いソフトウェアだけでなく、効率的なハードウェア、そして必然的に、計算あたりの効率が向上しても、より多くの基盤となるインフラ投資が必要です。
スケーリングのハードル:シリコン、電力、そしてクラウドの巨人たち
最も広く使用されている汎用的な基盤モデルでさえ、驚異的なペースで増殖しており、既存のインフラストラクチャに immense な負担をかけています。Amazon Web Services (AWS)のコンピューティングとネットワーキングを監督するDave Brown氏は、彼らのプラットフォームだけで顧客に約1,800種類の異なるAIモデルへのアクセスを提供していることを明らかにしました。彼は、これらの強力なツールを実行する「コストを削減するために多くのことを行っている」というAWSの強い焦点を強調しました。
AWSのようなクラウドプロバイダーにとっての重要な戦略は、独自のカスタムシリコンの開発を含みます。Brown氏は、AIトレーニングに最適化されたTrainiumプロセッサのようなAWS設計のチップの使用が増加していることを強調し、「AWSは他社のプロセッサよりも自社のプロセッサを多く使用しています」と述べました。この特化された自社製ハードウェアへの移行は、パフォーマンスとコストに対する制御を取り戻し、Nvidia、AMD、Intelのような汎用チップサプライヤーへの依存を減らすことを目的としています。これらの努力にもかかわらず、Brown氏は率直に根本的な現実を認めました:「コストが低ければ、顧客はもっと多くのことをするでしょう。」需要の上限は現在、潜在的なアプリケーションの不足よりも予算の制約によって定義されています。
主要なAI開発者が必要とするリソースの規模は immense です。Brown氏は、洗練されたClaudeファミリーの言語モデルの作成者であるAnthropicとのAWSの日々の協力を指摘しました。Anthropicのアプリケーションプログラミングインターフェース責任者であるMichael Gerstenhaber氏は、Brown氏と共に登壇し、現代のAI、特に複雑な推論や「思考」のために設計されたモデルの計算集約性を指摘しました。これらのモデルはしばしば、その回答に対して詳細なステップバイステップの説明を生成し、かなりの処理能力を消費します。「思考モデルは多くのキャパシティを使用させます」とGerstenhaber氏は述べました。
Anthropicは**’prompt caching’**(リソースを節約するために以前のインタラクションからの計算を保存して再利用する)のような最適化技術についてAWSと積極的に協力していますが、基本的なハードウェア要件は依然として enormous です。Gerstenhaber氏は、Anthropicが現在のモデルスイートを実行するためだけに、「多くのデータセンターに分散された」「数十万のアクセラレータ」(特殊なAIチップ)が必要であると率直に述べました。これは、単一の主要なAIプレーヤーを支えるコンピューティングリソースの純粋な規模の具体的な感覚を提供します。
膨大なシリコンフリートの調達と管理の課題に加えて、AIに関連するエネルギー消費の急増があります。Brown氏はこれを、重要かつ急速にエスカレートしている懸念事項として強調しました。集中的なAIワークロードをサポートする現在のデータセンターは、すでに数百メガワットで測定される電力を消費しています。予測では、将来の要件は必然的にギガワット範囲(大規模発電所の出力)に上昇することを示唆しています。「それが消費する電力」とBrown氏はAIに言及して警告しました、「は大きく、多くのデータセンターでフットプリントは大きいです。」このエスカレートするエネルギー需要は、 immense な運用コストだけでなく、次世代AIインフラストラクチャの立地と電力供給に関する重要な環境的およびロジスティックな課題も提示します。
経済のワイルドカード:成長計画に影を落とす
技術的進歩と急成長するユースケースによって推進される強気の見通しにもかかわらず、AI投資のすべての予測には、より広範な経済状況という重要な変数が迫っています。Bloomberg Intelligenceカンファレンスが終了する頃には、参加者はすでに、予想よりも広範であると認識された新たに発表された世界的な関税パッケージに起因する市場の動揺を観察していました。
これは、野心的な技術ロードマップがマクロ経済の逆風によって急速に混乱する可能性があることを強く思い出させるものです。BloombergのRana氏は、AI支出は当初はある程度隔離されるかもしれないが、AIとは無関係なサーバーやストレージなど、企業のIT投資の従来分野が経済収縮の最初の犠牲者になる可能性があると警告しました。「我々が注目しているもう一つの大きなことは、非AI技術支出です」と彼は述べ、特にAI予算を考慮する前に、決算期に向かう主要な技術サービスプロバイダーへの潜在的な影響について懸念を表明しました。
しかし、AIが独自に回復力を持つかもしれないという有力な理論があります。Rana氏は、経済の不確実性や景気後退による予算制約に直面している大企業の最高財務責任者(CFO)が、AIイニシアチブを優先することを選択する可能性があると示唆しました。彼らは、将来の競争力にとって重要であると認識されている戦略的なAI投資を保護するために、重要度の低い分野から資金をシフトする可能性があります。
しかし、この楽観的な見方は保証されているわけではありません。Rana氏によれば、最終的なテストは、大企業が、増大する経済の不確実性に直面して、特にAIデータセンターの構築のための積極的な設備投資目標を維持するかどうかです。重要な問いは残ります:「彼らは『 знаете что? それはあまりにも不確実だ』と言うだろうか?」その答えは、AIインフラ支出の背後にある止められないように見える勢いが、その執拗な上昇を続けるのか、それとも世界経済の現実によって予期せぬ一時停止に直面するのかを決定するでしょう。