人工知能 (AI) 処理の状況は、Google の第 7 世代 Tensor Processing Unit (TPU)、別名 Ironwood の発表により、大きく変化しました。この最先端の AI アクセラレータは、大規模な展開において、世界最速のスーパーコンピュータを 24 倍以上も上回る計算能力を誇っています。
Google Cloud Next ‘25 カンファレンスで発表されたこの新しいチップは、Google の AI チップ開発における 10 年にわたる戦略における極めて重要な瞬間を示しています。主に AI のトレーニングと推論ワークロードの両方に対応するように設計された前身とは異なり、Ironwood は推論専用に設計されており、AI の展開効率を最適化するという戦略的な転換を示しています。
Google の機械学習、システム、およびクラウド AI 担当バイスプレジデント兼ジェネラルマネージャーである Amin Vahdat 氏は、この移行を強調し、「Ironwood は、次世代の生成 AI とその膨大な計算と通信の需要をサポートするように設計されています。これは、AI エージェントが単にデータを処理するのではなく、プロアクティブにデータを取得および生成して、協調的に洞察と回答を提供するところから、私たちが「推論時代」と呼んでいるものです」と述べています。
42.5 エクサフロップスの計算能力で障壁を打ち破る
Ironwood の技術仕様は、実に印象的です。9,216 個のチップのポッドにスケールすると、42.5 エクサフロップスという驚異的な AI コンピューティングを提供します。これを念頭に置くと、これは現在の世界最速のスーパーコンピュータである El Capitan を圧倒的に上回っています。El Capitan は 1.7 エクサフロップスで動作します。個々の Ironwood チップは、4614 TFLOPs のピーク計算能力を達成できます。
Ironwood は、生の処理能力を超えて、メモリと帯域幅を大幅に強化します。各チップには 192 GB の広帯域幅メモリ (HBM) が搭載されており、昨年リリースされた前世代の TPU である Trillium と比較して 6 倍の増加です。チップあたりのメモリ帯域幅は 7.2 テラビット/秒に達し、これは Trillium の 4.5 倍です。
- 計算能力: 42.5 エクサフロップス (9,216 個のチップのポッドあたり)
- チップあたりのピーク計算: 4614 TFLOPs
- メモリ: チップあたり 192GB HBM
- メモリ帯域幅: チップあたり 7.2 テラビット/秒
データセンターが拡大し、電力消費が増大している時代において、Ironwood はエネルギー効率においても大幅な改善を示しています。Trillium と比較してワットあたりのパフォーマンスが 2 倍になり、2018 年に導入された最初の TPU の約 30 倍になります。
この推論の最適化は、AI の進化における重要な転換点を示しています。近年、主要な AI 研究所は、パラメータ数が拡大し続けるますます大きな基盤モデルの開発に注力してきました。Google が推論の最適化に焦点を当てていることは、展開効率と推論能力を中心とした新しいパラダイムへの移行を示唆しています。
モデルのトレーニングは依然として不可欠ですが、推論オペレーションははるかに頻繁に行われ、AI テクノロジーが普及するにつれて毎日数十億回も発生します。AI を活用している企業にとって、モデルが複雑になるにつれて、経済は本質的に推論コストに関連付けられています。
Google の AI コンピューティング需要は、過去 8 年間で 10 倍に増加し、驚異的な 1 億に達しました。Ironwood のような特殊なアーキテクチャがなければ、ムーアの法則における従来の進歩だけでは、この成長軌道を維持することは不可能です。
特に、Google の発表では、単純なパターン認識ではなく、複雑な推論タスクを実行できる「推論モデル」に焦点を当てていることが強調されました。これは、AI の未来はより大きなモデルだけでなく、問題を分解し、多段階推論を行い、人間のような思考プロセスをエミュレートできるモデルにもあるという信念を示唆しています。
次世代の大型モデルを強化
Google は Ironwood を、独自の「ネイティブ推論能力」を誇る Gemini 2.5 を含む、最も高度な AI モデルの基盤となるインフラストラクチャとして位置付けています。
同社は最近、プロンプトの複雑さに応じて推論の深さを「調整」するように設計された、フラッグシップモデルの小型バージョンである Gemini 2.5 Flash も発表しました。このモデルは、迅速な応答時間を必要とする日常のアプリケーションを対象としています。
Google はさらに、テキストから画像、テキストからビデオ、および新たに発表されたテキストから音楽への機能である Lyria を含む、包括的なマルチモーダル生成モデルスイートを紹介しました。デモでは、これらのツールを組み合わせて、コンサートの完全なプロモーションビデオを作成する方法が示されました。
Ironwood は、Google のより広範な AI インフラストラクチャ戦略の 1 つのコンポーネントにすぎません。同社はまた、企業が Google のグローバル規模のプライベートネットワークインフラストラクチャへのアクセスを提供するマネージド広域ネットワークサービスである Cloud WAN も発表しました。
Google は、Google DeepMind が開発した機械学習ランタイムである Pathways を含む、AI ワークロード向けのソフトウェア製品も拡大しています。Pathways により、顧客は数百の TPU でモデルサービスを拡張できるようになりました。
A2A の紹介: インテリジェントエージェントのコラボレーションのエコシステムを育成
ハードウェアの進歩に加えて、Google はマルチエージェントシステムを中心とした AI のビジョンを示し、インテリジェントエージェントの開発を促進するプロトコル、Agent-to-Agent (A2A) を発表しました。このプロトコルは、さまざまな AI エージェント間の安全で標準化された通信を促進するように設計されています。
Google は、2025 年が AI にとって変革の年になり、生成 AI のアプリケーションが単一の質問に答えることから、インテリジェントエージェントシステムを通じて複雑な問題を解決するように進化すると考えています。
A2A プロトコルは、プラットフォームとフレームワーク間の相互運用性を実現し、エージェントに共通の「言語」と安全な通信チャネルを提供します。このプロトコルは、インテリジェントエージェントのネットワーク層と見なすことができ、複雑なワークフローにおけるエージェントのコラボレーションを簡素化することを目的としています。これにより、専門的な AI エージェントがさまざまな複雑さと期間のタスクで連携し、最終的にコラボレーションを通じて全体的な能力を向上させることができます。
A2A の仕組み
Google は、ブログ投稿で MCP プロトコルと A2A プロトコルの比較を提供しました。
- MCP (モデルコンテキストプロトコル): ツールとリソースの管理用
- 構造化された入出力を通じて、エージェントをツール、API、およびリソースに接続します。
- Google ADK は MCP ツールをサポートしており、さまざまな MCP サーバーがエージェントと連携できるようにします。
- A2A (Agent2Agent プロトコル): エージェント間のコラボレーション用
- メモリ、リソース、またはツールを共有せずに、エージェント間の動的なマルチモーダル通信を可能にします。
- コミュニティによって推進されるオープンスタンダード。
- Google ADK、LangGraph、Crew.AI などのツールを使用して例を表示できます。
本質的に、A2A と MCP は補完的です。MCP はエージェントにツールサポートを提供し、A2A はこれらの装備されたエージェントが相互に通信およびコラボレーションできるようにします。
Google によって発表されたパートナーのリストは、A2A が MCP と同様の注目を集める準備ができていることを示唆しています。このイニシアチブは、すでに大手テクノロジー企業や世界トップのグローバルコンサルティングおよびシステムインテグレーションサービスプロバイダーを含む、50 社を超える企業を初期のコラボレーションコホートに引き付けています。
Google はプロトコルのオープン性を強調し、基盤となるテクノロジーフレームワークやサービスプロバイダーに関係なく、エージェントがコラボレーションするための標準的な方法として位置付けました。同社は、パートナーとプロトコルを設計する際に、次の 5 つの主要な原則を遵守したと述べています。
- エージェントの能力を取り入れる: A2A は、エージェントがメモリ、ツール、およびコンテキストを共有していなくても、自然で構造化されていない方法でコラボレーションできるようにすることに重点を置いています。目標は、エージェントを単なる「ツール」に制限することなく、真のマルチエージェントシナリオを実現することです。
- 既存の標準を基盤とする: このプロトコルは、HTTP、SSE、JSON-RPC などの既存の一般的な標準を基盤としており、企業で使用されている既存の IT スタックとの統合を容易にします。
- デフォルトでセキュア: A2A は、OpenAPI の認証スキームに匹敵する、エンタープライズグレードの認証と認可をサポートするように設計されています。
- 長期実行タスクをサポート: A2A は、迅速なタスクから数時間または数日かかる可能性がある詳細な調査 (人間が関与している場合) まで、幅広いシナリオをサポートする柔軟性を備えて設計されています。プロセス全体を通じて、A2A はユーザーにリアルタイムのフィードバック、通知、およびステータス更新を提供できます。
- モダリティに依存しない: エージェントの世界はテキストに限定されないため、A2A はオーディオおよびビデオストリームを含むさまざまなモダリティをサポートするように設計されています。
例: A2A による採用プロセスの合理化
Google が提供した例は、A2A が採用プロセスを大幅に合理化する方法を示しています。
Agentspace のような統合インターフェイス内で、採用マネージャーは、職務要件に基づいて適切な候補者を見つけるエージェントを割り当てることができます。このエージェントは、候補者の調達を完了するために、特定の分野の専門エージェントとやり取りできます。ユーザーは、面接をスケジュールするようにエージェントに指示したり、バックグラウンドチェックを支援する他の専門エージェントを有効にしたりすることもできます。これにより、完全に自動化されたクロスシステムのコラボレーション採用が可能になります。
MCP の受け入れ: モデルコンテキストプロトコルのエコシステムへの参加
同時に、Google は MCP も受け入れています。OpenAI が Anthropic のモデルコンテキストプロトコル (MCP) の採用を発表してからわずか数週間後、Google もこれに続き、イニシアチブに参加しました。
Google DeepMind CEO Demis Hassabis は X で、Google が Gemini モデルと SDK に MCP のサポートを追加することを発表しましたが、具体的なタイムラインは提供されていません。
Hassabis 氏は、「MCP は、AI エージェントの時代に向けて急速にオープンスタンダードになりつつある優れたプロトコルです。MCP チームおよび業界の他のパートナーと協力して、このテクノロジーの開発を進めることを楽しみにしています。」と述べています。
2024 年 11 月のリリース以来、MCP は急速に人気と広範な注目を集めており、言語モデルをツールやデータに接続するためのシンプルで標準化された方法として登場しました。
MCP により、AI モデルはエンタープライズツールやソフトウェアなどのデータソースからデータにアクセスしてタスクを完了し、コンテンツライブラリやアプリケーション開発環境にアクセスできます。このプロトコルにより、開発者はデータソースと、チャットボットなどの AI 駆動型アプリケーション間の双方向接続を確立できます。
開発者は、MCP サーバーを通じてデータインターフェイスを公開し、これらのサーバーに接続するために MCP クライアント (アプリケーションやワークフローなど) を構築できます。Anthropic が MCP をオープンソース化して以来、いくつかの企業が MCP サポートをプラットフォームに統合しています。
主要な概念の強化された分析:
Google の最近の発表の影響と重要性をさらに明確にするために、Ironwood、A2A、および MCP のコアコンポーネントについて詳しく見てみましょう。
Ironwood: 推論時代への深い潜入
モデルのトレーニングに主に焦点を当てることから、推論の最適化に移行することは、AI の状況における重要な進化です。トレーニングでは、パターンを認識して予測を行うようにモデルを教えるために、大量のデータをモデルに供給することが含まれます。一方、推論とは、トレーニングされたモデルを使用して、新しい、目に見えないデータについて予測を行うプロセスです。
トレーニングはリソースを大量に消費する、1 回限りの (またはまれな) イベントですが、推論は現実世界のアプリケーションで継続的に大規模に発生します。次のようなアプリケーションを検討してください。
- チャットボット: ユーザーのクエリにリアルタイムで応答します。
- レコメンデーションシステム: ユーザーの好みに基づいて製品またはコンテンツを提案します。
- 不正検出: 不正なトランザクションが発生したときに識別します。
- 画像認識: 画像を分析して、オブジェクト、人物、またはシーンを識別します。
これらのアプリケーションでは、シームレスなユーザーエクスペリエンスを提供するために、高速で効率的な推論が必要です。Ironwood は、これらのタスクに優れるように特別に設計されています。
推論における Ironwood の主な利点:
- 高いスループット: 大規模な計算能力 (42.5 エクサフロップス) により、Ironwood は大量の推論リクエストを同時に処理できます。
- 低レイテンシ: 広帯域幅メモリ (HBM) と効率的なアーキテクチャにより、各推論リクエストの処理にかかる時間が最小限に抑えられます。
- エネルギー効率: ワットあたりのパフォーマンスが向上したため、大規模な推論展開の実行に関連する運用コストが削減されます。
Google は、推論を最適化することにより、企業が AI を活用したアプリケーションをより効率的かつ費用対効果の高い方法で展開できるようにしています。
A2A: コラボレーション AI の基盤
Agent-to-Agent (A2A) プロトコルは、より洗練されたコラボレーション AI システムの作成に向けた重要なステップを表しています。マルチエージェントシステムでは、複数の AI エージェントが連携して複雑な問題を解決します。各エージェントは、独自の専門的なスキルと知識を持っている可能性があり、共通の目標を達成するために相互に通信および調整を行います。
自動化されたカスタマーサポートを含むシナリオを検討してください。
- エージェント 1: 顧客の最初のクエリを理解し、根本的な問題を特定します。
- エージェント 2: ナレッジベースにアクセスして、関連情報を検索します。
- エージェント 3: 必要に応じて、人間のエージェントとのフォローアップアポイントメントをスケジュールします。
これらのエージェントは、まとまりのあるカスタマーエクスペリエンスを提供するために、シームレスに通信し、情報を共有できる必要があります。A2A は、このタイプのコラボレーションのフレームワークを提供します。
A2A の主な利点:
- 相互運用性: さまざまなプラットフォームおよびフレームワークで開発されたエージェントが相互に通信できるようにします。
- 標準化: エージェント通信の共通の「言語」と一連のプロトコルを提供します。
- セキュリティ: エージェント間の安全な通信を保証し、機密データを保護します。
- 柔軟性: テキスト、オーディオ、およびビデオを含む幅広い通信モダリティをサポートします。
AI エージェント間のコラボレーションを促進することにより、A2A は、より強力で汎用性の高い AI システムの開発を可能にします。
MCP: AI とデータの間のギャップを埋める
モデルコンテキストプロトコル (MCP) は、タスクを効果的に実行するために必要な膨大な量のデータに AI モデルを接続するという課題に対処します。AI モデルは、正確な予測を行い、情報に基づいた意思決定を行うために、データベース、API、およびクラウドサービスなど、さまざまなソースからのリアルタイムデータにアクセスする必要があります。
MCP は、AI モデルがこれらのデータソースにアクセスして操作するための標準化された方法を提供します。これは、次の一連のプロトコルを定義します。
- データディスカバリ: 利用可能なデータソースの識別。
- データアクセス: データソースからのデータの取得。
- データ変換: データを AI モデルが理解できる形式に変換します。
データアクセス用の標準化されたインターフェイスを提供することにより、MCP は、AI モデルを現実世界のデータと統合するプロセスを簡素化します。
MCP の主な利点:
- 統合の簡素化: AI モデルをデータソースに接続することが容易になります。
- 標準化: データアクセス用の共通の一連のプロトコルを提供します。
- 効率の向上: データへのアクセスと変換に必要な時間と労力を削減します。
- 精度の向上: AI モデルが最新の情報にアクセスできるようにすることで、より正確な予測につながります。
AI モデルを必要なデータに接続することにより、MCP は AI モデルがより効果的に実行され、より大きな価値を提供できるようにします。