AIの状況は、Googleが第7世代Tensor Processing Unit (TPU)、すなわちIronwoodを発表したことで再定義されました。この最先端のAIアクセラレータは、世界で最も手ごわいスーパーコンピュータさえも凌駕する計算能力を誇っています。大規模な展開では、Ironwoodの能力は最速のスーパーコンピュータの24倍を超えます。
Google Cloud Next ‘25イベントでのIronwoodの発表は、Googleの10年にわたるAIチップ革新の追求における重要な瞬間を示しています。以前のTPUの反復は、主にAIモデルのトレーニングおよび推論ワークロードに対応していましたが、Ironwoodは推論タスクのために細心の注意を払って作成および最適化された最初のチップとして際立っています。
Googleの機械学習、システム、およびCloud AI担当副社長兼ゼネラルマネージャーであるアミン・ヴァーダット氏によると、’Ironwoodは生成AIの次の段階を推進するように設計されており、その膨大な計算および通信の需要に対応します。私たちは、AIエージェントが積極的にデータを取得および生成して、単なるデータ処理の能力を超えて、共同で洞察と答えを提供する、いわゆる’推論時代’に入っています。’
前例のない計算能力の解放:Ironwoodの能力へのダイブ
Ironwoodの技術仕様は、AIの研究者や開発者にとってのウィッシュリストのように読めます。9,216個のチップのポッドにスケーリングすると、Ironwoodは驚異的な42.5エクサフロップスのAI計算を提供します。これを考慮に入れると、現在の君臨するスーパーコンピュータチャンピオンであるEl Capitanの能力を大幅に上回ります。El Capitanは1.7エクサフロップスでピークに達します。個別に、各Ironwoodチップは4614 TFLOPのピーク計算能力を誇っています。
生の処理能力を超えて、Ironwoodはメモリと帯域幅に大幅な改善をもたらします。各チップには192GBのHigh Bandwidth Memory (HBM)が搭載されており、以前の世代のTPUであるTrilliumと比較して6倍の増加です。メモリ帯域幅も劇的に改善され、チップあたり7.2テラビット/秒に達し、Trilliumの4.5倍です。
データセンターが拡大し、電力消費がますます重要な要素になっている時代において、Ironwoodは驚くべきエネルギー効率を示しています。そのワットあたりのパフォーマンスはTrilliumの2倍であり、2018年に導入された最初のTPUよりもほぼ30倍優れています。
推論の最適化へのこの移行は、AIの進化における重要なマイルストーンを表しています。近年、主要なAI研究所は、パラメータ数が増え続ける基盤モデルの構築に焦点を当ててきました。Googleが推論の最適化を重視することは、展開効率と現実世界の推論能力を優先することへの移行を示しています。
AIモデルのトレーニングは比較的まれなアクティビティですが、AIテクノロジーがより普及するにつれて、推論操作は1日に数十億回発生します。AIを利用したビジネスの経済的実現可能性は、特にモデルがますます複雑になるにつれて、推論コストに本質的に関連しています。
過去8年間で、GoogleのAI計算に対する需要は指数関数的に増加し、10倍に増加して驚異的な1億に達しました。Ironwoodのような特殊なアーキテクチャがなければ、ムーアの法則だけではこの成長軌道を維持できません。
単純なパターン認識ではなく、複雑な推論タスクが可能な’推論モデル’に対するGoogleの重点は、特に注目に値します。これは、GoogleがAIがより大きなモデルだけでなく、問題を分解し、多段階の推論を実行し、人間のような思考プロセスをエミュレートできるモデルを通じて優れている未来を想定していることを示唆しています。
次世代のラージ・ランゲージ・モデルを強化
Googleは、Ironwoodを’ネイティブな推論機能’を誇るGemini 2.5を含む、その最も高度なAIモデルの基盤インフラストラクチャとして位置づけています。
Ironwoodと並んで、Googleは、レイテンシの影響を受けやすい日常のアプリケーション向けに設計された、そのフラッグシップモデルの合理化されたバージョンであるGemini 2.5 Flashを発表しました。Gemini 2.5 Flashは、プロンプトの複雑さに基づいて推論の深さを動的に調整できます。
Googleはまた、テキストから画像、テキストからビデオ、および新しく導入されたテキストから音楽の機能であるLyriaを含む、マルチモーダル生成モデルのスイートケースを展示しました。魅力的なデモでは、これらのツールを組み合わせてコンサートの完全なプロモーションビデオを作成する方法が強調されました。
Ironwoodは、Googleの包括的なAIインフラストラクチャ戦略のほんの一部のコンポーネントです。同社はまた、企業がGoogleのグローバルスケールのプライベートネットワークインフラストラクチャを利用できるようにするマネージドワイドエリアネットワークサービスであるCloud WANを導入しました。
Googleはまた、Google DeepMindによって開発された、数百のTPUでモデルの提供をスケーリングできる機械学習ランタイムであるPathwaysを含む、AIワークロード用のソフトウェア製品を拡張しています。
共同インテリジェンスのビジョン:A2AとMCPのサポートの導入
ハードウェアの進歩を超えて、Googleはマルチエージェントシステムを中心としたAIのビジョンを明確にし、多様なAIエージェント間の安全で標準化された通信を促進するように設計されたAgent-to-Agent (A2A) プロトコルを導入しました。
Googleは2025年をAIにとって変革の年として予測しており、生成AIアプリケーションは単一の質問に答えることから、相互接続されたエージェントシステムを通じて複雑な問題を解決するように進化します。
A2Aプロトコルは、プラットフォームやフレームワーク間の相互運用性を可能にし、AIエージェントに共通の’言語’と安全な通信チャネルを提供します。AIエージェントのネットワークレイヤーと考えてください。これにより、複雑なワークフローでのコラボレーションが簡素化され、特殊なAIエージェントがさまざまな複雑さと期間のタスクに集合的に取り組み、それによって協力を通じて全体的な能力が向上します。
A2Aの仕組み
Googleは、MCPおよびA2Aプロトコルの比較概要を提供しています。
- MCP (Model Context Protocol): ツールとリソースの管理に焦点を当てています。
- 構造化された入出力を通じて、エージェントをツール、API、およびリソースに接続します。
- Google ADKはMCPツールをサポートし、MCPサーバーとエージェント間のシームレスなやり取りを促進します。
- A2A (Agent2Agent Protocol): エージェント間のコラボレーションを促進します。
- 共有メモリ、リソース、またはツールを必要とせずに、エージェント間の動的でマルチモーダルな通信を可能にします。
- コミュニティによって推進されるオープンスタンダードです。
- Google ADK、LangGraph、Crew.AIなどのツールを使用して、例を調べることができます。
A2AとMCPは相補的です。MCPはエージェントにツールを提供し、A2Aはこれらの装備されたエージェントが会話してコラボレーションできるようにします。
Googleのパートナーの初期リストは、A2AがMCPと同様の注目を集める準備ができていることを示唆しています。このイニシアチブはすでに、主要なテクノロジー企業やグローバルなコンサルティングおよびシステム統合プロバイダーを含む50を超える組織を引き付けています。
Googleはプロトコルのオープン性を強調し、基盤となるテクノロジーフレームワークやサービスプロバイダーを超越する、エージェント間コラボレーションの標準として位置づけています。Googleは、プロトコルの設計を形作った5つの指針となる原則を強調しました。
- エージェントの能力を受け入れる: A2Aは、メモリ、ツール、またはコンテキストを共有しなくても、エージェントが自然にコラボレーションできるようにすることを優先します。目標は、単にエージェントを’ツール’として機能させることに限定するのではなく、真のマルチエージェントシナリオを可能にすることです。
- 既存の標準に基づいて構築する: このプロトコルは、HTTP、SSE、JSON-RPCを含む、既存の広く採用されている標準を利用して、既存のITスタックとの統合を簡素化します。
- デフォルトでセキュリティ保護する: A2Aは、OpenAPIの認証スキームに匹敵する、エンタープライズグレードの認証と承認をサポートするように設計されています。
- 長時間実行されるタスクをサポートする: A2Aの柔軟性により、簡単なタスクから数時間または数日かかる可能性のある詳細な調査まで、幅広いシナリオをサポートできます(特に人間の関与が必要な場合)。プロセス全体を通して、A2Aはユーザーにリアルタイムのフィードバック、通知、およびステータスの更新を提供できます。
- モダリティに依存しない: エージェントの世界はテキストを超えて拡張されることを認識し、A2Aはオーディオやビデオストリームを含むさまざまなモダリティをサポートしています。
Googleは、A2Aが採用プロセスをどのように合理化するかについて例を提供しました。
Agentspaceのような統合インターフェースでは、採用マネージャーは、求人要件に基づいて適切な候補者を特定するようにエージェントを割り当てることができます。このエージェントは、候補者を調達するために専門のエージェントとやり取りできます。ユーザーは、面接をスケジュールし、バックグラウンドチェックを支援するために他の専門のエージェントに関与するようにエージェントに指示することもできます。これにより、システム全体で完全に自動化されたインテリジェントな採用が可能になります。
モデルコンテキストプロトコル(MCP)の採用
GoogleはMCPも採用しています。OpenAIがAnthropicのモデルコンテキストプロトコル(MCP)の採用を発表した直後、Googleもそれに続きました。
Google DeepMindのCEOであるデミス・ハサビスは、X(以前のTwitter)で、GoogleがGeminiモデルとSDKでMCPのサポートを追加することを発表しましたが、具体的なタイムラインは示していません。
ハサビスは、’MCPはAIエージェントの時代に向けて急速にオープンスタンダードになりつつある優れたプロトコルです。MCPチームおよび業界の他のパートナーと協力して、このテクノロジーを進歩させることを楽しみにしています。’と述べています。
2024年11月のリリース以来、MCPは、言語モデルをツールやデータに接続するためのシンプルで標準化された方法として、大きな支持を得ています。
MCPを使用すると、AIモデルはエンタープライズツールやソフトウェアからデータにアクセスして、タスクを完了し、コンテンツライブラリやアプリケーション開発環境にアクセスできます。このプロトコルを使用すると、開発者はデータソースとチャットボットなどのAI搭載アプリケーション間の双方向接続を確立できます。
開発者は、MCPサーバーを介してデータインターフェースを公開し、これらのサーバーに接続するためのMCPクライアント(アプリケーションやワークフローなど)を構築できます。AnthropicがMCPをオープンソース化して以来、いくつかの企業がMCPサポートをプラットフォームに統合しています。
Ironwood:AIの新時代の幕開け
GoogleのIronwood TPUは、AIコンピューティングにおける大きな飛躍を表しています。その前例のないパフォーマンス、最適化されたアーキテクチャ、およびA2AやMCPのような新興プロトコルのサポートは、それをAIイノベーションの次の波の主要なイネーブラーとして位置づけています。AIモデルがより複雑になり、要求が厳しくなるにつれて、Ironwoodは新しい可能性を解き放ち、世界中の業界を変革するために必要な生のパワーと柔軟性を提供します。これは単なる新しいチップではありません。それは、複雑な問題を解決し、私たちの生活を改善するために協力して働くインテリジェントなマシンによって推進される未来の基盤です。