Google CloudとNvidiaは、人工知能の進歩を加速させるために、協力を深めています。このパートナーシップは、GoogleのGeminiモデルとNvidiaのBlackwell GPUを統合し、AIワークロードを最適化することに重点を置いています。主なイノベーションには、Geminiモデルのオンプレミスでの展開、Nvidia GPUでのGeminiのパフォーマンス向上、新しい開発者コミュニティ、Confidential VMs、およびBlackwell GPUでのA4 VMの利用などが含まれます。
Nvidia BlackwellによるGeminiモデルのオンプレミス展開
Google Geminiは、Google Distributed Cloudを通じてNvidia Blackwellを使用して、オンプレミスで展開できるようになりました。この展開により、組織は独自のデータセンター内でGeminiモデルを安全に利用し、エージェントAI機能を利用できるようになります。
Geminiモデルの理解
Geminiモデルファミリーは、Googleの最も先進的なAIモデルです。これらのモデルは、複雑な推論、コーディング、およびマルチモーダルな理解のために設計されており、さまざまなアプリケーションに対応できる汎用性の高いツールとなっています。
Google Distributed Cloud
Google Distributed Cloudは、オンプレミス、エアギャップ環境、エッジコンピューティング向けのフルマネージドソリューションを提供します。これにより、顧客はGoogleのAIテクノロジーの力を活用しながら、データを完全に制御できます。
オンプレミス展開のメリット
強化された制御: 組織はデータを完全に制御し、プライバシー規制および内部ポリシーへの準拠を保証します。
セキュリティ: 独自のデータセンター内でGeminiモデルを展開することで、機密情報のセキュリティと保護が強化されます。
カスタマイズ: オンプレミス展開により、特定のビジネスニーズに合わせてAIソリューションをより高度にカスタマイズできます。
このパートナーシップにより、顧客は厳格なデータガバナンスポリシーを遵守しながら、Geminiでイノベーションを起こすことができます。
Nvidia GPU向けGeminiとGemmaの最適化
NvidiaとGoogleは、特にGoogle CloudのVertex AIプラットフォーム内で、Nvidia GPUでのGeminiベースの推論ワークロードのパフォーマンスを最適化するために協力してきました。この最適化により、GoogleはVertex AIおよびGoogle Distributed Cloud全体で、Nvidiaアクセラレーションインフラストラクチャ上のGeminiモデルに対する多数のユーザーリクエストを効率的に処理できます。
Vertex AIプラットフォーム
Vertex AIは、Google Cloudの包括的な機械学習プラットフォームであり、AIモデルのトレーニング、展開、および管理のためのツールとサービスを提供します。Vertex AI内のNvidia GPU向けGeminiの最適化により、プラットフォームの機能が強化され、開発者がAIソリューションを構築および展開しやすくなります。
Gemmaモデルファミリー
軽量でオープンなGemmaモデルファミリーは、Nvidia TensorRT-LLMライブラリを使用して推論用に最適化されています。これらのモデルは、簡単に展開できるNvidia NIMマイクロサービスとして提供される予定であり、より広範な開発者が利用できるようになります。
Nvidia TensorRT-LLM
Nvidia TensorRT-LLMは、Nvidia GPUで大規模言語モデル(LLM)を最適化および展開するためのライブラリです。TensorRT-LLMでGemmaモデルを最適化することにより、NvidiaとGoogleは、開発者がアプリケーションでLLMの力を活用しやすくしています。
開発者向けアクセシビリティ
これらの最適化により、パフォーマンスが最大化され、高度なAIが開発者にとってよりアクセスしやすくなり、データセンターおよびローカルのNvidia RTX搭載PCおよびワークステーションのさまざまなアーキテクチャでワークロードを実行できるようになります。
Google CloudとNvidiaの開発者コミュニティの立ち上げ
Google CloudとNvidiaは、クロススキリングとイノベーションを加速するために、新しい共同開発者コミュニティを立ち上げました。このコミュニティは、専門家と仲間を集めて協力し、知識を共有し、開発者が次世代のAIアプリケーションを構築、拡張、および展開しやすくします。
開発者コミュニティのメリット
知識共有: コミュニティは、開発者が専門知識を共有し、他の開発者から学ぶためのプラットフォームを提供します。
コラボレーション: 開発者はプロジェクトで協力し、コードを共有して、開発プロセスを加速できます。
サポート: コミュニティは、AIアプリケーションを構築している開発者向けにサポートとガイダンスを提供します。
このイニシアチブは、エンジニアリングの卓越性、オープンソースのリーダーシップ、および活気のある開発者エコシステムを組み合わせることで、開発者を支援し、AI分野でのイノベーションを推進します。
オープンソースフレームワーク
両社は、Blackwell GPUでのシームレスなスケーリングのために、JAXなどのオープンソースフレームワークを最適化することにより、開発者コミュニティをサポートしています。これにより、AIワークロードを数万のノードに効率的に分散させることができ、大規模なAIモデルのトレーニングと展開が容易になります。
JAXの最適化
JAXは、Googleが開発した高性能な数値計算ライブラリです。NvidiaとGoogleはJAXをBlackwell GPU向けに最適化することで、開発者がAIアプリケーションでJAXの力を活用しやすくしています。
Nvidia H100 GPUを搭載したConfidential VMとGKEノード
Nvidia H100 GPUを搭載したアクセラレータ最適化A3マシンシリーズ上のGoogle CloudのConfidential Virtual Machines(VM)がプレビューで利用可能になりました。同様に、Confidential Google Kubernetes Engine(GKE)ノードも提供されています。これらのコンフィデンシャルコンピューティングソリューションは、データ使用中の保護されたGPUを使用して、AI、機械学習、および科学シミュレーションワークロードの機密性と整合性を保証します。
Confidential Virtual Machines
Confidential VMは、使用中のデータを暗号化し、機密性の高いワークロードに対して追加のセキュリティレイヤーを提供します。これにより、処理中であってもデータが保護され、不正アクセスのリスクが軽減されます。
Google Kubernetes Engine
Google Kubernetes Engine(GKE)は、コンテナ化されたアプリケーションの展開と管理を簡素化するマネージドKubernetesサービスです。Confidential GKEノードは、Confidential VMと同じレベルのセキュリティを提供し、コンテナ化されたワークロードが保護されていることを保証します。
セキュリティ上の利点
データ保護: Confidential VMとGKEノードは、使用中のデータを保護し、データ侵害のリスクを軽減します。
コンプライアンス: これらのソリューションは、組織がプライバシー規制および業界標準に準拠するのに役立ちます。
信頼: コンフィデンシャルコンピューティングは、データがライフサイクル全体を通じて機密性を維持し、保護されていることを保証することにより、信頼を構築します。
これにより、データとモデルの所有者は、データの流れを直接制御できるようになり、Nvidia Confidential Computingが高度なハードウェアベースのセキュリティを高速コンピューティングにもたらします。これにより、革新的なAIソリューションおよびサービスの作成と採用に対する信頼が高まります。
Googleの新しいA4 VMがNvidia Blackwell GPUで一般提供開始
2月、Google Cloudは、Nvidia NVLinkで相互接続された8つのBlackwell GPUを搭載した新しいA4仮想マシンをリリースしました。これにより、前世代に比べてパフォーマンスが大幅に向上し、大規模なAIモデルのトレーニングと展開が容易になります。Nvidia HGX B200上のGoogle Cloudの新しいA4 VMが一般提供開始となり、顧客は最新のAIハードウェアにアクセスできるようになりました。
Nvidia NVLink
Nvidia NVLinkは、GPU間の高速通信を可能にする高速インターコネクトテクノロジーです。Google CloudのA4 VMは、8つのBlackwell GPUをNVLinkで相互接続することにより、AIワークロードに比類のないパフォーマンスを提供します。
パフォーマンス向上
A4 VMは、前世代に比べてパフォーマンスが大幅に向上しており、大規模なAIモデルのトレーニングと展開に最適です。これにより、開発者はより迅速に反復処理を行い、AIアプリケーションでより良い結果を得ることができます。
Vertex AIおよびGKE経由でのアクセス
Googleの新しいVMおよびAI Hypercomputerアーキテクチャは、Vertex AIやGKEなどのサービスを介してアクセスでき、顧客はエージェントAIアプリケーションを大規模に開発および展開するためのパスを選択できます。これにより、組織はAIの力をアプリケーションで活用しやすくなります。
Blackwell GPUアーキテクチャの詳細
NvidiaのBlackwell GPUアーキテクチャは、計算能力において画期的な飛躍を遂げ、AIと高性能コンピューティングの状況を根本的に変えています。A4 VMの機能とAIイノベーションへの影響を真に理解するには、Blackwell GPUの基盤となるテクノロジーを理解することが重要です。
革新的な計算能力
Blackwellアーキテクチャは、大規模言語モデル(LLM)のトレーニングや複雑なシミュレーションの実行など、最も要求の厳しいAIワークロードを処理するように設計されています。その主な機能は次のとおりです。
- 第2世代Transformer Engine: このエンジンは、多くの最新のAIアプリケーションの基盤であるTransformerモデル用に特別に最適化されています。これらのモデルのトレーニングと推論を大幅に加速します。
- 第5世代NVLink: 前述のように、NVLinkはGPU間の高速通信を可能にし、複雑なタスクでシームレスに連携できます。これは、複数のGPUの集合的な処理能力を必要とする非常に大規模なモデルのトレーニングにとって特に重要です。
- Confidential Computingのサポート: Blackwell GPUには、コンフィデンシャルコンピューティングを可能にするハードウェアベースのセキュリティ機能が含まれており、機密データのプライバシーと整合性を保証します。
- 高度なメモリテクノロジー: Blackwell GPUは最新のメモリテクノロジーを利用し、AIアプリケーションで使用される膨大なデータセットを処理するための高帯域幅と大容量を提供します。
AIワークロードへの影響
これらの機能の組み合わせにより、幅広いAIワークロードでパフォーマンスが大幅に向上します。Blackwell GPUを使用すると、開発者は次のことが可能になります。
- より大きなモデルのトレーニング: 計算能力とメモリ容量の増加により、大幅に大きく、より複雑なAIモデルのトレーニングが可能になり、精度とパフォーマンスが向上します。
- トレーニング時間の短縮: 最適化されたアーキテクチャと高速インターコネクトにより、AIモデルのトレーニングに必要な時間が大幅に短縮され、開発プロセスが加速されます。
- より効率的な展開: Blackwell GPUはエネルギー効率を考慮して設計されており、過剰な電力消費なしに大規模なAIモデルの展開が可能です。
- 新しいAIアプリケーションのロック解除: Blackwell GPUの比類のないパフォーマンスにより、計算上の制限のために以前は不可能だった新しいAIアプリケーションの可能性が開かれます。
Google Cloudと顧客にとっての戦略的な意味合い
Gemini、Blackwell、およびサポートインフラストラクチャを中心としたGoogle CloudとNvidiaの強化されたパートナーシップは、両社とその顧客にとって重要な戦略的な意味合いをもたらします。
Google Cloudの競争上の優位性
- AIに焦点を当てたビジネスの誘致: Nvidia Blackwell GPUを搭載した最先端のAIインフラストラクチャを提供することで、Google CloudはAIの研究開発に多大な投資をしている企業を惹きつけることができます。
- 競合他社との差別化: Geminiの統合とGoogle CloudのVMの最適化されたパフォーマンスにより、他のクラウドプロバイダーとは一線を画しています。
- AIエコシステムの強化: このパートナーシップは、開発者を支援し、イノベーションを促進し、高度なツールとリソースへのアクセスを提供することにより、堅牢なAIエコシステムに貢献します。
顧客へのメリット
- AIイノベーションの加速: 顧客はGeminiとBlackwell GPUの力を活用してAIイニシアチブを加速し、革新的なソリューションをより迅速に開発および展開できます。
- パフォーマンスとスケーラビリティの向上: 最適化されたインフラストラクチャにより、AIワークロードが効率的に実行され、増大する需要に対応できるようにスケーリングできます。
- セキュリティとコンプライアンスの強化: Confidential VMとGKEノードは、機密データを保護するために必要なセキュリティおよびコンプライアンス機能を提供します。
- コストの削減: AIワークロードをNvidia GPU向けに最適化することで、顧客はコンピューティングコストを削減できる可能性があります。
AI開発の未来
このパートナーシップは、AI開発の進化における重要な一歩となります。GoogleのAIモデルに関する専門知識とNvidiaのGPUテクノロジーにおけるリーダーシップを組み合わせることで、両社はイノベーションを推進し、開発者にとって高度なAIツールへのアクセスを容易にしています。これにより、業界を変革し、生活を向上させる、新しいエキサイティングなAIアプリケーションの作成につながることは間違いありません。
Nvidia NIMマイクロサービスの役割を理解する
共同イニシアチブの重要な要素は、Nvidia NIMマイクロサービスの導入です。その重要性を理解するには、より詳しく調べる必要があります。
定義と機能
Nvidia NIM(Nvidia Inference Microservice)は、AIモデルの展開を合理化するために設計されたソフトウェアソリューションです。事前トレーニング済みのモデル、推論エンジン、および必要な依存関係をコンテナ化されたマイクロサービスにカプセル化します。つまり、NIMは、フレームワークやハードウェアに関係なく、AIモデルを展開するための標準化された方法を提供します。
Nvidia NIMの主な利点:
- 簡素化された展開: NIMは、AIモデルを展開する複雑さを大幅に軽減するため、開発者はインフラストラクチャの管理ではなく、アプリケーションの構築に集中できます。
- ハードウェアアクセラレーション: NIMはNvidia GPU向けに最適化されており、そのアクセラレーション機能を利用して高性能な推論を実現します。
- スケーラビリティ: NIMは水平方向にスケーリングするように設計されているため、開発者はパフォーマンスを損なうことなく、増大する需要に対応できます。
- モジュール性: NIMにより、他のモデルを中断することなく、さまざまなモデルのモジュール化と迅速な更新が可能です。
NIMが開発者および組織にもたらすメリット:
- 市場投入までの時間の短縮: 展開を簡素化することにより、NIMは開発者がAI搭載アプリケーションをより迅速に市場に投入するのに役立ちます。
- コスト削減: NIMは、リソースの使用率を最適化することにより、インフラストラクチャおよび運用コストを最小限に抑えます。
- パフォーマンスの向上: NIMによるハードウェアアクセラレーションは、スループットの向上とレイテンシーの短縮を実現し、ユーザーエクスペリエンスを向上させます。
- 柔軟性の向上: NIMによる標準化された展開は、柔軟性を高め、開発者がさまざまなAIモデルを簡単に切り替えることを可能にします。
結論
Google CloudとNvidiaの拡大されたコラボレーションは、AI開発の顕著な進歩を示しています。GoogleのGeminiモデルとNvidiaのBlackwell GPUの統合により、AIワークロードの最適化に新しい基準が確立されます。このパートナーシップは、イノベーションを加速するだけでなく、AIに関わる開発者と組織のセキュリティ、スケーラビリティ、およびアクセシビリティを向上させます。さらに、GoogleのA4 VMとNvidiaのNIMマイクロサービスのリリースは、AIアプリケーションを強化する上で重要な瞬間であり、AIソリューションがより大規模に効率的かつ効果的に展開される未来を育成します。