Llama Nemotronの台頭:よりスマートなAIのための推論強化
Nvidiaの戦略の中心は、Llama Nemotron AIモデルファミリーの発表です。これらのモデルは、大幅に強化された推論能力を誇り、より洗練されたAIの探求における前進を示しています。Meta Platforms Inc.のオープンソースLlamaモデルを基盤として構築されたNemotronシリーズは、開発者が高度なAIエージェントを作成するための堅牢な基盤を提供するように設計されています。これらのエージェントは、最小限の人間の監視でタスクを実行するように構想されており、AIの自律性における重要な進歩を表しています。
Nvidiaは、綿密なトレーニング後の機能強化を通じてこれらの改善を達成しました。これは、すでに熟練した学生に専門的な個別指導を提供するようなものです。この’個別指導’は、多段階の数学、コーディング、複雑な意思決定、および全体的な推論におけるモデルの能力を高めることに焦点を当てました。Nvidiaによると、その結果、元のLlamaモデルと比較して精度が20%向上しました。しかし、機能強化は精度にとどまりません。推論速度 – 基本的に、モデルが情報を処理して回答を提供する速度 – は5倍に向上しました。これは、運用コストを削減しながらより複雑なタスクを処理することを意味し、実際の展開にとって重要な要素です。
Llama Nemotronモデルは、NvidiaのNIMマイクロサービスプラットフォームを通じて、3つの異なるサイズで提供されます。
- Nano: パーソナルコンピュータやエッジデバイスなど、処理能力が限られたデバイスへの展開に合わせて調整されています。これにより、AIエージェントがリソースに制約のある環境で動作する可能性が開かれます。
- Super: 単一のグラフィックスプロセッシングユニット(GPU)での実行に最適化されています。これにより、パフォーマンスとリソース要件のバランスが取れます。
- Ultra: 最高のパフォーマンスを実現するように設計されており、複数のGPUサーバーが必要です。これは、最高レベルのAI機能を必要とするアプリケーションに対応します。
改良プロセス自体は、Nvidia DGX Cloudプラットフォームを活用し、Nvidia Nemotronからの高品質な合成データと、Nvidia独自のキュレーションされたデータセットを利用しました。透明性と協力を促進する動きとして、Nvidiaはこれらのデータセット、使用されたツール、および最適化技術の詳細を公開しています。このオープンなアプローチは、より広範なAIコミュニティがNvidiaの成果を基に独自の基礎的な推論モデルを開発することを奨励します。
Llama Nemotronの影響は、Nvidiaが築いたパートナーシップですでに明らかです。Microsoft Corp.のような主要企業は、これらのモデルを自社のクラウドベースのサービスに統合しています。
- Microsoftは、Azure AI Foundryサービスでこれらを利用可能にしています。
- また、Microsoft 365用のAzure AI Agent Serviceを使用して新しいエージェントを作成する顧客向けのオプションとしても提供されます。
- SAP SEは、Llama Nemotronを活用して、AIアシスタントであるJouleと、より広範なSAP Business AIソリューションポートフォリオを強化しています。
- Accenture Plc、Atlassian Corp.、Box Inc.、ServiceNow Inc.などの他の著名な企業も、Nvidiaと協力して、顧客にこれらのモデルへのアクセスを提供しています。
モデルを超えて:エージェント型AIのための包括的なエコシステム
Nvidiaは、AIエージェントの構築には、強力な言語モデル以上のものが必要であることを理解しています。インフラストラクチャ、ツール、データパイプラインなどを含む完全なエコシステムが必要です。同社は、GTC 2025で発表された一連の追加のエージェント型AIビルディングブロックでこれらのニーズに対応しています。
Nvidia AI-Q Blueprint:知識と行動の接続
このフレームワークは、ナレッジベースとAIエージェント間の接続を容易にし、それらが自律的に行動できるように設計されています。Nvidia NIMマイクロサービスを使用して構築され、Nvidia NeMo Retrieverと統合されたこのブループリントは、AIエージェントのためにマルチモーダルデータ – テキスト、画像、音声などのさまざまな形式の情報 – を取得するプロセスを簡素化します。
Nvidia AI Data Platform:推論のためのデータフローの最適化
このカスタマイズ可能なリファレンスデザインは、主要なストレージプロバイダーに提供されています。目標は、Dell Technologies Inc.、Hewlett Packard Enterprise Co.、Hitachi Vantara、IBM Corp.、NetApp Inc.. Nutanix Inc.、Vast Data Inc.、Pure Storage Inc.などの企業が、エージェント型AI推論ワークロード専用のより効率的なデータプラットフォームを開発するのを支援することです。最適化されたストレージリソースとNvidiaの高速コンピューティングハードウェアを組み合わせることで、開発者はAI推論において大幅なパフォーマンスの向上を期待できます。これは、データベースからAIモデルへの情報のスムーズかつ迅速な流れを確保することによって実現されます。
強化されたNvidia NIMマイクロサービス:継続的な学習と適応性
NvidiaのNIMマイクロサービスは、エージェント型AI推論を最適化するために更新され、継続的な学習と適応性をサポートしています。これらのマイクロサービスにより、顧客はNvidiaのLlama NemotronやMeta、Microsoft、Mistral AIなどの企業の代替モデルを含む、最新かつ最も強力なエージェント型AIモデルを確実に展開できます。
Nvidia NeMoマイクロサービス:堅牢なデータフライホイールの構築
Nvidiaは、NeMoマイクロサービスも強化しています。これは、開発者が堅牢で効率的なデータフライホイールを作成するためのフレームワークを提供します。これは、AIエージェントが人間が生成したフィードバックとAIが生成したフィードバックの両方に基づいて継続的に学習し、改善できるようにするために非常に重要です。
戦略的パートナーシップ:AIランドスケープ全体のイノベーションを推進
Nvidiaのエージェント型AIへの取り組みは、他の業界リーダーとの協力にも及んでいます。
Oracleパートナーシップの拡大:Oracle Cloud Infrastructure上のエージェント型AI
Nvidiaは、Oracle Corp.との協力を拡大して、エージェント型AI機能をOracle Cloud Infrastructure (OCI)に導入しています。このパートナーシップには、Nvidiaの高速GPUと推論ソフトウェアをOracleのクラウドインフラストラクチャに統合し、Oracleの生成AIサービスと互換性を持たせることが含まれます。これにより、OCIでのAIエージェントの開発が加速されます。Nvidiaは現在、OCIコンソールを通じて160を超えるAIツールとNIMマイクロサービスをネイティブに提供しています。両社は、Oracle Database 23aiプラットフォームでのベクトル検索の高速化にも取り組んでいます。
Googleとの協力の深化:AIアクセスと整合性の強化
Nvidiaはまた、Google LLCとの拡大された協力に関する最新情報を提供し、AIとその基盤となるツールへのアクセスを改善することを目的としたいくつかのイニシアチブを明らかにしました。
重要なハイライトは、NvidiaがGoogle DeepMindのSynthIDを活用する最初の組織になったことです。このテクノロジーは、画像、ビデオ、テキストなどのAI生成コンテンツにデジタル透かしを直接埋め込みます。これは、AI出力の整合性を維持し、誤報と戦うのに役立ちます。SynthIDは、当初、NvidiaのCosmos World基盤モデルと統合されています。
さらに、NvidiaはGoogleのDeepMindの研究者と協力して、オープンソースの軽量AIモデルのファミリーであるGemmaをNvidia GPU向けに最適化しました。両社は、他のプロジェクトの中でも、把握スキルを備えたAI搭載ロボットを構築するためのイニシアチブにも協力しています。
GoogleとNvidiaの研究者とエンジニア間の協力は、創薬からロボット工学まで、幅広い課題に取り組んでおり、その変革の可能性を強調しています。