Blackwell Ultra GB300: パフォーマンスの飛躍
2025年後半に出荷予定のBlackwell Ultra GB300は、NVIDIAの以前の製品を大幅に進化させたものです。この新しいスーパーチップは、増大し続ける現代のAIアプリケーションの要求を満たすために、強化されたコンピューティングパワーと増加したメモリ帯域幅を提供するように設計されています。
GB300システムは、72基のNVIDIA Blackwell Ultra GPUと36基のArmベースのNVIDIA Grace CPUを統合した強力なシステムです。この組み合わせにより、1,400ペタFLOPSのFP4 AIパフォーマンスを実現します。これは、前世代のBlackwell B200と比較して、高密度FP4演算能力が1.5倍向上したことを意味します。
GB300の最も重要なアップグレードの1つは、そのメモリ容量です。システム内の各GPUには、驚異的な288GBのHBM3eメモリが搭載されています。これにより、システムあたりのGPUメモリの合計は20TBを超えます。この大幅なメモリの増加により、はるかに大規模なAIモデルとデータセットの処理が可能になり、より複雑な計算とより高速な処理速度が実現します。
NVIDIAは、Blackwell Ultra AI Factory Platformを、標準のBlackwellチップと比較して、革新的なパフォーマンス向上ではなく、段階的なパフォーマンス向上を提供するものとして位置付けています。単一のUltraチップは、標準のBlackwellと同じ20ペタフロップスのAI計算を維持しますが、高帯域幅メモリ(HBM3e)が192GBから288GBへと50%増加したことによる恩恵を大きく受けています。
より大規模な視点で見ると、フルスケールのDGX GB300 ‘Superpod’は、引き続き288個のCPUと576個のGPUを搭載しています。この構成は、オリジナルのBlackwellベースのSuperpodのパフォーマンスを反映して、11.5エクサフロップスのFP4コンピューティングを提供します。ただし、総メモリが25%増加し、現在は300TBという膨大な量に達しています。これらのメモリの強化は、NVIDIAが単に生の計算能力に焦点を当てるのではなく、より大きなモデルに対応し、AIの推論効率を高めることに重点を置いていることを強調しています。
NVIDIAは、BlackwellからBlackwell Ultraへの直接的な比較ではなく、最新のプラットフォームが、AIワークロードで依然として広く使用されている2022年時代のH100チップと比較してどのように優れているかを示しています。同社は、Blackwell UltraがH100の1.5倍のFP4推論パフォーマンスを提供すると主張しています。しかし、最も注目すべき利点は、AIの推論を加速する能力にあります。
たとえば、非常に大規模な言語モデルであるDeepSeek-R1 671Bを実行するNVL72クラスターは、わずか10秒で応答を生成できるようになりました。これは、H100システムで必要だった90秒からの劇的な短縮です。
NVIDIAは、この大幅な改善は、トークン処理速度が10倍に向上したことによるものだと考えています。Blackwell Ultraは、1秒あたり1,000トークンを処理できます。これは、H100の1秒あたり100トークンからの大幅な飛躍です。これらの数値は、Blackwell Ultraが直前の製品を劇的に上回るわけではないかもしれませんが、特にまだ前世代のアーキテクチャを利用している組織にとっては、説得力のある効率向上を提供することを示しています。
Vera Rubin Superchip: 次世代AI処理
Blackwell Ultraの先を見据えて、NVIDIAは2026年後半にVera Rubinスーパーチップを発表する予定です。著名な天文学者Vera Rubinにちなんで名付けられたこのチップは、カスタム設計のCPU (Vera)とGPU (Rubin)を組み込む予定です。これは、NVIDIAの最先端AI処理能力の追求における重要な一歩を表しています。
NVIDIAのOlympusアーキテクチャに基づくVera CPUは、現在のGrace CPUの2倍のパフォーマンスを提供すると予測されています。一方、Rubin GPUは、最大288GBの驚異的な高帯域幅メモリをサポートします。この大幅なメモリ容量は、特に複雑なAIタスクにおいて、データ処理能力を大幅に向上させます。
Vera Rubinアーキテクチャは、単一のダイ上にデュアルGPU設計を展示しています。この革新的な設計により、チップあたり50ペタFLOPSのFP4推論パフォーマンスという驚異的な性能が実現し、AIアプリケーションにおけるより効率的な処理とレイテンシの短縮が促進されます。
Grace CPUの後継であるVera CPUは、同時マルチスレッディングを備えた88個のカスタムArmコアで構成されています。この構成により、ソケットあたり176スレッドが実現します。また、1.8TB/sのNVLinkコア間インターフェイスを備えており、CPUとGPUコンポーネント間のデータ転送速度が大幅に向上します。
Blackwell Ultra GB300とVera Rubin Superchipは、NVIDIAの以前のチップアーキテクチャからの大幅な進歩を表しています。GB300のB200に対する1.5倍の高密度FP4計算の向上は、AIワークロードのより効率的な処理に直接つながります。これにより、AI開発の加速に不可欠な、より高速なトレーニングと推論時間が可能になります。
チップあたり50ペタFLOPSのFP4パフォーマンスを備えたVera Rubinは、大幅な飛躍を意味します。このレベルのパフォーマンスにより、さらに洗練されたAIモデルとアプリケーションの展開が可能になり、人工知能の分野で可能なことの限界を押し広げます。
NVIDIAの野心的な開発スケジュールは、新しいAIチップ世代を毎年リリースする計画であり、急速に進化するAIハードウェア市場で主導的な地位を維持するという同社の献身を強調しています。同社のイノベーションへの取り組みは、より強力で効率的なAI処理ソリューションの継続的な追求に表れています。これらの新しいスーパーチップの導入は、単なる漸進的な改善ではなく、AI機能の新時代を可能にすることです。
メモリ容量と処理速度の向上は特に注目に値します。より大きなモデルとデータセットを処理する能力は、より洗練されたAIシステムの開発に不可欠です。AIモデルが複雑さを増し続けるにつれて、それに追いつくことができるハードウェアの必要性がますます重要になります。NVIDIAのメモリ帯域幅とトークン処理速度への焦点は、このニーズに直接対応しています。
特に古いアーキテクチャから移行する組織にとって、効率の向上を重視する方向へのシフトは、NVIDIAによる戦略的な動きです。すべてのユーザーがすぐに最新のハードウェアを採用するわけではないことを認識しています。NVIDIAは、前世代のチップよりも大幅なパフォーマンスの向上を示すことで、アップグレードの説得力のある論拠を提供しています。
カスタム設計のCPUとGPUを備えたVera Rubinスーパーチップは、アーキテクチャの重要な進歩を表しています。単一ダイ上のデュアルGPU設計は、大幅なパフォーマンスの向上とレイテンシの短縮を実現することを約束する革新的なアプローチです。この設計は、チップ設計の限界を押し広げ、パフォーマンスを最大化するというNVIDIAのコミットメントを反映しています。
チップの名前が天文学者Vera Rubinにちなんで名付けられたことは、彼女の画期的な業績に対する適切な賛辞です。また、科学的発見とイノベーションに対するNVIDIAのコミットメントをさりげなく強調しています。同社のAIへの焦点は、商業的応用を超えて広がっています。また、科学研究の進歩も包含しています。
全体として、NVIDIAのBlackwell Ultra GB300およびVera Rubinスーパーチップの発表は、AIハードウェアの進化における重要なマイルストーンを示しています。これらの新しいチップは、幅広い業界でAIの開発と展開を加速する態勢が整っています。同社のイノベーションへの取り組みと積極的な開発スケジュールは、今後数年間でさらに画期的な進歩が期待できることを示唆しています。生のパフォーマンスと効率の向上の両方に焦点を当てることで、これらのチップは、最先端のシステムを持つユーザーから、まだ古いアーキテクチャを利用しているユーザーまで、幅広いユーザーに関連するものになります。AIハードウェアの未来は明るく、NVIDIAは明らかにこのエキサイティングな分野の最前線に自らを位置付けています。これらの新しいスーパーチップのメモリの増加、処理速度の向上、革新的な設計は、間違いなく人工知能の新たなブレークスルーへの道を開き、さまざまな分野に影響を与え、今後数年間のさらなる進歩を推進するでしょう。