CoreWeave、NVIDIA Grace Blackwell GPUを導入

CoreWeaveは、NVIDIA GB200 NVL72システムへの広範なアクセスを提供し、クラウドコンピューティングの最前線に躍り出ました。Cohere、IBM、Mistral AIなどの主要な人工知能(AI)企業は、すでにこれらのリソースを活用してAIモデルとアプリケーションを洗練させています。

NVIDIA Grace Blackwellを一般的に提供する最初のクラウドプロバイダーとして、CoreWeaveはNVIDIA GB200 NVL72を使用して、優れたMLPerfベンチマーク結果を示しました。推論およびAIエージェント用に設計されたこの強力なプラットフォームは、現在CoreWeaveの顧客が利用可能であり、数千ものNVIDIA Blackwell GPUへのアクセスを提供します。

CoreWeaveのCEOであるマイク・イントレーターは、「NVIDIAと緊密に連携して、お客様がAIモデルのトレーニングと推論のための最先端のソリューションを利用できるようにしています」と述べています。「新しいGrace Blackwellラックスケールシステムにより、お客様は大規模なAIイノベーションのパフォーマンス上の利点を最初に体験できます。」

数千のNVIDIA Blackwell GPUの展開により、未加工のデータを実用的なインテリジェンスに迅速に変換できるようになり、さらなる拡張が計画されています。

CoreWeaveのようなクラウドプロバイダーを使用している企業は、NVIDIA Grace Blackwell上に構築されたシステムを統合するプロセスにあります。これらのシステムは、データセンターをAIファクトリーに変革し、大規模なインテリジェンスを生成し、生のデータをより速く、正確に、効率的に洞察に変換する準備ができています。

グローバルなAIリーダーは、AIエージェントや高度なモデル開発など、さまざまなアプリケーションにGB200 NVL72の機能を利用しています。

パーソナライズされたAIエージェント

Cohereは、Grace Blackwell Superchipを活用して、高度な研究およびモデル開発手法を活用し、安全なエンタープライズAIアプリケーションの開発を強化しています。そのエンタープライズAIプラットフォームであるNorthは、チームがエンタープライズワークフローの安全な自動化とリアルタイムの洞察のために、パーソナライズされたAIエージェントを作成できるようにします。

CoreWeaveでNVIDIA GB200 NVL72を使用することにより、Cohereは、Blackwell固有の最適化がなくても、以前の世代のNVIDIA Hopper GPUと比較して、1000億パラメーターモデルのトレーニングで最大3倍のパフォーマンス向上を確認しました。

GB200 NVL72の統合メモリ、FP4精度、および72-GPU NVIDIA NVLinkドメインを活用するさらなる最適化により、スループットが向上します。すべてのGPUが連携して動作し、より優れたスループットを実現し、最初および後続のトークンまでの時間を短縮して、よりパフォーマンスが高く、費用対効果の高い推論を実現します。

Cohereのエンジニアリング担当副社長であるAutumn Moulder氏は、「クラウドで最初のNVIDIA GB200 NVL72システムの一部にアクセスできることを嬉しく思っており、ワークロードがNVIDIA Grace Blackwellアーキテクチャにどれほど簡単に移植できるかに満足しています」と述べています。「これにより、単一のBlackwell GPUで実行される垂直統合型Northアプリケーションから、数千のGPUにトレーニングジョブを拡張するまで、スタック全体のパフォーマンス効率が大幅に向上します。すぐにさらなる最適化により、さらに優れたパフォーマンスを実現できることを楽しみにしています。」

エンタープライズ向けAIモデル

IBMは、初期のNVIDIA GB200 NVL72システム展開の1つを利用して、CoreWeaveで数千のBlackwell GPUに拡張し、次世代のGraniteモデルをトレーニングしています。これらのオープンソースのエンタープライズ対応AIモデルは、安全性、速度、費用対効果を確保しながら、最先端のパフォーマンスを提供します。Graniteモデルファミリは、大規模言語モデルをテクノロジーに組み込む主要なソフトウェア企業を含む、堅牢なパートナーエコシステムによってサポートされています。

Graniteモデルは、IBM watsonx Orchestrateのようなソリューションの基盤として機能し、企業がワークフローを自動化および加速するAIエージェントを開発および展開できるようにします。

IBM向けのCoreWeaveのNVIDIA GB200 NVL72展開では、AI用の高性能ストレージを提供するIBM Storage Scale Systemも利用しています。CoreWeaveの顧客は、CoreWeaveの専用環境およびAIクラウドプラットフォーム内でIBM Storageプラットフォームにアクセスできます。

IBM ResearchのAI担当副社長であるSriram Raghavan氏は、「NVIDIA GB200 NVL72がGraniteモデルファミリのトレーニングにもたらすことができる加速に興奮しています」と述べています。「CoreWeaveとのこのコラボレーションは、IBM watsonxを使用してエンタープライズおよびエージェントAIアプリケーションを強化するための、高度で高性能かつ費用対効果の高いモデルを構築するIBMの機能を強化します。」

大規模なコンピューティングリソース

Mistral AIは、次の世代のオープンソースAIモデルを構築するために、最初の1000個のBlackwell GPUを統合しています。

パリに拠点を置くオープンソースAIのリーダーであるMistral AIは、現在GB200 NVL72を搭載したCoreWeaveのインフラストラクチャを活用して、言語モデルの開発を迅速化しています。Mistral Largeなどのモデルが堅牢な推論機能を提供するため、Mistralは大規模な高速コンピューティングリソースを必要とします。

これらのモデルを効果的にトレーニングおよび展開するには、Mistral AIは、NVIDIA Quantum InfiniBandネットワーキングと信頼性の高いインフラストラクチャ管理を備えた大規模で高性能なGPUクラスターを提供するクラウドプロバイダーが必要です。CoreWeaveのNVIDIA GPUの大規模な展開における専門知識は、CoreWeave Mission Controlなどのツールによる業界をリードする信頼性と復元力と組み合わされており、これらのニーズを満たしています。

Mistral AIの共同創設者兼最高技術責任者であるThimothee Lacroix氏は、「すぐに使用でき、さらなる最適化を行わなくても、高密度モデルのトレーニングで2倍のパフォーマンス向上を確認しました」と述べています。「NVIDIA GB200 NVL72の興味深い点は、モデル開発と推論に新たな可能性が開かれることです。」

Blackwellインスタンスの可用性の拡大

CoreWeaveは、長期的な顧客ソリューションを提供するだけでなく、72個のNVIDIA Blackwell GPUと36個のNVIDIA Grace CPUにまたがるラックスケールNVIDIA NVLinkを備えたインスタンスも提供し、NVIDIA Quantum-2 InfiniBandネットワーキングで最大110,000個のGPUに拡張できます。

NVIDIA GB200 NVL72ラックスケールアクセラレーテッドコンピューティングプラットフォームによって加速されたこれらのインスタンスは、次世代のAI推論モデルとエージェントを開発および展開するために必要なスケールとパフォーマンスを提供します。

CoreWeaveの技術インフラストラクチャの詳細

CoreWeaveは、最先端のハードウェアソリューションと、AIおよび機械学習ワークロードの需要に合わせて調整された堅牢なインフラストラクチャを提供することに尽力しているため、クラウドコンピューティング分野の重要なプレーヤーとしての地位を確立しています。NVIDIA GB200 NVL72システムの統合は、この献身を強調しています。これらのシステムは単なる漸進的なアップグレードではありません。これらは、計算能力と効率の大幅な飛躍を表しており、組織が以前は乗り越えられないと見なされていた課題に取り組むことを可能にします。

NVIDIA GB200 NVL72のアーキテクチャは、AIアプリケーションのスペクトル全体でパフォーマンスを最大化するように細心の注意を払って設計されています。72個のNVIDIA Blackwell GPUと36個のNVIDIA Grace CPUを統合することで、プラットフォームはバランスの取れた強力なコンピューティング環境を提供します。このバランスは、集中的な計算と実質的なデータ処理能力の両方を必要とするワークロードにとって重要です。NVIDIAのNVLinkテクノロジーを使用すると、GPU間の高速通信が可能になり、システムの効率がさらに向上し、遅延が最小限に抑えられ、スループットが最大化されます。

CoreWeaveのインフラストラクチャは、そのスケーラビリティも特徴としています。NVIDIA Quantum-2 InfiniBandネットワーキングを使用して最大110,000個のGPUにスケールアップできるため、プラットフォームは最も要求の厳しいAIプロジェクトでもサポートできます。このスケーラビリティは、生のコンピューティングパワーだけではありません。大規模なAIトレーニングと推論に関連する大規模なデータフローを処理できるネットワークインフラストラクチャを確実にすることも含まれます。NVIDIA Quantum-2 InfiniBandネットワーキングは、システムがスケールするにつれて最適なパフォーマンスを維持するために必要な帯域幅と低遅延を提供します。

早期採用の戦略的意義

NVIDIA Grace Blackwell GPUのような新しいテクノロジーを採用するためのCoreWeaveの積極的なアプローチは、AIイノベーションの最前線にいる企業にとって戦略的なパートナーとしての地位を確立しています。これらの高度なリソースを提供する最初のクラウドプロバイダーの中にいることで、CoreWeaveはお客様がそれぞれの市場で競争力を獲得できるようにします。この早期アクセスにより、企業は新しいモデルを試したり、既存のワークフローを最適化したり、最終的に市場投入までの時間を短縮したりできます。

早期採用の利点は、高度なハードウェアへのアクセスだけではありません。また、NVIDIAのようなテクノロジープロバイダーとの緊密なコラボレーションも含まれており、CoreWeaveは新しいハードウェアの機能を最大限に活用するためにインフラストラクチャとソフトウェアスタックを微調整できます。このコラボレーションにより、より最適化された効率的なプラットフォームが実現し、CoreWeaveのお客様にとってより優れたパフォーマンスとコスト削減につながります。

さらに、CoreWeaveの早期採用戦略は、社内のイノベーションの文化を育成します。クラウドコンピューティングで可能なことの境界を常に押し広げることにより、CoreWeaveはトップタレントを引き付け、業界のリーダーとしての地位を確立します。これにより、最先端のソリューションを提供し、競争上の優位性を維持する能力が強化されます。

AIモデル開発への影響

CoreWeaveのプラットフォームへのNVIDIA Grace Blackwell GPUの展開は、AIモデルの開発に大きな影響を与えます。これらのGPUの強化された計算能力と効率により、研究者とエンジニアは、以前の世代のハードウェアと比較して、より大きな、より複雑なモデルをほんのわずかな時間でトレーニングできます。このトレーニングプロセスの加速は、急速に進化するAIの分野で先を行くために重要です。

さらに、NVIDIA GB200 NVL72システムは、より複雑なタスクを実行できるより高度なAIモデルの開発を促進します。たとえば、これらのシステムは、自然言語処理やコンピュータービジョンで使用されるような、広範な推論能力を必要とするモデルのトレーニングに特に適しています。膨大な量のデータを処理し、複雑な計算を実行できるため、これらのモデルはより正確で、信頼性が高く、現実のシナリオを処理できます。

特定アプリケーションへの影響は大きいです。自然言語処理では、新しいハードウェアにより、人間のようなテキストをより流暢かつ一貫して理解し生成できる、より強力な言語モデルを作成できます。これにより、チャットボット、仮想アシスタント、機械翻訳などのアプリケーションが改善されます。コンピュータービジョンでは、計算能力の向上により、自動運転車、医療イメージング、監視などのアプリケーションに不可欠な、より正確なオブジェクト認識システムを開発できます。

AIの民主化におけるCoreWeaveの役割

高度なコンピューティングリソースをより幅広い聴衆にアクセスできるようにするCoreWeaveの取り組みは、AIの民主化において重要な役割を果たします。最先端のハードウェアへの費用対効果の高いアクセスを提供することにより、CoreWeaveは、従来AI分野を支配してきた大規模な組織と競争するために、中小企業や研究機関を可能にします。このAIの民主化は、イノベーションを促進し、AIテクノロジーの開発においてより多様な視点を促進します。

強力なクラウドベースのリソースの可用性は、AIの探索に関心のある個人や新興企業の参入障壁も下げます。ハードウェアへの多額の初期投資の必要性を排除することにより、CoreWeaveは意欲的なAI開発者がアイデアとイノベーションに集中できるようにします。これにより、他の方法では不可能だった新しいアプリケーションとソリューションを作成できます。

さらに、CoreWeaveのユーザーフレンドリーなプラットフォームと包括的なサポートサービスの提供への取り組みは、AIの民主化にさらに貢献します。ユーザーが高度なコンピューティングリソースにアクセスして利用しやすくすることにより、CoreWeaveはユーザーが目標を達成し、AIの進歩に貢献できるようにします。

AIによる産業の変革

CoreWeaveのNVIDIA Grace Blackwell GPUの展開によって可能になった進歩は、さまざまな産業を変革する準備ができています。これらのシステムの強化された計算能力と効率は、ヘルスケアから金融まで、さまざまな分野でイノベーションを推進し、新たな機会を創出します。

ヘルスケアでは、AIを使用して、より正確な診断ツールを開発し、治療計画をパーソナライズし、創薬を加速しています。高度なコンピューティングリソースの可用性により、研究者は膨大な量の医療データを分析し、手動では検出できないパターンを特定できます。これにより、病気の治療における画期的な進歩につながり、患者の転帰が改善される可能性があります。

金融では、AIを使用して、詐欺を検出し、リスクを管理し、取引プロセスを自動化しています。大量の金融データをリアルタイムで処理できるため、企業はより多くの情報に基づいた意思決定を行い、変化する市場の状況に迅速に対応できます。これにより、効率の向上、コストの削減、収益性の向上が期待できます。

AIによって変革される可能性のある他の産業には、製造、輸送、小売が含まれます。製造では、AIを使用して、生産プロセスを最適化し、品質管理を改善し、廃棄物を削減しています。輸送では、AIは自動運転車とより効率的なロジスティクスシステムの開発を可能にしています。小売では、AIを使用して、顧客体験をパーソナライズし、価格設定を最適化し、サプライチェーン管理を改善しています。

将来に対するCoreWeaveのビジョン

CoreWeaveのNVIDIA Grace Blackwell GPUの展開は、単なる1回限りのイベントではありません。これは、クラウドコンピューティングとAIの将来に対するより広範なビジョンの一部です。CoreWeaveは、新しいテクノロジーへの継続的な投資と、お客様の進化するニーズを満たすためのインフラストラクチャの拡張に取り組んでいます。これには、新しいアーキテクチャの探索、より効率的なソフトウェアの開発、主要なテクノロジープロバイダーとのコラボレーションの促進が含まれます。

CoreWeaveのビジョンは、単に高度なコンピューティングリソースを提供するだけではありません。また、AIの境界を押し広げるために取り組んでいる開発者、研究者、企業の活気に満ちたエコシステムを作成することも含まれます。イノベーションとコラボレーションを促進することにより、CoreWeaveは、業界全体でのAIテクノロジーの開発と採用を加速することを目指しています。

持続可能性への同社のコミットメントも、そのビジョンの重要な部分です。CoreWeaveは、再生可能エネルギー源の使用とエネルギー効率の高いテクノロジーの実装を通じて、環境への影響を軽減するために積極的に取り組んでいます。これは、テクノロジー業界における持続可能性の重要性に対する意識の高まりと、より環境的に責任ある未来を創造するというコミットメントを反映しています。