CoreWeave 已成為雲端運算領域的領先者,廣泛提供對 NVIDIA GB200 NVL72 系統的存取權。包括 Cohere、IBM 和 Mistral AI 在內的人工智慧 (AI) 領先企業,已經在使用這些資源來改進 AI 模型和應用程式。
作為首家普遍提供 NVIDIA Grace Blackwell 的雲端供應商,CoreWeave 使用 NVIDIA GB200 NVL72 展示了卓越的 MLPerf 基準測試結果。這個強大的平台專為推理和 AI 代理而設計,現在 CoreWeave 的客戶可以使用它,從而可以存取數千個 NVIDIA Blackwell GPU。
CoreWeave CEO Mike Intrator 表示:’我們與 NVIDIA 密切合作,以確保我們的客戶擁有最先進的 AI 模型訓練和推理解決方案。’ 憑藉全新的 Grace Blackwell 機架級系統,我們的客戶可以率先體驗大規模 AI 創新帶來的效能優勢。’
部署數千個 NVIDIA Blackwell GPU 有助於將原始資料快速轉換為可操作的情報,並計畫進一步擴充。
使用 CoreWeave 等雲端供應商的公司正在整合基於 NVIDIA Grace Blackwell 建構的系統。這些系統將資料中心轉變為 AI 工廠,大規模生產智慧,並以更快的速度、準確性和效率將原始資料轉換為洞察力。
全球 AI 領導者正在利用 GB200 NVL72 的功能來開發各種應用,包括 AI 代理和進階模型。
個人化 AI 代理
Cohere 正在利用 Grace Blackwell Superchip 來增強安全企業 AI 應用程式的開發,利用先進的研究和模型開發方法。其企業 AI 平台 North 使團隊能夠建立個人化的 AI 代理,以安全地自動化企業工作流程和即時洞察力。
透過在 CoreWeave 上使用 NVIDIA GB200 NVL72,Cohere 在訓練 1000 億參數模型時,與前一代 NVIDIA Hopper GPU 相比,效能提高了三倍,即使沒有 Blackwell 專用的最佳化也是如此。
進一步的最佳化利用 GB200 NVL72 的統一記憶體、FP4 精度和 72-GPU NVIDIA NVLink 網域來增強吞吐量。每個 GPU 協同運作,以更高的吞吐量和更短的時間來產生第一個和後續的 token,從而實現更高效能、更具成本效益的推理。
Cohere 工程副總裁 Autumn Moulder 表示:’我們很高興能夠在雲端中存取一些首批 NVIDIA GB200 NVL72 系統,並且我們對我們的 workload 能夠輕鬆移植到 NVIDIA Grace Blackwell 架構感到滿意。’ 這解鎖了我們堆疊中令人難以置信的效能效率,從在單個 Blackwell GPU 上運行的垂直整合的 North 應用程式到跨數千個 GPU 擴展訓練作業。我們期待透過額外的最佳化來實現更高的效能。’
企業 AI 模型
IBM 正在利用首批 NVIDIA GB200 NVL72 系統部署之一,在 CoreWeave 上擴展到數千個 Blackwell GPU,以訓練其下一代 Granite 模型。這些開放原始碼、企業級 AI 模型提供最先進的效能,同時確保安全、速度和成本效益。Granite 模型系列受到強大的合作夥伴生態系統的支援,其中包括將大型語言模型嵌入到其技術中的領先軟體公司。
Granite 模型是 IBM watsonx Orchestrate 等解決方案的基礎,使企業能夠開發和部署自動化和加速工作流程的 AI 代理。
CoreWeave 為 IBM 部署 NVIDIA GB200 NVL72 還利用 IBM Storage Scale System,為 AI 提供高效能儲存。CoreWeave 客戶可以在 CoreWeave 的專用環境和 AI 雲端平台中存取 IBM 儲存平台。
IBM 研究部門 AI 副總裁 Sriram Raghavan 表示:’我們很高興看到 NVIDIA GB200 NVL72 可以為訓練我們的 Granite 模型系列帶來加速。’ 與 CoreWeave 的這項合作將增強 IBM 的能力,以幫助建構先進、高效能且具成本效益的模型,從而透過 IBM watsonx 為企業和代理 AI 應用程式提供動力。’
大規模運算資源
Mistral AI 現在正在整合其首批一千個 Blackwell GPU,以建構下一代開放原始碼 AI 模型。
Mistral AI 是一家總部位於巴黎的開放原始碼 AI 領導者,正在利用 CoreWeave 的基礎設施,現在配備了 GB200 NVL72,以加快其語言模型的開發。憑藉 Mistral Large 等模型提供強大的推理能力,Mistral 需要大規模的快速運算資源。
為了有效地訓練和部署這些模型,Mistral AI 需要一家雲端供應商,該供應商提供具有 NVIDIA Quantum InfiniBand 網路和可靠基礎設施管理的大型、高效能 GPU 叢集。CoreWeave 在大規模部署 NVIDIA GPU 方面的專業知識,加上透過 CoreWeave Mission Control 等工具實現的行業領先的可靠性和彈性,滿足了這些需求。
Mistral AI 聯合創始人兼技術長 Thimothee Lacroix 表示:’開箱即用,無需任何進一步的最佳化,我們發現密集模型訓練的效能提高了 2 倍。’ NVIDIA GB200 NVL72 令人興奮的是,它為模型開發和推理開闢了新的可能性。’
擴大 Blackwell 執行個體的可用性
CoreWeave 不僅提供長期客戶解決方案,還提供跨 72 個 NVIDIA Blackwell GPU 和 36 個 NVIDIA Grace CPU 的機架級 NVIDIA NVLink 執行個體,並使用 NVIDIA Quantum-2 InfiniBand 網路擴展到 110,000 個 GPU。
這些執行個體由 NVIDIA GB200 NVL72 機架級加速運算平台加速,提供開發和部署下一波 AI 推理模型和代理所需的規模和效能。
深入探討 CoreWeave 的技術基礎設施
CoreWeave 已成為雲端運算領域的關鍵參與者,這在很大程度上歸功於其致力於提供尖端硬體解決方案和針對 AI 和機器學習 workload 量身定制的強大基礎設施。NVIDIA GB200 NVL72 系統的整合突顯了這種奉獻精神。這些系統不僅僅是增量升級;它們代表了運算能力和效率的重大飛躍,使組織能夠應對以前認為無法克服的挑戰。
NVIDIA GB200 NVL72 的架構經過精心設計,可在各種 AI 應用程式中最大限度地提高效能。透過將 72 個 NVIDIA Blackwell GPU 與 36 個 NVIDIA Grace CPU 整合,該平台提供了一個平衡且強大的運算環境。這種平衡對於需要密集運算和大量資料處理能力的工作 workload 至關重要。NVIDIA 的 NVLink 技術的利用透過實現 GPU 之間的高速通訊來進一步提高系統的效率,從而最大限度地減少延遲並最大限度地提高吞吐量。
CoreWeave 的基礎設施也以其可擴展性為特徵。使用 NVIDIA Quantum-2 InfiniBand 網路擴展到 110,000 個 GPU 的能力使該平台能夠支援即使是最苛刻的 AI 專案。這種可擴展性不僅僅是原始的運算能力;它還涉及確保網路基礎設施可以處理與大規模 AI 訓練和推理相關的大量資料流量。NVIDIA Quantum-2 InfiniBand 網路提供必要的頻寬和低延遲,以在系統擴展時保持最佳效能。
搶先採用的戰略重要性
CoreWeave 採用 NVIDIA Grace Blackwell GPU 等新技術的積極方法使其成為處於 AI 創新最前沿的公司的戰略合作夥伴。CoreWeave 憑藉成為首批提供這些先進資源的雲端供應商之一,使其客戶能夠在其各自的市場中獲得競爭優勢。這種早期存取允許公司試驗新模型、最佳化其現有工作流程,並最終縮短其上市時間。
搶先採用的好處不僅僅是存取先進的硬體。它還涉及與 NVIDIA 等技術供應商的密切合作,從而使 CoreWeave 能夠微調其基礎設施和軟體堆疊,以充分利用新硬體的功能。這種合作產生了一個更加最佳化和高效的平台,從而為 CoreWeave 的客戶帶來更好的效能和成本節省。
此外,CoreWeave 的早期採用策略在公司內部培養了一種創新文化。透過不斷突破雲端運算可能性的界限,CoreWeave 吸引了頂尖人才並將自己確立為行業領導者。反過來,這也增強了其提供尖端解決方案並保持其競爭優勢的能力。
對 AI 模型開發的影響
在 CoreWeave 的平台上部署 NVIDIA Grace Blackwell GPU 對 AI 模型的開發具有深遠的影響。與前幾代硬體相比,這些 GPU 增強的運算能力和效率使研究人員和工程師能夠在更短的時間內訓練更大、更複雜的模型。這種訓練過程的加速對於在快速發展的 AI 領域保持領先地位至關重要。
此外,NVIDIA GB200 NVL72 系統有助於開發更複雜的 AI 模型,這些模型可以執行更複雜的任務。例如,這些系統特別適合訓練需要大量推理能力的模型,例如用於自然語言處理和電腦視覺的模型。處理大量資料和執行複雜計算的能力使這些模型更準確、可靠,並且能夠處理真實世界的場景。
對特定應用程式的影響是巨大的。在自然語言處理中,新的硬體有助於創建更強大的語言模型,這些模型可以以更高的流暢性和連貫性理解和生成類似人類的文字。這導致了聊天機器人、虛擬助理和機器翻譯等應用程式的改進。在電腦視覺中,增強的運算能力允許開發更準確的物件識別系統,這對於自動駕駛汽車、醫學成像和監視等應用程式至關重要。
CoreWeave 在 AI 民主化中的作用
CoreWeave 致力於讓更廣泛的受眾存取先進的運算資源,這在 AI 民主化中發揮著重要作用。透過提供具有成本效益的尖端硬體存取,CoreWeave 使規模較小的公司和研究機構能夠與傳統上在 AI 領域佔據主導地位的較大組織競爭。這種 AI 民主化促進了創新,並促進了 AI 技術開發中更多樣化的觀點。
強大的基於雲端的資源的可用性也降低了有興趣探索 AI 的個人和新創公司的進入門檻。透過消除對硬體的龐大前期投資的需求,CoreWeave 允許有抱負的 AI 開發人員專注於他們的想法和創新。這可能會導致創建新的應用程式和解決方案,否則可能無法實現。
此外,CoreWeave 致力於提供使用者友好的平台和全面的支援服務,這進一步有助於 AI 的民主化。透過讓使用者更容易存取和利用先進的運算資源,CoreWeave 使他們能夠實現其目標並為 AI 的發展做出貢獻。
透過 AI 轉型產業
CoreWeave 部署 NVIDIA Grace Blackwell GPU 所實現的進步有望轉型各個產業。這些系統增強的運算能力和效率將推動創新,並在從醫療保健到金融的各個領域創造新的機會。
在醫療保健領域,AI 被用於開發更準確的診斷工具、個人化治療計畫和加速藥物發現。先進運算資源的可用性使研究人員能夠分析大量的醫療資料並識別人工無法檢測到的模式。這可能會導致疾病治療方面的突破並改善患者的治療效果。
在金融領域,AI 被用於檢測詐欺、管理風險和自動化交易流程。即時處理大量金融資料的能力使公司能夠做出更明智的決策並快速應對不斷變化的市場狀況。這可以提高效率、降低成本並提高獲利能力。
其他可能被 AI 轉型的產業包括製造業、運輸業和零售業。在製造業中,AI 被用於最佳化生產流程、改進品質控制和減少浪費。在運輸業中,AI 正在推動自動駕駛汽車和更高效的物流系統的開發。在零售業中,AI 被用於個人化客戶體驗、最佳化定價和改進供應鏈管理。
CoreWeave 對未來的願景
CoreWeave 部署 NVIDIA Grace Blackwell GPU 不僅僅是一次性事件;它是對雲端運算和 AI 未來的更廣泛願景的一部分。CoreWeave 致力於持續投資新技術和擴展其基礎設施,以滿足客戶不斷變化的需求。這包括探索新架構、開發更高效的軟體以及促進與領先技術供應商的合作。
CoreWeave 的願景不僅僅是提供先進的運算資源。它還涉及創建一個由開發人員、研究人員和公司組成的充滿活力的生態系統,他們正在努力突破 AI 的界限。透過促進創新和合作,CoreWeave 旨在加速 AI 技術在各個產業的開發和採用。
公司對永續發展的承諾也是其願景的關鍵部分。CoreWeave 正在積極努力透過使用再生能源和實施節能技術來減少其對環境的影響。這反映了人們越來越意識到永續發展在科技產業中的重要性,並致力於創造一個對環境更負責的未來。