CoreWeave, NVIDIA Grace Blackwell GPU 수천 대 배치

CoreWeave는 NVIDIA Grace Blackwell GPU 수천 대를 배치하여 AI 혁신을 강화합니다.

CoreWeave는 클라우드 컴퓨팅 분야의 선두 주자로 부상하여 NVIDIA GB200 NVL72 시스템에 대한 광범위한 액세스를 제공합니다. Cohere, IBM, Mistral AI를 포함한 주요 인공 지능(AI) 기업은 이미 이러한 리소스를 활용하여 AI 모델 및 애플리케이션을 개선하고 있습니다.

NVIDIA Grace Blackwell을 일반적으로 제공하는 최초의 클라우드 공급업체인 CoreWeave는 NVIDIA GB200 NVL72를 사용하여 뛰어난 MLPerf 벤치마크 결과를 입증했습니다. 추론 및 AI 에이전트를 위해 설계된 이 강력한 플랫폼은 이제 CoreWeave 고객이 사용할 수 있으며 수천 개의 NVIDIA Blackwell GPU에 대한 액세스를 제공합니다.

CoreWeave의 CEO인 Mike Intrator는 ‘우리는 고객이 AI 모델 학습 및 추론을 위한 최첨단 솔루션을 확보할 수 있도록 NVIDIA와 긴밀히 협력합니다.’라고 말했습니다. ‘새로운 Grace Blackwell 랙 규모 시스템을 통해 고객은 대규모 AI 혁신의 성능 이점을 가장 먼저 경험할 수 있습니다.’

수천 개의 NVIDIA Blackwell GPU 배포는 원시 데이터를 실행 가능한 정보로 신속하게 변환하는 것을 용이하게 하며 추가 확장이 계획되어 있습니다.

CoreWeave와 같은 클라우드 공급업체를 사용하는 회사는 NVIDIA Grace Blackwell을 기반으로 구축된 시스템을 통합하는 과정에 있습니다. 이러한 시스템은 데이터 센터를 AI 공장으로 전환하여 지능을 대규모로 생산하고 원시 데이터를 더 빠른 속도, 정확성 및 효율성으로 통찰력으로 전환할 준비가 되어 있습니다.

글로벌 AI 리더는 AI 에이전트 및 고급 모델 개발을 포함한 다양한 애플리케이션에 GB200 NVL72의 기능을 활용하고 있습니다.

개인화된 AI 에이전트

Cohere는 Grace Blackwell Superchip을 활용하여 고급 연구 및 모델 개발 방법론을 활용하여 안전한 엔터프라이즈 AI 애플리케이션 개발을 개선하고 있습니다. 엔터프라이즈 AI 플랫폼인 North는 팀이 엔터프라이즈 워크플로의 안전한 자동화 및 실시간 통찰력을 위한 개인화된 AI 에이전트를 생성할 수 있도록 지원합니다.

CoreWeave에서 NVIDIA GB200 NVL72를 사용함으로써 Cohere는 Blackwell 관련 최적화 없이도 이전 세대 NVIDIA Hopper GPU에 비해 1,000억 개의 매개변수 모델을 학습하는 데 최대 3배의 성능 향상을 보였습니다.

GB200 NVL72의 통합 메모리, FP4 정밀도 및 72-GPU NVIDIA NVLink 도메인을 활용하는 추가 최적화는 처리량을 향상시킵니다. 모든 GPU가 함께 작동하여 더 빠른 시간과 더 많은 performant, 비용 효율적인 추론을 위한 후속 토큰으로 더 큰 처리량을 제공합니다.

Cohere의 엔지니어링 부사장인 Autumn Moulder는 ‘클라우드에서 최초의 NVIDIA GB200 NVL72 시스템에 액세스할 수 있게 되어 워크로드가 NVIDIA Grace Blackwell 아키텍처로 얼마나 쉽게 포팅되는지 기쁩니다.’라고 말했습니다. ‘이를 통해 단일 Blackwell GPU에서 실행되는 수직적으로 통합된 North 애플리케이션에서 수천 개의 GPU에서 교육 작업을 확장하는 데 이르기까지 스택 전반에 걸쳐 놀라운 성능 효율성이 잠금 해제됩니다. 곧 추가 최적화를 통해 훨씬 더 큰 성능을 달성하기를 기대합니다.’

엔터프라이즈용 AI 모델

IBM은 CoreWeave에서 수천 개의 Blackwell GPU로 확장되는 초기 NVIDIA GB200 NVL72 시스템 배포 중 하나를 활용하여 차세대 Granite 모델을 학습합니다. 이러한 오픈 소스, 엔터프라이즈 지원 AI 모델은 안전, 속도 및 비용 효율성을 보장하면서 최첨단 성능을 제공합니다. Granite 모델 제품군은 대규모 언어 모델을 기술에 포함하는 주요 소프트웨어 회사를 포함한 강력한 파트너 에코시스템에서 지원됩니다.

Granite 모델은 기업이 워크플로를 자동화하고 가속화하는 AI 에이전트를 개발하고 배포할 수 있도록 지원하는 IBM watsonx Orchestrate와 같은 솔루션의 기반 역할을 합니다.

IBM용 CoreWeave의 NVIDIA GB200 NVL72 배포는 AI를 위한 고성능 스토리지를 제공하는 IBM Storage Scale System도 활용합니다. CoreWeave 고객은 CoreWeave의 전용 환경 및 AI 클라우드 플랫폼 내에서 IBM Storage 플랫폼에 액세스할 수 있습니다.

IBM Research의 AI 부사장인 Sriram Raghavan은 ‘NVIDIA GB200 NVL72가 Granite 모델 제품군을 교육하는 데 가져올 수 있는 가속화에 대해 기대하고 있습니다.’라고 말했습니다. ‘CoreWeave와의 협력을 통해 IBM의 기능을 강화하여 IBM watsonx를 통해 엔터프라이즈 및 에이전트 AI 애플리케이션을 구동하기 위한 고급, 고성능 및 비용 효율적인 모델을 구축하는 데 도움이 될 것입니다.’

대규모 컴퓨팅 리소스

Mistral AI는 현재 차세대 오픈 소스 AI 모델을 구축하기 위해 최초의 천 개의 Blackwell GPU를 통합하고 있습니다.

오픈 소스 AI의 파리 기반 리더인 Mistral AI는 현재 GB200 NVL72가 장착된 CoreWeave의 인프라를 활용하여 언어 모델 개발을 가속화하고 있습니다. Mistral Large와 같은 모델이 강력한 추론 기능을 제공함에 따라 Mistral은 대규모로 빠른 컴퓨팅 리소스가 필요합니다.

이러한 모델을 효과적으로 학습하고 배포하려면 Mistral AI는 NVIDIA Quantum InfiniBand 네트워킹 및 안정적인 인프라 관리를 통해 대규모 고성능 GPU 클러스터를 제공하는 클라우드 공급업체가 필요합니다. CoreWeave Mission Control과 같은 도구를 통해 업계 최고의 안정성 및 복원력과 결합된 대규모 NVIDIA GPU 배포에 대한 CoreWeave의 전문 지식은 이러한 요구 사항을 충족합니다.

Mistral AI의 공동 창립자이자 최고 기술 책임자인 Thimothee Lacroix는 ‘별도의 최적화 없이도 밀도가 높은 모델 교육의 성능이 2배 향상되었습니다.’라고 말했습니다. ‘NVIDIA GB200 NVL72의 흥미로운 점은 모델 개발 및 추론에 대한 새로운 가능성을 열어준다는 것입니다.’

Blackwell 인스턴스의 가용성 확대

CoreWeave는 장기적인 고객 솔루션을 제공할 뿐만 아니라 72개의 NVIDIA Blackwell GPU와 36개의 NVIDIA Grace CPU에 걸쳐 랙 규모의 NVIDIA NVLink가 있는 인스턴스도 제공하여 NVIDIA Quantum-2 InfiniBand 네트워킹을 통해 최대 110,000개의 GPU로 확장됩니다.

NVIDIA GB200 NVL72 랙 규모 가속 컴퓨팅 플랫폼으로 가속화된 이러한 인스턴스는 차세대 AI 추론 모델 및 에이전트를 개발하고 배포하는 데 필요한 규모와 성능을 제공합니다.

CoreWeave의 기술 인프라에 대한 심층 분석

CoreWeave는 AI 및 머신 러닝 워크로드의 요구 사항에 맞는 최첨단 하드웨어 솔루션과 강력한 인프라를 제공하기 위한 노력으로 인해 클라우드 컴퓨팅 분야에서 중요한 역할을 수행했습니다. NVIDIA GB200 NVL72 시스템의 통합은 이러한 헌신을 강조합니다. 이러한 시스템은 단순한 점진적인 업그레이드가 아닙니다. 이전에는 극복할 수 없다고 여겨졌던 문제를 해결할 수 있도록 컴퓨팅 성능과 효율성에서 상당한 도약을 나타냅니다.

NVIDIA GB200 NVL72의 아키텍처는 AI 애플리케이션 스펙트럼 전반에 걸쳐 성능을 극대화하도록 세심하게 설계되었습니다. 72개의 NVIDIA Blackwell GPU와 36개의 NVIDIA Grace CPU를 통합함으로써 플랫폼은 균형 잡힌 강력한 컴퓨팅 환경을 제공합니다. 이러한 균형은 집중적인 계산과 상당한 데이터 처리 기능이 모두 필요한 워크로드에 매우 중요합니다. NVIDIA의 NVLink 기술을 활용하면 GPU 간의 고속 통신이 가능해 시스템 효율성이 더욱 향상되어 지연 시간을 최소화하고 처리량을 최대화할 수 있습니다.

CoreWeave의 인프라는 확장성도 특징입니다. NVIDIA Quantum-2 InfiniBand 네트워킹을 사용하여 최대 110,000개의 GPU로 확장할 수 있는 기능을 통해 플랫폼은 가장 까다로운 AI 프로젝트도 지원할 수 있습니다. 이러한 확장성은 단순한 원시 컴퓨팅 성능에 관한 것이 아닙니다. 또한 대규모 AI 학습 및 추론과 관련된 대규모 데이터 흐름을 처리할 수 있도록 네트워크 인프라를 보장하는 것도 포함됩니다. NVIDIA Quantum-2 InfiniBand 네트워킹은 시스템 확장 시 최적의 성능을 유지하는 데 필요한 대역폭과 짧은 지연 시간을 제공합니다.

초기 채택의 전략적 중요성

NVIDIA Grace Blackwell GPU와 같은 새로운 기술을 채택하는 CoreWeave의 사전 예방적 접근 방식은 AI 혁신의 최전선에 있는 기업의 전략적 파트너로 자리매김했습니다. 이러한 고급 리소스를 제공하는 최초의 클라우드 공급업체 중 하나가 됨으로써 CoreWeave는 고객이 해당 시장에서 경쟁 우위를 확보할 수 있도록 지원합니다. 이러한 초기 액세스를 통해 기업은 새로운 모델을 실험하고 기존 워크플로를 최적화하며 궁극적으로 시장 출시 시간을 가속화할 수 있습니다.

초기 채택의 이점은 고급 하드웨어에 대한 단순한 액세스를 넘어 확장됩니다. 또한 NVIDIA와 같은 기술 제공업체와의 긴밀한 협력이 필요하므로 CoreWeave는 새로운 하드웨어의 기능을 완전히 활용하기 위해 인프라 및 소프트웨어 스택을 미세 조정할 수 있습니다. 이러한 협력을 통해 보다 최적화되고 효율적인 플랫폼이 제공되어 CoreWeave 고객에게 더 나은 성능과 비용 절감 효과를 제공합니다.

또한 CoreWeave의 초기 채택 전략은 회사 내에서 혁신 문화를 조성합니다. 클라우드 컴퓨팅으로 가능한 것의 경계를 끊임없이 확장함으로써 CoreWeave는 최고의 인재를 유치하고 업계의 리더로 자리매김합니다. 이는 결과적으로 최첨단 솔루션을 제공하고 경쟁 우위를 유지하는 능력을 강화합니다.

AI 모델 개발에 미치는 영향

CoreWeave의 플랫폼에 NVIDIA Grace Blackwell GPU를 배포하면 AI 모델 개발에 심오한 영향을 미칩니다. 이러한 GPU의 향상된 컴퓨팅 성능과 효율성을 통해 연구원과 엔지니어는 이전 세대의 하드웨어에 비해 훨씬 짧은 시간에 더 크고 복잡한 모델을 학습할 수 있습니다. 학습 프로세스의 이러한 가속화는 빠르게 진화하는 AI 분야에서 앞서 나가기 위해 매우 중요합니다.

또한 NVIDIA GB200 NVL72 시스템은 보다 복잡한 작업을 수행할 수 있는 보다 정교한 AI 모델의 개발을 용이하게 합니다. 예를 들어 이러한 시스템은 자연어 처리 및 컴퓨터 비전에서 사용되는 것과 같이 광범위한 추론 기능이 필요한 모델을 학습하는 데 특히 적합합니다. 방대한 양의 데이터를 처리하고 복잡한 계산을 수행하는 기능을 통해 이러한 모델은 더욱 정확하고 안정적이며 실제 시나리오를 처리할 수 있습니다.

특정 애플리케이션에 미치는 영향은 상당합니다. 자연어 처리에서 새로운 하드웨어를 통해 사람과 같은 텍스트를 보다 유창하고 일관성 있게 이해하고 생성할 수 있는 더 강력한 언어 모델을 만들 수 있습니다. 이를 통해 챗봇, 가상 비서 및 기계 번역과 같은 애플리케이션이 개선됩니다. 컴퓨터 비전에서 향상된 컴퓨팅 성능을 통해 자율 차량, 의료 영상 및 감시에 필수적인 보다 정확한 객체 인식 시스템을 개발할 수 있습니다.

AI 대중화에서 CoreWeave의 역할

고급 컴퓨팅 리소스를 더 많은 사람들에게 제공하기 위한 CoreWeave의 노력은 AI 대중화에 중요한 역할을 합니다. 비용 효율적인 최첨단 하드웨어 액세스를 제공함으로써 CoreWeave는 전통적으로 AI 환경을 지배해 온 대규모 조직과 경쟁할 수 있도록 소규모 기업 및 연구 기관을 지원합니다. 이러한 AI 대중화는 혁신을 촉진하고 AI 기술 개발에 더 다양한 관점을 장려합니다.

강력한 클라우드 기반 리소스를 사용할 수 있다는 것은 AI 탐구에 관심이 있는 개인과 스타트업의 진입 장벽을 낮춥니다. CoreWeave는 하드웨어에 대한 대규모 선행 투자 필요성을 없앰으로써 야심찬 AI 개발자가 아이디어와 혁신에 집중할 수 있도록 지원합니다. 이를 통해 다른 방법으로는 불가능했을 새로운 애플리케이션과 솔루션을 만들 수 있습니다.

또한 사용자 친화적인 플랫폼과 포괄적인 지원 서비스를 제공하려는 CoreWeave의 노력은 AI 대중화에 더욱 기여합니다. 사용자가 고급 컴퓨팅 리소스에 더 쉽게 액세스하고 활용할 수 있도록 함으로써 CoreWeave는 사용자가 목표를 달성하고 AI 발전에 기여할 수 있도록 지원합니다.

AI로 산업 혁신

CoreWeave의 NVIDIA Grace Blackwell GPU 배포로 가능해진 발전은 다양한 산업을 변화시킬 준비가 되어 있습니다. 이러한 시스템의 향상된 컴퓨팅 성능과 효율성은 의료에서 금융에 이르기까지 다양한 분야에서 혁신을 주도하고 새로운 기회를 창출할 것입니다.

의료 분야에서 AI는 보다 정확한 진단 도구를 개발하고, 치료 계획을 개인화하고, 약물 발견을 가속화하는 데 사용되고 있습니다. 고급 컴퓨팅 리소스를 사용하면 연구원이 방대한 양의 의료 데이터를 분석하고 수동으로 감지할 수 없는 패턴을 식별할 수 있습니다. 이는 질병 치료의 획기적인 발전과 환자 결과를 개선하는 데 도움이 될 수 있습니다.

금융 분야에서 AI는 사기 감지, 위험 관리 및 거래 프로세스 자동화에 사용되고 있습니다. 대량의 금융 데이터를 실시간으로 처리하는 기능을 통해 기업은 보다 정보에 입각한 결정을 내리고 변화하는 시장 상황에 신속하게 대응할 수 있습니다. 이를 통해 효율성 향상, 비용 절감 및 수익성 향상을 기대할 수 있습니다.

AI에 의해 변화될 가능성이 높은 다른 산업으로는 제조, 운송 및 소매가 있습니다. 제조 분야에서 AI는 생산 프로세스를 최적화하고, 품질 관리를 개선하고, 폐기물을 줄이는 데 사용되고 있습니다. 운송 분야에서 AI는 자율 차량과 보다 효율적인 물류 시스템 개발을 가능하게 합니다. 소매 분야에서 AI는 고객 경험을 개인화하고, 가격 책정을 최적화하고, 공급망 관리를 개선하는 데 사용되고 있습니다.

미래에 대한 CoreWeave의 비전

CoreWeave의 NVIDIA Grace Blackwell GPU 배포는 일회성 이벤트가 아닙니다. 이는 클라우드 컴퓨팅과 AI의 미래에 대한 더 광범위한 비전의 일부입니다. CoreWeave는 새로운 기술에 지속적으로 투자하고 고객의 진화하는 요구 사항을 충족하기 위해 인프라를 확장하기 위해 노력하고 있습니다. 여기에는 새로운 아키텍처 탐색, 보다 효율적인 소프트웨어 개발, 주요 기술 제공업체와의 협력 촉진이 포함됩니다.

CoreWeave의 비전은 단순히 고급 컴퓨팅 리소스를 제공하는 것 이상으로 확장됩니다. 또한 AI의 경계를 넓히기 위해 노력하는 개발자, 연구원 및 회사의 활기찬 생태계를 조성하는 것도 포함됩니다. 혁신과 협력을 촉진함으로써 CoreWeave는 산업 전반에 걸쳐 AI 기술의 개발 및 채택을 가속화하는 것을 목표로 합니다.

지속 가능성에 대한 회사의 약속도 비전의 핵심입니다. CoreWeave는 신재생 에너지원을 사용하고 에너지 효율적인 기술을 구현하여 환경에 미치는 영향을 줄이기 위해 적극적으로 노력하고 있습니다. 이는 기술 산업에서 지속 가능성의 중요성에 대한 인식이 높아지고 보다 환경적으로 책임감 있는 미래를 만들겠다는 약속을 반영합니다.