Nvidia와 Google Cloud: AI 혁신 선도

Gemini와 Blackwell을 통한 AI 혁신

Google Cloud와 Nvidia는 인공지능 발전을 촉진하기 위해 협력을 강화하고 있습니다. 이 파트너십은 Google의 Gemini 모델과 Nvidia의 Blackwell GPU를 통합하여 AI 워크로드를 최적화하는 데 중점을 둡니다. 주요 혁신 사항으로는 Gemini 모델의 온프레미스 배포, Nvidia GPU에서 Gemini 성능 향상, 새로운 개발자 커뮤니티, 기밀 VM, Blackwell GPU에서 A4 VM 사용 등이 있습니다.

Nvidia Blackwell을 통한 Gemini 모델 온프레미스 배포

Google Gemini는 Google Distributed Cloud를 통해 Nvidia Blackwell을 사용하여 온프레미스에 배포할 수 있습니다. 이 배포를 통해 조직은 자체 데이터 센터 내에서 Gemini 모델을 안전하게 활용하여 에이전트 AI 기능을 활용할 수 있습니다.

Gemini 모델 이해

Gemini 모델 제품군은 현재까지 Google의 가장 진보된 AI 모델을 나타냅니다. 이러한 모델은 복잡한 추론, 코딩 및 멀티모달 이해를 위해 설계되어 다양한 애플리케이션을 위한 다용도 도구입니다.

Google Distributed Cloud

Google Distributed Cloud는 온프레미스, 에어 갭 환경 및 에지 컴퓨팅을 위한 완전 관리형 솔루션을 제공합니다. 이를 통해 고객은 Google의 AI 기술의 강력한 성능을 활용하면서도 데이터에 대한 제어권을 유지할 수 있습니다.

온프레미스 배포의 이점

향상된 제어: 조직은 데이터에 대한 완전한 제어권을 유지하여 개인 정보 보호 규정 및 내부 정책을 준수합니다.
보안: 자체 데이터 센터 내에 Gemini 모델을 배포하면 중요한 정보에 대한 보안 및 보호가 강화됩니다.
맞춤화: 온프레미스 배포를 통해 특정 비즈니스 요구 사항을 충족하기 위해 AI 솔루션을 더욱 맞춤화할 수 있습니다.

이 파트너십은 고객이 엄격한 데이터 거버넌스 정책을 준수하면서 Gemini를 혁신할 수 있도록 보장합니다.

Nvidia GPU용 Gemini 및 Gemma 최적화

Nvidia와 Google은 Nvidia GPU, 특히 Google Cloud의 Vertex AI 플랫폼 내에서 Gemini 기반 추론 워크로드의 성능을 최적화하기 위해 협력했습니다. 이러한 최적화를 통해 Google은 Vertex AI 및 Google Distributed Cloud 전반에서 Nvidia 가속 인프라의 Gemini 모델에 대한 상당한 수의 사용자 쿼리를 효율적으로 처리할 수 있습니다.

Vertex AI 플랫폼

Vertex AI는 Google Cloud의 포괄적인 머신 러닝 플랫폼으로, AI 모델의 학습, 배포 및 관리를 위한 도구와 서비스를 제공합니다. Vertex AI 내에서 Nvidia GPU용 Gemini를 최적화하면 플랫폼의 기능이 향상되고 개발자가 AI 솔루션을 더 쉽게 구축하고 배포할 수 있습니다.

Gemma 모델 제품군

경량 오픈 모델인 Gemma 모델 제품군은 Nvidia TensorRT-LLM 라이브러리를 사용하여 추론에 최적화되었습니다. 이러한 모델은 쉽게 배포할 수 있는 Nvidia NIM 마이크로서비스로 제공될 예정이므로 더 많은 개발자가 액세스할 수 있습니다.

Nvidia TensorRT-LLM

Nvidia TensorRT-LLM은 Nvidia GPU에서 대규모 언어 모델(LLM)을 최적화하고 배포하기 위한 라이브러리입니다. TensorRT-LLM으로 Gemma 모델을 최적화함으로써 Nvidia와 Google은 개발자가 애플리케이션에서 LLM의 강력한 기능을 더 쉽게 활용할 수 있도록 지원합니다.

개발자를 위한 접근성

이러한 최적화는 성능을 극대화하고 고급 AI를 개발자가 더 쉽게 이용할 수 있도록 하여 데이터 센터와 로컬 Nvidia RTX 기반 PC 및 워크스테이션 전반에서 다양한 아키텍처에서 워크로드를 실행할 수 있도록 지원합니다.

Google Cloud 및 Nvidia 개발자 커뮤니티 출시

Google Cloud와 Nvidia는 교차 스킬링과 혁신을 가속화하기 위해 새로운 공동 개발자 커뮤니티를 출시했습니다. 이 커뮤니티는 전문가와 동료를 모아 협력하고 지식을 공유하여 개발자가 차세대 AI 애플리케이션을 더 쉽게 구축, 확장 및 배포할 수 있도록 지원합니다.

개발자 커뮤니티의 이점

지식 공유: 커뮤니티는 개발자가 전문 지식을 공유하고 다른 사람으로부터 배울 수 있는 플랫폼을 제공합니다.
협업: 개발자는 프로젝트에서 협업하고 코드를 공유하여 개발 프로세스를 가속화할 수 있습니다.
지원: 커뮤니티는 AI 애플리케이션을 구축하는 개발자를 위한 지원과 지침을 제공합니다.

이 이니셔티브는 엔지니어링 우수성, 오픈 소스 리더십 및 활발한 개발자 생태계를 결합하여 개발자를 지원하고 AI 분야의 혁신을 주도합니다.

오픈 소스 프레임워크

회사는 Blackwell GPU에서 원활한 확장을 위해 JAX와 같은 오픈 소스 프레임워크를 최적화하여 개발자 커뮤니티를 지원하고 있습니다. 이를 통해 AI 워크로드가 수만 개의 노드에서 효율적으로 실행되어 대규모 AI 모델을 더 쉽게 학습하고 배포할 수 있습니다.

JAX 최적화

JAX는 Google에서 개발한 고성능 숫자 계산 라이브러리입니다. Nvidia와 Google은 Blackwell GPU용 JAX를 최적화하여 개발자가 AI 애플리케이션에서 JAX의 강력한 기능을 더 쉽게 활용할 수 있도록 지원합니다.

Nvidia H100 GPU를 사용한 기밀 VM 및 GKE 노드

Nvidia H100 GPU를 사용하는 가속기 최적화 A3 머신 시리즈의 Google Cloud의 기밀 가상 머신(VM)을 이제 미리보기로 사용할 수 있습니다. 마찬가지로 기밀 Google Kubernetes Engine(GKE) 노드도 제공됩니다. 이러한 기밀 컴퓨팅 솔루션은 데이터가 사용 중인 동안 보호된 GPU를 사용하여 AI, 머신 러닝 및 과학 시뮬레이션 워크로드의 기밀성과 무결성을 보장합니다.

기밀 가상 머신

기밀 VM은 사용 중인 데이터를 암호화하여 중요한 워크로드에 대한 보안 계층을 추가로 제공합니다. 이를 통해 처리 중에도 데이터가 보호되어 무단 액세스 위험을 줄입니다.

Google Kubernetes Engine

Google Kubernetes Engine(GKE)은 컨테이너화된 애플리케이션의 배포 및 관리를 단순화하는 관리형 Kubernetes 서비스입니다. 기밀 GKE 노드는 기밀 VM과 동일한 수준의 보안을 제공하여 컨테이너화된 워크로드가 보호되도록 보장합니다.

보안 이점

데이터 보호: 기밀 VM 및 GKE 노드는 사용 중인 데이터를 보호하여 데이터 유출 위험을 줄입니다.
규정 준수: 이러한 솔루션은 조직이 개인 정보 보호 규정 및 산업 표준을 준수하도록 지원합니다.
신뢰: 기밀 컴퓨팅은 데이터가 전체 수명 주기 동안 기밀로 유지되고 보호되도록 보장하여 신뢰를 구축합니다.

이를 통해 데이터 및 모델 소유자는 데이터 여정에 대한 직접적인 제어권을 유지할 수 있으며 Nvidia Confidential Computing은 가속화된 컴퓨팅을 위한 고급 하드웨어 지원 보안을 제공합니다. 이를 통해 혁신적인 AI 솔루션과 서비스를 만들고 채택할 때 더 많은 자신감을 얻을 수 있습니다.

Nvidia Blackwell GPU에서 일반적으로 사용 가능한 Google의 새로운 A4 VM

지난 2월 Google Cloud는 Nvidia NVLink로 상호 연결된 8개의 Blackwell GPU를 특징으로 하는 새로운 A4 가상 머신을 출시했습니다. 이는 이전 세대보다 상당한 성능 향상을 제공하여 대규모 AI 모델을 더 쉽게 학습하고 배포할 수 있도록 지원합니다. Nvidia HGX B200의 Google Cloud의 새로운 A4 VM은 이제 일반적으로 사용 가능하므로 고객은 최신 AI 하드웨어에 액세스할 수 있습니다.

Nvidia NVLink는 GPU 간의 빠른 통신을 지원하는 고속 상호 연결 기술입니다. Google Cloud의 A4 VM은 NVLink로 8개의 Blackwell GPU를 상호 연결하여 AI 워크로드에 대한 탁월한 성능을 제공합니다.

성능 향상

A4 VM은 이전 세대보다 상당한 성능 향상을 제공하므로 대규모 AI 모델을 학습하고 배포하는 데 이상적입니다. 이를 통해 개발자는 더 빠르게 반복하고 AI 애플리케이션으로 더 나은 결과를 얻을 수 있습니다.

Vertex AI 및 GKE를 통한 접근성

Google의 새로운 VM 및 AI 하이퍼컴퓨터 아키텍처는 Vertex AI 및 GKE와 같은 서비스를 통해 액세스할 수 있으므로 고객은 에이전트 AI 애플리케이션을 대규모로 개발하고 배포할 수 있는 경로를 선택할 수 있습니다. 이를 통해 조직은 애플리케이션에서 AI의 강력한 기능을 더 쉽게 활용할 수 있습니다.

Blackwell GPU 아키텍처 심층 분석

Nvidia의 Blackwell GPU 아키텍처는 컴퓨팅 성능에서 기념비적인 도약을 나타내며 AI 및 고성능 컴퓨팅 환경을 근본적으로 재구성합니다. A4 VM의 기능과 AI 혁신에 미치는 영향을 진정으로 이해하려면 Blackwell GPU의 기본 기술을 이해하는 것이 중요합니다.

혁신적인 컴퓨팅 기능

Blackwell 아키텍처는 대규모 언어 모델(LLM) 학습 및 복잡한 시뮬레이션 실행을 포함하여 가장 까다로운 AI 워크로드를 처리하도록 설계되었습니다. 주요 기능은 다음과 같습니다.

  • 2세대 트랜스포머 엔진: 이 엔진은 많은 최신 AI 애플리케이션의 기초가 되는 트랜스포머 모델에 특별히 최적화되었습니다. 이러한 모델의 학습 및 추론 속도를 크게 가속화합니다.
  • 5세대 NVLink: 앞에서 언급했듯이 NVLink는 GPU 간의 고속 통신을 지원하여 복잡한 작업에서 원활하게 함께 작동할 수 있습니다. 이는 여러 GPU의 집단 처리 능력이 필요한 매우 큰 모델을 학습하는 데 특히 중요합니다.
  • 기밀 컴퓨팅 지원: Blackwell GPU에는 기밀 컴퓨팅을 지원하는 하드웨어 기반 보안 기능이 포함되어 있어 중요한 데이터의 개인 정보 보호 및 무결성을 보장합니다.
  • 고급 메모리 기술: Blackwell GPU는 최신 메모리 기술을 활용하여 AI 애플리케이션에 사용되는 방대한 데이터 세트를 처리할 수 있는 높은 대역폭과 용량을 제공합니다.

AI 워크로드에 미치는 영향

이러한 기능의 조합은 광범위한 AI 워크로드에 대한 상당한 성능 향상을 가져옵니다. Blackwell GPU를 통해 개발자는 다음을 수행할 수 있습니다.

  • 더 큰 모델 학습: 향상된 컴퓨팅 성능과 메모리 용량으로 인해 훨씬 더 크고 복잡한 AI 모델을 학습할 수 있어 정확도와 성능이 향상됩니다.
  • 학습 시간 단축: 최적화된 아키텍처와 고속 상호 연결은 AI 모델을 학습하는 데 필요한 시간을 크게 줄여 개발 프로세스를 가속화합니다.
  • 더 효율적으로 배포: Blackwell GPU는 에너지 효율성을 위해 설계되어 과도한 전력 소비 없이 AI 모델을 대규모로 배포할 수 있습니다.
  • 새로운 AI 애플리케이션 잠금 해제: Blackwell GPU의 탁월한 성능은 컴퓨팅 제한으로 인해 이전에는 불가능했던 새로운 AI 애플리케이션의 가능성을 열어줍니다.

Google Cloud와 고객을 위한 전략적 의미

Gemini, Blackwell 및 지원 인프라를 중심으로 Google Cloud와 Nvidia 간의 강화된 파트너십은 두 회사와 고객 모두에게 중요한 전략적 의미를 제시합니다.

Google Cloud의 경쟁 우위

  • AI 중심 비즈니스 유치: Nvidia Blackwell GPU로 구동되는 최첨단 AI 인프라를 제공함으로써 Google Cloud는 AI 연구 개발에 막대한 투자를 하는 비즈니스를 유치할 수 있습니다.
  • 경쟁 업체와 차별화: Gemini의 통합과 Google Cloud VM의 최적화된 성능은 다른 클라우드 제공 업체와 차별화됩니다.
  • AI 생태계 강화: 이 파트너십은 개발자에게 권한을 부여하고 혁신을 촉진하며 고급 도구 및 리소스에 대한 액세스를 제공함으로써 강력한 AI 생태계에 기여합니다.

고객을 위한 이점

  • AI 혁신 가속화: 고객은 Gemini 및 Blackwell GPU의 강력한 기능을 활용하여 AI 이니셔티브를 가속화하여 혁신적인 솔루션을 더 빠르게 개발하고 배포할 수 있습니다.
  • 향상된 성능 및 확장성: 최적화된 인프라는 AI 워크로드가 효율적으로 실행되고 증가하는 요구 사항을 충족하도록 확장할 수 있도록 보장합니다.
  • 향상된 보안 및 규정 준수: 기밀 VM 및 GKE 노드는 중요한 데이터를 보호하는 데 필요한 보안 및 규정 준수 기능을 제공합니다.
  • 비용 절감: Nvidia GPU용 AI 워크로드를 최적화함으로써 고객은 잠재적으로 컴퓨팅 비용을 절감할 수 있습니다.

AI 개발의 미래

이 파트너십은 AI 개발의 진화에 있어 중요한 진전을 나타냅니다. AI 모델에 대한 Google의 전문 지식과 GPU 기술 분야의 Nvidia의 리더십을 결합함으로써 두 회사는 혁신을 주도하고 개발자가 고급 AI 도구를 더 쉽게 이용할 수 있도록 지원합니다. 이는 의심할 여지 없이 산업을 변화시키고 삶을 개선할 새롭고 흥미로운 AI 애플리케이션을 만드는 데 도움이 될 것입니다.

Nvidia NIM 마이크로서비스의 역할 이해

공동 이니셔티브의 중요한 구성 요소는 Nvidia NIM 마이크로서비스의 도입입니다. 그 중요성을 파악하려면 더 자세히 살펴보아야 합니다.

정의 및 기능

Nvidia NIM(Nvidia Inference Microservice)은 AI 모델 배포를 간소화하도록 설계된 소프트웨어 솔루션입니다. 사전 학습된 모델, 추론 엔진 및 필요한 종속성을 컨테이너화된 마이크로서비스로 캡슐화합니다. 즉, NIM은 프레임워크 또는 하드웨어에 관계없이 AI 모델을 배포하는 표준화된 방법을 제공합니다.

Nvidia NIM의 주요 이점:

  • 간소화된 배포: NIM은 AI 모델 배포의 복잡성을 크게 줄여 개발자가 인프라 관리가 아닌 애플리케이션 구축에 집중할 수 있도록 지원합니다.
  • 하드웨어 가속: NIM은 Nvidia GPU에 최적화되어 가속 기능을 활용하여 고성능 추론을 제공합니다.
  • 확장성: NIM은 수평적으로 확장되도록 설계되어 개발자가 성능 저하 없이 증가하는 요구 사항을 처리할 수 있도록 지원합니다.
  • 모듈성: NIM을 통해 다른 모델에 대한 중단 없이 다양한 モデル의 모듈성 및 빠른 업데이트가 가능합니다.

NIM이 개발자와 조직에 제공하는 이점:

  • 더 빠른 출시 시간: 배포를 간소화함으로써 NIM은 개발자가 AI 기반 애플리케이션을 더 빠르게 시장에 출시할 수 있도록 지원합니다.
  • 비용 절감: NIM은 리소스 활용률을 최적화하여 인프라 및 운영 비용을 최소화합니다.
  • 향상된 성능: NIM을 통한 하드웨어 가속은 더 높은 처리량과 낮은 지연 시간을 제공하여 사용자 경험을 향상시킵니다.
  • 유연성 향상: NIM을 사용한 표준화된 배포는 더 큰 유연성을 제공하고 개발자가 다양한 AI 모델 간에 쉽게 전환할 수 있도록 지원합니다.

결론 요약

Google Cloud와 Nvidia 간의 확장된 협력은 AI 개발에서 주목할 만한 발전을 나타냅니다. Google의 Gemini 모델과 Nvidia의 Blackwell GPU를 통합하면 AI 워크로드 최적화를 위한 새로운 기준이 설정됩니다. 이 파트너십은 혁신을 가속화할 뿐만 아니라 AI에 관련된 개발자 및 조직을 위한 보안, 확장성 및 접근성을 향상시킵니다. 또한 Google의 A4 VM 및 Nvidia의 NIM 마이크로서비스 출시는 AI 애플리케이션에 권한을 부여하는 중요한 순간이며 AI 솔루션이 더 큰 규모로 효율적이고 효과적으로 배포되는 미래를 조성합니다.