NVIDIA와 Microsoft: 클라우드-PC AI 혁신 주도

NVIDIA와 Microsoft는 클라우드 기반 솔루션에서 개인용 컴퓨터에 이르기까지 에이전트 AI 애플리케이션의 발전을 추진하기 위한 협력 노력을 강화하고 있습니다. 이 심화된 파트너십은 과학적 발견을 가속화하고 다양한 분야에서 혁신을 촉진할 준비가 되어 있습니다.

AI를 활용한 과학 연구 강화

Microsoft Discovery는 NVIDIA의 ALCHEMI NIM 마이크로서비스를 통합할 예정입니다. 이 통합은 복잡한 화학 시뮬레이션을 위한 AI 추론을 최적화하는 데 중요하며, 이를 통해 정확한 속성 예측 및 효과적인 후보 추천을 통해 재료 과학 연구를 크게 가속화합니다. 이러한 개선은 원하는 특성을 가진 새로운 재료의 식별을 간소화하여 전통적으로 필요한 시간과 리소스를 줄일 수 있습니다.

또한 Microsoft Discovery는 NVIDIA BioNeMo NIM 마이크로서비스를 통합할 예정입니다. 이러한 마이크로서비스는 사전 훈련된 AI 워크플로우를 활용하여 신약 발견을 위한 AI 모델 개발 프로세스의 속도를 크게 높이도록 설계되었습니다. 연구자들은 이러한 도구를 활용하여 약물 효능과 잠재적 부작용을 예측하는 AI 모델을 신속하게 개발하고 개선할 수 있어 보다 효율적이고 표적화된 약물 개발 프로세스로 이어질 수 있습니다.

이러한 통합은 연구자들에게 가속화된 성능을 제공하여 과학적 발견에 필요한 시간을 단축하도록 세심하게 설계되었습니다. 또한 연구자들이 방대한 데이터 세트와 복잡한 시뮬레이션을 전례 없는 속도와 정확도로 처리하여 과학 연구에서 가장 어려운 문제 중 일부를 해결할 수 있도록 합니다.

이러한 발전의 실제 적용은 Microsoft 연구원들이 시연했습니다. 그들은 Microsoft Discovery를 사용하여 데이터 센터의 침지 냉각에 유망한 특성을 보이는 새로운 냉각제 프로토타입을 200시간 이내에 성공적으로 찾아냈습니다. 이 타임라인은 기존 방법에서 일반적으로 요구되는 몇 달 또는 심지어 몇 년과 극명한 대조를 이룹니다. 비전도성 액체 냉각제에 전자 부품을 담그는 방식인 침지 냉각은 고성능 컴퓨팅 시스템에서 발생하는 열을 관리하는 데 점점 더 중요해지고 있습니다.

Azure 데이터 센터의 NVIDIA Blackwell GPU

성능과 효율성을 높이기 위해 Microsoft는 AI에 최적화된 Azure 데이터 센터 내에 수십만 개의 NVIDIA Blackwell GPU를 전 세계적으로 빠르게 배포하고 있습니다. 이러한 GPU는 가장 까다로운 AI 워크로드를 처리하도록 설계된 NVIDIA GB200 NVL72 랙 스케일 시스템에 통합되어 있습니다.

OpenAI를 포함한 Microsoft의 주요 고객 중 일부는 현재 이 고급 인프라에서 프로덕션 워크로드를 실행하고 있습니다. NVIDIA Blackwell GPU를 활용하면 이러한 조직이 복잡한 AI 작업을 더욱 효율적이고 효과적으로 실행할 수 있습니다. 이러한 배포는 고객에게 최첨단 AI 기능을 제공하겠다는 Microsoft의 약속을 강조합니다.

Azure의 ND GB200 v6 가상 머신은 계산 능력의 상당한 도약을 나타냅니다. 이전 ND H100 v5 VM에 비해 최대 35배 더 많은 추론 처리량을 제공합니다. 8개의 NVIDIA H100 GPU로 가속화된 구형 VM은 이제 차세대에서 제공하는 향상된 성능에 비해 초라해 보이며 AI 워크로드에 대한 새로운 벤치마크를 세웁니다. 이러한 수준의 성능 향상은 대규모 AI 모델 실행과 관련된 시간과 비용을 크게 줄일 수 있습니다.

이러한 인상적인 규모와 높은 성능은 맞춤형 서버 설계, 고속 NVIDIA NVLink 인터커넥트, NVIDIA Quantum InfiniBand 네트워킹으로 지원됩니다. 이러한 기술은 수천 개의 Blackwell GPU로의 원활한 확장을 용이하게 하며, 이는 까다로운 생성 및 에이전트 AI 애플리케이션을 처리하는 데 중요합니다. 정교한 상호 연결은 GPU 간의 낮은 대기 시간 통신을 보장하여 전체 시스템 성능을 향상시킵니다.

Microsoft의 회장 겸 CEO인 Satya Nadella와 NVIDIA의 창립자 겸 CEO인 Jensen Huang은 Azure의 모든 NVIDIA 아키텍처에서 지속적인 소프트웨어 최적화를 통해 상당한 성능 향상을 가져오고 있다고 강조했습니다. 이러한 접근 방식은 개발자 생산성을 극대화하고 총 소유 비용을 줄이며 AI 및 데이터 처리를 포함한 모든 워크로드를 가속화하도록 설계되었습니다. 궁극적으로 이는 고객에게 비용 및 전력당 더 큰 효율성을 제공합니다.

NIM 통합으로 기능 확장

Azure AI Foundry의 NIM 통합을 기반으로 Microsoft와 NVIDIA는 개방형 추론 모델인 NVIDIA Llama Nemotron 제품군과 NVIDIA BioNeMo NIM 마이크로서비스로 플랫폼을 확장하고 있습니다. 이들은 복잡한 의사 결정 및 도메인별 AI 워크로드를 위한 엔터프라이즈급 컨테이너화된 추론을 제공하도록 설계되었습니다.

개발자는 이제 Azure AI Foundry 내에서 고급 추론을 위해 최적화된 NIM 마이크로서비스를 활용할 수 있습니다. 여기에는 고급 다단계 추론, 코딩 및 에이전트 기능을 제공하는 NVIDIA Llama Nemotron Super 및 Nano 모델이 포함됩니다. 이전 모델에 비해 최대 20% 더 높은 정확도와 5배 더 빠른 추론을 제공하여 개발자가 더욱 정교하고 효율적인 AI 애플리케이션을 만들 수 있도록 합니다.

특히 의료 애플리케이션에 맞게 조정된 BioNeMo NIM 마이크로서비스는 디지털 생물학, 신약 발견 및 의료 영상에서 중요한 요구 사항을 해결합니다. 이를 통해 연구원과 임상의는 단백질 과학, 분자 모델링 및 게놈 분석을 가속화하여 환자 치료 개선과 과학적 혁신 가속화로 이어질 수 있습니다. 이러한 도구는 의료 전문가가 더 많은 정보를 바탕으로 결정을 내리고 보다 효과적인 치료법을 개발할 수 있도록 지원합니다.

이러한 확장된 통합을 통해 조직은 고성능 AI 에이전트를 신속하게 배포할 수 있습니다. 이러한 모델 및 기타 전문화된 의료 솔루션에 연결함으로써 조직은 강력한 안정성을 달성하고 확장을 단순화하여 다양한 산업 및 애플리케이션의 다양한 요구 사항을 충족할 수 있습니다.

RTX AI PC의 생성 AI

생성 AI는 디지털 휴먼에서 작문 도우미, 지능형 에이전트, 창작 도구에 이르기까지 완전히 새로운 경험을 도입하여 PC 소프트웨어를 혁신하고 있습니다. NVIDIA RTX AI PC는 생성 AI 실험을 용이하게 하고 Windows 11의 성능을 향상시켜 최첨단 AI를 더 많은 사용자에게 제공합니다.

Microsoft Build에서 NVIDIA와 Microsoft는 Windows 11 PC의 개발을 단순화하고 추론 성능을 향상시키도록 설계된 AI 추론 스택을 공개했습니다. 이 툴셋은 개인용 컴퓨터에서 원활한 AI 경험을 가능하게 하고 AI 도구를 더욱 반응성이 좋고 효율적으로 만드는 데 중요합니다.

NVIDIA TensorRT는 RTX AI PC를 위해 특별히 재설계되었습니다. TensorRT 성능과 Just-in-Time 장치 엔진 빌드 및 8배 더 작은 패키지 크기를 결합하여 1억 대 이상의 RTX AI PC에 원활한 AI 배포를 제공합니다. 이러한 최적화를 통해 PC에서 AI 처리를 더욱 빠르고 효율적으로 수행할 수 있어 새로운 애플리케이션과 기능을 위한 길을 열 수 있습니다.

Microsoft Build에서 발표된 RTX용 TensorRT는 Windows ML에서 기본적으로 지원됩니다. Windows ML은 앱 개발자에게 광범위한 하드웨어 호환성 및 최첨단 성능을 제공하는 새로운 추론 스택입니다. RTX용 TensorRT는 오늘부터 Windows ML 미리 보기에서 사용할 수 있으며 6월에는 NVIDIA Developer의 독립 실행형 소프트웨어 개발 키트로 제공될 예정입니다. 이러한 개발은 AI 기능을 Windows 애플리케이션에 통합하려는 개발자의 프로세스를 단순화하여 AI가 광범위한 소프트웨어 솔루션에서 접근 가능하도록 보장합니다.

본질적으로 NVIDIA와 Microsoft의 협력은 AI 기술의 발전이 빠르게 실제 애플리케이션으로 전환되는 시너지 효과가 있는 에코시스템을 만들어 연구원, 개발자 및 최종 사용자 모두에게 혜택을 주고 있습니다. 이 파트너십은 빠르게 진화하는 인공 지능 분야에서 리더십을 유지하기 위해 전략적으로 배치되었습니다.

발전 사항에 대한 자세한 분석

최첨단 기술

NVIDIA와 Microsoft 간의 협력은 에이전트 AI의 발전을 달성하기 위해 여러 최첨단 기술을 활용합니다. 여기서 이러한 주요 구성 요소를 자세히 살펴보겠습니다.

  • NVIDIA ALCHEMI NIM 마이크로서비스: 이 마이크로서비스는 화학 시뮬레이션에서 AI 추론에 최적화된 특수 도구입니다. 주요 기능은 정확한 속성 예측 및 효율적인 후보 권장 사항을 통해 재료 과학 연구를 가속화하는 것입니다. 더 빠르고 정확한 시뮬레이션을 가능하게 함으로써 연구원은 기존 방법보다 훨씬 빠르게 유망한 재료를 식별할 수 있습니다.

  • NVIDIA BioNeMo NIM 마이크로서비스: 이러한 마이크로서비스는 사전 훈련된 AI 워크플로를 제공하여 신약 발견을 위한 AI 모델 개발 속도를 높입니다. 연구원은 이를 사용하여 약물 효능과 잠재적 부작용을 예측하는 모델을 신속하게 개발하여 신약 개발을 크게 가속화할 수 있습니다.

  • NVIDIA Blackwell GPU: 이러한 GPU는 Azure 데이터 센터 내에서 AI 워크로드의 성능과 효율성을 향상시킵니다. 랙 스케일 시스템에 통합되어 OpenAI와 같은 고객이 복잡한 작업을 원활하고 효과적으로 실행할 수 있도록 지원합니다.

  • NVIDIA NVLink 인터커넥트: 이러한 고속 인터커넥트는 GPU 간의 낮은 대기 시간 통신을 보장하여 전체 시스템 성능을 크게 향상시킵니다. 그 결과 더 빠른 계산과 다양한 AI 작업에서 효율성이 향상됩니다.

  • NVIDIA Quantum InfiniBand 네트워킹: 이를 통해 수천 개의 Blackwell GPU로 원활하게 확장할 수 있어 까다로운 생성 및 에이전트 AI 워크로드를 처리하는 데 중요합니다. 네트워킹 기능은 대규모 AI 모델을 효과적으로 배포하고 관리할 수 있도록 보장합니다.

  • NVIDIA Llama Nemotron 모델: NVIDIA Llama Nemotron Super 및 Nano 모델은 고급 다단계 추론, 코딩 및 에이전트 기능을 제공하도록 설계되었습니다. 향상된 정확도와 더 빠른 추론 속도를 통해 개발자는 더욱 정교하고 효율적인 AI 애플리케이션을 만들 수 있습니다.

과학 연구에 미치는 영향

NVIDIA의 기술이 Microsoft의 플랫폼에 통합되면서 여러 분야에서 과학 연구에 큰 영향을 미치고 있습니다.

  • 재료 과학: NVIDIA ALCHEMI NIM 마이크로서비스는 정확한 속성 예측 및 후보 권장 사항에 도움이 되어 원하는 특성을 가진 새로운 재료를 더 빠르게 식별할 수 있습니다.

  • 신약 발견: BioNeMo NIM 마이크로서비스는 AI 모델 개발을 가속화하여 연구원이 약물 효능과 잠재적 부작용을 예측하는 모델을 개발할 수 있도록 합니다.

  • 데이터 센터 냉각: Microsoft는 Microsoft Discovery를 사용하여 기존 방법으로 몇 달 또는 몇 년 대신 200시간 이내에 데이터 센터의 침지 냉각에 이상적인 새로운 냉각제 프로토타입을 감지했습니다. 이는 과학적 발견의 빠른 가속을 강조합니다.

  • 단백질 과학, 분자 모델링 및 게놈 분석: BioNeMo NIM 마이크로서비스는 이러한 도메인에서 가속화를 가능하게 합니다. 환자 치료 개선과 과학적 혁신 가속화로 이어집니다.

Azure AI 인프라

Microsoft의 Azure AI Foundry와 데이터 센터는 AI 워크로드를 실행하기 위한 최적의 환경을 만드는 데 상당한 투자를 나타냅니다.

  • ND GB200 v6 가상 머신: 이전 ND H100 v5 VM에 비해 최대 35배 더 많은 추론 처리량을 제공하여 AI 워크로드에 대한 새로운 벤치마크를 설정합니다.

  • 맞춤형 서버 설계: 맞춤형 서버 설계는 성능과 효율성을 극대화하도록 개발되어 Blackwell GPU가 잠재력을 최대한 발휘하여 작동할 수 있도록 합니다.

  • Azure의 NVIDIA 최적화: Azure의 모든 NVIDIA 아키텍처에서 지속적인 소프트웨어 최적화는 개발자 생산성을 극대화하고 총 소유 비용을 낮추며 모든 워크로드를 가속화하여 고객에게 비용과 전력당 효율성을 높입니다.

개인용 컴퓨터의 생성 AI

AI 기술의 발전은 개인용 컴퓨터에도 적용되어 소프트웨어 애플리케이션과 사용자 경험에 대한 새로운 가능성을 제시하고 있습니다.

  • NVIDIA RTX AI PC: NVIDIA RTX AI PC는 생성 AI를 사용한 실험을 단순화하고 Windows 11의 성능을 향상시킵니다. 최첨단 AI 기술을 더 많은 사용자에게 제공합니다.

  • NVIDIA TensorRT: 이 소프트웨어 개발 키트(SDK)는 RTX AI PC에 최적화되었습니다. 고성능과 8배 더 작은 패키지 크기를 결합하여 원활한 AI 배포를 제공합니다. 이를 통해 개발자는 AI 기능을 애플리케이션에 더 쉽게 통합할 수 있습니다.

  • Windows ML 지원: Windows ML에서 TensorRT를 기본적으로 지원하여 광범위한 하드웨어 호환성과 최첨단 성능을 보장합니다. 이를 통해 AI를 Windows 애플리케이션에 원활하게 통합할 수 있습니다.

  • 새로운 사용자 경험: 디지털 휴먼에서 작문 도우미, 지능형 에이전트, 창작 도구에 이르기까지 생성 AI는 PC 소프트웨어를 재구성하고 완전히 새로운 경험을 제공하고 있습니다. 사용자는 더욱 상호 작용적이고 지능적이며 창의적인 애플리케이션의 혜택을 누릴 수 있습니다.

전략적 비전

NVIDIA와 Microsoft 간의 협력은 다양한 분야에서 AI 기술의 발전을 주도하는 것을 목표로 하는 전략적 비전을 기반으로 합니다. 협력 노력과 기술은 다양한 도메인에서 AI 채택을 가속화하도록 설계되었으며 연구원과 개발자뿐만 아니라 전 세계의 최종 사용자 및 조직에도 이익을 제공합니다.

  • 혁신: 혁신과 협업에 대한 지속적인 강조는 기술 발전을 가속화합니다. 이는 빠르게 진화하는 분야에서 리더십을 유지하는 데 도움이 됩니다.

  • 접근성: NVIDIA와 Microsoft는 최적화된 도구, 널리 사용되는 플랫폼과의 통합, 비용 효율성 향상을 통해 개발자와 사용자가 AI에 접근할 수 있도록 함으로써 AI를 민주화하고 있습니다.

  • 성능 및 효율성: 성능과 비용 효율성을 모두 향상시키는 데 중점을 두어 개별 연구원에서 대기업에 이르기까지 광범위한 사용자가 AI 기술의 이점을 누릴 수 있도록 보장합니다.

  • 실제 애플리케이션: NVIDIA와 Microsoft는 AI 발전을 실제 솔루션으로 전환함으로써 가시적인 이점을 제공하고 전 세계 산업을 변화시키고 있습니다.