NVIDIA i Microsoft intensyfikują współpracę, aby napędzać postęp w aplikacjach agentic AI, obejmujących rozwiązania oparte na chmurze i komputery osobiste. To pogłębione partnerstwo ma na celu przyspieszenie odkryć naukowych i wspieranie innowacji w różnych sektorach.
Wzmocnienie badań naukowych za pomocą AI
Microsoft Discovery ma zintegrować mikrousługę NVIDIA ALCHEMI NIM. Ta integracja jest kluczowa dla optymalizacji wnioskowania AI w złożonych symulacjach chemicznych, co znacznie przyspiesza badania w dziedzinie materiałoznawstwa poprzez precyzyjne przewidywanie właściwości i skuteczne rekomendacje kandydatów. To ulepszenie obiecuje usprawnić identyfikację nowych materiałów o pożądanych cechach, zmniejszając czas i zasoby tradycyjnie wymagane.
Ponadto Microsoft Discovery włączy mikrousługi NVIDIA BioNeMo NIM. Te mikrousługi są przeznaczone do wykorzystywania wstępnie wytrenowanych przepływów pracy AI, co znacznie przyspiesza proces rozwoju modeli AI do odkrywania leków. Wykorzystując te narzędzia, naukowcy mogą szybko rozwijać i udoskonalać modele AI, które przewidują skuteczność leków i potencjalne skutki uboczne, co prowadzi do bardziej wydajnych i ukierunkowanych procesów opracowywania leków.
Integracje te zostały starannie zaprojektowane, aby zapewnić naukowcom przyspieszoną wydajność, skracając czas potrzebny na odkrycia naukowe. Zapewniają, że naukowcy mogą obsługiwać ogromne zbiory danych i skomplikowane symulacje z niespotykaną dotąd szybkością i dokładnością, umożliwiając im rozwiązywanie najtrudniejszych problemów w badaniach naukowych.
Praktyczne zastosowanie tych postępów zostało zademonstrowane przez naukowców z Microsoftu. Z powodzeniem wykorzystali Microsoft Discovery do zidentyfikowania nowego prototypu chłodziwa, który wykazywał obiecujące właściwości do chłodzenia zanurzeniowego w centrach danych w mniej niż 200 godzin. Ta oś czasu stanowi wyraźny kontrast w stosunku do miesięcy, a nawet lat, które zwykle wymagają konwencjonalne metody. Chłodzenie zanurzeniowe, które polega na zanurzaniu komponentów elektronicznych w nieprzewodzącym płynnym chłodziwie, staje się coraz ważniejsze dla zarządzania ciepłem generowanym przez systemy obliczeniowe o wysokiej wydajności.
Karty graficzne NVIDIA Blackwell w centrach danych Azure
Aby zwiększyć wydajność i efektywność, Microsoft szybko wdraża setki tysięcy kart graficznych NVIDIA Blackwell w zoptymalizowanych pod kątem AI centrach danych Azure na całym świecie. Te karty graficzne są zintegrowane z systemami NVIDIA GB200 NVL72 w skali szafy, które są zaprojektowane do obsługi najbardziej wymagających obciążeń AI.
Kilku kluczowych klientów Microsoftu, w tym OpenAI, obecnie uruchamia obciążenia produkcyjne na tej zaawansowanej infrastrukturze. Wykorzystanie kart graficznych NVIDIA Blackwell pozwala tym organizacjom efektywniej i skuteczniej wykonywać złożone zadania AI. To wdrożenie podkreśla zaangażowanie Microsoftu w dostarczanie najnowocześniejszych możliwości AI swoim klientom.
Maszyny wirtualne Azure ND GB200 v6 stanowią znaczący krok naprzód w mocy obliczeniowej. Zapewniają do 35 razy większą przepustowość wnioskowania w porównaniu z poprzednimi maszynami wirtualnymi ND H100 v5. Starsze maszyny wirtualne, przyspieszone przez osiem kart graficznych NVIDIA H100, obecnie bledną w porównaniu z ulepszoną wydajnością oferowaną przez nową generację, wyznaczając nowy punkt odniesienia dla obciążeń AI. Ten poziom poprawy wydajności może znacznie skrócić czas i koszty związane z uruchamianiem modeli AI na dużą skalę.
Ta imponująca skala i wysoka wydajność są wspierane przez niestandardowe projekty serwerów, szybkie połączenia międzysystemowe NVIDIA NVLink i sieć NVIDIA Quantum InfiniBand. Technologie te ułatwiają bezproblemowe skalowanie do tysięcy kart graficznych Blackwell, co ma kluczowe znaczenie dla obsługi wymagających aplikacji generatywnych i agentic AI. Zaawansowana łączność zapewnia komunikację o niskim opóźnieniu między kartami graficznymi, zwiększając ogólną wydajność systemu.
Satya Nadella, prezes i dyrektor generalny Microsoftu, oraz Jensen Huang, założyciel i dyrektor generalny NVIDIA, podkreślili, że ich współpraca przynosi znaczne wzrosty wydajności dzięki ciągłej optymalizacji oprogramowania we wszystkich architekturach NVIDIA na platformie Azure. Podejście to ma na celu zmaksymalizowanie produktywności programistów, obniżenie całkowitego kosztu posiadania i przyspieszenie wszystkich obciążeń, w tym AI i przetwarzania danych. Ostatecznie prowadzi to do większej efektywności na dolara i na wat dla klientów.
Rozszerzenie możliwości dzięki integracji NIM
W oparciu o integrację NIM w Azure AI Foundry, Microsoft i NVIDIA rozszerzają platformę o rodzinę otwartych modeli rozumowania NVIDIA Llama Nemotron i mikrousługi NVIDIA BioNeMo NIM. Zostały one zaprojektowane, aby zapewnić klasy korporacyjnej, konteneryzowane wnioskowanie dla złożonego podejmowania decyzji i obciążeń AI specyficznych dla domeny.
Programiści mogą teraz wykorzystać zoptymalizowane mikrousługi NIM do zaawansowanego rozumowania w Azure AI Foundry. Obejmują one modele NVIDIA Llama Nemotron Super i Nano, które zapewniają zaawansowane rozumowanie wieloetapowe, kodowanie i możliwości agentic. Oferują do 20% wyższą dokładność i pięciokrotnie szybsze wnioskowanie w porównaniu z poprzednimi modelami, co pozwala programistom tworzyć bardziej zaawansowane i wydajne aplikacje AI.
Mikrousługi BioNeMo NIM, specjalnie dostosowane do zastosowań w opiece zdrowotnej, odpowiadają na krytyczne potrzeby w biologii cyfrowej, odkrywaniu leków i obrazowaniu medycznym. Umożliwiają one naukowcom i klinicystom przyspieszenie nauk o białkach, modelowania molekularnego i analizy genomowej, co prowadzi do poprawy opieki nad pacjentami i szybszych innowacji naukowych. Narzędzia te umożliwiają pracownikom służby zdrowia podejmowanie bardziej świadomych decyzji i opracowywanie skuteczniejszych metod leczenia.
Ta rozszerzona integracja pozwala organizacjom szybko wdrażać agentów AI o wysokiej wydajności. Łącząc się z tymi modelami i innymi wyspecjalizowanymi rozwiązaniami opieki zdrowotnej, organizacje mogą osiągnąć solidną niezawodność i uproszczone skalowanie, zaspokajając w ten sposób zróżnicowane potrzeby różnych branż i zastosowań.
Generative AI na komputerach RTX AI
Generative AI rewolucjonizuje oprogramowanie komputerowe, wprowadzając zupełnie nowe doświadczenia, od cyfrowych ludzi po asystentów pisania, inteligentnych agentów i narzędzia do tworzenia. Komputery NVIDIA RTX AI ułatwiają eksperymentowanie z generative AI i poprawiają wydajność w systemie Windows 11, dzięki czemu najnowocześniejsza AI jest dostępna dla szerszego grona odbiorców.
Podczas Microsoft Build NVIDIA i Microsoft zaprezentowały stos wnioskowania AI, zaprojektowany, aby uprościć rozwój i poprawić wydajność wnioskowania dla komputerów z systemem Windows 11. Ten zestaw narzędzi ma kluczowe znaczenie dla umożliwienia płynnego korzystania z AI na komputerach osobistych, dzięki czemu narzędzia AI są bardziej responsywne i wydajne.
NVIDIA TensorRT został przeprojektowany specjalnie dla komputerów RTX AI. Łączy w sobie wydajność TensorRT z budowaniem silnika typu just-in-time na urządzeniu i ośmiokrotnie mniejszym rozmiarem pakietu, co zapewnia bezproblemowe wdrażanie AI na ponad 100 milionach komputerów RTX AI. Ta optymalizacja pozwala na szybsze i wydajniejsze przetwarzanie AI na komputerach, torując drogę nowym aplikacjom i możliwościom.
Ogłoszony podczas Microsoft Build, TensorRT dla RTX jest natywnie obsługiwany przez Windows ML – nowy stos wnioskowania, który zapewnia programistom aplikacji szeroką kompatybilność sprzętową i najnowocześniejszą wydajność. TensorRT dla RTX jest dostępny w wersji zapoznawczej Windows ML od dzisiaj i będzie dostępny jako samodzielny zestaw do tworzenia oprogramowania od NVIDIA Developer w czerwcu. To opracowanie upraszcza proces dla programistów, którzy chcą zintegrować możliwości AI z aplikacjami Windows, zapewniając, że AI jest dostępna dla szerokiej gamy rozwiązań programowych.
Zasadniczo współpraca między NVIDIA i Microsoft tworzy synergiczny ekosystem, w którym postępy w technologii AI są szybko przekładane na rzeczywiste aplikacje, przynosząc korzyści zarówno naukowcom, programistom, jak i użytkownikom końcowym. To partnerstwo jest strategicznie pozycjonowane, aby utrzymać swoją pozycję lidera w szybko rozwijającej się dziedzinie sztucznej inteligencji.
Szczegółowe podsumowanie postępów
Najnowocześniejsze technologie
Współpraca między NVIDIA i Microsoft wykorzystuje kilka najnowocześniejszych technologii w celu osiągnięcia postępów w agentic AI. Tutaj zagłębiamy się w te kluczowe komponenty.
Mikrousługa NVIDIA ALCHEMI NIM: Ta mikrousługa to specjalistyczne narzędzie zoptymalizowane pod kątem wnioskowania AI w symulacjach chemicznych. Jego główną funkcją jest przyspieszenie badań materiałoznawczych poprzez dokładne przewidywanie właściwości i wydajne rekomendacje kandydatów. Umożliwiając szybsze i dokładniejsze symulacje, umożliwia naukowcom identyfikację obiecujących materiałów znacznie szybciej niż pozwalają na to tradycyjne metody.
Mikrousługi NVIDIA BioNeMo NIM: Te mikrousługi zapewniają wstępnie wytrenowane przepływy pracy AI, aby przyspieszyć rozwój modeli AI do odkrywania leków. Naukowcy mogą ich używać do szybkiego opracowywania modeli przewidujących skuteczność leków i potencjalne skutki uboczne, co znacznie przyspiesza rozwój nowych leków.
Karty graficzne NVIDIA Blackwell: Te karty graficzne zapewniają zwiększoną wydajność i efektywność w obciążeniach AI w centrach danych Azure. Zintegrowane z systemami w skali szafy, wspierają klientów, takich jak OpenAI, w płynnym i skutecznym wykonywaniu złożonych zadań.
Połączenia międzysystemowe NVIDIA NVLink: Te szybkie połączenia międzysystemowe służą do zapewnienia komunikacji o niskim opóźnieniu między kartami graficznymi, co znacznie zwiększa ogólną wydajność systemu. Rezultatem jest szybsze obliczanie i poprawa wydajności w różnych operacjach AI.
Sieć NVIDIA Quantum InfiniBand: Obsługuje bezproblemowe skalowanie do tysięcy kart graficznych Blackwell, co ma kluczowe znaczenie dla obsługi wymagających obciążeń generatywnych i agentic AI. Możliwości sieciowe zapewniają skuteczne wdrażanie i zarządzanie modelami AI na dużą skalę.
Modele NVIDIA Llama Nemotron: Modele NVIDIA Llama Nemotron Super i Nano zostały zaprojektowane w celu zapewnienia zaawansowanego rozumowania wieloetapowego, kodowania i możliwości agentic. Poprawiona dokładność i większa szybkość wnioskowania pozwalają programistom tworzyć bardziej zaawansowane i wydajne aplikacje AI.
Wpływ na badania naukowe
Integracja technologii NVIDIA z platformami Microsoftu ma głębokie implikacje dla badań naukowych w wielu dyscyplinach.
Materiałyznawstwo: Mikrousługa NVIDIA ALCHEMI NIM pomaga w precyzyjnym przewidywaniu właściwości i rekomendacji kandydatów, umożliwiając szybszą identyfikację nowych materiałów o pożądanych cechach.
Odkrywanie leków: Mikrousługi BioNeMo NIM przyspieszają rozwój modeli AI, umożliwiając naukowcom opracowywanie modeli przewidujących skuteczność leków i potencjalne skutki uboczne.
Chłodzenie centrów danych: Microsoft wykorzystał Microsoft Discovery do wykrycia nowego prototypu chłodziwa idealnego do chłodzenia zanurzeniowego w centrach danych w mniej niż 200 godzin, zamiast miesięcy lub lat przy użyciu tradycyjnych metod. To podkreśla szybkie przyspieszenie odkryć naukowych.
Nauki o białkach, modelowanie molekularne i analiza genomowa: Mikrousługi BioNeMo NIM umożliwiają przyspieszenie w tych dziedzinach. Prowadzą do poprawy opieki nad pacjentami i szybszych innowacji naukowych.
Infrastruktura Azure AI
Azure AI Foundry firmy Microsoft i jej centra danych stanowią znaczące inwestycje w tworzenie optymalnego środowiska do uruchamiania obciążeń AI.
Maszyny wirtualne ND GB200 v6: Zapewniają do 35 razy większą przepustowość wnioskowania w porównaniu z poprzednimi maszynami wirtualnymi ND H100 v5, wyznaczając nowy punkt odniesienia dla obciążeń AI.
Niestandardowe projekty serwerów: Niestandardowe projekty serwerów są opracowywane w celu zmaksymalizowania wydajności i efektywności, umożliwiając kartom graficznym Blackwell działanie z pełnym potencjałem.
Optymalizacje NVIDIA w Azure: Ciągła optymalizacja oprogramowania we wszystkich architekturach NVIDIA w Azure maksymalizuje produktywność programistów, obniża całkowity koszt posiadania i przyspiesza wszystkie obciążenia, zwiększając efektywność na dolara i na wat dla klientów.
Generative AI na komputerach osobistych
Postępy w technologii AI znajdują również drogę do komputerów osobistych, napędzając nowe możliwości dla aplikacji i wrażeń użytkowników.
Komputery NVIDIA RTX AI: Uproszczone eksperymentowanie z generative AI i poprawa wydajności w systemie Windows 11 są ułatwione dzięki komputerom NVIDIA RTX AI. Sprawiają, że najnowocześniejsza technologia AI jest bardziej dostępna dla szerszego grona odbiorców.
NVIDIA TensorRT: Ten zestaw do tworzenia oprogramowania (SDK) został zoptymalizowany dla komputerów RTX AI. Łączy wysoką wydajność z ośmiokrotnie mniejszym rozmiarem pakietu, co zapewnia bezproblemowe wdrażanie AI. Ułatwia to programistom integrowanie funkcji AI z aplikacją.
Obsługa Windows ML: Natywna obsługa TensorRT w Windows ML zapewnia szeroką kompatybilność sprzętową i najnowocześniejszą wydajność. Ułatwia to bezproblemową integrację AI z aplikacjami Windows.
Nowe wrażenia użytkownika: Od cyfrowych ludzi po asystentów pisania, inteligentnych agentów i narzędzia do tworzenia — generative AI przekształca oprogramowanie komputerowe i wprowadza zupełnie nowe wrażenia. Użytkownicy mogą korzystać z bardziej interaktywnych, inteligentnych i kreatywnych aplikacji.
Wizja стратегическая
Współpraca między NVIDIA i Microsoft opiera się na wizji strategicznej, której celem jest przewodzenie rozwojowi technologii AI w różnych sektorach. Wspólne wysiłki i technologie mają na celu przyspieszenie wdrażania AI w różnych dziedzinach, przynosząc korzyści nie tylko naukowcom i programistom, ale także użytkownikom końcowym i organizacjom na całym świecie.
Innowacje: Ciągły nacisk na innowacje i współpracę przyspiesza postęp technologiczny. Pomaga to utrzymać pozycję lidera w szybko rozwijającej się dziedzinie.
Dostępność: NVIDIA i Microsoft demokratyzują AI, udostępniając ją programistom i użytkownikom dzięki zoptymalizowanym narzędziom, integracji z popularnymi platformami i poprawie efektywności kosztowej.
Wydajność i efektywność: Nacisk na zwiększenie zarówno wydajności, jak i efektywności kosztowej zapewnia, że korzyści z technologii AI są dostępne dla szerokiego grona użytkowników, od indywidualnych naukowców po duże przedsiębiorstwa.
Zastosowania w świecie rzeczywistym: Przekładając postępy w AI na rozwiązania w świecie rzeczywistym, NVIDIA i Microsoft generują wymierne korzyści i przekształcają branże na całym świecie.