Blackwell Ultra GB300: Skok Wydajności
Oczekiwany w drugiej połowie 2025 roku, Blackwell Ultra GB300 stanowi znaczący postęp w porównaniu z poprzednimi ofertami NVIDIA. Ten nowy superchip został zaprojektowany, aby zapewnić zwiększoną moc obliczeniową i większą przepustowość pamięci, co jest kluczowe dla sprostania stale rosnącym wymaganiom nowoczesnych aplikacji AI.
System GB300 to potężna jednostka, integrująca 72 układy GPU NVIDIA Blackwell Ultra i 36 procesorów NVIDIA Grace opartych na architekturze Arm. Ta kombinacja zapewnia imponujące 1400 petaFLOPS wydajności FP4 AI. Dla porównania, jest to 1,5-krotny wzrost wydajności obliczeń FP4 w porównaniu do swojego poprzednika, Blackwell B200.
Jednym z najbardziej znaczących ulepszeń w GB300 jest pojemność pamięci. Każdy GPU w systemie jest wyposażony w oszałamiające 288 GB pamięci HBM3e. Daje to łącznie ponad 20 TB pamięci GPU na system. Ten znaczny wzrost pamięci pozwala na przetwarzanie znacznie większych modeli AI i zbiorów danych, umożliwiając bardziej złożone obliczenia i osiągając większe prędkości przetwarzania.
NVIDIA pozycjonuje platformę Blackwell Ultra AI Factory jako oferującą przyrostowe, a nie rewolucyjne, wzrosty wydajności w porównaniu do standardowych chipów Blackwell. Podczas gdy pojedynczy chip Ultra zachowuje te same 20 petaflopów mocy obliczeniowej AI co standardowy Blackwell, znacznie korzysta z 50% wzrostu przepustowości pamięci (HBM3e), zwiększając ją z 192 GB do 288 GB.
Patrząc na większą skalę, pełnowymiarowy DGX GB300 ‘Superpod’ nadal mieści 288 procesorów i 576 GPU. Ta konfiguracja zapewnia 11,5 eksaflopsów mocy obliczeniowej FP4, odzwierciedlając wydajność oryginalnego Superpoda opartego na Blackwell. Jednakże, charakteryzuje się 25% wzrostem całkowitej pamięci, osiągając teraz masywne 300 TB. Te ulepszenia pamięci podkreślają skupienie NVIDIA na obsłudze większych modeli i zwiększaniu wydajności wnioskowania AI, a nie tylko na surowej mocy obliczeniowej.
Zamiast bezpośrednich porównań Blackwell do Blackwell Ultra, NVIDIA pokazuje, jak jej najnowsza platforma wypada w porównaniu do chipów H100 z 2022 roku, które są nadal szeroko stosowane w obciążeniach AI. Firma twierdzi, że Blackwell Ultra zapewnia 1,5-krotnie większą wydajność wnioskowania FP4 niż H100. Jednak najbardziej znacząca przewaga leży w jego zdolności do przyspieszania wnioskowania AI.
Na przykład, klaster NVL72 z DeepSeek-R1 671B, wyjątkowo dużym modelem językowym, może teraz generować odpowiedzi w zaledwie dziesięć sekund. Jest to dramatyczna redukcja z 90 sekund wymaganych w systemie H100.
NVIDIA przypisuje tę znaczną poprawę dziesięciokrotnemu wzrostowi prędkości przetwarzania tokenów. Blackwell Ultra może obsłużyć 1000 tokenów na sekundę, co stanowi znaczący skok w porównaniu do 100 tokenów na sekundę w H100. Liczby te pokazują, że chociaż Blackwell Ultra może nie przewyższać drastycznie swojego bezpośredniego poprzednika, oferuje przekonujące wzrosty wydajności, szczególnie dla organizacji, które nadal korzystają z architektur poprzedniej generacji.
Superchip Vera Rubin: Następna Generacja Przetwarzania AI
Patrząc poza Blackwell Ultra, NVIDIA planuje wprowadzić superchip Vera Rubin pod koniec 2026 roku. Nazwany na cześć wybitnej astronomki Very Rubin, ten chip będzie zawierał specjalnie zaprojektowany procesor (Vera) i GPU (Rubin). Stanowi to znaczący krok naprzód w dążeniu NVIDIA do najnowocześniejszych możliwości przetwarzania AI.
Procesor Vera, oparty na architekturze NVIDIA Olympus, ma zapewnić dwukrotnie większą wydajność niż obecne procesory Grace. Z drugiej strony, GPU Rubin będzie obsługiwał do imponujących 288 GB pamięci o wysokiej przepustowości. Ta znaczna pojemność pamięci znacznie zwiększy możliwości przetwarzania danych, szczególnie w przypadku złożonych zadań AI.
Architektura Vera Rubin prezentuje konstrukcję z dwoma GPU na jednym chipie. Ta innowacyjna konstrukcja umożliwia osiągnięcie niezwykłych 50 petaFLOPS wydajności wnioskowania FP4 na chip, sprzyjając bardziej wydajnemu przetwarzaniu i zmniejszonym opóźnieniom w aplikacjach AI.
Procesor Vera, następca procesora Grace, składa się z 88 niestandardowych rdzeni Arm z jednoczesną wielowątkowością. Ta konfiguracja daje 176 wątków na gniazdo. Posiada również interfejs NVLink core-to-core o przepustowości 1,8 TB/s, znacznie poprawiając prędkość transferu danych między komponentami CPU i GPU.
Blackwell Ultra GB300 i Superchip Vera Rubin stanowią znaczący postęp w porównaniu z poprzednimi architekturami chipów NVIDIA. 1,5-krotny wzrost wydajności FP4 GB300 w porównaniu do B200 przekłada się bezpośrednio na bardziej wydajne przetwarzanie obciążeń AI. To z kolei umożliwia szybsze czasy uczenia i wnioskowania, co jest kluczowe dla przyspieszenia rozwoju AI.
Vera Rubin, z 50 petaFLOPS wydajności FP4 na chip, oznacza znaczący skok naprzód. Ten poziom wydajności pozwala na wdrażanie jeszcze bardziej wyrafinowanych modeli i aplikacji AI, przesuwając granice tego, co jest możliwe w dziedzinie sztucznej inteligencji.
Ambitny harmonogram rozwoju NVIDIA, z planami corocznych wydań nowych generacji chipów AI, podkreśla jej zaangażowanie w utrzymanie wiodącej pozycji na szybko rozwijającym się rynku sprzętu AI. Zaangażowanie firmy w innowacje jest widoczne w jej ciągłym dążeniu do bardziej wydajnych i efektywnych rozwiązań przetwarzania AI. Wprowadzenie tych nowych superchipów to nie tylko stopniowe ulepszenia; chodzi o umożliwienie nowej ery możliwości AI.
Szczególnie godne uwagi są postępy w zakresie pojemności pamięci i szybkości przetwarzania. Zdolność do obsługi większych modeli i zbiorów danych jest kluczowa dla rozwoju bardziej wyrafinowanych systemów AI. W miarę jak modele AI stają się coraz bardziej złożone, potrzeba sprzętu, który może dotrzymać kroku, staje się coraz ważniejsza. Skupienie NVIDIA na przepustowości pamięci i szybkości przetwarzania tokenów bezpośrednio odpowiada na tę potrzebę.
Przesunięcie w kierunku podkreślania wzrostu wydajności, szczególnie dla organizacji przechodzących ze starszych architektur, jest strategicznym posunięciem NVIDIA. Uznaje, że nie wszyscy użytkownicy natychmiast zaadoptują najnowszy sprzęt. Pokazując znaczne wzrosty wydajności w porównaniu z chipami poprzedniej generacji, NVIDIA przedstawia przekonujący argument za modernizacją.
Superchip Vera Rubin, z jego specjalnie zaprojektowanym procesorem i GPU, stanowi znaczący postęp architektoniczny. Konstrukcja z dwoma GPU na jednym chipie to innowacyjne podejście, które obiecuje zapewnić znaczne wzrosty wydajności i zmniejszone opóźnienia. Ten projekt odzwierciedla zaangażowanie NVIDIA w przesuwanie granic projektowania chipów i maksymalizację wydajności.
Nazwanie chipa na cześć astronomki Very Rubin jest trafnym hołdem dla jej przełomowej pracy. Subtelnie wzmacnia również zaangażowanie NVIDIA w odkrycia naukowe i innowacje. Skupienie firmy na AI wykracza poza zastosowania komercyjne; obejmuje również postęp badań naukowych.
Ogólnie rzecz biorąc, ogłoszenie przez NVIDIA superchipów Blackwell Ultra GB300 i Vera Rubin stanowi znaczący kamień milowy w ewolucji sprzętu AI. Te nowe chipy mają przyspieszyć rozwój i wdrażanie AI w szerokim zakresie branż. Zaangażowanie firmy w innowacje i jej agresywny harmonogram rozwoju sugerują, że możemy spodziewać się jeszcze bardziej przełomowych postępów w nadchodzących latach. Skupienie się zarówno na surowej wydajności, jak i na wzroście efektywności zapewnia, że te chipy będą odpowiednie dla szerokiego spektrum użytkowników, od tych z najnowocześniejszymi systemami po tych, którzy nadal korzystają ze starszych architektur. Przyszłość sprzętu AI wygląda obiecująco, a NVIDIA wyraźnie pozycjonuje się w czołówce tej ekscytującej dziedziny. Zwiększona pamięć, zwiększone prędkości przetwarzania i innowacyjne projekty tych nowych superchipów niewątpliwie utorują drogę do nowych przełomów w sztucznej inteligencji, wpływając na różne sektory i napędzając dalszy postęp w nadchodzących latach.