CoreWeave wdraża tysiące GPU NVIDIA Grace Blackwell, wspierając innowacje AI
CoreWeave stał się liderem w dziedzinie cloud computingu, zapewniając szeroki dostęp do systemów NVIDIA GB200 NVL72. Wiodące podmioty zajmujące się sztuczną inteligencją (AI), w tym Cohere, IBM i Mistral AI, już wykorzystują te zasoby do udoskonalania modeli i aplikacji AI.
Jako pierwszy dostawca usług chmurowych oferujący ogólnie NVIDIA Grace Blackwell, CoreWeave wykazał się niezwykłymi wynikami benchmarków MLPerf, używając NVIDIA GB200 NVL72. Ta potężna platforma, zaprojektowana do rozumowania i agentów AI, jest teraz dostępna dla klientów CoreWeave, oferując dostęp do tysięcy GPU NVIDIA Blackwell.
‘Ściśle współpracujemy z NVIDIA, aby zapewnić naszym klientom najbardziej zaawansowane rozwiązania do trenowania i wnioskowania modeli AI’ - powiedział Mike Intrator, dyrektor generalny CoreWeave. ‘Dzięki nowym systemom rack-scale Grace Blackwell nasi klienci należą do pierwszych, którzy doświadczają korzyści wydajnościowych innowacji AI na dużą skalę’.
Wdrożenie tysięcy GPU NVIDIA Blackwell ułatwia szybkie przekształcanie surowych danych w użyteczne informacje, z planowanymi dalszymi rozszerzeniami.
Firmy korzystające z dostawców usług chmurowych, takich jak CoreWeave, są w trakcie integrowania systemów zbudowanych na NVIDIA Grace Blackwell. Systemy te mają przekształcić centra danych w fabryki AI, produkując inteligencję na dużą skalę i przekształcając surowe dane w spostrzeżenia z większą szybkością, dokładnością i wydajnością.
Globalni liderzy AI wykorzystują możliwości GB200 NVL72 do różnych zastosowań, w tym agentów AI i zaawansowanego rozwoju modeli.
Spersonalizowani agenci AI
Cohere wykorzystuje superchipy Grace Blackwell do ulepszania rozwoju bezpiecznych aplikacji AI dla przedsiębiorstw, wykorzystując zaawansowane badania i metodologie rozwoju modeli. Jego platforma AI dla przedsiębiorstw, North, umożliwia zespołom tworzenie spersonalizowanych agentów AI do bezpiecznej automatyzacji przepływów pracy w przedsiębiorstwie i spostrzeżeń w czasie rzeczywistym.
Używając NVIDIA GB200 NVL72 na CoreWeave, Cohere zaobserwował trzykrotny wzrost wydajności w trenowaniu modeli o 100 miliardach parametrów w porównaniu z GPU NVIDIA Hopper poprzedniej generacji, nawet bez optymalizacji specyficznych dla Blackwell.
Dalsze optymalizacje, które wykorzystują ujednoliconą pamięć GB200 NVL72, precyzję FP4 i 72-GPU NVIDIA NVLink, zwiększają przepustowość. Każdy GPU działa w harmonii, zapewniając większą przepustowość z krótszym czasem do pierwszych i kolejnych tokenów dla bardziej wydajnego, opłacalnego wnioskowania.
‘Dzięki dostępowi do niektórych zpierwszych systemów NVIDIA GB200 NVL72 w chmurze, jesteśmy zadowoleni z tego, jak łatwo nasze obciążenia przenoszą się na architekturę NVIDIA Grace Blackwell’ - powiedziała Autumn Moulder, wiceprezes ds. inżynierii w Cohere. ‘To odblokowuje niesamowitą efektywność wydajności w całym naszym stosie — od naszej pionowo zintegrowanej aplikacji North działającej na pojedynczym GPU Blackwell po skalowanie zadań trenowania na tysiącach z nich. Z niecierpliwością czekamy na osiągnięcie jeszcze większej wydajności dzięki dodatkowym optymalizacjom wkrótce”.
Modele AI dla przedsiębiorstw
IBM wykorzystuje jedno z pierwszych wdrożeń systemu NVIDIA GB200 NVL72, skalując do tysięcy GPU Blackwell na CoreWeave, aby trenować modele Granite następnej generacji. Te modele AI o otwartym kodzie źródłowym, gotowe do użycia w przedsiębiorstwach, zapewniają najnowocześniejszą wydajność, zapewniając jednocześnie bezpieczeństwo, szybkość i opłacalność. Rodzina modeli Granite jest wspierana przez solidny ekosystem partnerów, w tym wiodące firmy programistyczne wdrażające duże modele językowe do swoich technologii.
Modele Granite stanowią podstawę rozwiązań, takich jak IBM watsonx Orchestrate, które umożliwiają przedsiębiorstwom opracowywanie i wdrażanie agentów AI, którzy automatyzują i przyspieszają przepływy pracy.
Wdrożenie NVIDIA GB200 NVL72 CoreWeave dla IBM wykorzystuje również IBM Storage Scale System, zapewniając wysokowydajną pamięć masową dla AI. Klienci CoreWeave mogą uzyskać dostęp do platformy IBM Storage w dedykowanych środowiskach CoreWeave i platformie chmury AI.
‘Jesteśmy podekscytowani, widząc przyspieszenie, jakie NVIDIA GB200 NVL72 może wnieść do trenowania naszej rodziny modeli Granite’ - powiedział Sriram Raghavan, wiceprezes ds. AI w IBM Research. ‘Ta współpraca z CoreWeave zwiększy możliwości IBM w zakresie pomocy w budowaniu zaawansowanych, wysokowydajnych i opłacalnych modeli do zasilania aplikacji AI dla przedsiębiorstw i agentów za pomocą IBM watsonx’.
Zasoby obliczeniowe na dużą skalę
Mistral AI integruje teraz swoje pierwsze tysiące GPU Blackwell, aby zbudować następną generację modeli AI o otwartym kodzie źródłowym.
Mistral AI, lider w dziedzinie AI o otwartym kodzie źródłowym z siedzibą w Paryżu, wykorzystuje infrastrukturę CoreWeave, obecnie wyposażoną w GB200 NVL72, aby przyspieszyć rozwój swoich modeli językowych. Ponieważ modele takie jak Mistral Large zapewniają solidne możliwości rozumowania, Mistral wymaga szybkich zasobów obliczeniowych na dużą skalę.
Aby skutecznie trenować i wdrażać te modele, Mistral AI potrzebuje dostawcy usług chmurowych, który oferuje duże, wysokowydajne klastry GPU z siecią NVIDIA Quantum InfiniBand i niezawodnym zarządzaniem infrastrukturą. Doświadczenie CoreWeave we wdrażaniu GPU NVIDIA na dużą skalę, w połączeniu z wiodącą w branży niezawodnością i odpornością dzięki narzędziom takim jak CoreWeave Mission Control, spełnia te potrzeby.
‘Od razu po wyjęciu z pudełka i bez żadnych dalszych optymalizacji zaobserwowaliśmy dwukrotny wzrost wydajności w przypadku trenowania gęstych modeli’ - powiedział Thimothee Lacroix, współzałożyciel i dyrektor ds. technologii w Mistral AI. ‘To, co ekscytujące w NVIDIA GB200 NVL72, to nowe możliwości, jakie otwiera dla rozwoju i wnioskowania modeli’.
Rozszerzenie dostępności instancji Blackwell
CoreWeave oferuje nie tylko długoterminowe rozwiązania dla klientów, ale także instancje z rack-scale NVIDIA NVLink na 72 GPU NVIDIA Blackwell i 36 procesorach NVIDIA Grace, skalując do 110 000 GPU z siecią NVIDIA Quantum-2 InfiniBand.
Te instancje, przyspieszone przez platformę obliczeniową rack-scale NVIDIA GB200 NVL72, zapewniają skalę i wydajność wymaganą do opracowywania i wdrażania następnej fali modeli i agentów rozumowania AI.
Głębokie zanurzenie w infrastrukturze technologicznej CoreWeave
CoreWeave ugruntował swoją pozycję jako kluczowy gracz na arenie cloud computingu, w dużej mierze dzięki swojemu zaangażowaniu w dostarczanie najnowocześniejszych rozwiązań sprzętowych i solidnej infrastruktury dostosowanej do wymagań obciążeń AI i uczenia maszynowego. Integracja systemów NVIDIA GB200 NVL72 podkreśla to zaangażowanie. Systemy te nie są jedynie przyrostowymi ulepszeniami; stanowią znaczący skok w mocy obliczeniowej i wydajności, umożliwiając organizacjom rozwiązywanie wyzwań, które wcześniej uważano za nie do pokonania.
Architektura NVIDIA GB200 NVL72 została starannie zaprojektowana, aby zmaksymalizować wydajność w całym spektrum aplikacji AI. Integrując 72 GPU NVIDIA Blackwell z 36 procesorami NVIDIA Grace, platforma zapewnia zrównoważone i potężne środowisko obliczeniowe. Ta równowaga ma kluczowe znaczenie dla obciążeń, które wymagają zarówno intensywnych obliczeń, jak i znacznych możliwości przetwarzania danych. Wykorzystanie technologii NVIDIA NVLink dodatkowo zwiększa wydajność systemu, umożliwiając szybką komunikację między GPU, minimalizując w ten sposób opóźnienia i maksymalizując przepustowość.
Infrastrukturę CoreWeave charakteryzuje również jej skalowalność. Możliwość skalowania do 110 000 GPU przy użyciu sieci NVIDIA Quantum-2 InfiniBand pozwala platformie obsługiwać nawet najbardziej wymagające projekty AI. Skalowalność ta nie dotyczy tylko surowej mocy obliczeniowej; obejmuje również zapewnienie, że infrastruktura sieciowa może obsługiwać ogromne przepływy danych związane z wielkoskalowym trenowaniem i wnioskowaniem AI. Sieć NVIDIA Quantum-2 InfiniBand zapewnia wymaganą przepustowość i niskie opóźnienia, aby utrzymać optymalną wydajność w miarę skalowania systemu.
Strategiczne znaczenie wczesnej adopcji
Proaktywne podejście CoreWeave do wdrażania nowych technologii, takich jak GPU NVIDIA Grace Blackwell, pozycjonuje go jako strategicznego partnera dla firm znajdujących się w czołówce innowacji AI. Będąc jednym z pierwszych dostawców usług chmurowych oferujących te zaawansowane zasoby, CoreWeave umożliwia swoim klientom uzyskanie przewagi konkurencyjnej na ich rynkach. Ten wczesny dostęp pozwala firmom eksperymentować z nowymi modelami, optymalizować istniejące przepływy pracy i ostatecznie przyspieszyć czas wprowadzenia produktu na rynek.
Korzyści z wczesnej adopcji wykraczają poza sam dostęp do zaawansowanego sprzętu. Obejmuje również ścisłą współpracę z dostawcami technologii, takimi jak NVIDIA, umożliwiając CoreWeave dostrojenie swojej infrastruktury i stosu oprogramowania, aby w pełni wykorzystać możliwości nowego sprzętu. Współpraca ta skutkuje bardziej zoptymalizowaną i wydajną platformą, co przekłada się na lepszą wydajność i oszczędności kosztów dla klientów CoreWeave.
Ponadto strategia wczesnej adopcji CoreWeave sprzyja kulturze innowacji w firmie. Stale przesuwając granice tego, co jest możliwe dzięki cloud computingowi, CoreWeave przyciąga najlepsze talenty i umacnia swoją pozycję jako lider w branży. To z kolei wzmacnia jego zdolność do dostarczania najnowocześniejszych rozwiązań i utrzymywania swojej przewagi konkurencyjnej.
Implikacje dla rozwoju modeli AI
Wdrożenie GPU NVIDIA Grace Blackwell na platformie CoreWeave ma ogromne implikacje dla rozwoju modeli AI. Zwiększona moc obliczeniowa i wydajność tych GPU umożliwiają badaczom i inżynierom trenowanie większych, bardziej złożonych modeli w ułamku czasu w porównaniu z poprzednimi generacjami sprzętu. To przyspieszenie procesu trenowania ma kluczowe znaczenie dla utrzymania się na czele szybko ewoluującej dziedziny AI.
Ponadto systemy NVIDIA GB200 NVL72 ułatwiają rozwój bardziej wyrafinowanych modeli AI, które mogą wykonywać bardziej złożone zadania. Na przykład systemy te są szczególnie dobrze przystosowane do trenowania modeli, które wymagają rozległych możliwości rozumowania, takich jak te używane w przetwarzaniu języka naturalnego i widzeniu komputerowym. Zdolność do przetwarzania ogromnych ilości danych i wykonywania skomplikowanych obliczeń sprawia, że modele te są dokładniejsze, niezawodne i zdolne do obsługi scenariuszy ze świata rzeczywistego.
Wpływ na konkretne aplikacje jest znaczny. W przetwarzaniu języka naturalnego nowy sprzęt umożliwia tworzenie bardziej zaawansowanych modeli językowych, które mogą rozumieć i generować tekst podobny do ludzkiego z większą płynnością i spójnością. Prowadzi to do ulepszeń w aplikacjach, takich jak chatboty, wirtualni asystenci i tłumaczenie maszynowe. W widzeniu komputerowym zwiększona moc obliczeniowa umożliwia rozwój dokładniejszych systemów rozpoznawania obiektów, które są niezbędne w aplikacjach takich jak autonomiczne pojazdy, obrazowanie medyczne i nadzór.
Rola CoreWeave w demokratyzacji AI
Wysiłki CoreWeave, aby udostępnić zaawansowane zasoby obliczeniowe szerszemu gronu odbiorców, odgrywają znaczącą rolę w demokratyzacji AI. Zapewniając opłacalny dostęp do najnowocześniejszego sprzętu, CoreWeave umożliwia mniejszym firmom i instytucjom badawczym konkurowanie z większymi organizacjami, które tradycyjnie dominowały w krajobrazie AI. Ta demokratyzacja AI sprzyja innowacjom i promuje bardziej zróżnicowany zakres perspektyw w rozwoju technologii AI.
Dostępność potężnych zasobów opartych na chmurze obniża również barierę wejścia dla osób i startupów zainteresowanych eksploracją AI. Eliminując potrzebę dużych inwestycji początkowych w sprzęt, CoreWeave pozwala aspirującym programistom AI skupić się na swoich pomysłach i innowacjach. Może to prowadzić do tworzenia nowych aplikacji i rozwiązań, które w przeciwnym razie mogłyby nie być możliwe.
Ponadto zaangażowanie CoreWeave w zapewnianie przyjaznej dla użytkownika platformy i kompleksowych usług wsparcia dodatkowo przyczynia się do demokratyzacji AI. Ułatwiając użytkownikom dostęp do zaawansowanych zasobów obliczeniowych i korzystanie z nich, CoreWeave umożliwia im osiąganie celów i przyczynianie się do postępu AI.
Przekształcanie branż za pomocą AI
Postępy umożliwione dzięki wdrożeniu GPU NVIDIA Grace Blackwell przez CoreWeave mają przekształcić różne branże. Zwiększona moc obliczeniowa i wydajność tych systemów napędzą innowacje i stworzą nowe możliwości w sektorach od opieki zdrowotnej po finanse.
W opiece zdrowotnej AI jest wykorzystywana do opracowywania dokładniejszych narzędzi diagnostycznych, personalizacji planów leczenia i przyspieszenia odkrywania leków. Dostępność zaawansowanych zasobów obliczeniowych umożliwia badaczom analizowanie ogromnych ilości danych medycznych i identyfikowanie wzorców, których nie można by wykryć ręcznie. Może to prowadzić do przełomów w leczeniu chorób i poprawy wyników leczenia pacjentów.
W finansach AI jest wykorzystywana do wykrywania oszustw, zarządzania ryzykiem i automatyzacji procesów handlowych. Zdolność do przetwarzania dużych ilości danych finansowych w czasie rzeczywistym umożliwia firmom podejmowanie bardziej świadomych decyzji i szybkie reagowanie na zmieniające się warunki rynkowe. Może to prowadzić do zwiększenia wydajności, obniżenia kosztów i poprawy rentowności.
Inne branże, które prawdopodobnie zostaną przekształcone przez AI, to produkcja, transport i handel detaliczny. W produkcji AI jest wykorzystywana do optymalizacji procesów produkcyjnych, poprawy kontroli jakości i redukcji odpadów. W transporcie AI umożliwia rozwój autonomicznych pojazdów i bardziej wydajnych systemów logistycznych. W handlu detalicznym AI jest wykorzystywana do personalizacji doświadczeń klientów, optymalizacji cen i poprawy zarządzania łańcuchem dostaw.
Wizja CoreWeave na przyszłość
Wdrożenie GPU NVIDIA Grace Blackwell przez CoreWeave to nie tylko jednorazowe wydarzenie; jest to część szerszej wizji przyszłości cloud computingu i AI. CoreWeave jest zaangażowany w ciągłe inwestowanie w nowe technologie i rozbudowę swojej infrastruktury, aby sprostać zmieniającym się potrzebom swoich klientów. Obejmuje to eksplorację nowych architektur, rozwój bardziej wydajnego oprogramowania i wspieranie współpracy z wiodącymi dostawcami technologii.
Wizja CoreWeave wykracza poza samo dostarczanie zaawansowanych zasobów obliczeniowych. Obejmuje również tworzenie tętniącego życiem ekosystemu programistów, badaczy i firm, które pracują nad przesuwaniem granic AI. Wspierając innowacje i współpracę, CoreWeave dąży do przyspieszenia rozwoju i wdrażania technologii AI w różnych branżach.
Zaangażowanie firmy w zrównoważony rozwój jest również kluczową częścią jej wizji. CoreWeave aktywnie pracuje nad zmniejszeniem swojego wpływu na środowisko poprzez wykorzystywanie odnawialnych źródeł energii i wdrażanie energooszczędnych technologii. Odzwierciedla to rosnącą świadomość znaczenia zrównoważonego rozwoju w branży technologicznej i zaangażowanie w tworzenie bardziej odpowiedzialnej środowiskowo przyszłości.