Na konferencji GTC 2025 firma Nvidia zasygnalizowała znaczące zaangażowanie w rozwijającą się dziedzinę agentowej sztucznej inteligencji. Firma koncentruje się nie tylko na infrastrukturze bazowej, która zasila te systemy, ale także opracowuje modele, które będą napędzać nową generację autonomicznych agentów AI.
Wzrost Llama Nemotron: Ulepszone rozumowanie dla inteligentniejszej AI
Kluczowym elementem strategii Nvidia jest odsłonięcie rodziny modeli AI Llama Nemotron. Modele te charakteryzują się znacznie ulepszonymi możliwościami rozumowania, co stanowi krok naprzód w dążeniu do bardziej wyrafinowanej sztucznej inteligencji. Zbudowana na bazie otwartych modeli Llama firmy Meta Platforms Inc., seria Nemotron została zaprojektowana, aby zapewnić programistom solidne podstawy do tworzenia zaawansowanych agentów AI. Agenci ci mają wykonywać zadania przy minimalnym nadzorze człowieka, co stanowi znaczący postęp w autonomii AI.
Nvidia osiągnęła te ulepszenia dzięki skrupulatnym ulepszeniom po szkoleniu. Wyobraźmy sobie, że bierzemy już wykwalifikowanego studenta i zapewniamy mu specjalistyczne korepetycje. Te „korepetycje” skupiły się na zwiększeniu możliwości modeli w zakresie wieloetapowej matematyki, kodowania, złożonego podejmowania decyzji i ogólnego rozumowania. Według Nvidii, rezultatem jest 20% wzrost dokładności w porównaniu z oryginalnymi modelami Llama. Ale ulepszenia nie kończą się na dokładności. Szybkość wnioskowania – zasadniczo, jak szybko model może przetwarzać informacje i udzielać odpowiedzi – wzrosła pięciokrotnie. Przekłada się to na obsługę bardziej złożonych zadań przy zmniejszonych kosztach operacyjnych, co jest kluczowym czynnikiem dla wdrożenia w świecie rzeczywistym.
Modele Llama Nemotron są oferowane w trzech różnych rozmiarach za pośrednictwem platformy mikrousług Nvidia NIM:
- Nano: Dostosowany do wdrażania na urządzeniach o ograniczonej mocy obliczeniowej, takich jak komputery osobiste i urządzenia brzegowe. Otwiera to możliwości działania agentów AI w środowiskach o ograniczonych zasobach.
- Super: Zoptymalizowany do wykonywania na pojedynczej jednostce przetwarzania grafiki (GPU). Zapewnia to równowagę między wydajnością a wymaganiami dotyczącymi zasobów.
- Ultra: Zaprojektowany z myślą o maksymalnej wydajności, wymagający wielu serwerów GPU. Jest to przeznaczone do zastosowań wymagających najwyższego poziomu możliwości AI.
Sam proces udoskonalania wykorzystywał platformę Nvidia DGX Cloud, wykorzystując wysokiej jakości dane syntetyczne z Nvidia Nemotron, wraz z własnymi, wyselekcjonowanymi zestawami danych Nvidia. W posunięciu, które promuje przejrzystość i współpracę,Nvidia udostępnia publicznie te zestawy danych, używane narzędzia i szczegóły swoich technik optymalizacji. To otwarte podejście zachęca szerszą społeczność AI do budowania na bazie pracy Nvidii i opracowywania własnych podstawowych modeli rozumowania.
Wpływ Llama Nemotron jest już widoczny w partnerstwach, które zawarła Nvidia. Główni gracze, tacy jak Microsoft Corp., integrują te modele ze swoimi usługami opartymi na chmurze.
- Microsoft udostępnia je w swojej usłudze Azure AI Foundry.
- Będą one również oferowane jako opcja dla klientów tworzących nowych agentów za pomocą usługi Azure AI Agent Service dla Microsoft 365.
- SAP SE wykorzystuje Llama Nemotron do ulepszenia swojego asystenta AI, Joule, i szerszego portfolio rozwiązań SAP Business AI.
- Inne znane firmy, w tym Accenture Plc, Atlassian Corp., Box Inc. i ServiceNow Inc., również współpracują z Nvidią, aby zapewnić swoim klientom dostęp do tych modeli.
Poza modelami: Kompleksowy ekosystem dla agentowej AI
Nvidia rozumie, że budowanie agentów AI wymaga czegoś więcej niż tylko potężnych modeli językowych. Potrzebny jest kompletny ekosystem, obejmujący infrastrukturę, narzędzia, potoki danych i wiele więcej. Firma zaspokaja te potrzeby za pomocą zestawu dodatkowych elementów składowych agentowej AI, również ogłoszonych na GTC 2025.
Nvidia AI-Q Blueprint: Łączenie wiedzy z działaniem
Ta struktura ma na celu ułatwienie połączenia między bazami wiedzy a agentami AI, umożliwiając im autonomiczne działanie. Zbudowany przy użyciu mikrousług Nvidia NIM i zintegrowany z Nvidia NeMo Retriever, plan upraszcza proces pobierania danych multimodalnych – informacji w różnych formatach, takich jak tekst, obrazy i dźwięk – dla agentów AI.
Platforma danych Nvidia AI: Optymalizacja przepływu danych dla rozumowania
Ten konfigurowalny projekt referencyjny jest udostępniany głównym dostawcom pamięci masowej. Celem jest pomoc firmom takim jak Dell Technologies Inc., Hewlett Packard Enterprise Co., Hitachi Vantara, IBM Corp., NetApp Inc.. Nutanix Inc., Vast Data Inc. i Pure Storage Inc. w opracowywaniu bardziej wydajnych platform danych specjalnie dla obciążeń związanych z wnioskowaniem agentowej AI. Łącząc zoptymalizowane zasoby pamięci masowej z akcelerowanym sprzętem obliczeniowym Nvidii, programiści mogą spodziewać się znacznego wzrostu wydajności w rozumowaniu AI. Osiąga się to poprzez zapewnienie płynnego i szybkiego przepływu informacji z bazy danych do modelu AI.
Ulepszone mikrousługi Nvidia NIM: Ciągłe uczenie się i adaptacja
Mikrousługi Nvidia NIM zostały zaktualizowane w celu optymalizacji wnioskowania agentowej AI, wspierając ciągłe uczenie się i adaptację. Te mikrousługi umożliwiają klientom niezawodne wdrażanie najnowszych i najpotężniejszych modeli agentowej AI, w tym Llama Nemotron firmy Nvidia i alternatyw z firm takich jak Meta, Microsoft i Mistral AI.
Mikrousługi Nvidia NeMo: Budowanie solidnych kół zamachowych danych
Nvidia ulepsza również swoje mikrousługi NeMo, które zapewniają programistom ramy do tworzenia solidnych i wydajnych kół zamachowych danych. Jest to kluczowe dla zapewnienia, że agenci AI mogą stale uczyć się i doskonalić w oparciu o informacje zwrotne generowane zarówno przez ludzi, jak i przez AI.
Strategiczne partnerstwa: Napędzanie innowacji w całym krajobrazie AI
Zaangażowanie Nvidii w agentową AI rozciąga się na współpracę z innymi liderami branży.
Rozszerzenie partnerstwa z Oracle: Agentowa AI w Oracle Cloud Infrastructure
Nvidia rozszerza współpracę z Oracle Corp., aby wprowadzić możliwości agentowej AI do Oracle Cloud Infrastructure (OCI). To partnerstwo obejmuje integrację akcelerowanych procesorów graficznych i oprogramowania do wnioskowania Nvidii z infrastrukturą chmurową Oracle, dzięki czemu są one kompatybilne z usługami generatywnej AI Oracle. Przyspieszy to rozwój agentów AI na OCI. Nvidia oferuje teraz ponad 160 narzędzi AI i mikrousług NIM natywnie za pośrednictwem konsoli OCI. Obie firmy pracują również nad przyspieszeniem wyszukiwania wektorowego na platformie Oracle Database 23ai.
Pogłębianie współpracy z Google: Zwiększanie dostępu do AI i jej integralności
Nvidia przedstawiła również aktualizacje dotyczące rozszerzonej współpracy z Google LLC, ujawniając kilka inicjatyw mających na celu poprawę dostępu do AI i jej podstawowych narzędzi.
Kluczowym punktem jest to, że Nvidia staje się pierwszą organizacją, która wykorzystuje SynthID Google DeepMind. Ta technologia bezpośrednio osadza cyfrowe znaki wodne w treściach generowanych przez AI, w tym w obrazach, filmach i tekście. Pomaga to zachować integralność wyników AI i zwalczać dezinformację. SynthID jest początkowo integrowany z podstawowymi modelami Cosmos World firmy Nvidia.
Ponadto Nvidia współpracowała z badaczami Google DeepMind w celu optymalizacji Gemma, rodziny otwartych, lekkich modeli AI, dla procesorów graficznych Nvidia. Obie firmy współpracują również nad inicjatywą mającą na celu budowanie robotów opartych na sztucznej inteligencji z umiejętnościami chwytania, między innymi projektami.
Współpraca między badaczami i inżynierami Google i Nvidia obejmuje szeroki zakres wyzwań. Od odkrywania leków po robotykę, podkreślając transformacyjny potencjał.