De opkomst van Llama Nemotron: Verbeterd redeneren voor slimmere AI
Centraal in Nvidia’s strategie staat de onthulling van de Llama Nemotron-familie van AI-modellen. Deze modellen beschikken over aanzienlijk verbeterde redeneercapaciteiten, wat een stap voorwaarts markeert in de zoektocht naar meer geavanceerde AI. De Nemotron-serie, gebouwd op Meta Platforms Inc.’s open-source Llama-modellen, is ontworpen om ontwikkelaars een robuuste basis te bieden voor het creëren van geavanceerde AI-agenten. Deze agenten zijn bedoeld om taken uit te voeren met minimale menselijke tussenkomst, wat een aanzienlijke vooruitgang in AI-autonomie vertegenwoordigt.
Nvidia bereikte deze verbeteringen door middel van nauwgezette verbeteringen na de training. Zie het als het nemen van een al bekwame student en het bieden van gespecialiseerde tutoring. Deze ‘tutoring’ was gericht op het verbeteren van de capaciteiten van de modellen in meerstaps wiskunde, codering, complexe besluitvorming en algemeen redeneren. Het resultaat is, volgens Nvidia, een toename van 20% in nauwkeurigheid in vergelijking met de originele Llama-modellen. Maar de verbeteringen stoppen niet bij nauwkeurigheid. De inferentiesnelheid – in wezen hoe snel het model informatie kan verwerken en een antwoord kan geven – is vervijfvoudigd. Dit vertaalt zich in het afhandelen van complexere taken met lagere operationele kosten, een cruciale factor voor implementatie in de echte wereld.
De Llama Nemotron-modellen worden aangeboden in drie verschillende groottes via Nvidia’s NIM-microservicesplatform:
- Nano: Op maat gemaakt voor implementatie op apparaten met beperkte verwerkingskracht, zoals personal computers en edge-apparaten. Dit opent mogelijkheden voor AI-agenten om te werken in omgevingen met beperkte middelen.
- Super: Geoptimaliseerd voor uitvoering op een enkele grafische verwerkingseenheid (GPU). Dit biedt een balans tussen prestaties en resourcevereisten.
- Ultra: Ontworpen voor maximale prestaties, waarvoor meerdere GPU-servers nodig zijn. Dit is geschikt voor toepassingen die de hoogste niveaus van AI-capaciteit vereisen.
Het verfijningsproces zelf maakte gebruik van het Nvidia DGX Cloud-platform, waarbij gebruik werd gemaakt van hoogwaardige synthetische gegevens van Nvidia Nemotron, samen met Nvidia’s eigen samengestelde datasets. In een beweging die transparantie en samenwerking bevordert, stelt Nvidia deze datasets, de gebruikte tools en de details van zijn optimalisatietechnieken openbaar beschikbaar. Deze open benadering moedigt de bredere AI-gemeenschap aan om voort te bouwen op het werk van Nvidia en hun eigen fundamentele redeneermodellen te ontwikkelen.
De impact van Llama Nemotron is al duidelijk zichtbaar in de partnerschappen die Nvidia is aangegaan. Grote spelers zoals Microsoft Corp. integreren deze modellen in hun cloudgebaseerde services.
- Microsoft maakt ze beschikbaar op zijn Azure AI Foundry-service.
- Ze zullen ook worden aangeboden als een optie voor klanten die nieuwe agenten maken met behulp van de Azure AI Agent Service voor Microsoft 365.
- SAP SE maakt gebruik van Llama Nemotron om zijn AI-assistent, Joule, en zijn bredere SAP Business AI-oplossingenportfolio te verbeteren.
- Andere prominente bedrijven, waaronder Accenture Plc, Atlassian Corp., Box Inc. en ServiceNow Inc., werken ook samen met Nvidia om hun klanten toegang te bieden tot deze modellen.
Verder dan modellen: Een uitgebreid ecosysteem voor agent-gebaseerde AI
Nvidia begrijpt dat het bouwen van AI-agenten meer vereist dan alleen krachtige taalmodellen. Er is een compleet ecosysteem nodig, dat infrastructuur, tools, datapijplijnen en meer omvat. Het bedrijf komt aan deze behoeften tegemoet met een reeks aanvullende bouwstenen voor agent-gebaseerde AI, ook aangekondigd op GTC 2025.
De Nvidia AI-Q Blueprint: Kennis verbinden met actie
Dit framework is ontworpen om de verbinding tussen kennisbanken en AI-agenten te vergemakkelijken, waardoor ze autonoom kunnen handelen. Gebouwd met behulp van Nvidia NIM-microservices en geïntegreerd met Nvidia NeMo Retriever, vereenvoudigt de blueprint het proces van het ophalen van multimodale gegevens – informatie in verschillende formaten zoals tekst, afbeeldingen en audio – voor AI-agenten.
Het Nvidia AI Data Platform: Datastroom optimaliseren voor redeneren
Dit aanpasbare referentieontwerp wordt beschikbaar gesteld aan grote opslagproviders. Het doel is om bedrijven zoals Dell Technologies Inc., Hewlett Packard Enterprise Co., Hitachi Vantara, IBM Corp., NetApp Inc.. Nutanix Inc., Vast Data Inc. en Pure Storage Inc. te helpen bij het ontwikkelen van efficiëntere dataplatforms specifiek voor agent-gebaseerde AI-inferentieworkloads. Door geoptimaliseerde opslagbronnen te combineren met Nvidia’s versnelde computerhardware, kunnen ontwikkelaars aanzienlijke prestatieverbeteringen verwachten in AI-redenering. Dit wordt bereikt door te zorgen voor een soepele en snelle informatiestroom van de database naar het AI-model.
Verbeterde Nvidia NIM-microservices: Continu leren en aanpassingsvermogen
Nvidia’s NIM-microservices zijn bijgewerkt om agent-gebaseerde AI-inferentie te optimaliseren, met ondersteuning voor continu leren en aanpassingsvermogen. Deze microservices stellen klanten in staat om op betrouwbare wijze de nieuwste en krachtigste agent-gebaseerde AI-modellen te implementeren, waaronder Nvidia’s Llama Nemotron en alternatieven van bedrijven zoals Meta, Microsoft en Mistral AI.
Nvidia NeMo-microservices: Robuuste data-vliegwielen bouwen
Nvidia verbetert ook zijn NeMo-microservices, die een framework bieden voor ontwikkelaars om robuuste en efficiënte data-vliegwielen te creëren. Dit is cruciaal om ervoor te zorgen dat AI-agenten continu kunnen leren en verbeteren op basis van zowel door mensen gegenereerde als door AI gegenereerde feedback.
Strategische partnerschappen: Innovatie stimuleren in het AI-landschap
Nvidia’s toewijding aan agent-gebaseerde AI strekt zich uit tot zijn samenwerkingen met andere marktleiders.
Uitbreiding van het Oracle-partnerschap: Agent-gebaseerde AI op Oracle Cloud Infrastructure
Nvidia breidt zijn samenwerking met Oracle Corp. uit om agent-gebaseerde AI-mogelijkheden naar Oracle Cloud Infrastructure (OCI) te brengen. Dit partnerschap omvat de integratie van Nvidia’s versnelde GPU’s en inferentiesoftware in de cloudinfrastructuur van Oracle, waardoor ze compatibel worden met de generatieve AI-services van Oracle. Dit zal de ontwikkeling van AI-agenten op OCI versnellen. Nvidia biedt nu meer dan 160 AI-tools en NIM-microservices native aan via de OCI-console. De twee bedrijven werken ook samen om vector search op het Oracle Database 23ai-platform te versnellen.
Verdieping van de samenwerking met Google: Verbetering van AI-toegang en -integriteit
Nvidia gaf ook updates over zijn uitgebreide samenwerkingen met Google LLC, waarbij verschillende initiatieven werden onthuld die gericht zijn op het verbeteren van de toegang tot AI en de onderliggende tools.
Een belangrijk hoogtepunt is dat Nvidia de eerste organisatie wordt die gebruikmaakt van Google DeepMind’s SynthID. Deze technologie integreert digitale watermerken rechtstreeks in door AI gegenereerde inhoud, waaronder afbeeldingen, video en tekst. Dit helpt de integriteit van AI-outputs te behouden en desinformatie te bestrijden. SynthID wordt in eerste instantie geïntegreerd met Nvidia’s Cosmos World-fundatiemodellen.
Daarnaast heeft Nvidia samengewerkt met Google’s DeepMind-onderzoekers om Gemma, een familie van open-source, lichtgewicht AI-modellen, te optimaliseren voor Nvidia GPU’s. De twee bedrijven werken ook samen aan een initiatief om AI-aangedreven robots met grijpvaardigheden te bouwen, naast andere projecten.
De samenwerkingen tussen Google- en Nvidia-onderzoekers en -ingenieurs pakken een breed scala aan uitdagingen aan. Van medicijnontdekking tot robotica, wat het transformatieve potentieel van.