Nvidias KI-Sprung: Modelle & Bausteine

Der Aufstieg von Llama Nemotron: Verbessertes Reasoning für intelligentere KI

Im Mittelpunkt der Strategie von Nvidia steht die Enthüllung der Llama Nemotron-Familie von KI-Modellen. Diese Modelle verfügen über deutlich verbesserte Reasoning-Fähigkeiten, was einen Fortschritt auf dem Weg zu einer anspruchsvolleren KI darstellt. Die Nemotron-Serie, die auf den Open-Source-Llama-Modellen von Meta Platforms Inc. aufbaut, wurde entwickelt, um Entwicklern eine robuste Grundlage für die Erstellung fortschrittlicher KI-Agenten zu bieten. Diese Agenten sollen Aufgaben mit minimaler menschlicher Aufsicht ausführen, was einen bedeutenden Fortschritt in der KI-Autonomie darstellt.

Nvidia erreichte diese Verbesserungen durch sorgfältige Verbesserungen nach dem Training. Stellen Sie sich vor, Sie nehmen einen bereits begabten Schüler und geben ihm spezialisierten Nachhilfeunterricht. Diese ‘Nachhilfe’ konzentrierte sich auf die Verbesserung der Fähigkeiten der Modelle in mehrstufiger Mathematik, Codierung, komplexer Entscheidungsfindung und allgemeinem Reasoning. Das Ergebnis ist laut Nvidia eine um 20 % höhere Genauigkeit im Vergleich zu den ursprünglichen Llama-Modellen. Aber die Verbesserungen hören nicht bei der Genauigkeit auf. Die Inferenzgeschwindigkeit – im Wesentlichen, wie schnell das Modell Informationen verarbeiten und eine Antwort liefern kann – hat sich verfünffacht. Dies führt dazu, dass komplexere Aufgaben mit geringeren Betriebskosten bewältigt werden können, ein entscheidender Faktor für den Einsatz in der realen Welt.

Die Llama Nemotron-Modelle werden in drei verschiedenen Größen über die NIM-Microservices-Plattform von Nvidia angeboten:

  • Nano: Zugeschnitten für die Bereitstellung auf Geräten mit begrenzter Rechenleistung, wie z. B. PCs und Edge-Geräten. Dies eröffnet Möglichkeiten für KI-Agenten, in ressourcenbeschränkten Umgebungen zu arbeiten.
  • Super: Optimiert für die Ausführung auf einer einzelnen Grafikprozessoreinheit (GPU). Dies bietet ein ausgewogenes Verhältnis zwischen Leistung und Ressourcenbedarf.
  • Ultra: Entwickelt für maximale Leistung, erfordert mehrere GPU-Server. Dies ist für Anwendungen gedacht, die ein Höchstmaß an KI-Fähigkeiten erfordern.

Der Verfeinerungsprozess selbst nutzte die Nvidia DGX Cloud-Plattform und verwendete hochwertige synthetische Daten von Nvidia Nemotron sowie von Nvidia selbst kuratierte Datensätze. In einem Schritt, der Transparenz und Zusammenarbeit fördert, stellt Nvidia diese Datensätze, die verwendeten Tools und die Details seiner Optimierungstechniken öffentlich zur Verfügung. Dieser offene Ansatz ermutigt die breitere KI-Community, auf Nvidias Arbeit aufzubauen und ihre eigenen grundlegenden Reasoning-Modelle zu entwickeln.

Die Auswirkungen von Llama Nemotron zeigen sich bereits in den Partnerschaften, die Nvidia eingegangen ist. Wichtige Akteure wie Microsoft Corp. integrieren diese Modelle in ihre Cloud-basierten Dienste.

  • Microsoft stellt sie im Azure AI Foundry-Dienst zur Verfügung.
  • Sie werden auch als Option für Kunden angeboten, die mit dem Azure AI Agent Service für Microsoft 365 neue Agenten erstellen.
  • SAP SE nutzt Llama Nemotron, um seinen KI-Assistenten Joule und sein breiteres SAP Business AI-Lösungsportfolio zu verbessern.
  • Andere namhafte Unternehmen, darunter Accenture Plc, Atlassian Corp., Box Inc. und ServiceNow Inc., arbeiten ebenfalls mit Nvidia zusammen, um ihren Kunden Zugang zu diesen Modellen zu ermöglichen.

Über Modelle hinaus: Ein umfassendes Ökosystem für agentenbasierte KI

Nvidia versteht, dass der Aufbau von KI-Agenten mehr erfordert als nur leistungsstarke Sprachmodelle. Es wird ein komplettes Ökosystem benötigt, das Infrastruktur, Tools, Datenpipelines und mehr umfasst. Das Unternehmen geht auf diese Bedürfnisse mit einer Reihe zusätzlicher Bausteine für agentenbasierte KI ein, die ebenfalls auf der GTC 2025 angekündigt wurden.

Der Nvidia AI-Q Blueprint: Wissen mit Handeln verbinden

Dieses Framework soll die Verbindung zwischen Wissensdatenbanken und KI-Agenten erleichtern und es ihnen ermöglichen, autonom zu handeln. Der Blueprint, der mit Nvidia NIM-Microservices erstellt und in Nvidia NeMo Retriever integriert wurde, vereinfacht den Prozess des Abrufens multimodaler Daten – Informationen in verschiedenen Formaten wie Text, Bildern und Audio – für KI-Agenten.

Die Nvidia AI Data Platform: Optimierung des Datenflusses für Reasoning

Dieses anpassbare Referenzdesign wird großen Speicheranbietern zur Verfügung gestellt. Ziel ist es, Unternehmen wie Dell Technologies Inc., Hewlett Packard Enterprise Co., Hitachi Vantara, IBM Corp., NetApp Inc., Nutanix Inc., Vast Data Inc. und Pure Storage Inc. bei der Entwicklung effizienterer Datenplattformen speziell für agentenbasierte KI-Inferenz-Workloads zu unterstützen. Durch die Kombination optimierter Speicherressourcen mit der beschleunigten Rechenhardware von Nvidia können Entwickler erhebliche Leistungssteigerungen beim KI-Reasoning erwarten. Dies wird erreicht, indem ein reibungsloser und schneller Informationsfluss von der Datenbank zum KI-Modell sichergestellt wird.

Erweiterte Nvidia NIM Microservices: Kontinuierliches Lernen und Anpassungsfähigkeit

Die NIM-Microservices von Nvidia wurden aktualisiert, um die agentenbasierte KI-Inferenz zu optimieren und kontinuierliches Lernen und Anpassungsfähigkeit zu unterstützen. Diese Microservices ermöglichen es Kunden, die neuesten und leistungsstärksten agentenbasierten KI-Modelle zuverlässig bereitzustellen, darunter Nvidias Llama Nemotron und Alternativen von Unternehmen wie Meta, Microsoft und Mistral AI.

Nvidia NeMo Microservices: Aufbau robuster Daten-Schwungräder

Nvidia verbessert auch seine NeMo-Microservices, die Entwicklern ein Framework für die Erstellung robuster und effizienter Daten-Schwungräder bieten. Dies ist entscheidend, um sicherzustellen, dass KI-Agenten kontinuierlich lernen und sich verbessern können, basierend auf sowohl von Menschen generiertem als auch von KI generiertem Feedback.

Strategische Partnerschaften: Innovation in der gesamten KI-Landschaft vorantreiben

Nvidias Engagement für agentenbasierte KI erstreckt sich auch auf die Zusammenarbeit mit anderen Branchenführern.

Ausbau der Oracle-Partnerschaft: Agentenbasierte KI auf Oracle Cloud Infrastructure

Nvidia erweitert seine Zusammenarbeit mit Oracle Corp., um agentenbasierte KI-Funktionen in die Oracle Cloud Infrastructure (OCI) zu bringen. Diese Partnerschaft umfasst die Integration der beschleunigten GPUs und Inferenzsoftware von Nvidia in die Cloud-Infrastruktur von Oracle, wodurch sie mit den generativen KI-Diensten von Oracle kompatibel werden. Dies wird die Entwicklung von KI-Agenten auf OCI beschleunigen. Nvidia bietet jetzt über 160 KI-Tools und NIM-Microservices nativ über die OCI-Konsole an. Die beiden Unternehmen arbeiten auch daran, die Vektorsuche auf der Oracle Database 23ai-Plattform zu beschleunigen.

Vertiefung der Zusammenarbeit mit Google: Verbesserung des KI-Zugangs und der Integrität

Nvidia gab auch Updates zu seinen erweiterten Kooperationen mit Google LLC bekannt und enthüllte mehrere Initiativen, die darauf abzielen, den Zugang zu KI und ihren zugrunde liegenden Tools zu verbessern.

Ein wichtiges Highlight ist, dass Nvidia die erste Organisation ist, die SynthID von Google DeepMind nutzt. Diese Technologie bettet digitale Wasserzeichen direkt in KI-generierte Inhalte ein, darunter Bilder, Videos und Text. Dies trägt dazu bei, die Integrität von KI-Ausgaben zu wahren und Fehlinformationen zu bekämpfen. SynthID wird zunächst in die Cosmos World-Foundation-Modelle von Nvidia integriert.

Darüber hinaus hat Nvidia mit Forschern von Google DeepMind zusammengearbeitet, um Gemma, eine Familie von Open-Source- und leichtgewichtigen KI-Modellen, für Nvidia-GPUs zu optimieren. Die beiden Unternehmen arbeiten auch an einer Initiative zum Bau von KI-gesteuerten Robotern mit Greiffähigkeiten, neben anderen Projekten.

Die Zusammenarbeit zwischen Google- und Nvidia-Forschern und -Ingenieuren befasst sich mit einer Vielzahl von Herausforderungen. Von der Arzneimittelforschung bis zur Robotik, was das transformative Potenzial von KI verdeutlicht.