NVIDIA Blackwell: Neue LLM-Grenzen
NVIDIA Blackwell GPUs durchbrechen neue Grenzen für LLM-Inferenz und bieten beispiellose Geschwindigkeit und Effizienz für Unternehmen und Forscher.
NVIDIA Blackwell GPUs durchbrechen neue Grenzen für LLM-Inferenz und bieten beispiellose Geschwindigkeit und Effizienz für Unternehmen und Forscher.
Dell Technologies und NVIDIA revolutionieren Enterprise AI mit neuer Serverreihe und Managed Services. Die Partnerschaft beschleunigt die Einführung und Bereitstellung von KI-Lösungen weltweit.
NVIDIA und Microsoft intensivieren ihre Zusammenarbeit, um Agentic AI-Anwendungen von der Cloud bis zum PC voranzutreiben. Die Partnerschaft zielt darauf ab, wissenschaftliche Entdeckungen zu beschleunigen und Innovationen zu fördern.
VAST Data integriert Nvidia AI-Q in Speicherlösungen, um Kunden bei der Entwicklung und Bereitstellung anspruchsvoller KI-Agenten zu unterstützen. Die Partnerschaft ebnet den Weg für die nächste Generation der KI-Infrastruktur.
Ein exklusives Interview mit Joey Conway enthüllt NVIDIAs Fortschritte bei Open-Source-LLMs und ASR, insbesondere Llama Nemotron Ultra und Parakeet, die NVIDIAs Engagement für KI-Innovation zeigen.
Nemotron-Tool-N1 revolutioniert die LLM-Tool-Nutzung durch Reinforcement Learning, überwindet Einschränkungen traditioneller Methoden und optimiert das eigenständige Reasoning.
KI-Agenten revolutionieren High-Stakes-Entscheidungen. Sie analysieren komplex Daten, identifizieren Muster und treffen fundierte Entscheidungen. Ihre Fähigkeit, Muster zu erkennen, verspricht Effizienz, Produktivität und Innovation.
Nvidias Llama Nemotron KI-Modelle demonstrieren, wie strategische Ressourcenzuteilung und Zusammenarbeit die KI-Forschung beschleunigen können. GPU-Zugang spielt eine entscheidende Rolle.
NVIDIA stellt Parakeet vor, ein KI-Transkriptionstool, das eine Stunde Audio in einer Sekunde transkribiert. Es ist über GitHub zugänglich und übertrifft viele Konkurrenten in Bezug auf die Genauigkeit.
Nvidias Llama-Nemotron Modelle übertreffen DeepSeek-R1. Details zum Training mit 140.000 H100-Stunden wurden offengelegt. Diese Open-Source-Modelle bieten hohe Inferenzleistung und Speichereffizienz.