NVIDIA & Microsoft: KI-Innovationen

KI-gestützte Fortschritte in Wissenschaft und Forschung

Microsoft Discovery integriert nun NVIDIA’s ALCHEMI NIM Microservice. Diese Integration optimiert die KI-Inferenz für komplexe chemische Simulationen, was die Forschung in der Materialwissenschaft durch präzise Eigenschaftsvorhersagen und effektive Kandidatenempfehlungen erheblich beschleunigt. Dies verspricht, die Identifizierung neuartiger Materialien mit erwünschten Eigenschaften zu rationalisieren und den traditionell erforderlichen Zeit- und Ressourcenaufwand zu reduzieren.

Darüber hinaus wird Microsoft Discovery NVIDIA BioNeMo NIM Microservices integrieren. Diese Microservices sind darauf ausgelegt, vortrainierte KI-Workflows zu nutzen und den KI-Modellentwicklungsprozess für die Arzneimittelentdeckung beträchtlich zu beschleunigen. Durch die Nutzung dieser Tools können Forscher schnell KI-Modelle entwickeln und verfeinern, die die Wirksamkeit und potenzielle Nebenwirkungen von Medikamenten vorhersagen, was zu effizienteren und zielgerichteteren Arzneimittelentwicklungsprozessen führt.

Diese Integrationen sind minutiös darauf ausgelegt, Forschern eine beschleunigte Leistung zu ermöglichen und die für wissenschaftliche Entdeckungen benötigte Zeit zu verkürzen. Sie gewährleisten, dass Forscher riesige Datensätze und komplexe Simulationen mit beispielloser Geschwindigkeit und Genauigkeit bearbeiten können, wodurch sie in die Lage versetzt werden, einige der herausforderndsten Probleme der wissenschaftlichen Forschung anzugehen.

Eine praktische Anwendung dieser Fortschritte wurde von Microsoft-Forschern demonstriert. Sie nutzten Microsoft Discovery erfolgreich, um in weniger als 200 Stunden einen neuen Kühlmittelprototyp zu identifizieren, der vielversprechende Eigenschaften für die Immersionskühlung in Rechenzentren aufwies. Diese Zeitspanne steht in krassem Gegensatz zu den Monaten oder sogar Jahren, die herkömmliche Methoden typischerweise erfordern. Die Immersionskühlung, bei der elektronische Komponenten in ein nichtleitendes flüssiges Kühlmittel getaucht werden, wird für die Bewältigung der von Hochleistungsrechensystemen erzeugten Wärme immer wichtiger.

NVIDIA Blackwell GPUs in Azure-Rechenzentren

Um Leistung und Effizienz zu steigern, setzt Microsoft weltweit schnell Hunderttausende von NVIDIA Blackwell GPUs in KI-optimierten Azure-Rechenzentren ein. Diese GPUs sind in NVIDIA GB200 NVL72 Rack-Scale-Systeme integriert, die für die anspruchsvollsten KI-Workloads entwickelt wurden.

Mehrere wichtige Microsoft-Kunden, darunter OpenAI, führen derzeit Produktions-Workloads auf dieser fortschrittlichen Infrastruktur aus. Die Nutzung von NVIDIA Blackwell GPUs ermöglicht es diesen Organisationen, komplexe KI-Aufgaben effizienter und effektiver auszuführen. Diese Bereitstellung unterstreicht das Engagement von Microsoft, seinen Kunden hochmoderne KI-Funktionen bereitzustellen.

Azure’s ND GB200 v6 virtuelle Maschinen stellen einen bedeutenden Fortschritt in der Rechenleistung dar. Sie liefern bis zu 35-mal mehr Inferenzdurchsatz im Vergleich zu den vorherigen ND H100 v5 VMs. Die älteren VMs, die von acht NVIDIA H100 GPUs beschleunigt wurden, verblassen nun im Vergleich zu der verbesserten Leistung, die die neue Generation bietet, was einen neuen Maßstab für KI-Workloads setzt. Diese Leistungssteigerung kann die mit der Ausführung umfangreicher KI-Modelle verbundene Zeit und Kosten erheblich reduzieren.

Dieser beeindruckende Umfang und die hohe Leistung werden durch kundenspezifische Serverdesigns, Hochgeschwindigkeits-NVIDIA NVLink-Verbindungen und NVIDIA Quantum InfiniBand-Netzwerke unterstützt. Diese Technologien ermöglichen eine nahtlose Skalierung auf Tausende von Blackwell GPUs, was für die Bewältigung anspruchsvoller generativer und agentischer KI-Anwendungen unerlässlich ist. Die ausgeklügelte Konnektivität gewährleistet eine latenzarme Kommunikation zwischen GPUs und verbessert so die Gesamtleistung des Systems.

Satya Nadella, Microsoft’s Chairman und CEO, und Jensen Huang, NVIDIA’s Gründer und CEO, betonten, dass ihre Zusammenarbeit durch kontinuierliche Softwareoptimierungen über alle NVIDIA-Architekturen auf Azure hinweg erhebliche Leistungssteigerungen hervorbringt. Dieser Ansatz ist darauf ausgelegt, die Entwicklerproduktivität zu maximieren, die Gesamtbetriebskosten zu senken und alle Workloads, einschließlich KI und Datenverarbeitung, zu beschleunigen. Letztendlich führt dies zu einer höheren Effizienz pro Dollar und pro Watt für die Kunden.

Erweiterte Funktionen mit NIM-Integration

Aufbauend auf der NIM-Integration in Azure AI Foundry erweitern Microsoft und NVIDIA die Plattform mit der NVIDIA Llama Nemotron-Familie von Open-Reasoning-Modellen und NVIDIA BioNeMo NIM Microservices. Diese sind darauf ausgelegt, containerisierte Inferencing in Unternehmensqualität für komplexe Entscheidungsfindung und domänenspezifische KI-Workloads bereitzustellen.

Entwickler können nun optimierte NIM Microservices für fortschrittliches Reasoning innerhalb von Azure AI Foundry nutzen. Dazu gehören die NVIDIA Llama Nemotron Super- und Nano-Modelle, die fortschrittliches mehrstufiges Reasoning, Codierung und agentische Fähigkeiten bieten. Sie bieten bis zu 20 % höhere Genauigkeit und fünfmal schnellere Inferenz im Vergleich zu früheren Modellen, wodurch Entwickler anspruchsvollere und effizientere KI-Anwendungen erstellen können.

BioNeMo NIM Microservices, die speziell auf Gesundheitsanwendungen zugeschnitten sind, adressieren kritische Bedürfnisse in den Bereichen digitale Biologie, Arzneimittelentdeckung und medizinische Bildgebung. Sie ermöglichen es Forschern und Klinikern, die Proteinforschung, molekulare Modellierung und Genomanalyse zu beschleunigen, was zu einer verbesserten Patientenversorgung und schnelleren wissenschaftlichen Innovationen führt. Diese Tools ermöglichen es Fachleuten im Gesundheitswesen, fundiertere Entscheidungen zu treffen und wirksamere Behandlungen zu entwickeln.

Diese erweiterte Integration ermöglicht es Unternehmen, High-Performance-KI-Agenten schnell bereitzustellen. Durch die Verbindung mit diesen Modellen und anderen spezialisierten Gesundheitslösungen können Unternehmen eine robuste Zuverlässigkeit und vereinfachte Skalierung erreichen und so die unterschiedlichen Bedürfnisse verschiedener Branchen und Anwendungen erfüllen.

Generative KI auf RTX AI PCs

Generative KI revolutioniert PC-Software, indem sie völlig neue Erlebnisse einführt, die von digitalen Menschen über Schreibassistenten und intelligente Agenten bis hin zu kreativen Tools reichen. NVIDIA RTX AI PCs erleichtern das Experimentieren mit generativer KI und verbessern die Leistung unter Windows 11, wodurch hochmoderne KI einem breiteren Publikum zugänglich gemacht wird.

Auf der Microsoft Build enthüllten NVIDIA und Microsoft einen KI-Inferencing-Stack, der die Entwicklung vereinfachen und die Inferenzleistung für Windows 11 PCs verbessern soll. Dieses Toolset ist entscheidend für die Ermöglichung eines nahtlosen KI-Erlebnisses auf Personalcomputern, wodurch KI-Tools reaktionsschneller und effizienter werden.

NVIDIA TensorRT wurde speziell für RTX AI PCs überarbeitet. Es kombiniert TensorRT-Leistung mit Just-in-Time, On-Device-Engine-Building und einer achtmal kleineren Paketgröße für die nahtlose KI-Bereitstellung auf über 100 Millionen RTX AI PCs. Diese Optimierung ermöglicht eine schnellere und effizientere KI-Verarbeitung auf PCs und ebnet den Weg für neue Anwendungen und Fähigkeiten.

TensorRT für RTX, das auf der Microsoft Build angekündigt wurde, wird nativ von Windows ML unterstützt – einem neuen Inferenz-Stack, der App-Entwicklern eine breite Hardwarekompatibilität und hochmoderne Leistung bietet. TensorRT für RTX ist ab heute in der Windows ML-Vorschau verfügbar und wird im Juni als eigenständiges Software Development Kit von NVIDIA Developer erhältlich sein. Diese Entwicklung vereinfacht den Prozess für Entwickler, die KI-Funktionen in ihre Windows-Anwendungen integrieren möchten, und stellt sicher, dass KI einer breiten Palette von Softwarelösungen zugänglich ist.

Im Wesentlichen schafft die Zusammenarbeit zwischen NVIDIA und Microsoft ein synergetisches Ökosystem, in dem Fortschritte in der KI-Technologie rasch in reale Anwendungen umgesetzt werden, was Forschern, Entwicklern und Endbenutzern gleichermaßen zugute kommt. Diese Partnerschaft ist strategisch positioniert, um ihre Führungsrolle im sich rasch entwickelnden Bereich der künstlichen Intelligenz zu behaupten.

Detaillierte Aufschlüsselung der Fortschritte

Modernste Technologien

Die Zusammenarbeit zwischen NVIDIA und Microsoft nutzt mehrere modernste Technologien, um Fortschritte in der agentischen KI zu erzielen. Hier gehen wir auf diese Schlüsselkomponenten ein.

  • NVIDIA ALCHEMI NIM Microservice: Dieser Microservice ist ein spezialisiertes Tool, das für KI-Inferenz in chemischen Simulationen optimiert ist. Seine Hauptfunktion besteht darin, die materialwissenschaftliche Forschung durch genaue Eigenschaftsvorhersagen und effiziente Kandidatenempfehlungen zu beschleunigen. Durch die Ermöglichung schnellerer und präziserer Simulationen ermöglicht es Forschern, vielversprechende Materialien weitaus schneller zu identifizieren als herkömmliche Methoden es zulassen.

  • NVIDIA BioNeMo NIM Microservices: Diese Microservices stellen vortrainierte KI-Workflows bereit, um die KI-Modellentwicklung für die Arzneimittelentdeckung zu beschleunigen. Forscher können sie verwenden, um schnell Modelle zu entwickeln, die die Wirksamkeit und potenziellen Nebenwirkungen von Medikamenten vorhersagen, wodurch die Entwicklung neuer Medikamente erheblich beschleunigt wird.

  • NVIDIA Blackwell GPUs: Diese GPUs bieten verbesserte Leistung und Effizienz bei KI-Workloads in Azure-Rechenzentren. Integriert in Rack-Scale-Systeme unterstützen sie Clients wie OpenAI bei der reibungslosen und effektiven Ausführung komplexer Aufgaben.

  • NVIDIA NVLink Interconnects: Diese Hochgeschwindigkeitsverbindungen dienen dazu, eine latenzarme Kommunikation zwischen GPUs sicherzustellen und die Gesamtleistung des Systems erheblich zu verbessern. Das Ergebnis ist eine schnellere Berechnung und eine verbesserte Effizienz bei verschiedenen KI-Operationen.

  • NVIDIA Quantum InfiniBand Networking: Dies unterstützt die nahtlose Skalierung auf Tausende von Blackwell GPUs, was für die Bewältigung anspruchsvoller generativer und agentischer KI-Workloads unerlässlich ist. Die Netzwerkfunktionen stellen sicher, dass umfangreiche KI-Modelle effektiv bereitgestellt und verwaltet werden können.

  • NVIDIA Llama Nemotron Models: Die NVIDIA Llama Nemotron Super- und Nano-Modelle sind darauf ausgelegt, fortschrittliches mehrstufiges Reasoning, Codierung und agentische Fähigkeiten bereitzustellen. Verbesserte Genauigkeit und schnellere Inferenzgeschwindigkeiten ermöglichen es Entwicklern, anspruchsvollere und effizientere KI-Anwendungen zu erstellen.

Auswirkungen auf die wissenschaftliche Forschung

Die Integration von NVIDIAs Technologien in Microsofts Plattformen hat tiefgreifende Auswirkungen auf die wissenschaftliche Forschung in verschiedenen Disziplinen.

  • Materialwissenschaft: NVIDIA ALCHEMI NIM Microservice hilft bei der präzisen Eigenschaftsvorhersage und Kandidatenempfehlung und ermöglicht so eine schnellere Identifizierung neuartiger Materialien mit den gewünschten Eigenschaften.

  • Arzneimittelentdeckung: Die BioNeMo NIM Microservices beschleunigen die KI-Modellentwicklung und ermöglichen es Forschern, Modelle zu entwickeln, die die Wirksamkeit und potenziellen Nebenwirkungen von Medikamenten vorhersagen.

  • Rechenzentrenkühlung: Microsoft nutzte Microsoft Discovery, um in weniger als 200 Stunden anstelle von Monaten oder Jahren mit herkömmlichen Methoden einen neuartigen Kühlmittelprototyp zu erkennen, der ideal für die Immersionskühlung in Rechenzentren ist. Dies unterstreicht die rasante Beschleunigung wissenschaftlicher Entdeckungen.

  • Proteinforschung, molekulare Modellierung und Genomanalyse: BioNeMo NIM Microservices ermöglichen eine Beschleunigung in diesen Bereichen. Sie führen zu einer verbesserten Patientenversorgung und schnelleren wissenschaftlichen Innovationen.

Azure AI-Infrastruktur

Microsofts Azure AI Foundry und seine Rechenzentren stellen erhebliche Investitionen in die Schaffung einer optimalen Umgebung für die Ausführung von KI-Workloads dar.

  • ND GB200 v6 Virtual Machines: Sie liefern bis zu 35-mal mehr Inferenzdurchsatz im Vergleich zu den vorherigen ND H100 v5 VMs und setzen damit einen neuen Maßstab für KI-Workloads.

  • Custom Server Designs: Custom Server Designs werden entwickelt, um Leistung und Effizienz zu maximieren, sodass die Blackwell GPUs ihr volles Potenzial entfalten können.

  • NVIDIA-Optimierungen auf Azure: Kontinuierliche Softwareoptimierungen über alle NVIDIA-Architekturen auf Azure maximieren die Entwicklerproduktivität, senken die Gesamtbetriebskosten und beschleunigen alle Workloads, wodurch die Effizienz pro Dollar und pro Watt für die Kunden gesteigert wird.

Generative KI auf Personalcomputern

Die Fortschritte in der KI-Technologie finden auch ihren Weg in Personalcomputer und treiben so neue Möglichkeiten für Softwareanwendungen und Benutzererlebnisse voran.

  • NVIDIA RTX AI PCs: Vereinfachtes Experimentieren mit generativer KI und Leistungssteigerung unter Windows 11 werden durch NVIDIA RTX AI PCs ermöglicht. Sie machen hochmoderne KI-Technologie einem breiteren Publikum zugänglich.

  • NVIDIA TensorRT: Dieses Software Development Kit (SDK) wurde für RTX AI PCs optimiert. Es kombiniert hohe Leistung mit einer achtmal kleineren Paketgröße für die nahtlose KI-Bereitstellung. Dies erleichtert es Entwicklern, KI-Funktionen in die Anwendung zu integrieren.

  • Windows ML-Unterstützung: Die native Unterstützung für TensorRT in Windows ML gewährleistet eine breite Hardwarekompatibilität und hochmoderne Leistung. Dies erleichtert die nahtlose Integration von KI in Windows-Anwendungen.

  • Neue Benutzererlebnisse: Von digitalen Menschen über Schreibassistenten und intelligente Agenten bis hin zu kreativen Tools – generative KI verändert PC-Software und führt völlig neue Erlebnisse ein. Benutzer können von interaktiveren, intelligenteren und kreativeren Anwendungen profitieren.

Die strategische Vision

Die Zusammenarbeit zwischen NVIDIA und Microsoft basiert auf einer strategischen Vision, die darauf abzielt, die Weiterentwicklung der KI-Technologie in verschiedenen Sektoren anzuführen. Die gemeinschaftlichen Anstrengungen und Technologien sind darauf ausgelegt, die Einführung von KI in verschiedenen Bereichen zu beschleunigen, was nicht nur Forschern und Entwicklern, sondern auch Endbenutzern und Organisationen auf der ganzen Welt zugute kommt.

  • Innovation: Die kontinuierliche Betonung von Innovation und Zusammenarbeit beschleunigt technologische Fortschritte. Dies trägt dazu bei, die Führungsposition in einem sich rasch entwickelnden Bereich zu behaupten.

  • Barrierefreiheit: NVIDIA und Microsoft demokratisieren KI, indem sie sie Entwicklern und Benutzern durch optimierte Tools, die Integration in beliebte Plattformen und Verbesserungen der Kosteneffizienz zugänglich machen.

  • Leistung und Effizienz: Der Fokus auf die Verbesserung von Leistung und Kosteneffizienz stellt sicher, dass die Vorteile von KI-Technologien einer breiten Palette von Benutzern zur Verfügung stehen, von einzelnen Forschern bis hin zu großen Unternehmen.

  • Reale Anwendungen: Indem sie KI-Fortschritte in reale Lösungen umsetzen, treiben NVIDIA und Microsoft greifbare Vorteile voran und verändern Branchen auf der ganzen Welt.