Nvidia : Modèles de raisonnement IA

L’essor de Llama Nemotron : Un raisonnement amélioré pour une IA plus intelligente

Au cœur de la stratégie de Nvidia se trouve le dévoilement de la famille de modèles d’IA Llama Nemotron. Ces modèles présentent des capacités de raisonnement considérablement améliorées, marquant une avancée dans la quête d’une IA plus sophistiquée. Construite sur les modèles open-source Llama de Meta Platforms Inc., la série Nemotron est conçue pour fournir aux développeurs une base solide pour créer des agents IA avancés. Ces agents sont conçus pour effectuer des tâches avec une supervision humaine minimale, ce qui représente une avancée significative dans l’autonomie de l’IA.

Nvidia a réalisé ces améliorations grâce à des optimisations post-entraînement méticuleuses. Imaginez que vous preniez un étudiant déjà compétent et que vous lui donniez un tutorat spécialisé. Ce ‘tutorat’ s’est concentré sur l’amélioration des capacités des modèles en mathématiques multi-étapes, en codage, en prise de décision complexe et en raisonnement général. Le résultat, selon Nvidia, est une augmentation de 20 % de la précision par rapport aux modèles Llama originaux. Mais les améliorations ne s’arrêtent pas à la précision. La vitesse d’inférence – essentiellement, la rapidité avec laquelle le modèle peut traiter les informations et fournir une réponse – a été multipliée par cinq. Cela se traduit par la gestion de tâches plus complexes avec des coûts opérationnels réduits, un facteur crucial pour un déploiement dans le monde réel.

Les modèles Llama Nemotron sont proposés en trois tailles distinctes via la plateforme de microservices NIM de Nvidia :

  • Nano : Conçu pour un déploiement sur des appareils dotés d’une puissance de traitement limitée, tels que les ordinateurs personnels et les appareils périphériques. Cela ouvre des possibilités pour les agents IA de fonctionner dans des environnements aux ressources limitées.
  • Super : Optimisé pour une exécution sur une seule unité de traitement graphique (GPU). Cela offre un équilibre entre les performances et les besoins en ressources.
  • Ultra : Conçu pour des performances maximales, nécessitant plusieurs serveurs GPU. Cela répond aux applications exigeant les plus hauts niveaux de capacité d’IA.

Le processus d’amélioration lui-même a exploité la plateforme Nvidia DGX Cloud, en utilisant des données synthétiques de haute qualité provenant de Nvidia Nemotron, ainsi que les propres ensembles de données de Nvidia. Dans un souci de transparence et de collaboration, Nvidia met à disposition du public ces ensembles de données, les outils utilisés et les détails de ses techniques d’optimisation. Cette approche ouverte encourage la communauté de l’IA au sens large à s’appuyer sur le travail de Nvidia et à développer ses propres modèles de raisonnement fondamentaux.

L’impact de Llama Nemotron est déjà évident dans les partenariats que Nvidia a noués. Des acteurs majeurs comme Microsoft Corp. intègrent ces modèles dans leurs services cloud.

  • Microsoft les met à disposition sur son service Azure AI Foundry.
  • Ils seront également proposés en option aux clients créant de nouveaux agents à l’aide du service Azure AI Agent pour Microsoft 365.
  • SAP SE exploite Llama Nemotron pour améliorer son assistant IA, Joule, et son portefeuille plus large de solutions SAP Business AI.
  • D’autres sociétés de premier plan, notamment Accenture Plc, Atlassian Corp., Box Inc. et ServiceNow Inc., collaborent également avec Nvidia pour offrir à leurs clients l’accès à ces modèles.

Au-delà des modèles : un écosystème complet pour l’IA agentique

Nvidia comprend que la construction d’agents IA nécessite plus que de simples modèles de langage puissants. Un écosystème complet est nécessaire, englobant l’infrastructure, les outils, les pipelines de données, etc. La société répond à ces besoins avec une suite de blocs de construction d’IA agentique supplémentaires, également annoncés lors de la GTC 2025.

Le Blueprint Nvidia AI-Q : connecter la connaissance à l’action

Ce framework est conçu pour faciliter la connexion entre les bases de connaissances et les agents IA, leur permettant d’agir de manière autonome. Construit à l’aide des microservices Nvidia NIM et intégré à Nvidia NeMo Retriever, le blueprint simplifie le processus de récupération de données multimodales – informations sous différents formats comme le texte, les images et l’audio – pour les agents IA.

La plateforme de données Nvidia AI : optimiser le flux de données pour le raisonnement

Cette conception de référence personnalisable est mise à la disposition des principaux fournisseurs de stockage. L’objectif est d’aider des entreprises comme Dell Technologies Inc., Hewlett Packard Enterprise Co., Hitachi Vantara, IBM Corp., NetApp Inc., Nutanix Inc., Vast Data Inc. et Pure Storage Inc. à développer des plateformes de données plus efficaces spécifiquement pour les charges de travail d’inférence d’IA agentique. En combinant des ressources de stockage optimisées avec le matériel informatique accéléré de Nvidia, les développeurs peuvent s’attendre à des gains de performance significatifs dans le raisonnement de l’IA. Ceci est réalisé en assurant un flux fluide et rapide d’informations de la base de données vers le modèle d’IA.

Microservices Nvidia NIM améliorés : apprentissage continu et adaptabilité

Les microservices NIM de Nvidia ont été mis à jour pour optimiser l’inférence de l’IA agentique, en prenant en charge l’apprentissage continu et l’adaptabilité. Ces microservices permettent aux clients de déployer de manière fiable les modèles d’IA agentique les plus récents et les plus puissants, y compris Llama Nemotron de Nvidia et les alternatives d’entreprises comme Meta, Microsoft et Mistral AI.

Microservices Nvidia NeMo : construire des volants d’inertie de données robustes

Nvidia améliore également ses microservices NeMo, qui fournissent un framework permettant aux développeurs de créer des volants d’inertie de données robustes et efficaces. Ceci est crucial pour garantir que les agents IA peuvent continuellement apprendre et s’améliorer en fonction des commentaires générés par l’homme et par l’IA.

Partenariats stratégiques : stimuler l’innovation dans le paysage de l’IA

L’engagement de Nvidia envers l’IA agentique s’étend à ses collaborations avec d’autres leaders de l’industrie.

Extension du partenariat Oracle : l’IA agentique sur Oracle Cloud Infrastructure

Nvidia élargit sa collaboration avec Oracle Corp. pour apporter des capacités d’IA agentique à Oracle Cloud Infrastructure (OCI). Ce partenariat implique l’intégration des GPU accélérés et des logiciels d’inférence de Nvidia dans l’infrastructure cloud d’Oracle, les rendant compatibles avec les services d’IA générative d’Oracle. Cela accélérera le développement d’agents IA sur OCI. Nvidia propose désormais plus de 160 outils d’IA et microservices NIM en natif via la console OCI. Les deux sociétés travaillent également à accélérer la recherche vectorielle sur la plateforme Oracle Database 23ai.

Approfondissement de la collaboration avec Google : améliorer l’accès et l’intégrité de l’IA

Nvidia a également fourni des mises à jour sur ses collaborations élargies avec Google LLC, révélant plusieurs initiatives visant à améliorer l’accès à l’IA et à ses outils sous-jacents.

Un point clé est que Nvidia devient la première organisation à exploiter SynthID de Google DeepMind. Cette technologie intègre directement des filigranes numériques dans le contenu généré par l’IA, y compris les images, la vidéo et le texte. Cela permet de préserver l’intégrité des sorties de l’IA et de lutter contre la désinformation. SynthID est initialement intégré aux modèles de fondation Cosmos World de Nvidia.

De plus, Nvidia a collaboré avec les chercheurs de Google DeepMind pour optimiser Gemma, une famille de modèles d’IA open-source et légers, pour les GPU Nvidia. Les deux sociétés collaborent également sur une initiative visant à construire des robots alimentés par l’IA avec des compétences de préhension, entre autres projets.

Les collaborations entre les chercheurs et les ingénieurs de Google et de Nvidia s’attaquent à un large éventail de défis. De la découverte de médicaments à la robotique, soulignant le potentiel de transformation de l’IA.