Huang d'Nvidia trace la voie de l'IA

Jensen Huang, PDG de Nvidia, s’est exprimé lors de la conférence annuelle des développeurs de logiciels de l’entreprise à San Jose, en Californie, affirmant la position forte de Nvidia au milieu d’une transformation significative au sein de l’industrie de l’intelligence artificielle. Il a souligné le passage continu de la phase d’entraînement des modèles d’IA à la phase d’inférence, où les entreprises se concentrent de plus en plus sur l’extraction d’informations détaillées et exploitables à partir de ces modèles.

Répondre aux préoccupations des investisseurs et à la dynamique du marché

La présentation de Huang, prononcée dans sa veste en cuir noir et son jean emblématiques, a servi de défense de la position dominante de Nvidia sur le marché très disputé des puces d’IA. Les récentes inquiétudes des investisseurs, alimentées par des rapports de concurrents comme le chinois DeepSeek obtenant des performances de chatbot comparables avec potentiellement moins de puces d’IA, ont jeté une ombre sur l’avance apparemment inattaquable de Nvidia.

Malgré le discours confiant de Huang, le marché a réagi avec un certain scepticisme. Les actions de Nvidia ont connu une baisse de 3,4 %, reflétant une baisse plus large de l’indice des puces, qui a clôturé en baisse de 1,6 %. Cette réaction suggère que le marché a peut-être déjà intégré une grande partie des nouvelles anticipées, reflétant une approche attentiste de la stratégie à long terme de Nvidia.

Dissiper les idées fausses et souligner les exigences de calcul

Huang a directement confronté ce qu’il percevait comme une incompréhension généralisée concernant l’évolution des besoins en calcul de l’IA. Il a déclaré avec audace : « Presque tout le monde s’est trompé », soulignant l’augmentation exponentielle de la puissance de calcul nécessaire pour les applications d’IA avancées, en particulier dans le domaine de l’« IA agentique ».

L’IA agentique, caractérisée par des agents autonomes capables d’effectuer des tâches de routine avec une intervention humaine minimale, exige des capacités de traitement considérablement plus importantes. Huang a estimé que les besoins en calcul pour l’IA agentique et le raisonnement sont « facilement 100 fois plus importants que ce que nous pensions avoir besoin l’année dernière à la même époque ». Cette augmentation spectaculaire souligne la demande continue, et peut-être sous-estimée, de solutions informatiques hautes performances.

La dichotomie entraînement/inférence

Un élément clé du défi actuel de Nvidia réside dans l’évolution de la dynamique du marché de l’IA. L’industrie passe d’une focalisation principale sur l’entraînement, où des ensembles de données massifs sont utilisés pour doter les modèles d’IA comme les chatbots d’intelligence, à l’inférence. L’inférence est l’étape où le modèle entraîné exploite ses connaissances acquises pour fournir aux utilisateurs des réponses et des solutions spécifiques.

Ce changement représente un vent contraire potentiel pour Nvidia, car ses puces les plus lucratives ont traditionnellement été optimisées pour la phase d’entraînement gourmande en calcul. Bien que Nvidia ait cultivé un écosystème solide d’outils logiciels et de support aux développeurs au cours de la dernière décennie, ce sont les puces pour centres de données, dont les prix se chiffrent en dizaines de milliers de dollars, qui ont généré la majorité de ses revenus, totalisant 130,5 milliards de dollars l’année dernière.

Maintenir l’élan : la poussée de trois ans et au-delà

L’action de Nvidia a connu une ascension fulgurante, sa valeur ayant plus que quadruplé au cours des trois dernières années. Cette croissance remarquable a été alimentée par le rôle central de l’entreprise dans l’émergence de systèmes d’IA sophistiqués, notamment ChatGPT, Claude et de nombreux autres. Le matériel de l’entreprise est devenu synonyme de développement d’IA de pointe.

Cependant, maintenir cet élan nécessite de s’adapter aux exigences changeantes du marché axé sur l’inférence. Alors que la vision à long terme d’une industrie de l’IA construite sur les puces de Nvidia reste convaincante, les attentes des investisseurs à court terme sont plus sensibles aux défis et opportunités immédiats présentés par la révolution de l’inférence.

Dévoilement des puces de nouvelle génération : Blackwell Ultra et au-delà

Huang a profité de la conférence pour annoncer une série de nouvelles puces, conçues pour consolider la position de Nvidia dans le paysage évolutif de l’IA. Parmi ces annonces figurait le dévoilement de la puce GPU Blackwell Ultra, dont la sortie est prévue au second semestre de cette année.

Le Blackwell Ultra bénéficie d’une capacité de mémoire améliorée par rapport à son prédécesseur, la puce Blackwell de génération actuelle. Cette mémoire accrue lui permet de prendre en charge des modèles d’IA plus grands et plus complexes, répondant aux demandes croissantes des applications d’IA avancées.

Double objectif : réactivité et rapidité

Huang a souligné que les puces de Nvidia sont conçues pour répondre à deux aspects critiques des performances de l’IA : la réactivité et la rapidité. Les puces doivent permettre aux systèmes d’IA de fournir des réponses intelligentes à un grand nombre de requêtes d’utilisateurs tout en fournissant ces réponses avec une latence minimale.

Huang a fait valoir que la technologie de Nvidia est particulièrement bien placée pour exceller dans les deux domaines. Il a établi un parallèle avec la recherche sur le Web, déclarant : « Si vous mettez trop de temps à répondre à une question, le client ne reviendra pas ». Cette analogie souligne l’importance de la rapidité et de l’efficacité pour maintenir l’engagement et la satisfaction des utilisateurs dans les applications basées sur l’IA.

Feuille de route pour l’avenir : Vera Rubin et Feynman

Au-delà de Blackwell Ultra, Huang a donné un aperçu de la future feuille de route des puces de Nvidia, révélant des détails sur le prochain système Vera Rubin. Prévu pour une sortie au second semestre 2026, Vera Rubin est conçu pour succéder à Blackwell, offrant des vitesses encore plus rapides et des capacités améliorées.

Plus loin dans le temps, Huang a annoncé que les puces Rubin seraient suivies par les puces Feynman, dont l’arrivée est prévue en 2028. Cette feuille de route multigénérationnelle démontre l’engagement de Nvidia envers l’innovation continue et sa détermination à maintenir une avance technologique sur le marché en évolution rapide du matériel d’IA.

Relever les défis de l’industrie et le déploiement de Blackwell

Le dévoilement de ces nouvelles puces intervient à un moment où l’entrée sur le marché de Blackwell a été plus lente que prévu initialement. Un défaut de conception aurait entraîné des difficultés de fabrication, contribuant à des retards. Cette situation reflète des difficultés plus larges de l’industrie, car l’approche traditionnelle consistant à alimenter des centres de données massifs remplis de puces Nvidia avec des ensembles de données toujours plus vastes a commencé à montrer des rendements décroissants.

Malgré ces défis, Nvidia a rapporté le mois dernier que les commandes pour Blackwell étaient « incroyables », suggérant une forte demande pour la nouvelle puce malgré les revers initiaux.

Élargir l’écosystème : station de travail DGX et innovations logicielles

Au-delà des annonces de puces principales, Huang a présenté un nouvel ordinateur personnel puissant, la station de travail DGX, basée sur les puces Blackwell. Cette station de travail, qui sera fabriquée par des entreprises leaders comme Dell, Lenovo et HP, représente un défi pour certaines des offres Mac haut de gamme d’Apple.

Huang a fièrement présenté une carte mère pour l’un de ces appareils, déclarant : « Voici à quoi devrait ressembler un PC ». Cette initiative témoigne de l’ambition de Nvidia d’étendre sa présence sur le marché de l’informatique hautes performances au-delà des centres de données et dans le domaine des stations de travail professionnelles.

Dynamo : accélérer le raisonnement et la collaboration avec General Motors

Sur le plan logiciel, Huang a annoncé la sortie de Dynamo, un nouvel outil logiciel conçu pour accélérer le processus de raisonnement dans les applications d’IA. Dynamo est offert gratuitement, dans le but de favoriser une adoption plus large et d’accélérer l’innovation dans le domaine.

De plus, Huang a révélé un partenariat important avec General Motors, sélectionnant Nvidia pour alimenter sa flotte de voitures autonomes. Cette collaboration souligne l’influence croissante de Nvidia dans l’industrie automobile et son engagement à faire progresser la technologie de conduite autonome. Il s’agit d’une victoire de premier plan, qui montre la diversité des applications de Nvidia.

La voie à suivre

Nvidia mise gros sur l’avenir de l’IA, et son innovation continue est essentielle. L’entreprise reconnaît la nécessité de s’adapter au passage à l’inférence et développe déjà des puces capables de faire les deux. Avec son historique de succès et son engagement envers la recherche et le développement, Nvidia est susceptible de rester un acteur majeur de l’industrie de l’IA pendant des années à venir. Les partenariats avec les principales entreprises technologiques et automobiles sont une indication de la direction que prend Nvidia.