Blackwell Ultra GB300 : Un Bond en Avant en Matière de Performances
Attendu pour le second semestre 2025, le Blackwell Ultra GB300 représente une avancée considérable par rapport aux offres précédentes de NVIDIA. Ce nouveau superchip est conçu pour fournir une puissance de calcul améliorée et une bande passante mémoire accrue, cruciales pour répondre aux exigences toujours croissantes des applications d’intelligence artificielle (AI) modernes.
Le système GB300 est une véritable centrale électrique, intégrant 72 GPU NVIDIA Blackwell Ultra et 36 CPU NVIDIA Grace basés sur Arm. Cette combinaison offre une performance FP4 AI impressionnante de 1 400 pétaFLOPS. Pour mettre cela en perspective, il s’agit d’une augmentation de 1,5 fois de la capacité de calcul FP4 dense par rapport à son prédécesseur, le Blackwell B200.
L’une des améliorations les plus significatives du GB300 est sa capacité de mémoire. Chaque GPU du système est équipé de 288 Go de mémoire HBM3e, une quantité stupéfiante. Cela représente un total de plus de 20 To de mémoire GPU par système. Cette augmentation substantielle de la mémoire permet de traiter des modèles d’IA et des ensembles de données beaucoup plus volumineux, ce qui permet des calculs plus complexes et des vitesses de traitement plus rapides.
NVIDIA positionne la plateforme Blackwell Ultra AI Factory comme offrant des gains de performance incrémentaux, plutôt que révolutionnaires, par rapport aux puces Blackwell standard. Alors qu’une seule puce Ultra conserve les mêmes 20 pétaflops de calcul AI que le Blackwell standard, elle bénéficie considérablement d’une augmentation de 50 % de la mémoire à large bande passante (HBM3e), passant de 192 Go à 288 Go.
En examinant l’échelle plus large, un “Superpod” DGX GB300 à grande échelle continue d’abriter 288 CPU et 576 GPU. Cette configuration offre 11,5 exaflops de calcul FP4, reflétant les performances du Superpod original basé sur Blackwell. Cependant, il présente une augmentation de 25 % de la mémoire totale, atteignant désormais 300 To. Ces améliorations de la mémoire soulignent l’accent mis par NVIDIA sur l’adaptation à des modèles plus grands et l’amélioration de l’efficacité du raisonnement de l’IA, plutôt que de se concentrer uniquement sur la puissance de calcul brute.
Au lieu de comparaisons directes entre Blackwell et Blackwell Ultra, NVIDIA montre comment sa nouvelle plateforme se compare à ses puces H100 de 2022, qui sont encore largement utilisées dans les charges de travail d’IA. La société affirme que le Blackwell Ultra offre des performances d’inférence FP4 1,5 fois supérieures à celles du H100. Cependant, l’avantage le plus remarquable réside dans sa capacité à accélérer le raisonnement de l’IA.
Par exemple, un cluster NVL72 exécutant DeepSeek-R1 671B, un modèle de langage exceptionnellement grand, peut désormais générer des réponses en seulement dix secondes. Il s’agit d’une réduction spectaculaire par rapport aux 90 secondes requises sur le système H100.
NVIDIA attribue cette amélioration substantielle à une multiplication par dix de la vitesse de traitement des jetons. Le Blackwell Ultra peut traiter 1 000 jetons par seconde, un bond significatif par rapport aux 100 jetons par seconde du H100. Ces chiffres démontrent que, bien que le Blackwell Ultra ne surpasse pas radicalement son prédécesseur immédiat, il offre des gains d’efficacité convaincants, en particulier pour les organisations qui utilisent encore des architectures de génération précédente.
Superchip Vera Rubin : La Prochaine Génération de Traitement de l’IA
Au-delà du Blackwell Ultra, NVIDIA prévoit d’introduire le superchip Vera Rubin fin 2026. Nommé en l’honneur de l’astronome distinguée Vera Rubin, cette puce incorporera un CPU (Vera) et un GPU (Rubin) conçus sur mesure. Cela représente une étape importante dans la quête de NVIDIA pour des capacités de traitement de l’IA de pointe.
Le CPU Vera, basé sur l’architecture Olympus de NVIDIA, devrait offrir le double des performances des CPU Grace actuels. Le GPU Rubin, quant à lui, prendra en charge jusqu’à 288 Go de mémoire à large bande passante. Cette capacité de mémoire substantielle améliorera considérablement les capacités de traitement des données, en particulier pour les tâches d’IA complexes.
L’architecture Vera Rubin présente une conception à double GPU sur une seule puce. Cette conception innovante permet d’atteindre une performance d’inférence FP4 remarquable de 50 pétaFLOPS par puce, favorisant un traitement plus efficace et une latence réduite dans les applications d’IA.
Le CPU Vera, succédant au CPU Grace, se compose de 88 cœurs Arm personnalisés avec multithreading simultané. Cette configuration se traduit par 176 threads par socket. Il dispose également d’une interface NVLink cœur à cœur de 1,8 To/s, améliorant considérablement les vitesses de transfert de données entre les composants CPU et GPU.
Le Blackwell Ultra GB300 et le Superchip Vera Rubin représentent des avancées substantielles par rapport aux architectures de puces précédentes de NVIDIA. L’augmentation de 1,5 fois du calcul FP4 dense du GB300 par rapport au B200 se traduit directement par un traitement plus efficace des charges de travail d’IA. Ceci, à son tour, permet des temps d’entraînement et d’inférence plus rapides, cruciaux pour accélérer le développement de l’IA.
Le Vera Rubin, avec ses 50 pétaFLOPS de performance FP4 par puce, représente un bond en avant considérable. Ce niveau de performance permet le déploiement de modèles et d’applications d’IA encore plus sophistiqués, repoussant les limites de ce qui est possible dans le domaine de l’intelligence artificielle.
Le calendrier de développement ambitieux de NVIDIA, avec des plans pour des sorties annuelles de nouvelles générations de puces d’IA, souligne son engagement à maintenir une position de leader sur le marché en évolution rapide du matériel d’IA. L’engagement de l’entreprise en faveur de l’innovation est évident dans sa recherche continue de solutions de traitement de l’IA plus puissantes et plus efficaces. L’introduction de ces nouveaux superchips ne se limite pas à des améliorations incrémentales ; il s’agit de permettre une nouvelle ère de capacités d’IA.
Les progrès en matière de capacité de mémoire et de vitesse de traitement sont particulièrement remarquables. La capacité à gérer des modèles et des ensembles de données plus volumineux est cruciale pour le développement de systèmes d’IA plus sophistiqués. Alors que les modèles d’IA continuent de croître en complexité, le besoin de matériel capable de suivre le rythme devient de plus en plus important. L’accent mis par NVIDIA sur la bande passante mémoire et la vitesse de traitement des jetons répond directement à ce besoin.
L’orientation vers la mise en évidence des gains d’efficacité, en particulier pour les organisations qui passent d’architectures plus anciennes, est une démarche stratégique de NVIDIA. Elle reconnaît que tous les utilisateurs n’adopteront pas immédiatement le matériel le plus récent. En démontrant des améliorations significatives des performances par rapport aux puces de génération précédente, NVIDIA fournit un argument convaincant pour la mise à niveau.
Le superchip Vera Rubin, avec son CPU et son GPU conçus sur mesure, représente une avancée architecturale significative. La conception à double GPU sur une seule puce est une approche innovante qui promet d’offrir des gains de performance substantiels et une latence réduite. Cette conception reflète l’engagement de NVIDIA à repousser les limites de la conception des puces et à maximiser les performances.
Le fait de nommer la puce d’après l’astronome Vera Rubin est un hommage approprié à son travail révolutionnaire. Il renforce également subtilement l’engagement de NVIDIA envers la découverte scientifique et l’innovation. L’accent mis par l’entreprise sur l’IA s’étend au-delà des applications commerciales ; il englobe également l’avancement de la recherche scientifique.
Dans l’ensemble, l’annonce par NVIDIA des superchips Blackwell Ultra GB300 et Vera Rubin marque une étape importante dans l’évolution du matériel d’IA. Ces nouvelles puces sont prêtes à accélérer le développement et le déploiement de l’IA dans un large éventail d’industries. L’engagement de l’entreprise en faveur de l’innovation et son calendrier de développement agressif suggèrent que nous pouvons nous attendre à des avancées encore plus révolutionnaires dans les années à venir. L’accent mis à la fois sur les performances brutes et les gains d’efficacité garantit que ces puces seront pertinentes pour un large éventail d’utilisateurs, de ceux qui disposent de systèmes de pointe à ceux qui utilisent encore des architectures plus anciennes. L’avenir du matériel d’IA s’annonce prometteur, et NVIDIA se positionne clairement à l’avant-garde de ce domaine passionnant. La mémoire accrue, les vitesses de traitement améliorées et les conceptions innovantes de ces nouveaux superchips ouvriront sans aucun doute la voie à de nouvelles percées dans le domaine de l’intelligence artificielle, impactant divers secteurs et stimulant de nouvelles avancées dans les années à venir.