Les ambitions de Google dans le domaine de l’intelligence artificielle (IA) générative ressemblent de plus en plus à celles d’Apple, en particulier en ce qui concerne les grands modèles d’IA générative (GenAI). La récente conférence Google Cloud Next a mis en évidence la vision ambitieuse de Google. Cela comprend des innovations allant de la puce TPU v7 Ironwood, conçue pour rivaliser avec le GB200 de Nvidia, au protocole Agent2Agent (A2A) visant à surpasser le MCP d’Anthropic, et à l’environnement d’exécution Pathways pour le déploiement de GenAI.
Google développe également activement des outils tels que ADK et Agentspace pour permettre aux développeurs de créer des agents d’IA. Au cœur de cet effort se trouve Vertex AI, la plateforme de développement et de déploiement d’IA cloud-native de Google. Vertex AI offre désormais une gamme variée de services de génération de contenu, comprenant Veo 2 pour la vidéo, Imagen 3 pour les images, Chirp 3 pour l’audio et Lyria pour la musique. Il est clair que Google Cloud se positionne pour fournir aux développeurs et aux utilisateurs une suite complète d’applications de développement de grands modèles GenAI.
Bien que la convivialité réelle de ces services et expériences reste à voir, Google a mis en place un écosystème matériel et logiciel d’IA complet, multimodal, auto-développé, à source fermée et facilement disponible.
Cette approche globale brosse le portrait de Google comme étant l’Apple de l’ère de l’IA.
L’Ironwood TPU : un concurrent puissant
Le dévoilement de la puce TPU de septième génération, Ironwood, est particulièrement remarquable.
- Chaque TPU est équipé de 192 Go de mémoire HBM, avec une bande passante allant de 7,2 à 7,4 To/s, utilisant probablement la technologie HBM3E. Cela se compare favorablement à la puce B200 de Nvidia, qui offre une bande passante de 8 To/s.
- Chaque TPU v7 refroidi par liquide peut atteindre 4,6 Petaflops de puissance de calcul FP8 dense. C’est un peu moins que les 20 Petaflops du B200.
- Cependant, le réseau de centre de données Jupiter de Google permet une mise à l’échelle pour prendre en charge jusqu’à 400 000 puces ou 43 clusters TPU v7x. L’expertise de Google en matière de technologie de serveur lui permet de minimiser les mesures de performance des puces individuelles.
- Surtout, Google a introduit Pathways, un environnement d’exécution d’IA dédié qui améliore la flexibilité du déploiement de modèles GenAI, renforçant encore ses avantages dans le domaine des clusters de services.
- Ironwood est disponible en deux configurations de cluster : 256 puces ou 9216 puces, adaptées à des charges de travail spécifiques. Un seul cluster peut atteindre une puissance de calcul de 42,5 Exaflops. Google affirme que cette performance surpasse le plus grand supercalculateur au monde, El Capitan, d’un facteur de 24. Cependant, ce chiffre est mesuré avec une précision FP8, et El Capitan d’AMD n’a pas encore fourni de données de précision FP8. Google l’a reconnu, ce qui rend une comparaison directe difficile.
Adopter un écosystème GenAI à source fermée
Google poursuit un écosystème complet à source fermée dans le domaine de GenAI. Bien que l’open source Gemma ait ses mérites, Google canalise ses ressources vers ses solutions à source fermée.
Avec la montée en puissance de l’intérêt pour les agents d’IA, Google a annoncé le protocole A2A lors de la conférence, enrôlant 50 fournisseurs grand public pour concurrencer le MCP d’Anthropic.
Alors qu’OpenAI a open source son SDK Agents, intégrant ses capacités de grands modèles, Google étend Vertex AI avec ADK, Agentspace, AutoML, AIPlatform et Kubeflow, injectant diverses capacités de modèles.
Cependant, lorsque l’on compare la génération d’images de GPT-4o avec les fonctionnalités équivalentes de Gemini 2.0 Flash, les offres de Google, bien qu’ambitieuses, peuvent manquer de raffinement. L’intégration de nombreux modèles, services et outils, bien que bénéfique pour la concurrence, peut sembler prématurée. Le marché a besoin de grands modèles multimodaux matures et bien intégrés et de services intégrés aux modèles.
Répliquer les modèles Gmail, Chrome et Google dans l’IA
Le succès de Google avec Gmail, Chrome et son approche de la ‘fusée à trois étages’ lui a permis de dominer le marché mondial de la technologie. Cette stratégie est mise en œuvre rapidement dans le domaine de GenAI. Cependant, contrairement à son plaidoyer passé pour l’open source, Google adopte de plus en plus le développement à source fermée.
Google transforme efficacement l’open source en une forme de source fermée en consolidant ses ressources pour établir un écosystème dominant dans un domaine spécifique, puis en prélevant des péages. Cette approche suscite de plus en plus de critiques de la part des développeurs.
Les frameworks d’apprentissage automatique open source de Google, TensorFlow et Jax, ont connu un succès mondial. Cependant, le nouvel environnement d’exécution Pathways est à source fermée, isolant même les outils de développement CUDA de Nvidia.
Google contre Nvidia : la bataille pour la domination de l’IA
Alors que Nvidia défend Physical AI et présente le modèle général de robot humanoïde open source Isaac GR00T N1, Google DeepMind entre sur le marché avec Gemini Robotics et Gemini Robotics-ER, basés sur Gemini 2.0.
Actuellement, la présence de Google ne manque que sur le marché des ordinateurs IA de bureau. Comment DGX Spark de Nvidia (anciennement Project DIGITS) et DGX Station, ainsi que Mac Studio d’Apple, concurrenceront-ils les services cloud de Google ? Cette question est devenue un point central dans l’industrie à la suite de la conférence.
La dépendance d’Apple à l’égard de Google Cloud et de la puce M3 Ultra
Apple utiliserait les clusters TPU de Google Cloud pour former ses grands modèles, abandonnant même les solutions de formation sur puce Nvidia en raison de considérations de coût ! Tout en faisant face à des faiblesses logicielles, Apple se concentre sur ses puces de la série M. Le dernier Mac Studio, équipé de la puce M3 Ultra, offre désormais jusqu’à 512 Go de mémoire unifiée. L’adoption précoce potentielle par Apple de la technologie Pathways de Google pourrait l’avoir alignée sur Google.
Le facteur antitrust
La question sous-jacente tourne autour des préoccupations antitrust. Actuellement, le modèle commercial d’Apple est uniquement positionné pour faire face aux poursuites antitrust mondiales, contrairement à Microsoft et Google, qui sont confrontés à des ruptures potentielles. La taille de Google l’expose au risque de cession forcée de ses activités principales, le système d’exploitation Android et le navigateur Chrome.
Google a récemment cessé la maintenance du projet Android Open Source (AOSP), ce qui rend un passage au modèle Apple inévitable à l’ère de l’IA. À mesure que les avancées de l’IA émergent, le virage stratégique de Google devient de plus en plus évident.
Développer sur le TPU v7 Ironwood de Google
Une plongée plus profonde dans les spécifications du TPU v7 Ironwood révèle un matériel méticuleusement conçu. Les 192 Go de mémoire à large bande passante (HBM) sont un composant essentiel, permettant un accès rapide aux données, essentiel pour la formation et l’exécution de modèles d’IA complexes. L’utilisation prévue de la technologie HBM3E souligne l’engagement de Google à tirer parti des avancées de pointe en matière de technologie de mémoire. La bande passante de 7,2 à 7,4 To/s n’est pas seulement un chiffre impressionnant ; elle se traduit directement par des temps de traitement plus rapides et la capacité de gérer des ensembles de données plus vastes et plus complexes.
La comparaison avec le B200 de Nvidia est inévitable, compte tenu de la domination de Nvidia sur le marché des GPU. Bien que le B200 offre une bande passante légèrement supérieure de 8 To/s, l’architecture globale du système et l’intégration au sein de l’écosystème de Google sont les points sur lesquels Ironwood vise à se différencier.
Les 4,6 Petaflops de puissance de calcul FP8 dense sont une mesure de la capacité de la puce à effectuer des opérations à virgule flottante, qui sont fondamentales pour les calculs d’IA. La différence par rapport aux 20 Petaflops du B200 met en évidence les philosophies de conception distinctes. Google met l’accent sur l’évolutivité et l’intégration de ses TPU au sein de son infrastructure de centre de données, tandis que Nvidia se concentre sur la puissance de calcul brute au niveau de la puce.
La signification du réseau de centre de données Jupiter de Google
Le réseau de centre de données Jupiter de Google est un atout important, permettant la connexion transparente d’un grand nombre de puces TPU. La capacité de prendre en charge jusqu’à 400 000 puces ou 43 clusters TPU v7x souligne l’échelle à laquelle Google opère. Cette évolutivité est un facteur de différenciation clé, car elle permet à Google de distribuer les charges de travail sur une infrastructure massive, optimisant les performances et l’efficacité.
L’expertise de Google en matière de technologie de serveur est un facteur crucial dans sa stratégie d’IA. En donnant la priorité aux performances au niveau du système plutôt qu’aux spécifications des puces individuelles, Google peut tirer parti de son infrastructure pour obtenir des résultats supérieurs. Cette approche est particulièrement pertinente dans le contexte de la formation à grande échelle de modèles d’IA, où la capacité de distribuer les calculs sur un réseau de processeurs interconnectés est essentielle.
Dévoilement de l’environnement d’exécution AI Pathways
L’introduction de Pathways est une initiative stratégique qui améliore la flexibilité et l’efficacité du déploiement des modèles GenAI. Cet environnement d’exécution d’IA dédié permet aux développeurs d’optimiser leurs modèles pour l’infrastructure de Google, en tirant pleinement parti des ressources matérielles et logicielles disponibles.
Pathways représente un investissement important dans la pile logicielle d’IA, fournissant une plateforme unifiée pour le déploiement et la gestion des modèles d’IA. En rationalisant le processus de déploiement, Google vise à abaisser la barrière à l’entrée pour les développeurs et à encourager l’adoption de ses services d’IA. Cela, à son tour, stimulera l’innovation et créera un écosystème dynamique autour de la plateforme d’IA de Google.
Aperçu plus approfondi de la stratégie de source fermée de Google
L’adoption par Google d’une stratégie de source fermée dans le domaine de GenAI est un choix délibéré qui reflète sa vision à long terme de l’IA. Bien que l’open source Gemma ait été une contribution précieuse à la communauté de l’IA, Google donne clairement la priorité à ses solutions de source fermée, reconnaissant qu’elles offrent un plus grand contrôle et une plus grande personnalisation.
En se concentrant sur le développement de source fermée, Google peut optimiser ses modèles et son infrastructure d’IA pour des tâches spécifiques, garantissant ainsi des performances et une efficacité maximales. Cette approche permet également à Google de protéger sa propriété intellectuelle et de maintenir un avantage concurrentiel dans le paysage de l’IA en évolution rapide.
L’approche de source fermée n’est pas sans ses détracteurs, qui soutiennent qu’elle étouffe l’innovation et limite la collaboration. Cependant, Google maintient qu’elle est nécessaire pour assurer la qualité, la sécurité et la fiabilité de ses services d’IA.
Le protocole A2A et la bataille pour la domination des agents d’IA
L’émergence des agents d’IA a créé un nouveau champ de bataille dans l’industrie de l’IA, et Google est déterminé à être un chef de file dans cet espace. L’annonce du protocole A2A lors de la conférence Google Cloud Next est une indication claire des ambitions de Google.
En enrôlant 50 fournisseurs grand public pour prendre en charge le protocole A2A, Google tente de créer une norme unifiée pour la communication des agents d’IA. Cela permettrait aux agents d’IA de différentes plates-formes d’interagir de manière transparente, créant ainsi un écosystème d’IA plus interconnecté et collaboratif.
La concurrence avec le MCP d’Anthropic est un aspect clé de la stratégie des agents d’IA de Google. Anthropic est une société de recherche sur l’IA très respectée, et son protocole MCP a gagné du terrain dans l’industrie. Le protocole A2A de Google représente un défi direct au MCP, et le résultat de cette concurrence aura un impact significatif sur l’avenir des agents d’IA.
Vertex AI : une plateforme de développement d’IA complète
Vertex AI de Google est une plateforme de développement d’IA complète qui fournit aux développeurs une large gamme d’outils et de services. En intégrant ADK, Agentspace, AutoML, AIPlatform et Kubeflow, Google crée un guichet unique pour le développement de l’IA.
Vertex AI vise à simplifier le processus de développement de l’IA, ce qui permet aux développeurs de créer, de former et de déployer plus facilement des modèles d’IA. La plate-forme donne également accès à une vaste bibliothèque de modèles pré-entraînés, ce qui permet aux développeurs d’intégrer rapidement des capacités d’IA dans leurs applications.
L’intégration de diverses capacités de modèles est un avantage clé de Vertex AI. En offrant une gamme variée de modèles, Google répond à un large éventail de cas d’utilisation, de la reconnaissance d’images au traitement du langage naturel. Cette approche globale fait de Vertex AI un choix convaincant pour les développeurs à la recherche d’une plateforme de développement d’IA polyvalente et puissante.
L’intégration du modèle de Google : ambition contre exécution
Bien que l’ambition de Google d’intégrer de nombreux modèles, services et outils soit louable, l’exécution peut nécessiter un perfectionnement supplémentaire. Le marché exige des modèles multimodaux de grande taille matures et bien intégrés et des services intégrés aux modèles. Les offres actuelles de Google, bien que prometteuses, peuvent nécessiter un perfectionnement supplémentaire pour répondre à ces attentes.
L’intégration de diverses capacités d’IA est une entreprise complexe, et Google doit relever le défi de s’assurer que ses différents modèles et services fonctionnent de manière transparente. Cela exige une attention particulière aux détails et un engagement envers l’amélioration continue.
En fin de compte, le succès des efforts d’intégration du modèle de Google dépendra de sa capacité à offrir une expérience utilisateur à la fois puissante et intuitive. Cela exigera une compréhension approfondie des besoins des utilisateurs et un souci constant de la qualité.