Le Séisme Initial : DeepSeek et le Mirage de l’Efficacité
L’émergence de l’IA chinoise DeepSeek plus tôt cette année a provoqué une onde de choc dans le paysage de l’investissement technologique. Son approche apparemment révolutionnaire, promettant une intelligence artificielle puissante avec une charge de calcul considérablement réduite, a immédiatement suscité des spéculations. Un récit s’est rapidement formé : peut-être que l’expansion incessante et coûteuse de l’infrastructure IA, caractérisée par des achats massifs de puces et de systèmes spécialisés, était sur le point de ralentir. Le marché a réagi, reflétant la conviction qu’une nouvelle ère d’IA rentable pourrait considérablement freiner le boom des dépenses anticipé.
Cependant, les perspectives issues d’une récente réunion de haut niveau d’experts de l’industrie brossent un tableau radicalement différent. Une conférence sur l’IA générative organisée à New York par Bloomberg Intelligence a suggéré que l’interprétation initiale, axée uniquement sur les économies potentielles, passait à côté de l’essentiel. Loin de signaler un ralentissement des dépenses, l’événement a souligné une faim quasi insatiable pour une plus grande capacité IA. Le consensus ne portait pas sur la réduction des coûts, mais sur la manière de satisfaire un appétit exponentiellement croissant pour les systèmes intelligents, tout en souhaitant désespérément que le menu soit moins cher.
Voix du Terrain : Une Soif Insatiable de Capacité
Les discussions tout au long de la journée, qui ont réuni des développeurs, des stratèges et des investisseurs, ont constamment tourné autour du thème de la demande croissante entraînant des investissements monumentaux. Mandeep Singh, analyste technologique senior chez Bloomberg Intelligence et l’un des organisateurs de l’événement, a résumé succinctement le sentiment dominant. Réfléchissant aux nombreux panels et discussions d’experts, il a noté un refrain universel : personne impliqué ne sentait posséder une capacité IA suffisante. Le sentiment écrasant était celui d’avoir besoin de plus, et non d’en avoir trop.
De manière cruciale, a ajouté Singh, le spectre d’une ‘bulle infrastructurelle’, une crainte courante dans les secteurs technologiques en expansion rapide, était remarquablement absent de la conversation. L’accent est resté fermement mis sur le défi fondamental auquel l’ensemble de l’industrie est confronté. Anurag Rana, collègue de Singh et analyste senior de Bloomberg Intelligence pour les services informatiques et les logiciels, l’a formulé comme la question primordiale : ‘Où en sommes-nous dans ce cycle [de construction de l’infrastructure IA] ?’
Tout en reconnaissant qu’il reste difficile de déterminer le stade exact de cette construction massive (‘Personne ne sait’ avec certitude, a admis Rana), le phénomène DeepSeek a indéniablement changé les perspectives. Il a injecté une dose puissante d’espoir que des charges de travail IA importantes pourraient potentiellement être gérées de manière plus économique. ‘DeepSeek a secoué beaucoup de gens’, a observé Rana. L’implication était claire : si des modèles d’IA sophistiqués pouvaient effectivement fonctionner efficacement sur du matériel moins exigeant, peut-être que des projets gargantuesques, comme les initiatives de plusieurs centaines de milliards de dollars qui seraient planifiées par des consortiums impliquant des acteurs technologiques majeurs, pourraient être réévalués ou dimensionnés différemment.
Le rêve, repris dans toute l’industrie selon Rana, est que les coûts opérationnels de l’IA, en particulier pour l’inférence (l’étape où les modèles entraînés génèrent des prédictions ou du contenu), suivent la trajectoire descendante spectaculaire observée dans le stockage cloud au cours de la dernière décennie. Il a rappelé comment l’économie du stockage de vastes quantités de données sur des plateformes comme Amazon Web Services (AWS) s’est considérablement améliorée sur environ huit ans. ‘Cette chute de la courbe des coûts… l’économie était bonne’, a-t-il déclaré. ‘Et c’est ce que tout le monde espère, que du côté de l’inférence… si la courbe tombe à ce niveau, oh mon dieu, le taux d’adoption de l’IA… sera spectaculaire.’ Singh a abondé dans ce sens, notant que l’arrivée de DeepSeek a fondamentalement ‘changé la mentalité de chacun sur l’atteinte de l’efficacité’.
Ce désir d’efficacité était palpable tout au long des sessions de la conférence. Alors que de nombreux panels se penchaient sur les aspects pratiques du passage des projets d’IA d’entreprise des étapes conceptuelles à la production réelle, une discussion parallèle soulignait constamment le besoin critique de réduire les coûts associés au déploiement et à l’exécution de ces modèles d’IA. L’objectif est clair : démocratiser l’accès en rendant l’IA économiquement viable pour un plus large éventail d’applications et d’utilisateurs. Shawn Edwards, le propre technologue en chef de Bloomberg, a suggéré que DeepSeek n’était pas nécessairement une surprise complète, mais plutôt une illustration puissante d’un désir universel. ‘Ce que cela m’a fait penser, c’est que ce serait formidable si l’on pouvait agiter une baguette magique et faire fonctionner ces modèles de manière incroyablement efficace’, a-t-il remarqué, étendant ce souhait à l’ensemble du spectre des modèles d’IA, et pas seulement à une percée spécifique.
Le Principe de Prolifération : Alimenter la Demande de Calcul
L’une des principales raisons pour lesquelles les experts anticipent des investissements continus et substantiels dans l’infrastructure IA, malgré la quête d’efficacité, réside dans la simple prolifération des modèles d’IA. Un thème récurrent tout au long de la conférence de New York était l’abandon décisif de la notion d’un modèle d’IA unique et monolithique capable de gérer toutes les tâches.
- Une Affaire de Famille : Comme l’a dit Edwards de Bloomberg, ‘Nous utilisons une famille de modèles. Il n’existe pas de meilleur modèle.’ Cela reflète une compréhension croissante que différentes architectures d’IA excellent dans différentes tâches – génération de langage, analyse de données, reconnaissance d’images, complétion de code, etc.
- Personnalisation en Entreprise : Les panélistes ont largement convenu que si les grands modèles ‘fondation’ ou ‘frontière’ à usage général continueront d’être développés et affinés par les grands laboratoires d’IA, la véritable action au sein des entreprises implique le déploiement potentiel de centaines, voire de milliers de modèles d’IA spécialisés.
- Fine-Tuning et Données Propriétaires : Beaucoup de ces modèles d’entreprise seront adaptés à partir de modèles de base par un processus appelé fine-tuning. Cela implique de réentraîner un réseau neuronal pré-entraîné sur les données spécifiques, souvent propriétaires, d’une entreprise. Cela permet à l’IA de comprendre des contextes commerciaux uniques, une terminologie et des interactions client, fournissant des résultats beaucoup plus pertinents et précieux qu’un modèle générique ne le pourrait.
- Démocratisation du Développement : Jed Dougherty, représentant la plateforme de science des données Dataiku, a souligné le besoin d’’optionnalité parmi les modèles’ pour les agents IA d’entreprise. Il a insisté sur l’importance de donner aux entreprises le contrôle, les capacités de création et l’auditabilité de leurs outils d’IA. ‘Nous voulons mettre les outils pour construire ces choses entre les mains des gens’, a affirmé Dougherty. ‘Nous ne voulons pas que dix docteurs construisent tous les agents.’ Cette volonté d’une accessibilité plus large au développement implique elle-même un besoin de plus d’infrastructure sous-jacente pour soutenir ces efforts de création distribués.
- IA Spécifique à la Marque : Les industries créatives offrent un excellent exemple. Hannah Elsakr, dirigeant les nouvelles entreprises chez Adobe, a expliqué leur stratégie misant sur les modèles personnalisés comme différenciateur clé. ‘Nous pouvons entraîner des extensions de modèles personnalisées pour votre marque qui peuvent aider pour une nouvelle campagne publicitaire’, a-t-elle illustré, montrant comment l’IA peut être adaptée pour maintenir une esthétique et un message de marque spécifiques.
Au-delà de la diversification des modèles, le déploiement croissant d’agents IA au sein des flux de travail d’entreprise est un autre moteur important de la demande de traitement. Ces agents sont envisagés non seulement comme des outils passifs, mais comme des participants actifs capables d’exécuter des tâches en plusieurs étapes.
Ray Smith, responsable des agents et de l’automatisation chez Microsoft Copilot Studio, a prédit un avenir où les utilisateurs interagiront avec potentiellement des centaines d’agents spécialisés via une interface unifiée comme Copilot. ‘Vous ne concentrerez pas tout un processus dans un seul agent, vous le diviserez en parties’, a-t-il expliqué. Ces agents, a-t-il suggéré, sont essentiellement ‘des applications dans le nouveau monde’ de la programmation. La vision est celle où les utilisateurs énoncent simplement leur objectif – ‘lui dire ce que nous voulons accomplir’ – et l’agent orchestre les étapes nécessaires. ‘Les applications agentiques sont juste une nouvelle façon de gérer le flux de travail’, a déclaré Smith, soulignant que la réalisation de cette vision est moins une question de possibilité technologique (‘tout est technologiquement possible’) et plus une question de ‘rythme auquel nous la construisons’.
Cette poussée pour intégrer plus profondément les agents IA dans les processus organisationnels quotidiens intensifie encore la pression pour la réduction des coûts et un déploiement efficace. James McNiven, responsable de la gestion des produits chez le géant des microprocesseurs ARM Holdings, a formulé le défi en termes d’accessibilité. ‘Comment fournissons-nous l’accès sur de plus en plus d’appareils ?’ s’est-il interrogé. Observant des modèles atteignant des capacités proches du ‘niveau doctorat’ dans des tâches spécifiques, il a établi un parallèle avec l’impact transformateur de l’introduction des systèmes de paiement mobile dans les pays en développement il y a des années. La question fondamentale demeure : ‘Comment mettons-nous cette [capacité IA] à la disposition des personnes qui peuvent utiliser cette capacité ?’ Rendre des agents IA sophistiqués facilement disponibles comme assistants pour une large partie de la main-d’œuvre nécessite non seulement des logiciels intelligents, mais aussi du matériel efficace et, inévitablement, plus d’investissements dans l’infrastructure sous-jacente, même si l’efficacité par calcul s’améliore.
Obstacles à l’Échelle : Silicium, Énergie et les Géants du Cloud
Même les modèles de fondation génériques les plus utilisés se multiplient à un rythme effarant, exerçant une pression immense sur l’infrastructure existante. Dave Brown, qui supervise l’informatique et les réseaux pour Amazon Web Services (AWS), a révélé que leur plateforme seule offre aux clients l’accès à environ 1 800 modèles d’IA différents. Il a souligné l’intense concentration d’AWS sur ‘faire beaucoup pour réduire le coût’ d’exécution de ces outils puissants.
Une stratégie clé pour les fournisseurs de cloud comme AWS consiste à développer leur propre silicium personnalisé. Brown a souligné l’utilisation croissante de puces conçues par AWS, telles que leurs processeurs Trainium optimisés pour l’entraînement de l’IA, déclarant : ‘AWS utilise davantage nos propres processeurs que ceux d’autres entreprises.’ Cette évolution vers du matériel spécialisé et interne vise à reprendre le contrôle des performances et des coûts, réduisant la dépendance vis-à-vis des fournisseurs de puces à usage général comme Nvidia, AMD et Intel. Malgré ces efforts, Brown a reconnu candidement la réalité fondamentale : ‘Les clients en feraient plus si le coût était inférieur.’ Le plafond de la demande est actuellement défini davantage par les contraintes budgétaires que par un manque d’applications potentielles.
L’ampleur des ressources requises par les principaux développeurs d’IA est immense. Brown a noté la collaboration quotidienne d’AWS avec Anthropic, les créateurs de la famille sophistiquée de modèles de langage Claude. Michael Gerstenhaber, responsable des interfaces de programmation d’applications chez Anthropic, s’exprimant aux côtés de Brown, a souligné l’intensité de calcul de l’IA moderne, en particulier les modèles conçus pour un raisonnement complexe ou la ‘réflexion’. Ces modèles génèrent souvent des explications détaillées étape par étape pour leurs réponses, consommant une puissance de traitement importante. ‘Les modèles de réflexion entraînent l’utilisation d’une grande capacité’, a déclaré Gerstenhaber.
Bien qu’Anthropic travaille activement avec AWS sur des techniques d’optimisation comme le ‘prompt caching’ (stockage et réutilisation des calculs issus d’interactions précédentes pour économiser des ressources), le besoin fondamental en matériel reste énorme. Gerstenhaber a déclaré sans ambages qu’Anthropic a besoin de ‘centaines de milliers d’accélérateurs’ – des puces IA spécialisées – distribués ‘dans de nombreux centres de données’ simplement pour exécuter sa suite actuelle de modèles. Cela donne une idée concrète de l’ampleur des ressources de calcul qui sous-tendent un seul acteur majeur de l’IA.
Pour aggraver le défi de l’acquisition et de la gestion de vastes flottes de silicium, il y a la consommation d’énergie en spirale associée à l’IA. Brown a souligné cela comme une préoccupation critique et en rapide escalade. Les centres de données actuels supportant des charges de travail IA intensives consomment déjà une puissance mesurée en centaines de mégawatts. Les projections suggèrent que les besoins futurs grimperont inévitablement dans la gamme des gigawatts – la production de grandes centrales électriques. ‘La puissance qu’elle consomme’, a averti Brown en parlant de l’IA, ‘est importante, et l’empreinte est importante dans de nombreux centres de données.’ Cette demande énergétique croissante présente non seulement des coûts opérationnels immenses, mais aussi des défis environnementaux et logistiques importants pour l’implantation et l’alimentation de la prochaine génération d’infrastructures IA.
L’Inconnue Économique : Une Ombre sur les Plans de Croissance
Malgré les perspectives optimistes portées par les avancées technologiques et les cas d’utilisation en plein essor, une variable importante plane sur toutes les projections d’investissement dans l’IA : le climat économique général. Alors que la conférence de Bloomberg Intelligence se terminait, les participants observaient déjà une nervosité du marché découlant des nouveaux paquets tarifaires mondiaux annoncés, perçus comme plus étendus que prévu.
Cela rappelle avec force que les feuilles de route technologiques ambitieuses peuvent être rapidement perturbées par des vents contraires macroéconomiques. Rana de Bloomberg a averti que si les dépenses en IA pourraient être quelque peu isolées au départ, les domaines traditionnels de l’investissement informatique des entreprises, tels que les serveurs et le stockage non liés à l’IA, pourraient être les premières victimes d’une contraction économique. ‘L’autre grande chose sur laquelle nous nous concentrons est la dépense technologique non liée à l’IA’, a-t-il noté, exprimant son inquiétude quant à l’impact potentiel sur les principaux fournisseurs de services technologiques à l’approche de la saison des résultats, avant même de considérer spécifiquement les budgets IA.
Il existe cependant une théorie dominante selon laquelle l’IA pourrait se révéler particulièrement résiliente. Rana a suggéré que les directeurs financiers (CFO) des grandes entreprises, confrontés à des contraintes budgétaires dues à l’incertitude économique ou même à une récession, pourraient choisir de prioriser les initiatives IA. Ils pourraient potentiellement réaffecter des fonds de domaines moins critiques pour protéger les investissements stratégiques en IA perçus comme cruciaux pour la compétitivité future.
Pourtant, cette vision optimiste est loin d’être garantie. Le test ultime, selon Rana, sera de savoir si les grandes entreprises maintiendront leurs objectifs agressifs de dépenses en capital, en particulier pour la construction de centres de données IA, face à l’incertitude économique croissante. La question critique demeure : ‘Vont-ils dire : ‘Vous savez quoi ? C’est trop incertain.’’ La réponse déterminera si l’élan apparemment imparable derrière les dépenses d’infrastructure IA poursuivra son ascension implacable ou fera face à une pause inattendue dictée par les réalités économiques mondiales.