Ant: l'IA avec puces chinoises

L’approche innovante d’Ant pour la formation de modèles d’IA

Ant Group, le géant de la fintech soutenu par Jack Ma, a réalisé une percée significative dans le domaine de l’intelligence artificielle en tirant parti de semi-conducteurs fabriqués en Chine. Cette approche innovante a permis à l’entreprise de développer des techniques d’entraînement de modèles d’IA, entraînant une réduction remarquable de 20 % des coûts. Des sources proches du dossier ont révélé qu’Ant a utilisé des puces nationales, notamment celles de sa filiale Alibaba Group Holding Ltd. et de Huawei Technologies Co., pour entraîner des modèles en utilisant l’approche d’apprentissage automatique Mixture of Experts (MoE).

Les résultats obtenus par Ant étaient comparables à ceux obtenus avec les puces de Nvidia Corp., telles que le H800, un processeur puissant dont l’exportation vers la Chine est limitée par les États-Unis. Bien qu’Ant continue d’utiliser Nvidia pour le développement de l’IA, l’entreprise s’appuie de plus en plus sur des alternatives, notamment Advanced Micro Devices Inc. (AMD) et des puces chinoises, pour ses derniers modèles.

Entrer dans la course à l’IA : Chine contre États-Unis

L’incursion d’Ant dans le développement de modèles d’IA la place au cœur d’une compétition acharnée entre les entreprises chinoises et américaines. Cette course s’est intensifiée depuis que DeepSeek a démontré le potentiel de former des modèles très performants à une fraction du coût supporté par les géants de l’industrie comme OpenAI et Google d’Alphabet Inc., qui ont investi des milliards. La réussite d’Ant souligne la détermination des entreprises chinoises à utiliser des alternatives locales aux semi-conducteurs Nvidia les plus avancés.

La promesse d’une inférence d’IA rentable

L’article de recherche publié par Ant ce mois-ci met en évidence le potentiel de ses modèles, revendiquant des performances supérieures dans certains benchmarks par rapport à Meta Platforms Inc., bien que ces affirmations n’aient pas été vérifiées de manière indépendante par Bloomberg News. Néanmoins, si les plateformes d’Ant fonctionnent comme annoncé, elles pourraient représenter une avancée significative dans le développement de l’intelligence artificielle chinoise. Ceci est principalement dû à leur capacité à réduire considérablement le coût de l’inférence, qui est le processus de support des services d’IA.

Mixture of Experts : un changement de donne dans l’IA

Alors que les entreprises investissent des ressources substantielles dans l’IA, les modèles MoE sont devenus une approche populaire et efficace. Cette technique, employée par des entreprises comme Google et la startup DeepSeek basée à Hangzhou, consiste à diviser les tâches en ensembles de données plus petits. Cela s’apparente à avoir une équipe de spécialistes, chacun se concentrant sur un segment spécifique d’un travail, optimisant ainsi le processus global.

Surmonter le goulot d’étranglement des GPU

Traditionnellement, la formation des modèles MoE reposait fortement sur des puces hautes performances, telles que les unités de traitement graphique (GPU) fabriquées par Nvidia. Le coût prohibitif de ces puces a été un obstacle majeur pour de nombreuses petites entreprises, limitant l’adoption généralisée des modèles MoE. Ant, cependant, a travaillé avec diligence sur des méthodes pour former de grands modèles de langage (LLM) plus efficacement, éliminant ainsi cette contrainte. Le titre de leur article de recherche, qui fixe l’objectif de mettre à l’échelle un modèle “sans GPU premium”, reflète clairement cet objectif.

Défier la domination de Nvidia

L’approche d’Ant remet directement en question la stratégie dominante préconisée par le PDG de Nvidia, Jensen Huang. Huang a constamment soutenu que la demande de calcul continuera de croître, même avec l’émergence de modèles plus efficaces comme le R1 de DeepSeek. Il estime que les entreprises auront besoin de meilleures puces pour générer des revenus plus élevés, plutôt que de puces moins chères pour réduire les coûts. Par conséquent, Nvidia a maintenu son cap sur la construction de grands GPU avec des cœurs de traitement, des transistors et une capacité de mémoire accrus.

Quantification des économies de coûts

Ant a fourni des chiffres concrets pour démontrer la rentabilité de son approche optimisée. L’entreprise a déclaré que la formation de 1 000 milliards de tokens à l’aide de matériel haute performance coûterait environ 6,35 millions de yuans (880 000 dollars). Cependant, en utilisant du matériel de spécification inférieure et ses techniques optimisées, Ant peut réduire ce coût à 5,1 millions de yuans. Les tokens représentent les unités d’information qu’un modèle traite pour apprendre sur le monde et fournir des réponses pertinentes aux requêtes des utilisateurs.

Tirer parti des avancées de l’IA pour des solutions industrielles

Ant prévoit de capitaliser sur ses récentes avancées dans les grands modèles de langage, en particulier Ling-Plus et Ling-Lite, pour développer des solutions d’IA industrielles pour des secteurs tels que la santé et la finance. Ces modèles sont conçus pour répondre aux besoins spécifiques de l’industrie et fournir des solutions sur mesure.

Extension des applications de l’IA dans le domaine de la santé

L’engagement d’Ant envers la santé est évident dans son intégration de la plateforme chinoise en ligne Haodf.com dans ses services d’intelligence artificielle. Grâce à la création d’AI Doctor Assistant, Ant vise à soutenir le vaste réseau de 290 000 médecins de Haodf en les aidant dans des tâches telles que la gestion des dossiers médicaux. Cette application de l’IA a le potentiel d’améliorer considérablement l’efficacité et la précision de la prestation des soins de santé.

Une assistance basée sur l’IA pour la vie quotidienne

Au-delà des soins de santé, Ant a également développé une application d’assistant de vie IA appelée Zhixiaobao et un service de conseil financier IA nommé Maxiaocai. Ces applications démontrent l’ambition d’Ant d’intégrer l’IA dans divers aspects de la vie quotidienne, offrant aux utilisateurs une assistance personnalisée et intelligente.

Analyse comparative des performances : les modèles Ling par rapport à la concurrence

Dans son article de recherche, Ant affirme que le modèle Ling-Lite a surpassé l’un des modèles Llama de Meta dans un benchmark clé pour la compréhension de la langue anglaise. De plus, les modèles Ling-Lite et Ling-Plus ont démontré des performances supérieures à celles des équivalents de DeepSeek sur les benchmarks en langue chinoise. Cela met en évidence la position concurrentielle d’Ant dans le paysage de l’IA.

Comme l’a déclaré Robin Yu, directeur de la technologie du fournisseur de solutions d’IA basé à Pékin, Shengshang Tech Co., “Si vous trouvez un point d’attaque pour battre le meilleur maître de kung-fu du monde, vous pouvez toujours dire que vous l’avez battu, c’est pourquoi l’application dans le monde réel est importante.”

Open-sourcing pour la collaboration et l’innovation

Ant a rendu les modèles Ling open source, favorisant la collaboration et l’innovation au sein de la communauté de l’IA. Ling-Lite comprend 16,8 milliards de paramètres, qui sont des paramètres réglables qui contrôlent les performances du modèle. Ling-Plus, quant à lui, affiche 290 milliards de paramètres, ce qui le place parmi les plus grands modèles de langage. Pour donner un contexte, les experts estiment que le GPT-4.5 de ChatGPT compte environ 1 800 milliards de paramètres, tandis que le DeepSeek-R1 en compte 671 milliards.

Relever les défis de la formation des modèles

Le parcours d’Ant dans le développement de ces modèles n’a pas été sans défis. L’entreprise a rencontré des difficultés dans certains domaines de la formation, notamment en ce qui concerne la stabilité. Même des modifications mineures du matériel ou de la structure du modèle pouvaient entraîner des problèmes, notamment des fluctuations du taux d’erreur des modèles. Cela souligne la complexité et la sensibilité impliquées dans la formation de modèles d’IA avancés.

Déploiement dans le monde réel dans le domaine de la santé

L’engagement d’Ant envers les applications pratiques est également démontré par son déploiement de machines de grands modèles axées sur les soins de santé. Ces machines sont actuellement utilisées par sept hôpitaux et prestataires de soins de santé dans les grandes villes comme Pékin et Shanghai. Le grand modèle exploite DeepSeek R1, Qwen d’Alibaba et le propre LLM d’Ant pour fournir des services de conseil médical.

Agents d’IA pour des services de santé améliorés

En plus des machines de grands modèles, Ant a introduit deux agents d’IA médicale : Angel et Yibaoer. Angel a déjà servi plus de 1 000 établissements médicaux, tandis que Yibaoer fournit un soutien pour les services d’assurance médicale. De plus, en septembre de l’année précédente, Ant a lancé le service AI Healthcare Manager dans son application de paiement Alipay, étendant encore sa portée dans le secteur de la santé. Ces initiatives démontrent le dévouement d’Ant à tirer parti de l’IA pour transformer et améliorer la prestation des soins de santé.