Dans une scène rappelant les luttes de pouvoir complexes de ‘Game of Thrones’, l’industrie de l’IA est actuellement témoin de son propre drame à enjeux élevés. Alors que l’attention du monde est focalisée sur la compétition entourant les paramètres et les performances des modèles, une bataille silencieuse se prépare autour des standards, des protocoles et des écosystèmes de l’IA et des agents.
En novembre 2024, Anthropic a introduit le Model Context Protocol (MCP), un standard ouvert pour les agents intelligents, visant à unifier les protocoles de communication entre les grands modèles de langage et les sources de données et outils externes. Peu après, OpenAI a annoncé la prise en charge du Agent SDK pour le MCP. Le PDG de Google DeepMind, Demis Hassabis, a également confirmé que le modèle Gemini de Google et les kits de développement de logiciels intégreraient ce standard ouvert, qualifiant le MCP de ‘devenant rapidement le standard ouvert pour l’ère des agents d’IA’.
Simultanément, Google a annoncé le protocole open-source Agent2Agent Protocol (A2A) lors de la conférence Google Cloud Next 2025. Ce protocole vise à abattre les barrières entre les cadres et les fournisseurs existants, permettant une collaboration sécurisée et efficace entre les agents dans différents écosystèmes.
Ces actions des géants de la technologie ont dévoilé une compétition à travers l’IA et les agents intelligents en termes de standards de connexion, de protocoles d’interface et d’écosystèmes. Le principe selon lequel ‘protocole égale pouvoir’ est évident. Alors que le paysage mondial de l’IA prend forme, celui qui contrôle la définition des standards de protocole de base à l’ère de l’IA a la possibilité de remodeler la structure du pouvoir et l’ordre de distribution de la valeur de la chaîne industrielle mondiale de l’IA.
Le ‘Port USB-C’ du Futur Écosystème d’IA
Avec l’avancement rapide de la technologie de l’IA, les grands modèles de langage tels que GPT et Claude ont démontré des capacités impressionnantes. La véritable valeur de ces modèles réside dans leur capacité à interagir avec les données et les outils du monde extérieur pour résoudre des problèmes du monde réel.
Cependant, cette capacité d’interaction est depuis longtemps confrontée à des problèmes de fragmentation et à un manque de standardisation, obligeant les développeurs à implémenter une logique d’intégration spécifique pour différents modèles et plateformes d’IA.
Pour résoudre ce problème, le MCP a émergé. En tant que pont reliant les modèles d’IA au monde extérieur, le MCP résout plusieurs problèmes clés rencontrés lors de l’interaction de l’IA.
Avant le MCP, si un modèle d’IA devait se connecter à une base de données locale (telle que SQLite) pour obtenir des données ou appeler des outils distants (tels que Slack pour la communication en équipe, l’API GitHub pour gérer le code), les développeurs devaient écrire un code de connexion spécifique pour chaque source de données ou outil. Ce processus était non seulement fastidieux et sujet aux erreurs, mais aussi coûteux à développer, difficile à maintenir et difficile à faire évoluer en raison du manque de standard unifié.
Lors du lancement du MCP, Anthropic a fait une analogie : le MCP est comme le port USB-C pour les applications d’IA. Le MCP vise à créer un standard commun, permettant à divers modèles et systèmes externes d’utiliser le même protocole pour l’accès au lieu d’écrire un ensemble distinct de solutions d’intégration à chaque fois. Cela rend le développement et l’intégration des applications d’IA plus simples et plus unifiés.
Par exemple, dans un projet de développement de logiciels, un outil d’IA basé sur le MCP peut directement se plonger dans le référentiel de code du projet, analyser la structure du code, comprendre les enregistrements de commit historiques, puis fournir aux développeurs des suggestions de code qui sont plus conformes aux besoins réels du projet, améliorant considérablement l’efficacité du développement et la qualité du code.
Dans le passé, pour permettre aux grands modèles et à d’autres applications d’IA d’utiliser des données, il était généralement nécessaire de copier et coller ou de télécharger et télécharger. Même les modèles les plus puissants étaient limités par l’isolement des données, formant des silos d’informations. Pour créer des modèles plus puissants, chaque nouvelle source de données devait être personnalisée et implémentée, ce qui rendait difficile la mise à l’échelle de systèmes véritablement interconnectés, entraînant de nombreuses limitations.
En fournissant une interface unifiée, le MCP relie directement l’IA et les données (y compris les données locales et Internet). Grâce au serveur MCP et au client MCP, tant que les deux suivent ce protocole, ‘tout peut être connecté’. Cela permet aux applications d’IA d’accéder et d’exploiter en toute sécurité les données locales et distantes, offrant aux applications d’IA une interface pour se connecter à tout.
D’un point de vue architectural, le MCP comprend principalement deux parties centrales : le serveur MCP et le client MCP. Les développeurs peuvent exposer leurs données via le serveur MCP, qui peut provenir de systèmes de fichiers locaux, de bases de données ou de services distants tels que les API Slack et GitHub. Les applications d’IA construites pour se connecter à ces serveurs sont appelées clients MCP. En termes simples, le serveur MCP est responsable de l’exposition des données, et le client MCP est responsable de l’accès aux données.
Lorsque les modèles d’IA accèdent à des données et à des outils externes, la sécurité est une considération importante. En fournissant des interfaces d’accès aux données standardisées, le MCP réduit considérablement le nombre de contacts directs avec des données sensibles, réduisant ainsi le risque de fuite de données.
Le MCP dispose de mécanismes de sécurité intégrés, permettant aux sources de données de partager des données avec l’IA de manière contrôlée dans un cadre sécurisé. L’IA peut également renvoyer en toute sécurité les résultats du traitement aux sources de données, garantissant que seules les demandes vérifiées peuvent accéder à des ressources spécifiques, ce qui équivaut à ajouter une autre couche de défense à la sécurité des données, dissipant les inquiétudes des entreprises concernant la sécurité des données et jetant une base solide pour l’application approfondie de l’IA dans les scénarios de niveau entreprise.
Par exemple, le serveur MCP contrôle ses propres ressources et n’a pas besoin de fournir des informations sensibles telles que les clés API aux fournisseurs de technologie de grands modèles. De cette façon, même si le grand modèle est attaqué, les attaquants ne pourront pas obtenir ces informations sensibles, isolant efficacement les risques.
On peut dire que le MCP est un produit naturel du développement de la technologie de l’IA et une étape importante. Il simplifie non seulement le processus de développement des applications d’IA, mais crée également des conditions pour la prospérité de l’écosystème de l’IA.
En tant que standard ouvert, le MCP stimule grandement la vitalité de la communauté des développeurs. Les développeurs du monde entier peuvent contribuer du code et développer de nouveaux connecteurs autour du MCP, élargissant continuellement ses frontières d’application, formant un cycle écologique vertueux et favorisant l’intégration profonde de l’IA et des données dans diverses industries. Cette ouverture facilite la connexion des applications d’IA à divers services et outils, formant un écosystème riche, bénéficiant finalement aux utilisateurs et à l’ensemble de l’industrie.
Les avantages du MCP ne se reflètent pas seulement au niveau technique, mais plus important encore, la valeur réelle qu’il apporte à différents domaines. À l’ère de l’IA, la capacité d’acquérir et de traiter l’information détermine tout, et le MCP permet à plusieurs agents de collaborer, maximisant les forces de chacun.
Par exemple, dans le domaine médical, les agents intelligents peuvent se connecter aux dossiers médicaux électroniques des patients et aux bases de données médicales via le MCP, et combinés aux jugements professionnels des médecins, peuvent fournir des suggestions de diagnostic initial plus rapidement. Dans le secteur financier, les agents intelligents peuvent collaborer pour analyser les données financières, suivre les changements du marché et même effectuer automatiquement des transactions boursières. Cette division du travail et cette coopération entre les agents intelligents rendent le traitement des données plus efficace et la prise de décision plus précise.
En passant en revue l’histoire du développement du MCP, il n’est pas difficile de constater que son taux de croissance est étonnant. Au début de 2023, le MCP a achevé la conception du protocole de communication central, réalisant des fonctions de base d’enregistrement d’agent intelligent et de transmission de messages. C’est comme créer un langage universel pour les agents intelligents, leur permettant de communiquer entre eux au lieu de parler leurs propres langues.
Fin 2023, le MCP a encore élargi ses fonctions, prenant en charge les agents intelligents pour appeler des API externes et le partage de données, ce qui équivaut à permettre aux agents intelligents non seulement de discuter, mais aussi d’échanger des informations et de traiter conjointement des tâches.
Début 2024, l’écosystème MCP a atteint un nouveau niveau. Des kits d’outils pour développeurs et des exemples de projets ont été lancés, et le nombre de plug-ins d’agents intelligents contribués par la communauté a dépassé 100, réalisant une situation de ‘floraison’.
Récemment, Microsoft a intégré le MCP dans son service Azure OpenAI, et Google DeepMind a également annoncé qu’il fournirait un support pour le MCP et l’intégrerait dans le modèle Gemini et le SDK. Non seulement les grandes entreprises technologiques, mais aussi les startups d’IA et les fournisseurs d’outils de développement ont rejoint le MCP, tels que Block, Apollo, Zed, Replit, Codeium et Sourcegraph.
L’essor du MCP a attiré un suivi rapide et une concurrence de la part des entreprises technologiques chinoises telles que Tencent et Alibaba, le considérant comme une étape importante dans la stratégie de l’écosystème de l’IA. Par exemple, récemment, la plateforme Bailian d’Alibaba Cloud a lancé un service MCP de cycle de vie complet, éliminant le besoin pour les utilisateurs de gérer les ressources, de développer et de déployer, et d’ingénier la maintenance et l’exploitation, réduisant le cycle de développement d’agent intelligent à quelques minutes. Tencent Cloud a publié le ‘Kit de développement d’IA’, qui prend en charge les services d’hébergement de plug-ins MCP pour aider les développeurs à créer rapidement des agents intelligents orientés métier.
Le ‘Pont Invisible’ pour la Collaboration Multi-Agents
Alors que le protocole MCP transforme les agents intelligents d’outils de chat en assistants d’action, les géants de la technologie commencent à construire des ‘petites cours et de hauts murs’ de standards et d’écosystèmes sur ce nouveau champ de bataille.
Comparé au MCP, qui se concentre sur la connexion des modèles d’IA avec des outils et des données externes, l’A2A va un peu plus loin, se concentrant sur une collaboration efficace entre les agents intelligents.
L’intention initiale du protocole A2A est simple : permettre aux agents intelligents de différentes sources et fabricants de se comprendre et de collaborer entre eux, apportant une plus grande autonomie à la collaboration de plusieurs agents intelligents.
C’est comme l’OMC qui vise à réduire les barrières tarifaires entre les pays. Les agents intelligents de différents fournisseurs et cadres sont comme des pays indépendants. Une fois l’A2A adopté, cela équivaut à rejoindre une zone de libre-échange, où ils peuvent communiquer dans un langage commun, collaborer de manière transparente et mener à bien conjointement des flux de travail complexes qu’un seul agent intelligent ne peut pas effectuer indépendamment.
La forme d’interopérabilité spécifique du protocole A2A est obtenue en facilitant la communication entre l’Agent Client et l’Agent Distant. L’agent client est responsable de la formulation et de la communication des tâches, et l’agent distant agit en fonction de ces tâches pour fournir les informations correctes ou effectuer les opérations correspondantes.
Dans ce processus, le protocole A2A possède les capacités clés suivantes :
Tout d’abord, les agents intelligents peuvent annoncer leurs capacités via des ‘cartes d’agent intelligent’. Ces ‘cartes d’agent intelligent’ existent au format JSON, permettant aux agents clients d’identifier quel agent distant est le mieux adapté pour effectuer une tâche spécifique.
Une fois l’agent distant approprié identifié, l’agent client peut utiliser le protocole A2A pour communiquer avec lui et lui attribuer la tâche.
La gestion des tâches est une partie importante du protocole A2A. La communication entre les agents clients et distants tourne autour de l’achèvement des tâches. Le protocole définit un objet ‘tâche’. Pour les tâches simples, elles peuvent être effectuées immédiatement ; pour les tâches complexes et à long terme, les agents intelligents peuvent communiquer entre eux pour maintenir la synchronisation sur l’état d’achèvement de la tâche.
De plus, l’A2A prend également en charge la collaboration entre les agents intelligents. Plusieurs agents intelligents peuvent s’envoyer des messages, qui peuvent contenir des informations contextuelles, des réponses ou des instructions de l’utilisateur. De cette façon, plusieurs agents intelligents peuvent mieux travailler ensemble pour mener à bien conjointement des tâches complexes.
Lors de la conception de ce protocole, Google a suivi cinq principes clés. Tout d’abord, l’A2A se concentre sur la capacité des agents intelligents à collaborer dans leurs modes naturels et non structurés, même s’ils ne partagent pas de mémoire, d’outils et de contexte.
Deuxièmement, le protocole est construit sur des standards existants et populaires, notamment HTTP, Server-Sent Events (SSE) et JSON-RPC, ce qui signifie qu’il est plus facile à intégrer aux piles informatiques existantes que les entreprises utilisent déjà quotidiennement.
Par exemple, une entreprise de commerce électronique utilise quotidiennement le protocole HTTP pour gérer la transmission de données Web et JSON-RPC pour transmettre les instructions de données entre les fronts et les arrières. Après avoir introduit le protocole A2A, le système de gestion des commandes de l’entreprise peut rapidement obtenir les mises à jour des données logistiques fournies par les agents intelligents pertinents via la connexion du protocole HTTP et A2A, sans avoir à reconstruire des canaux de transmission de données complexes, ce qui facilite l’intégration dans l’architecture informatique existante et rend la collaboration des divers systèmes plus fluide.
Troisièmement, l’A2A est conçu pour prendre en charge l’authentification et l’autorisation de niveau entreprise. L’utilisation du protocole A2A peut rapidement authentifier et obtenir en toute sécurité des données, garantissant la sécurité et la conformité de la transmission des données et empêchant les risques de fuite de données.
Quatrièmement, l’A2A est suffisamment flexible pour prendre en charge divers scénarios, des tâches rapides à la recherche approfondie qui peut prendre des heures, voire des jours (lorsque des humains sont impliqués). Tout au long du processus, l’A2A peut fournir aux utilisateurs des commentaires, des notifications et des mises à jour d’état en temps réel.
Prenons l’exemple d’un institut de recherche. Les chercheurs utilisent des agents intelligents dans le cadre du protocole A2A pour mener des recherches liées au développement de nouveaux médicaments. Les tâches simples, telles que la récupération rapide des informations sur la structure moléculaire des médicaments existants dans la base de données, peuvent être effectuées et renvoyées aux chercheurs en quelques secondes. Cependant, pour les tâches complexes, telles que la simulation de la réaction de nouvelles molécules médicamenteuses dans l’environnement du corps humain, cela peut prendre plusieurs jours.
Pendant cette période, le protocole A2A transmettra continuellement la progression de la simulation aux chercheurs, comme le nombre d’étapes terminées, les problèmes actuels rencontrés, etc., permettant aux chercheurs de se tenir au courant de la situation, tout comme un assistant qui rend compte de l’avancement des travaux à tout moment.
Cinquièmement, le monde des agents intelligents ne se limite pas au texte, c’est pourquoi l’A2A prend en charge diverses modalités, notamment l’audio, les images et les flux vidéo.
Imaginez qu’à l’avenir, votre assistant intelligent, le système CRM de l’entreprise, l’IA de gestion de la chaîne d’approvisionnement et même les agents intelligents sur différentes plateformes cloud peuvent ‘discuter des tâches et diviser le travail’ comme de vieux amis, répondant efficacement à divers besoins, des simples requêtes aux processus complexes, ouvrant ainsi l’ère de l’intelligence machine.
Actuellement, le protocole prend déjà en charge les plateformes d’applications de plus de 50 entreprises technologiques grand public, notamment Atlassian, Box, Cohere, Intuit, MongoDB, PayPal, Salesforce et SAP.
Il convient de noter qu’il s’agit toutes d’entreprises qui ont des relations subtiles avec l’écosystème Google. Par exemple, Cohere, une startup d’IA indépendante, a été fondée en 2019 par trois chercheurs qui travaillaient auparavant chez Google Brain ; ils ont un partenariat technique à long terme avec Google Cloud, et Google Cloud fournit à Cohere la puissance de calcul nécessaire pour entraîner les modèles.
Atlassian, une entreprise qui fournit des outils de collaboration d’équipe, tels que Jira et Confluence, est utilisée par de nombreuses personnes. Ils ont un partenariat avec Google et certaines applications peuvent être utilisées dans les produits Google.
Bien que Google ait déclaré que l’A2A est un complément au protocole de contexte de modèle MCP proposé par Anthropic, cela ressemble un peu à Google qui prend l’initiative de développer le système Android avec plus de 80 entreprises dans le passé. À mesure que de plus en plus d’entreprises se joignent, la valeur commerciale de l’A2A sera considérablement améliorée et favorisera le développement rapide de l’ensemble de l’écosystème des agents intelligents.
De la ‘Connexion d’Outils’ à la ‘Domination des Écosystèmes’
MCP et A2A représentent deux voies différentes pour l’interconnexion de l’IA. MCP, en tant que protocole d’interaction de modèle sous-jacent, assure une connexion transparente entre les applications et différents modèles ; A2A fournit un cadre de collaboration entre les agents intelligents sur cette base, mettant l’accent sur la découverte autonome et la collaboration flexible entre les agents intelligents. Cette structure en couches peut simultanément répondre aux besoins de la standardisation des modèles et de la collaboration des agents intelligents.
Dans le même temps, les deux ont atteint des positions dominantes dans leurs sous-domaines respectifs. MCP a des avantages dans les applications de niveau entreprise, les services multi-modèles et les scénarios de standardisation ; A2A a gagné plus de soutien dans les communautés open-source, les projets de recherche et les applications innovantes.
D’un point de vue macro, l’essor du MCP et de l’A2A n’est pas seulement lié aux futurs standards de la technologie de l’IA, mais annonce également un changement majeur dans le paysage de l’industrie de l’IA. Nous assistons à un tournant historique dans l’IA, passant de l’’intelligence autonome’ aux ‘réseaux collaboratifs’. Comme le montre l’histoire du développement d’Internet, l’établissement de protocoles ouverts et standardisés deviendra une force clé pour promouvoir le développement de l’industrie.
Mais d’un niveau plus profond, MCP et A2A cachent d’énormes intérêts commerciaux et la concurrence pour le futur pouvoir du discours de la technologie de l’IA.
En termes de modèles commerciaux, les deux ouvrent différentes voies de profit. Anthropic prévoit de lancer un service de version entreprise basé sur le MCP, facturant les entreprises en fonction du volume d’appels API. Les entreprises utilisent le MCP pour intégrer en profondeur les données internes avec l’IA, améliorer l’efficacité opérationnelle et doivent payer pour ce service pratique.
Google utilise le protocole A2A pour promouvoir les abonnements aux services cloud. Lorsque les entreprises utilisent l’A2A pour construire des réseaux de collaboration d’agents intelligents, elles sont guidées pour utiliser la puissance de calcul puissante de Google Cloud et les services connexes, augmentant ainsi les revenus de l’activité Google Cloud.
En termes de monopole des données, la maîtrise des standards de protocole signifie le contrôle du flux de données de l’IA. Grâce au protocole A2A, Google collecte des quantités massives de données lors de la collaboration de nombreux agents intelligents d’entreprise. Ces données alimentent ses algorithmes publicitaires de base, consolidant davantage sa domination sur le marché de la publicité. Anthropic veut utiliser le MCP pour permettre à l’IA de pénétrer au cœur des données d’entreprise. S’il forme un avantage d’échelle, il accumulera également une grande quantité de données sectorielles, fournissant un support de données pour l’expansion des activités et le développement de produits d’IA qui sont plus conformes aux besoins de l’entreprise.
En termes de stratégie open-source, bien que les deux prétendent être open-source, ils ont leurs propres plans. Le protocole de base MCP est open-source, attirant les développeurs à participer à la construction de l’écosystème, mais les fonctions clés de niveau entreprise (telles que les fonctions avancées de connexion à distance et le traitement en profondeur des données multi-modales) doivent être déverrouillées moyennant des frais, équilibrant open-source et intérêts commerciaux. Bien que le protocole A2A soit open-source, il guide plus de 50 partenaires d’entreprise à donner la priorité à l’utilisation des services Google Cloud, liant étroitement l’écosystème open-source à son propre système commercial et améliorant la fidélité des utilisateurs et la compétitivité de la plateforme.
La technologie elle-même n’a ni bien ni mal, mais lorsqu’elle est intégrée dans la chaîne d’intérêts, elle devient un support de pouvoir et de contrôle. Chaque révolution technologique remodèle la chaîne d’intérêts du monde. La révolution industrielle a déplacé la chaîne d’intérêts de la terre et du travail vers le capital et les machines, tandis que la révolution numérique l’a poussée vers les données et les algorithmes.
Les outils open-source peuvent certainement explorer des voies innovantes, mais ne vous attendez pas à utiliser les clés de données et d’algorithmes pour ouvrir toutes les portes, car chaque chaîne de clés est gravée avec le mot de passe d’intérêt de la plateforme.
Bien que les entreprises technologiques semblent ouvrir l’écosystème de l’IA, elles construisent en réalité des murs écologiques hauts et épais autour des scénarios d’application qui leur sont plus favorables, empêchant les mines d’or de données d’être pillées, après tout, la compétitivité ultime à l’ère de l’IA est toujours les données.
La question de savoir si MCP et A2A peuvent finalement fusionner est encore incertaine. S’ils agissent chacun indépendamment, il est très probable que les géants de la technologie construisent des ‘petits murs de cour d’IA’. En conséquence, le phénomène d’îlot de données deviendra plus grave, la circulation des données entre les entreprises de différents camps de protocole sera bloquée, limitant la portée des applications d’innovation de l’IA ; les développeurs devront maîtriser plusieurs compétences de développement de protocole, augmentant les coûts d’apprentissage et la charge de travail de développement, supprimant la vitalité de l’innovation ; la direction de l’innovation de l’industrie sera facilement guidée par des protocoles géants, et les start-ups seront désavantagées dans la concurrence en raison de la difficulté à prendre en charge plusieurs protocoles, entravant le rythme global de l’innovation de l’industrie.
Nous espérons que l’essor du MCP et de l’A2A favorisera l’évolution de l’industrie mondiale de l’IA dans le sens de la collaboration plutôt que de la confrontation.
Tout comme le différend sur l’écartement des voies ferrées au XIXe siècle et la guerre des standards de communication mobile au XXe siècle, chaque scission technologique s’accompagne d’énormes coûts sociaux. Les conséquences du différend sur les standards et les protocoles de l’IA pourraient être plus profondes. Il déterminera si nous nous dirigeons vers une fédération d’étoiles ‘Internet de tout’ ou si nous tombons dans une forêt sombre où la ‘chaîne de suspicion’ prévaut.