Le monde de l’Intelligence Artificielle (IA) est en constante évolution, avec de nouveaux termes et technologies qui émergent à un rythme effréné. L’un de ces termes qui a récemment attiré une attention significative est “MCP”, ou Model Context Protocol. Ce concept a suscité un enthousiasme considérable au sein de la communauté de l’IA, établissant des parallèles avec les premiers jours du développement d’applications mobiles.
Comme l’a déclaré Li Yanhong, président de Baidu, lors de la conférence Baidu Create du 25 avril, “Développer des agents intelligents basés sur le MCP, c’est comme développer des applications mobiles en 2010”. Cette analogie souligne l’impact potentiel du MCP sur l’avenir des applications d’IA.
Comprendre le MCP
Si vous n’êtes pas encore familier avec le MCP, vous avez probablement rencontré le terme “Agent” (ou agent intelligent). La montée en popularité de Manus, une startup chinoise, au début de 2025 a mis ce concept sur le devant de la scène.
La clé de l’attrait d’Agent réside dans sa capacité à effectuer des tâches efficacement. Contrairement aux modèles de langage volumineux (LLM) antérieurs qui servaient principalement d’interfaces conversationnelles, les agents sont conçus pour exécuter activement des tâches, en tirant parti d’outils et de sources de données externes. Les LLM traditionnels sont limités par leurs données d’entraînement et nécessitent des processus complexes pour accéder aux ressources externes.
Le MCP est crucial pour la réalisation de la vision Agent, permettant aux LLM d’interagir de manière transparente avec des outils externes qui prennent en charge le protocole MCP. Cela leur permet d’effectuer des tâches plus spécifiques et complexes.
Actuellement, plusieurs applications, notamment Amap et WeChat Read, ont lancé des serveurs MCP officiels. Cela permet aux développeurs de créer des applications d’IA en sélectionnant un LLM préféré et en l’intégrant à des serveurs MCP comme Amap ou WeChat Read. Cela permet au LLM d’effectuer des tâches telles que des requêtes de cartes et la récupération d’informations à partir de livres.
La vague MCP a commencé en février 2024 et a rapidement pris de l’ampleur dans le monde entier.
Des acteurs majeurs comme OpenAI, Google, Meta, Alibaba, Tencent, ByteDance et Baidu ont tous annoncé leur soutien au protocole MCP et ont lancé leurs propres plateformes MCP, invitant les développeurs et les fournisseurs de services d’applications à se joindre à eux.
MCP : Unifier l’écosystème de l’IA
Le concept de “super applications” était un sujet brûlant dans le domaine de l’IA en 2024, avec des attentes de prolifération rapide des applications d’IA. Cependant, l’écosystème d’innovation de l’IA est resté fragmenté.
L’émergence du MCP peut être comparée à l’unification de la Chinesous Qin Shi Huang, qui a normalisé les systèmes d’écriture, de transport et de mesure. Cette normalisation a grandement facilité l’activité économique et le commerce.
De nombreux analystes de marché estiment que l’adoption du MCP et de protocoles similaires ouvrira la voie à une augmentation significative des applications d’IA en 2025.
Essentiellement, le MCP agit comme un “super plug-in” pour l’IA, permettant une intégration transparente avec divers outils et sources de données externes.
Les fondations techniques du MCP
Le MCP, ou Model Context Protocol, a été introduit pour la première fois par Anthropic en novembre 2024.
En tant que standard ouvert, le MCP permet aux applications d’IA de communiquer avec des sources de données et des outils externes.
Considérez le MCP comme un adaptateur universel pour les LLM, définissant une “interface USB” standard.
Cette interface permet aux développeurs de créer des applications de manière plus normalisée et organisée, en se connectant à diverses sources de données et flux de travail.
Surmonter les obstacles au développement d’applications d’IA
Avant l’essor du MCP, le développement d’applications d’IA était un processus difficile et complexe.
Par exemple, le développement d’un assistant de voyage IA nécessitait qu’un LLM effectue des tâches telles que l’accès aux cartes, la recherche de guides de voyage et la création d’itinéraires personnalisés en fonction des préférences de l’utilisateur.
Pour permettre au LLM d’interroger des cartes et de rechercher des guides, les développeurs ont été confrontés aux défis suivants :
- Chaque fournisseur d’IA (OpenAI, Anthropic, etc.) a implémenté l’appel de fonction différemment. Le passage d’un LLM à un autre obligeait les développeurs à réécrire le code d’adaptation, créant essentiellement un “manuel d’utilisation” pour que le LLM utilise des outils externes. Sinon, la précision de la sortie du modèle diminuerait considérablement.
- L’absence de norme unifiée pour l’interaction LLM avec le monde extérieur a entraîné une faible réutilisabilité du code, ce qui a entravé le développement de l’écosystème d’applications d’IA.
Selon Chen Ziqian, un expert en technologie algorithmique chez Alibaba Cloud ModelScope, “Avant le MCP, les développeurs devaient comprendre les LLM et effectuer un développement secondaire pour intégrer des outils externes dans leurs applications. Si les performances des outils étaient médiocres, les développeurs devaient déterminer si le problème venait de l’application elle-même ou des outils.”
Manus, la startup d’IA susmentionnée, en est un excellent exemple. Lors d’une évaluation précédente, il a été constaté que Manus devait appeler plus de dix outils pour écrire un simple article de presse, notamment l’ouverture d’un navigateur, la navigation et la collecte de données sur les pages Web, l’écriture, la vérification et la livraison du résultat final.
Si Manus choisissait d’appeler des outils externes à chaque étape, il devait écrire une “fonction” pour organiser la manière dont les outils externes s’exécuteraient. En conséquence, Manus interrompait souvent les tâches en raison d’une surcharge et consommait un nombre excessif de jetons.
Les avantages du MCP
Avec le MCP, les développeurs n’ont plus besoin d’être responsables des performances des outils externes. Au lieu de cela, ils peuvent se concentrer sur la maintenance et le débogage de l’application elle-même, ce qui réduit considérablement la charge de travail de développement.
Les serveurs individuels au sein de l’écosystème, tels qu’Alipay et Amap, peuvent maintenir leurs services MCP, effectuer une mise à jour vers les dernières versions et attendre que les développeurs se connectent.
Limites et défis du MCP
Malgré son potentiel, l’écosystème MCP en est encore à ses débuts et fait face à plusieurs défis.
Certains développeurs soutiennent que le MCP est une couche de complexité inutile, suggérant que les API sont une solution plus simple. Les LLM peuvent déjà appeler des API via divers protocoles, ce qui rend le MCP redondant.
Actuellement, la plupart des services MCP publiés par de grandes entreprises sont définis par les entreprises elles-mêmes, déterminant quelles fonctions peuvent être appelées par les LLM et comment elles sont planifiées. Cependant, cela soulève des inquiétudes quant au fait que les entreprises peuvent ne pas donner accès à leurs informations les plus critiques et en temps réel.
De plus, si les serveurs MCP ne sont pas officiellement lancés ou bien entretenus, la sécurité et la stabilité des connexions MCP peuvent être discutables.
Tang Shuang, un développeur indépendant, a partagé un exemple d’un serveur MCP de carte avec moins de 20 outils. Cinq de ces outils nécessitaient la latitude et la longitude, tandis qu’un outil météo nécessitait un ID de division administrative sans fournir d’instructions sur la manière d’obtenir ces ID. La seule solution était pour les utilisateurs de revenir à l’écosystème du fournisseur de services et de suivre les étapes pour obtenir des informations et des autorisations.
Bien que la popularité du MCP soit évidente, la dynamique sous-jacente est complexe. Bien que les fournisseurs de LLM soient disposés à fournir des services MCP, ils conservent le contrôle et hésitent à profiter à d’autres écosystèmes. Si les services ne sont pas correctement entretenus, les développeurs peuvent faire face à une charge de travail accrue, ce qui compromet l’objectif de l’écosystème.
La victoire de l’open source
Pourquoi le MCP gagne-t-il du terrain maintenant ?
Initialement, le MCP a reçu peu d’attention après son lancement par Anthropic. Seul un nombre limité d’applications, telles que Claude Desktop d’Anthropic, prenaient en charge le protocole MCP. Les développeurs ne disposaient pas d’un écosystème de développement d’IA unifié et travaillaient principalement de manière isolée.
L’adoption du MCP par les développeurs l’a progressivement mis sur le devant de la scène. À partir de février 2025, plusieurs applications de programmation d’IA populaires, notamment Cursor, VSCode et Cline, ont annoncé la prise en charge du protocole MCP, ce qui a considérablement rehaussé son profil.
Suite à l’adoption par la communauté des développeurs, l’intégration du MCP par les fournisseurs de LLM a été le facteur clé de son adoption généralisée.
L’annonce par OpenAI de la prise en charge du MCP le 27 mars, suivie de Google, a été une étape cruciale.
Le PDG de Google, Sundar Pichai, a exprimé son ambivalence envers le MCP sur X, déclarant : “Être ou ne pas être MCP, telle est la question”. Cependant, seulement quatre jours après avoir publié ce tweet, Google a également annoncé son soutien au MCP.
L’adoption rapide du MCP par les principaux acteurs de l’industrie de l’IA souligne son potentiel à transformer la façon dont les applications d’IA sont développées et déployées.
La voie à suivre pour le MCP
Alors que l’écosystème MCP continue d’évoluer, il sera crucial de relever les limites et les défis existants. Cela comprend :
- Normalisation : Développer un protocole MCP plus normalisé qui soit indépendant des fournisseurs individuels.
- Sécurité : Mettre en œuvre des mesures de sécurité robustes pour garantir la sûreté et la fiabilité des connexions MCP.
- Maintenabilité : Encourager le développement et la maintenance de serveurs MCP de haute qualité.
- Accessibilité : Rendre le MCP plus accessible aux développeurs de tous niveaux de compétence.
En relevant ces défis, le MCP a le potentiel de déverrouiller une nouvelle ère d’innovation en matière d’IA, permettant la création d’applications d’IA plus puissantes, polyvalentes et conviviales.
En conclusion, bien que le MCP en soit encore à ses débuts, son potentiel à transformer le paysage de l’IA est indéniable. En favorisant un écosystème plus ouvert, normalisé et collaboratif, le MCP peut ouvrir la voie à un avenir où l’IA est plus accessible et bénéfique pour tous.