Alors que la demande d’agents intelligents se diversifie parmi les groupes d’utilisateurs, la gouvernance doit prendre en compte des priorités variables. Le Model Context Protocol (MCP), renforcé par la collaboration open-source et la supervision humaine, fournit une base pour un écosystème d’agents sécurisé et fiable.
Les agents intelligents (AI Agents) sont des systèmes alimentés par de grands modèles de langage, capables d’interagir avec le monde extérieur par le biais d’outils et d’agir au nom des utilisateurs. L’émergence récente de Manus met en évidence l’attente du marché pour des applications pratiques des agents.
Annoncé en novembre 2024, le Model Context Protocol (MCP) open-source d’Anthropic offre une solution technique pour améliorer l’efficacité et la sécurité des agents à usage général. Le MCP rationalise l’intégration grâce à des interfaces standardisées, ce qui améliore l’efficacité de l’accès aux données et aux outils. Il renforce également la sécurité en isolant les modèles de sources de données spécifiques et en améliorant la transparence du contrôle des commandes. Cette approche équilibrée donne la priorité à l’expérience utilisateur tout en garantissant une autorisation contrôlée.
Bien que le MCP établisse une base pour la gouvernance des agents, il ne résout pas tous les défis. Par exemple, il ne valide pas la justification du choix des outils ni l’exactitude des résultats d’exécution, et il ne traite pas non plus efficacement la concurrence et la collaboration au sein de l’écosystème agent-application.
Défis rencontrés par les agents à usage général dans l’application
Un agent est un système doté de mémoire, de planification, de perception, d’invocation d’outils et de capacités d’action, alimenté par des modèles de langage étendus, qui interagit avec l’environnement extérieur par le biais d’outils, agissant au nom de l’utilisateur. L’agent doit percevoir et comprendre les intentions de l’utilisateur, obtenir et stocker des informations par le biais du module de mémoire, formuler et optimiser des stratégies en tirant parti du module de planification, invoquer le module d’outils pour exécuter des tâches spécifiques et mettre en œuvre des plans par le biais du module d’action, réalisant ainsi l’objectif d’accomplir des tâches de manière autonome.
Manus est davantage un agent à usage général, contrairement aux produits d’agent orientés vers le workflow.
Les attentes de l’industrie à l’égard des agents, en particulier des agents à usage général, découlent des besoins collectifs qu’ils satisfont. Sur les marchés financiers, les agents représentent la voie en boucle fermée anticipée par l’industrie pour la valeur commerciale des modèles, faisant passer la tarification de l’IA du calcul basé sur les jetons à la tarification basée sur les effets pour les services personnalisés, ce qui se traduit par une plus grande rentabilité. Du côté de l’utilisateur, les entreprises s’attendent à ce que les agents exécutent des processus répétitifs, standardisés et clairement définis avec une automatisation de précision, tandis que le public s’attend à ce que les agents apportent des ‘avantages technologiques’, devenant des ‘intendants numériques’ personnalisés et à faible seuil pour tout le monde.
Cependant, les agents à usage général sont confrontés à des défis de compatibilité, de sécurité et de concurrence dans l’application. En termes de compatibilité, les modèles doivent collaborer efficacement avec différents outils et sources de données lors de l’appel. En termes de sécurité, les agents doivent exécuter des tâches de manière claire et transparente conformément aux instructions de l’utilisateur et répartir raisonnablement les responsabilités en matière de sécurité dans le cadre de la convergence des données de plusieurs parties. En termes de concurrence, les agents doivent résoudre les relations de concurrence et de coopération dans le nouvel écosystème commercial.
Par conséquent, le protocole MCP, qui permet aux modèles de collaborer efficacement avec différents outils et sources de données et de répartir raisonnablement les responsabilités en matière de sécurité dans le cadre de la convergence des données de plusieurs parties, mérite d’être étudié en profondeur par rapport au produit Manus lui-même.
Problèmes de compatibilité
Le monde de l’IA évolue rapidement, avec de nouveaux modèles et outils qui émergent constamment. Pour qu’un agent à usage général soit vraiment utile, il doit être capable de s’intégrer de manière transparente à une grande variété de ressources. Cela représente un défi important, car chaque outil ou source de données peut avoir sa propre interface et son propre format de données. Sans une approche standardisée, les développeurs devraient écrire du code personnalisé pour chaque intégration, ce qui prend du temps et est inefficace. Ce manque de compatibilité peut entraver l’adoption généralisée des agents d’IA, car les utilisateurs peuvent hésiter à investir dans une technologie qui ne fonctionne pas facilement avec leurs systèmes existants.
Risques pour la sécurité
Les agents d’IA sont conçus pour agir au nom des utilisateurs, ce qui signifie qu’ils ont souvent accès à des données et des systèmes sensibles. Cela soulève d’importantes préoccupations en matière de sécurité, car un agent compromis pourrait être utilisé pour voler des données, perturber des opérations ou même causer des dommages physiques. Il est essentiel de s’assurer que les agents sont conçus en tenant compte de la sécurité et qu’ils sont soumis à des tests et à une surveillance rigoureux pour prévenir les vulnérabilités. De plus, il est important d’établir des lignes de responsabilité claires en matière de sécurité, en particulier lorsque plusieurs parties sont impliquées dans le développement et le déploiement d’un agent.
Paysage concurrentiel
À mesure que les agents d’IA se généralisent, ils sont susceptibles de perturber les modèles commerciaux existants et de créer de nouvelles formes de concurrence. Par exemple, un agent capable de négocier automatiquement les prix avec les fournisseurs pourrait donner à une entreprise un avantage concurrentiel important. Cependant, cela pourrait également conduire à une course vers le bas, car les entreprises se font concurrence pour offrir les prix les plus bas. Il est important de tenir compte de l’impact potentiel des agents d’IA sur le paysage concurrentiel et d’élaborer des stratégies pour naviguer dans ce nouvel environnement. Cela comprend la résolution de problèmes tels que la propriété des données, la propriété intellectuelle et le potentiel de comportement anticoncurrentiel.
MCP : Une solution technique pour la compatibilité et la sécurité dans les applications d’agents
En novembre 2024, Anthropic a publié en open source le MCP (Model Context Protocol), un protocole ouvert qui permet aux systèmes de fournir un contexte aux modèles d’IA et qui peut être universalisé dans différents scénarios d’intégration. Le MCP utilise une architecture en couches pour résoudre les problèmes de normalisation et de sécurité dans les applications d’agents. Une application hôte (telle que Manus) se connecte simultanément à plusieurs programmes de service (MCP Server) via le client MCP, et chaque Server remplit ses propres fonctions, fournissant un accès standardisé à une source de données ou à une application.
Tout d’abord, le MCP résout le problème de compatibilité dans les appels de données/outils d’agents grâce à un consensus standard. Le MCP remplace l’intégration fragmentée par une interface unifiée, et l’IA n’a besoin que de comprendre et de respecter l’accord pour interagir avec tous les outils qui répondent aux spécifications, ce qui réduit considérablement la duplication de l’intégration. Deuxièmement, le MCP a trois considérations en termes de sécurité. Premièrement, le modèle et les sources de données spécifiques sont isolés sur la liaison de données, et les deux interagissent via le protocole MCP Server. Le modèle ne dépend pas directement des détails internes de la source de données, clarifiant ainsi la source du mélange de données multipartites. La seconde consiste à améliorer la transparence et l’auditabilité de la liaison de commande et de contrôle grâce à des protocoles de communication, et à résoudre l’asymétrie de l’information et les défis de la boîte noire de l’interaction données utilisateur-modèle. La troisième consiste à garantir la contrôlabilité de la liaison d’autorisation en répondant en fonction des autorisations, et à garantir le contrôle de l’utilisateur sur l’agent lors de l’utilisation d’outils/de données.
Le MCP construit une interface standardisée et un mécanisme de protection de la sécurité grâce à une architecture en couches, réalisant ainsi un équilibre entre l’interopérabilité et la sécurité dans les appels de données et d’outils. Au niveau de la valeur pour l’utilisateur, le MCP apporte une collaboration et une interaction plus fortes entre les corps intelligents et plus d’outils, et même plus de corps intelligents. Dans la prochaine étape, le MCP se concentrera sur le développement du support des connexions à distance.
Interfaces standardisées pour une compatibilité améliorée
L’une des principales caractéristiques du MCP est son utilisation d’interfaces standardisées. Cela signifie que les agents d’IA peuvent interagir avec différents outils et sources de données sans nécessiter de code personnalisé pour chaque intégration. Au lieu de cela, l’agent a simplement besoin de comprendre le protocole MCP, qui définit un ensemble commun de commandes et de formats de données. Cela simplifie grandement le processus d’intégration et réduit la quantité de travail de développement requise. Cela facilite également le passage d’un outil ou d’une source de données à un autre, car l’agent n’a pas besoin d’être reconfiguré à chaque fois.
L’utilisation d’interfaces standardisées favorise également l’interopérabilité entre différents agents d’IA. Si plusieurs agents prennent tous en charge le protocole MCP, ils peuvent facilement communiquer et partager des données entre eux. Cela peut conduire au développement de systèmes d’IA plus complexes et sophistiqués, où plusieurs agents travaillent ensemble pour résoudre un problème.
Mécanismes de sécurité robustes pour la protection des données
La sécurité est une priorité absolue dans la conception du MCP. Le protocole comprend plusieurs mécanismes pour protéger les données et empêcher l’accès non autorisé. Une caractéristique essentielle est l’isolement des modèles de sources de données spécifiques. Cela signifie que l’agent n’a pas d’accès direct aux données sous-jacentes, mais qu’il interagit plutôt avec elles via le protocole MCP Server. Cela ajoute une couche d’indirection qui rend plus difficile pour un attaquant de compromettre les données.
Le MCP comprend également des mécanismes pour améliorer la transparence et l’auditabilité des liaisons de commande et de contrôle. Cela permet aux utilisateurs de voir exactement quelles commandes sont envoyées à l’agent et de vérifier que l’agent agit conformément à leurs instructions. Ceci est important pour instaurer la confiance dans les systèmes d’IA, car cela permet aux utilisateurs de comprendre comment l’agent prend des décisions.
Enfin, le MCP fournit un mécanisme pour contrôler l’autorisation des agents. Cela permet aux utilisateurs de spécifier à quels outils et sources de données l’agent est autorisé à accéder. Ceci est important pour empêcher l’agent d’accéder à des données sensibles ou d’effectuer des actions qu’il n’est pas autorisé à faire.
MCP : Préparer le terrain pour la gouvernance des agents
Le MCP fournit des garanties de compatibilité et de sécurité pour les appels de données et d’outils, jetant ainsi les bases de la gouvernance des agents, mais il ne peut pas résoudre tous les défis rencontrés en matière de gouvernance.
Tout d’abord, en termes de crédibilité, le MCP n’a pas établi de norme normative pour la sélection des sources de données et des outils d’appel, ni évalué et vérifié les résultats de l’exécution. Deuxièmement, le MCP ne peut pas ajuster temporairement le nouveau type de relation de coopération commerciale concurrentielle induite par l’agent.
Dans l’ensemble, le MCP fournit une réponse technique initiale aux principales préoccupations en matière de sécurité auxquelles sont confrontés les utilisateurs qui utilisent des agents et est devenu le point de départ de la gouvernance des agents. Avec la popularisation des agents et d’autres applications d’IA, des méthodes distribuées sont nécessaires pour répondre aux besoins différenciés des différents utilisateurs. L’objectif de la gouvernance n’est pas seulement la sécurité du modèle, mais aussi l’exigence fondamentale de répondre aux besoins des utilisateurs. Le protocole MCP a fait le premier pas pour répondre aux besoins des utilisateurs et promouvoir la co-gouvernance technologique. C’est également sur la base du MCP que l’agent réalise une division du travail efficace et une collaboration de divers outils et ressources. Il y a une semaine, Google a publié en open source le protocole Agent2Agent (A2A) pour la communication entre les agents, afin que les agents construits sur différentes plateformes puissent négocier des tâches et mener une collaboration sûre, et promouvoir le développement d’une écologie multi-intelligente.
Répondre aux préoccupations en matière de confiance et de fiabilité
Bien que le MCP fournisse une base solide pour la gouvernance des agents, il ne répond pas à tous les défis. Un domaine clé qui nécessite une attention supplémentaire est la question de la confiance et de la fiabilité. Le MCP n’inclut actuellement aucun mécanisme pour vérifier l’exactitude des résultats de l’exécution ou pour s’assurer que les agents sélectionnent des sources de données et des outils appropriés. Cela signifie que les utilisateurs peuvent ne pas être en mesure de faire pleinement confiance aux décisions prises par un agent, en particulier dans les situations à enjeux élevés.
Pour répondre à cette préoccupation, il sera nécessaire d’élaborer de nouvelles normes et de meilleures pratiques pour le développement et le déploiement des agents. Cela pourrait inclure des éléments tels que des méthodes de vérification formelle, qui peuvent être utilisées pour prouver qu’un agent se comportera toujours de manière prévisible et sûre. Cela pourrait également inclure l’utilisation de techniques d’IA explicables, qui peuvent aider les utilisateurs à comprendre comment un agent prend des décisions.
Naviguer dans le nouveau paysage concurrentiel
Un autre défi que le MCP ne relève pas entièrement est l’impact des agents sur le paysage concurrentiel. À mesure que les agents se généralisent, ils sont susceptibles de perturber les modèles commerciaux existants et de créer de nouvelles formes de concurrence. Il est important de tenir compte de l’impact potentiel des agents sur le paysage concurrentiel et d’élaborer des stratégies pour naviguer dans ce nouvel environnement. Cela comprend la résolution de problèmes tels que la propriété des données, la propriété intellectuelle et le potentiel de comportement anticoncurrentiel.
Une approche possible consiste à élaborer de nouveaux cadres réglementaires spécifiquement adaptés aux agents d’IA. Ces cadres pourraient aborder des questions telles que la protection des données, les biais algorithmiques et le potentiel de manipulation du marché. Ils pourraient également inclure des mécanismes pour promouvoir la concurrence et prévenir les monopoles.
La voie à suivre : collaboration et innovation
Le développement du MCP est une avancée significative dans le domaine de la gouvernance des agents. Cependant, il est important de reconnaître qu’il ne s’agit que du début. Il reste encore de nombreux défis à surmonter et il faudra un effort de collaboration de la part des chercheurs, des développeurs, des décideurs politiques et des utilisateurs pour garantir que les agents d’IA sont utilisés de manière sûre et responsable.
Une évolution prometteuse est la récente publication du protocole Agent2Agent (A2A) de Google. Ce protocole permet aux agents construits sur différentes plateformes de communiquer et de collaborer entre eux. Cela pourrait conduire au développement de systèmes d’IA plus complexes et sophistiqués, où plusieurs agents travaillent ensemble pour résoudre un problème. Cela pourrait également contribuer à favoriser un écosystème d’IA plus compétitif et innovant, car les développeurs sont en mesure de créer des agents qui peuvent s’intégrer de manière transparente à d’autres agents.
Alors que la technologie de l’IA continue d’évoluer, il est essentiel de garder une longueur d’avance et d’élaborer de nouveaux mécanismes de gouvernance capables de relever les défis de l’avenir. Cela nécessitera un engagement en faveur de la collaboration, de l’innovation et une volonté de s’adapter au paysage en constante évolution de l’IA.