Sécuriser la Révolution des Agents IA

L’industrie des agents IA vit actuellement une histoire familière. Les agents IA exploitent les capacités générales de grands modèles pour automatiser la résolution de tâches utilisateur complexes en utilisant les technologies et outils existants. Cela les positionne comme la voie la plus prometteuse pour déployer la technologie des modèles aujourd’hui.

Au cours des derniers mois, il y a eu une explosion de produits d’agents IA. Des offres de haut niveau comme Manus ont attiré l’attention du grand public, et de nouveaux modèles d’OpenAI et de Google sont de plus en plus ‘agent-isés’. Il est crucial de noter que les protocoles standard gagnent rapidement du terrain.

Anthropic a publié MCP (Model Communication Protocol) en open-source à la fin de l’année dernière. MCP vise à établir une spécification ouverte et standardisée qui permet aux grands modèles de langage d’interagir de manière transparente avec diverses sources de données et outils externes, tels que les logiciels d’entreprise, les bases de données et les référentiels de code. Quelques mois après sa sortie, OpenAI, Google, Alibaba et Tencent ont tous exprimé leur soutien et l’ont intégré. Par la suite, Google a lancé A2A (Agent-to-Agent), dans le but d’automatiser la collaboration et les flux de travail entre les agents IA. Cela a encore alimenté le paysage florissant des agents IA.

Essentiellement, ces protocoles répondent à deux défis clés : MCP facilite les connexions entre les agents et les fournisseurs d’outils/services, tandis qu’A2A permet des connexions collaboratives entre les agents pour accomplir des tâches très complexes.

Par conséquent, MCP peut être comparé aux premières interfaces unifiées, tandis qu’A2A ressemble au protocole HTTP.

Cependant, dans l’histoire d’Internet, l’avènement de HTTP a été suivi d’un élément essentiel qui était nécessaire à la véritable prospérité d’Internet : des normes de sécurité superposées au-dessus du protocole.

Aujourd’hui, MCP et A2A font face à une situation similaire.

‘Lorsque HTTP a émergé, il a ensuite rencontré des défis de sécurité importants. Internet a connu cette évolution’, explique Zixi, responsable technique de l’IIFAA (Internet Industry Financial Authentication Alliance) Trusted Authentication Alliance et expert en sécurité des agents IA.

Ces défis peuvent se manifester sous diverses formes. Actuellement, des acteurs malveillants peuvent créer de faux outils ‘d’enquête météorologique’ et les enregistrer auprès des serveurs MCP, dérobant subrepticement les informations de vol des utilisateurs en arrière-plan. Lorsqu’un utilisateur achète des médicaments par l’intermédiaire d’un agent, l’agent A peut être responsable de l’achat de céfpodoxime, tandis que l’agent B achète de l’alcool. En raison d’un manque de capacités d’identification des risques multiplateformes, le système ne peut pas fournir d’avertissement de ‘combinaison dangereuse’, comme le font les plateformes de commerce électronique existantes. Plus grave encore, l’authentification agent-à-agent et la propriété des données restent floues. L’utilisateur autorise-t-il une application locale sur son appareil, ou synchronise-t-il des données privées dans le cloud ?

‘A2A, dans sa documentation officielle, déclare qu’il ne garantit que la sécurité de la transmission de niveau supérieur. Il laisse la responsabilité de garantir l’origine de l’identité et des informations d’identification, la confidentialité des données et la reconnaissance de l’intention aux entreprises individuelles.’

Le véritable épanouissement des agents intelligents nécessite que ces problèmes soient résolus. L’IIFAA, où travaille Zixi, est la première organisation à commencer à s’attaquer à ce problème.

‘Dans ce contexte, l’IIFAA se consacre à la résolution d’une série de problèmes auxquels les agents intelligents seront confrontés à l’avenir’, déclare Zixi. ‘À l’ère d’A2A, nous avons également défini un produit similaire appelé ASL (Agent Security Layer), qui peut s’appuyer sur le protocole MCP pour assurer la sécurité des agents en termes d’autorisations, de données, de confidentialité et d’autres aspects. Ce produit middleware relève également les défis de la transition d’A2A vers les futures normes de sécurité.’

Le groupe de travail sur l’interconnexion de confiance des agents intelligents de l’IIFAA est la première organisation nationale de collaboration sur l’écosystème de sécurité des agents IA. Il a été lancé conjointement par l’Académie chinoise des technologies de l’information et des communications (CAICT), Ant Group et plus de vingt autres entreprises et institutions technologiques.

De l’ASL à l’évolutivité

‘Le développement des agents IA se déroule plus rapidement que prévu, tant sur le plan technologique qu’en termes d’acceptation des normes par l’écosystème’, déclare Zixi.

Le concept de l’IIFAA d’un protocole de sécurité pour la communication agent-à-agent a émergé dès novembre de l’année dernière, avant la sortie de MCP. Le groupe de travail sur l’interconnexion de confiance des agents intelligents de l’IIFAA a été officiellement créé en décembre, coïncidant avec la sortie officielle de MCP.

‘Les acteurs malveillants maîtrisent parfois les nouvelles technologies plus rapidement que les défenseurs. Nous ne pouvons pas attendre que les problèmes surviennent avant de discuter de l’ordre. C’est la nécessité de l’existence de ce groupe de travail’, a déclaré un membre de l’IIFAA lors d’une précédente présentation. La construction de normes industrielles pour la sécurité et la confiance mutuelle est essentielle pour un développement sain à long terme.

Selon Zixi, leur objectif actuel est de résoudre les principaux problèmes suivants dans la première phase :

  • Identité de confiance de l’agent : ‘Nous visons à construire un système de certification d’agent basé sur des institutions faisant autorité et des mécanismes de reconnaissance mutuelle. Tout comme il faut un passeport et un visa pour voyager à l’étranger, cela permettra aux agents certifiés de rejoindre rapidement un réseau de collaboration et d’empêcher les agents non certifiés de perturber l’ordre collaboratif.’

  • Partage de confiance de l’intention : ‘La collaboration entre les agents intelligents repose sur l’authenticité et l’exactitude de l’intention. Par conséquent, le partage de confiance de l’intention est essentiel pour assurer une collaboration multi-agents efficace et fiable.’

  • Mécanisme de protection du contexte : ‘Lorsqu’un agent IA se connecte à plusieurs serveurs MCP (protocole multi-canal), toutes les informations de description de l’outil sont chargées dans le même contexte de session. Un serveur MCP malveillant pourrait exploiter cela pour injecter des instructions malveillantes. La protection du contexte peut empêcher les interférences malveillantes, maintenir la sécurité du système, assurer l’intégrité de l’intention de l’utilisateur et prévenir les attaques par empoisonnement.’

  • Protection de la confidentialité des données : ‘Dans la collaboration multi-agents, le partage de données peut entraîner des violations de la vie privée. La protection de la vie privée est essentielle pour empêcher l’utilisation abusive d’informations sensibles.’

  • Partage de confiance de la mémoire de l’agent : ‘Le partage de mémoire améliore l’efficacité de la collaboration multi-agents. Le partage de confiance de la mémoire assure la cohérence, l’authenticité et la sécurité des données, empêchant la falsification et la fuite, améliorant l’efficacité de la collaboration et la confiance des utilisateurs.’

  • Circulation de confiance de l’identité : ‘Les utilisateurs s’attendent à une expérience de service transparente et fluide dans les applications natives de l’IA. Par conséquent, la réalisation d’une reconnaissance d’identité multiplateforme et non intrusive est essentielle pour améliorer l’expérience utilisateur.’

‘Ce sont nos objectifs à court terme. Ensuite, nous publierons ASL pour l’ensemble de l’industrie. Il s’agit d’une implémentation logicielle, pas d’une spécification de protocole. Elle peut être appliquée à MCP et A2A pour améliorer la sécurité de niveau entreprise de ces deux protocoles. C’est l’objectif à court terme’, explique Zixi.

‘Au début, nous ne spécifierons pas les choses au niveau de la sécurité. Nous ne spécifierons pas A2AS. Au lieu de cela, nous espérons que si quelqu’un spécifie A2AS à l’avenir, notre ASL pourra devenir un composant d’implémentation logicielle, tout comme SSL est un composant d’implémentation logicielle de HTTPS.’

L’analogie HTTPS : Sécuriser l’avenir des agents IA

En établissant des parallèles avec l’histoire de HTTPS, l’assurance de la sécurité permet l’adoption généralisée de fonctionnalités telles que le paiement, ouvrant ainsi la voie à des opportunités commerciales à plus grande échelle. Un rythme similaire se déroule actuellement. Le 15 avril, Alipay a collaboré avec la communauté ModelScope pour dévoiler le service ‘Payment MCP Server’. Cela permet aux développeurs d’IA d’intégrer de manière transparente les services de paiement Alipay en utilisant le langage naturel, facilitant ainsi le déploiement rapide des fonctionnalités de paiement au sein des agents IA.

Répondre à ces objectifs à court terme un par un aboutira finalement à la formation d’une norme et d’un environnement de collaboration d’agent sécurisé. La clé de ce processus est de parvenir à un effet d’échelle. Les ‘magasins’ MCP nationaux qui évoluent rapidement ont déjà commencé à agir. La ‘zone MCP’ de la plateforme d’agent intelligent Baibaoxiang d’Ant Group intégrera les solutions de sécurité de l’IIFAA. Ce ‘magasin MCP’ prend actuellement en charge le déploiement et l’invocation de divers services MCP, notamment Alipay, Amap et Wuying, permettant la création la plus rapide d’un agent intelligent connecté aux services MCP en seulement 3 minutes.

Zixi estime que les capacités générales des grands modèles ont le potentiel de révolutionner véritablement les expériences utilisateur et les paradigmes d’interaction. À l’avenir, l’approche actuelle consistant à appeler des applications pour effectuer des tâches peut être remplacée par une super passerelle qui repose sur un pool d’outils caché en coulisses, similaire à un magasin MCP. Cela deviendra plus simple et plus compréhensif des besoins des utilisateurs. La commercialisation devient possible.

‘Le développement de l’AGI est maintenant entré dans la phase de l’agent intelligent. Par rapport aux robots de conversation et à l’IA dotée de capacités de raisonnement limitées, les agents intelligents se sont enfin libérés de la phase fermée point à point, ouvrant véritablement un nouveau chapitre dans les applications commerciales.’

L’IIFAA a récemment lancé ASL et a annoncé sa publication en open-source. En partageant ouvertement le code, les normes et l’expérience, elle vise à accélérer l’innovation et l’itération technologiques, en encourageant les entreprises et les développeurs de l’industrie à participer largement et en promouvant la normalisation de la technologie au sein de l’industrie. Le plan open-source adoptera la licence Apache 2.0 la plus permissive et mettra à disposition en externe les pratiques de sécurité du document de conception de la bibliothèque de code. Les développeurs mondiaux peuvent participer à la co-construction au sein de la communauté Github.

L’impératif de la sécurité dans le développement des agents IA

L’essor des agents IA représente un changement de paradigme dans la façon dont nous interagissons avec la technologie. Nous ne sommes plus confinés à des applications discrètes, mais nous nous dirigeons vers un monde où des agents intelligents peuvent orchestrer de manière transparente une multitude d’outils et de services pour atteindre nos objectifs. Cette vision, cependant, est subordonnée à la résolution des risques de sécurité inhérents qui accompagnent une technologie aussi puissante. Tout comme Internet avait besoin de HTTPS pour faciliter le commerce électronique sécurisé et d’autres transactions sensibles, les agents IA ont besoin de normes de sécurité robustes pour favoriser la confiance et permettre une adoption généralisée.

Le paysage actuel du développement des agents IA est caractérisé par une innovation et une expérimentation rapides. De nouveaux modèles, protocoles et applications émergent à un rythme sans précédent. Bien que ce dynamisme soit sans aucun doute passionnant, il pose également un défi : les préoccupations de sécurité passent souvent au second plan par rapport à la vitesse et à la fonctionnalité. Cela peut entraîner des vulnérabilités que des acteurs malveillants peuvent exploiter, compromettant potentiellement les données des utilisateurs, perturbant les services et sapant la confiance dans l’ensemble de l’écosystème.

L’analogie avec les débuts d’Internet est particulièrement appropriée. En l’absence de mesures de sécurité généralisées, Internet était en proie à des escroqueries, des fraudes et d’autres activités malveillantes. Cela a entravé sa croissance et l’a empêché d’atteindre son plein potentiel. Ce n’est qu’avec l’avènement de HTTPS et d’autres protocoles de sécurité qu’Internet est devenu une plateforme sûre et fiable pour le commerce électronique, les services bancaires en ligne et d’autres transactions sensibles.

De même, les agents IA ont besoin d’une base solide de sécurité pour réaliser leur potentiel de transformation. Sans une telle base, ils risquent de devenir un terrain fertile pour de nouvelles formes de cybercriminalité et d’exploitation en ligne. Cela pourrait étouffer l’innovation, éroder la confiance des utilisateurs et, en fin de compte, empêcher les agents IA de devenir la technologie omniprésente et bénéfique que beaucoup envisagent.

Relever les défis de sécurité

Les défis de sécurité auxquels sont confrontés les agents IA sont multiformes et nécessitent une approche globale. Certains des principaux défis comprennent :

  • Authentification et autorisation : S’assurer que seuls les agents autorisés peuvent accéder aux données et aux ressources sensibles. Cela nécessite des mécanismes d’authentification robustes et des contrôles d’accès granulaires.
  • Confidentialité des données : Protéger les données des utilisateurs contre l’accès, l’utilisation ou la divulgation non autorisés. Cela nécessite la mise en œuvre de techniques de préservation de la confidentialité telles que l’anonymisation, le chiffrement et la confidentialité différentielle.
  • Vérification de l’intention : Vérifier que l’intention d’un agent est alignée sur les objectifs de l’utilisateur et qu’elle n’est pas manipulée par des acteurs malveillants. Cela nécessite le développement d’algorithmes sophistiqués de reconnaissance et de vérification de l’intention.
  • Sécurité contextuelle : Protéger les agents contre les attaques malveillantes qui exploitent les vulnérabilités de l’environnement environnant. Cela nécessite la mise en œuvre de mesures de sécurité robustes à toutes les couches du système, du matériel au logiciel.
  • Sécurité agent à agent : S’assurer que les agents peuvent communiquer et collaborer en toute sécurité les uns avec les autres. Cela nécessite le développement de protocoles de communication sécurisés et de mécanismes de confiance.

L’ASL de l’IIFAA est une étape prometteuse dans la bonne direction. En fournissant une implémentation logicielle qui améliore la sécurité de MCP et d’A2A, ASL peut aider à relever certains de ces défis. Cependant, il faut faire davantage pour créer un cadre de sécurité complet pour les agents IA.

La voie à suivre : Collaboration et normalisation

Le développement d’agents IA sécurisés nécessite un effort de collaboration impliquant des chercheurs, des développeurs, des acteurs de l’industrie et des décideurs. Certaines des principales mesures à prendre comprennent :

  • Élaboration de normes ouvertes : L’établissement de normes ouvertes pour la sécurité des agents IA est essentiel pour assurer l’interopérabilité et promouvoir l’innovation.
  • Partage des meilleures pratiques : Le partage des meilleures pratiques pour le développement d’agents IA sécurisés peut aider à prévenir les vulnérabilités courantes et à promouvoir une culture de sécurité.
  • Investissement dans la recherche : L’investissement dans la recherche sur la sécurité des agents IA est essentiel pour développer de nouvelles techniques et technologies afin de faire face aux menaces émergentes.
  • Promotion de l’éducation et de la sensibilisation : La promotion de l’éducation et de la sensibilisation à la sécurité des agents IA peut aider à relever la barre en matière de sécurité et à encourager un développement responsable.
  • Mise en place de cadres réglementaires : La mise en place de cadres réglementaires pour la sécurité des agents IA peut aider à garantir que la sécurité est une priorité et que les utilisateurs sont protégés.

En travaillant ensemble, nous pouvons créer un avenir où les agents IA sont non seulement puissants et bénéfiques, mais aussi sûrs et dignes de confiance. Cela nécessitera un effort concerté pour relever les défis de sécurité qui nous attendent et pour construire une base solide de sécurité pour l’écosystème des agents IA. Ce n’est qu’alors que nous pourrons libérer tout le potentiel des agents IA et créer une technologie véritablement transformatrice. Les efforts d’organisations comme l’IIFAA sont louables pour avoir mené cette initiative, mais l’adoption et le respect généralisés des normes de sécurité sont essentiels pour le développement sûr et prospère des agents IA.