El sector de los agentes de IA está experimentando una narrativa familiar. Los agentes de IA aprovechan las capacidades generales de los grandes modelos para automatizar la resolución de tareas complejas del usuario utilizando tecnologías y herramientas existentes. Esto los posiciona como la vía más prometedora para desplegar la tecnología de modelos hoy en día.
En los últimos meses, ha habido una explosión de productos de agentes de IA. Ofertas de alto perfil como Manus han ganado la atención del público general, y los nuevos modelos de OpenAI y Google están cada vez más ‘agentizados’. Crucialmente, los protocolos estándar están ganando tracción rápidamente.
Anthropic lanzó MCP (Protocolo de Comunicación de Modelos) como código abierto a finales del año pasado. MCP tiene como objetivo establecer una especificación abierta y estandarizada que permita a los grandes modelos de lenguaje interactuar sin problemas con diversas fuentes de datos y herramientas externas, como software empresarial, bases de datos y repositorios de código. A los pocos meses de su lanzamiento, OpenAI, Google, Alibaba y Tencent han expresado su apoyo y lo han integrado. Después de esto, Google lanzó A2A (Agente a Agente), con el objetivo de automatizar la colaboración y los flujos de trabajo entre agentes de IA. Esto ha alimentado aún más el floreciente panorama de los agentes de IA.
En esencia, estos protocolos abordan dos desafíos clave: MCP facilita las conexiones entre los agentes y los proveedores de herramientas/servicios, mientras que A2A permite conexiones colaborativas entre los agentes para llevar a cabo tareas muy complejas.
Por lo tanto, MCP puede compararse con las primeras interfaces unificadas, mientras que A2A se asemeja al protocolo HTTP.
Sin embargo, en la historia de Internet, la llegada de HTTP fue seguida por un elemento crítico que fue necesario para la genuina prosperidad de Internet: los estándares de seguridad en capas encima del protocolo.
Hoy, MCP y A2A se enfrentan a una situación similar.
‘Cuando surgió HTTP, más tarde encontró importantes desafíos de seguridad. Internet experimentó esta evolución’, explica Zixi, jefe técnico de la IIFAA (Internet Industry Financial Authentication Alliance) Trusted Authentication Alliance y experto en seguridad de agentes de IA.
Estos desafíos pueden manifestarse de diversas formas. Actualmente, los actores maliciosos pueden crear herramientas falsas de ‘consulta del tiempo’ y registrarlas en los servidores MCP, robando subrepticiamente la información de los vuelos de los usuarios en segundo plano. Cuando un usuario compra medicamentos a través de un agente, el agente A podría ser responsable de la compra de cefpodoxima, mientras que el agente B compra alcohol. Debido a la falta de capacidades de identificación de riesgos entre plataformas, el sistema no puede proporcionar una advertencia de ‘combinación peligrosa’, como lo hacen las plataformas de comercio electrónico existentes. Más críticamente, la autenticación de agente a agente y la propiedad de los datos siguen sin estar claras. ¿Está el usuario autorizando una aplicación local en su dispositivo o está sincronizando datos privados en la nube?
‘A2A, en su documentación oficial, afirma que sólo garantiza la seguridad de la transmisión de nivel superior. Deja la responsabilidad de garantizar los orígenes de la identidad y las credenciales, la privacidad de los datos y el reconocimiento de la intención a las empresas individuales.’
El verdadero florecimiento de los agentes inteligentes requiere que estos problemas se aborden. La IIFAA, donde trabaja Zixi, es la primera organización que ha empezado a abordar este problema.
‘En este contexto, la IIFAA se dedica a resolver una serie de problemas a los que se enfrentarán los agentes inteligentes en el futuro’, dice Zixi. ‘En la era de A2A, también hemos definido un producto similar llamado ASL (Capa de Seguridad del Agente), que puede construirse sobre el protocolo MCP para garantizar la seguridad de los agentes en términos de permisos, datos, privacidad y otros aspectos. Este producto middleware también aborda los desafíos de la transición de A2A a los futuros estándares de seguridad.’
El Grupo de Trabajo de Interconexión de Confianza de Agentes Inteligentes de la IIFAA es la primera organización nacional de colaboración del ecosistema de seguridad de agentes de IA. Fue iniciado conjuntamente por la Academia China de Información y Tecnología de las Comunicaciones (CAICT), Ant Group, y más de veinte otras empresas e instituciones tecnológicas.
De ASL a la escalabilidad
‘El desarrollo de los Agentes de IA está ocurriendo más rápido de lo que anticipábamos, tanto tecnológicamente como en términos de la aceptación de estándares por parte del ecosistema’, dice Zixi.
El concepto de la IIFAA de un protocolo de seguridad para la comunicación de agente a agente surgió ya en noviembre del año pasado, antes del lanzamiento de MCP. El Grupo de Trabajo de Interconexión de Confianza de Agentes Inteligentes de la IIFAA se estableció oficialmente en diciembre, coincidiendo con el lanzamiento oficial de MCP.
‘Los actores maliciosos a veces dominan las nuevas tecnologías más rápido que los defensores. No podemos esperar a que surjan problemas antes de discutir el orden. Esa es la necesidad de la existencia de este grupo de trabajo’, declaró un miembro de la IIFAA en una presentación anterior. Construir normas de la industria para la seguridad y la confianza mutua juntos es fundamental para un desarrollo saludable a largo plazo.
Según Zixi, su enfoque actual se centra en abordar los siguientes temas clave en la primera fase:
Identidad de confianza del agente: ‘Nuestro objetivo es construir un sistema de certificación de agentes basado en instituciones autorizadas y mecanismos de reconocimiento mutuo. Al igual que se necesita un pasaporte y un visado para viajar al extranjero, esto permitirá a los agentes certificados unirse rápidamente a una red de colaboración e impedirá que los agentes no certificados interrumpan el orden colaborativo’.
Compartir la intención de confianza: ‘La colaboración entre agentes inteligentes se basa en la autenticidad y la exactitud de la intención. Por lo tanto, compartir la intención de confianza es crucial para garantizar una colaboración multiagente eficiente y fiable.’
Mecanismo de protección del contexto: ‘Cuando un Agente de IA se conecta a múltiples servidores MCP (protocolo multicanal), toda la información de la descripción de la herramienta se carga en el mismo contexto de sesión. Un servidor MCP malicioso podría explotar esto para inyectar instrucciones maliciosas. La protección del contexto puede prevenir la interferencia maliciosa, mantener la seguridad del sistema, garantizar la integridad de la intención del usuario y prevenir los ataques de envenenamiento.’
Protección de la privacidad de los datos: ‘En la colaboración multiagente, el intercambio de datos puede conducir a violaciones de la privacidad. La protección de la privacidad es crucial para prevenir el uso indebido de la información sensible.’
Compartir la memoria de confianza del agente: ‘El intercambio de memoria mejora la eficiencia de la colaboración multiagente. Compartir la memoria de confianza garantiza la coherencia, la autenticidad y la seguridad de los datos, evitando la manipulación y la fuga, mejorando la eficacia de la colaboración y la confianza del usuario.’
Circulación de la identidad de confianza: ‘Los usuarios esperan una experiencia de servicio fluida y sin problemas en las aplicaciones nativas de la IA. Por lo tanto, lograr un reconocimiento de la identidad no intrusivo y entre plataformas es clave para mejorar la experiencia del usuario.’
‘Estos son nuestros objetivos a corto plazo. A continuación, lanzaremos ASL a toda la industria. Esta es una implementación de software, no una especificación de protocolo. Se puede aplicar a MCP y A2A para mejorar la seguridad de nivel empresarial de estos dos protocolos. Este es el objetivo a corto plazo’, explica Zixi.
‘Al principio, no especificaremos cosas en la capa de seguridad. No especificaremos A2AS. En cambio, esperamos que si alguien especifica A2AS en el futuro, nuestra ASL pueda convertirse en un componente de implementación de software, al igual que SSL es un componente de implementación de software de HTTPS.’
La analogía de HTTPS: asegurar el futuro de los agentes de IA
Trazando paralelismos con la historia de HTTPS, la garantía de la seguridad permite la adopción generalizada de funcionalidades como el pago, allanando así el camino para oportunidades comerciales a mayor escala. Un ritmo similar se está desarrollando actualmente. El 15 de abril, Alipay colaboró con la comunidad ModelScope para presentar el servicio ‘Payment MCP Server’. Esto permite a los desarrolladores de IA integrar sin problemas los servicios de pago de Alipay utilizando el lenguaje natural, facilitando el rápido despliegue de las funcionalidades de pago dentro de los agentes de IA.
Abordar estos objetivos a corto plazo uno por uno dará como resultado la formación de un estándar y un entorno de colaboración de Agentes seguro. La clave de este proceso es lograr un efecto de escala. Las ‘tiendas’ MCP nacionales que se están moviendo rápidamente ya han comenzado a actuar. La ‘Zona MCP’ de la plataforma de agentes inteligentes de Ant Group, Baibaoxiang, integrará las soluciones de seguridad de la IIFAA. Esta ‘Tienda MCP’ actualmente soporta el despliegue y la invocación de varios servicios MCP, incluyendo Alipay, Amap y Wuying, permitiendo la creación más rápida de un agente inteligente conectado a los servicios MCP en sólo 3 minutos.
Zixi cree que las capacidades generales de los grandes modelos tienen el potencial de revolucionar genuinamente las experiencias de los usuarios y los paradigmas de interacción. En el futuro, el enfoque actual de llamar a las Apps para completar las tareas puede ser reemplazado por una super puerta de enlace que se basa en un pool de herramientas oculto tras bastidores, similar a una Tienda MCP. Esto será más sencillo y más comprensivo con las necesidades de los usuarios. La comercialización se hace posible.
‘El desarrollo de AGI ha entrado ahora en la fase de agente inteligente. En comparación con los robots de chat y la IA con capacidades de razonamiento limitadas, los agentes inteligentes finalmente se han liberado de la etapa cerrada de punto a punto, abriendo verdaderamente un nuevo capítulo en las aplicaciones comerciales.’
La IIFAA ha lanzado recientemente ASL y ha anunciado su lanzamiento de código abierto. Al compartir abiertamente el código, los estándares y la experiencia, pretende acelerar la innovación tecnológica y la iteración, instando a las empresas y a los desarrolladores de la industria a participar ampliamente, y promoviendo la estandarización de la tecnología dentro de la industria. El plan de código abierto adoptará la licencia Apache 2.0 más permisiva y pondrá a disposición externa las prácticas de seguridad del documento de diseño de la biblioteca de código. Los desarrolladores globales pueden participar en la co-construcción dentro de la comunidad de Github.
El imperativo de la seguridad en el desarrollo de agentes de IA
El auge de los agentes de IA representa un cambio de paradigma en la forma en que interactuamos con la tecnología. Ya no estamos confinados a aplicaciones discretas, sino que nos estamos moviendo hacia un mundo donde los agentes inteligentes pueden orquestar sin problemas una multitud de herramientas y servicios para lograr nuestros objetivos. Esta visión, sin embargo, depende de que se aborden los riesgos de seguridad inherentes que acompañan a una tecnología tan poderosa. Al igual que Internet requería HTTPS para facilitar el comercio electrónico seguro y otras transacciones sensibles, los agentes de IA necesitan estándares de seguridad sólidos para fomentar la confianza y permitir la adopción generalizada.
El panorama actual del desarrollo de agentes de IA se caracteriza por la rápida innovación y la experimentación. Nuevos modelos, protocolos y aplicaciones están surgiendo a un ritmo sin precedentes. Si bien este dinamismo es indudablemente emocionante, también plantea un desafío: las preocupaciones de seguridad a menudo quedan relegadas a un segundo plano frente a la velocidad y la funcionalidad. Esto puede conducir a vulnerabilidades que los actores maliciosos pueden explotar, comprometiendo potencialmente los datos de los usuarios, interrumpiendo los servicios y socavando la confianza en todo el ecosistema.
La analogía con los primeros tiempos de Internet es particularmente acertada. En ausencia de medidas de seguridad generalizadas, Internet se vio plagada de estafas, fraudes y otras actividades maliciosas. Esto obstaculizó su crecimiento e impidió que alcanzara su máximo potencial. Fue sólo con la llegada de HTTPS y otros protocolos de seguridad que Internet se convirtió en una plataforma segura y fiable para el comercio electrónico, la banca en línea y otras transacciones sensibles.
Del mismo modo, los agentes de IA necesitan una base sólida de seguridad para hacer realidad su potencial transformador. Sin tal base, corren el riesgo de convertirse en un caldo de cultivo para nuevas formas de ciberdelincuencia y explotación en línea. Esto podría sofocar la innovación, erosionar la confianza de los usuarios y, en última instancia, impedir que los agentes de IA se conviertan en la tecnología ubicua y beneficiosa que muchos prevén.
Abordar los desafíos de seguridad
Los desafíos de seguridad a los que se enfrentan los agentes de IA son multifacéticos y requieren un enfoque integral. Algunos de los desafíos clave incluyen:
- Autenticación y autorización: Garantizar que sólo los agentes autorizados puedan acceder a datos y recursos sensibles. Esto requiere mecanismos de autenticación robustos y controles de acceso granulares.
- Privacidad de los datos: Proteger los datos de los usuarios del acceso, el uso o la divulgación no autorizados. Esto requiere la implementación de técnicas de preservación de la privacidad como la anonimización, el cifrado y la privacidad diferencial.
- Verificación de la intención: Verificar que la intención de un agente está alineada con los objetivos del usuario y que no está siendo manipulada por actores maliciosos. Esto requiere el desarrollo de sofisticados algoritmos de reconocimiento y verificación de la intención.
- Seguridad contextual: Proteger a los agentes de los ataques maliciosos que explotan las vulnerabilidades del entorno circundante. Esto requiere la implementación de medidas de seguridad robustas en todas las capas del sistema, desde el hardware hasta el software.
- Seguridad de agente a agente: Garantizar que los agentes puedan comunicarse y colaborar de forma segura entre sí. Esto requiere el desarrollo de protocolos de comunicación seguros y mecanismos de confianza.
ASL de la IIFAA es un paso prometedor en la dirección correcta. Al proporcionar una implementación de software que mejora la seguridad de MCP y A2A, ASL puede ayudar a abordar algunos de estos desafíos. Sin embargo, es necesario hacer más para crear un marco de seguridad integral para los agentes de IA.
El camino a seguir: colaboración y estandarización
El desarrollo de agentes de IA seguros requiere un esfuerzo de colaboración en el que participen investigadores, desarrolladores, interesados de la industria y responsables de la formulación de políticas. Algunas de las medidas clave que deben tomarse son:
- Desarrollar estándares abiertos: El establecimiento de estándares abiertos para la seguridad de los agentes de IA es crucial para garantizar la interoperabilidad y promover la innovación.
- Compartir las mejores prácticas: Compartir las mejores prácticas para el desarrollo seguro de agentes de IA puede ayudar a prevenir las vulnerabilidades comunes y promover una cultura de seguridad.
- Invertir en investigación: La inversión en investigación sobre la seguridad de los agentes de IA es esencial para desarrollar nuevas técnicas y tecnologías que permitan hacer frente a las amenazas emergentes.
- Promover la educación y la sensibilización: Promover la educación y la sensibilización sobre la seguridad de los agentes de IA puede ayudar a elevar el listón de la seguridad y fomentar el desarrollo responsable.
- Establecer marcos regulatorios: El establecimiento de marcos regulatorios para la seguridad de los agentes de IA puede ayudar a garantizar que se dé prioridad a la seguridad y que los usuarios estén protegidos.
Trabajando juntos, podemos crear un futuro en el que los agentes de IA no sólo sean potentes y beneficiosos, sino también seguros y fiables. Esto requerirá un esfuerzo concertado para abordar los desafíos de seguridad que se avecinan y para construir una base sólida de seguridad para el ecosistema de agentes de IA. Sólo entonces podremos desbloquear todo el potencial de los agentes de IA y crear una tecnología verdaderamente transformadora. Los esfuerzos de organizaciones como IIFAA son encomiables al encabezar esta iniciativa, pero la adopción y el cumplimiento generalizados de los estándares de seguridad son cruciales para el desarrollo seguro y próspero de los agentes de IA.