El Protocolo de Contexto del Modelo (MCP): Plan Técnico para la Compatibilidad y la Seguridad
A medida que la demanda de agentes inteligentes se diversifica entre los grupos de usuarios, la gobernanza debe abordar las diferentes prioridades. El Protocolo de Contexto del Modelo (MCP), reforzado por la colaboración de código abierto y la supervisión humana, proporciona una base para un ecosistema de agentes seguro y fiable.
Los agentes inteligentes (Agentes de IA) son sistemas alimentados por grandes modelos lingüísticos, capaces de interactuar con el mundo exterior a través de herramientas y actuar en nombre de los usuarios. La reciente aparición de Manus pone de relieve la anticipación del mercado por las aplicaciones prácticas de los agentes.
Anunciado en noviembre de 2024, el Protocolo de Contexto del Modelo (MCP) de código abierto de Anthropic ofrece una solución técnica para mejorar la eficiencia y la seguridad de los agentes de propósito general. MCP agiliza la integración a través de interfaces estandarizadas, lo que aumenta la eficiencia del acceso a los datos y las herramientas. También refuerza la seguridad al aislar los modelos de fuentes de datos específicas y mejorar la transparencia del control de comandos. Este enfoque equilibrado prioriza la experiencia del usuario al tiempo que garantiza una autorización controlada.
Si bien MCP establece una base para la gobernanza de los agentes, no resuelve todos los desafíos. Por ejemplo, no valida la justificación detrás de la selección de la herramienta o la precisión de los resultados de la ejecución, ni aborda de manera efectiva la competencia y la colaboración dentro del ecosistema de aplicaciones de agentes.
Desafíos que Enfrentan los Agentes de Propósito General en la Aplicación
Un agente es un sistema equipado con memoria, planificación, percepción, invocación de herramientas y capacidades de acción, impulsado por extensos modelos lingüísticos, que interactúa con el entorno externo a través de herramientas, actuando en nombre del usuario. El agente necesita percibir y comprender las intenciones del usuario, obtener y almacenar información a través del módulo de memoria, formular y optimizar estrategias aprovechando el módulo de planificación, invocar el módulo de herramientas para ejecutar tareas específicas e implementar planes a través del módulo de acción, logrando así el objetivo de completar tareas de forma autónoma.
Manus es más un agente de propósito general, a diferencia de los productos de agentes orientados al flujo de trabajo.
Las expectativas de la industria para los agentes, especialmente los agentes de propósito general, provienen de las necesidades colectivas que abordan. En los mercados de capitales, los agentes representan el camino anticipado de circuito cerrado de la industria para el valor comercial de los modelos, cambiando el precio de la IA de la computación basada en tokens al precio basado en efectos para los servicios personalizados, lo que resulta en una mayor rentabilidad. En el lado del usuario, las empresas esperan que los agentes ejecuten procesos repetitivos, estandarizados y claramente definidos con automatización de precisión, mientras que el público anticipa que los agentes aporten ‘beneficios tecnológicos’, convirtiéndose en ‘administradores digitales’ personalizados y de bajo umbral para todos.
Sin embargo, los agentes de propósito general enfrentan desafíos de compatibilidad, seguridad y competencia en la aplicación. En términos de compatibilidad, los modelos deben colaborar de manera eficiente con diferentes herramientas y fuentes de datos en la llamada. En términos de seguridad, los agentes deben ejecutar tareas de manera clara y transparente de acuerdo con las instrucciones del usuario y asignar razonablemente las responsabilidades de seguridad bajo la convergencia de los datos de múltiples partes. En términos de competencia, los agentes deben resolver las relaciones competitivas y cooperativas en el nuevo ecosistema empresarial.
Por lo tanto, el protocolo MCP, que permite a los modelos colaborar de manera eficiente con diferentes herramientas y fuentes de datos y asignar razonablemente las responsabilidades de seguridad bajo la convergencia de los datos de múltiples partes, vale la pena estudiar en profundidad en comparación con el propio producto Manus.
Problemas de Compatibilidad
El mundo de la IA está evolucionando rápidamente, con nuevos modelos y herramientas que surgen constantemente. Para que un agente de propósito general sea realmente útil, debe poder integrarse sin problemas con una amplia variedad de recursos. Esto presenta un desafío importante, ya que cada herramienta o fuente de datos puede tener su propia interfaz y formato de datos únicos. Sin un enfoque estandarizado, los desarrolladores tendrían que escribir código personalizado para cada integración, lo que lleva mucho tiempo y es ineficiente. Esta falta de compatibilidad puede dificultar la adopción generalizada de agentes de IA, ya que los usuarios pueden ser reacios a invertir en una tecnología que no funciona fácilmente con sus sistemas existentes.
Riesgos de Seguridad
Los agentes de IA están diseñados para actuar en nombre de los usuarios, lo que significa que a menudo tienen acceso a datos y sistemas confidenciales. Esto plantea importantes problemas de seguridad, ya que un agente comprometido podría usarse para robar datos, interrumpir operaciones o incluso causar daños físicos. Es crucial asegurarse de que los agentes estén diseñados teniendo en cuenta la seguridad, y que estén sujetos a pruebas y supervisión rigurosas para prevenir vulnerabilidades. Además, es importante establecer líneas claras de responsabilidad para la seguridad, especialmente cuando varias partes están involucradas en el desarrollo y la implementación de un agente.
Panorama Competitivo
A medida que los agentes de IA se vuelven más frecuentes, es probable que interrumpan los modelos de negocio existentes y creen nuevas formas de competencia. Por ejemplo, un agente que puede negociar automáticamente los precios con los proveedores podría dar a una empresa una ventaja competitiva significativa. Sin embargo, esto también podría conducir a una carrera hacia el fondo, ya que las empresas compiten para ofrecer los precios más bajos. Es importante considerar el impacto potencial de los agentes de IA en el panorama competitivo y desarrollar estrategias para navegar por este nuevo entorno. Esto incluye abordar cuestiones como la propiedad de los datos, la propiedad intelectual y el potencial de comportamiento anticompetitivo.
MCP: Una Solución Técnica para la Compatibilidad y la Seguridad en las Aplicaciones de Agentes
En noviembre de 2024, Anthropic abrió el código fuente del protocolo abierto MCP (Protocolo de Contexto del Modelo), que permite a los sistemas proporcionar contexto a los modelos de IA y puede universalizarse en diferentes escenarios de integración. MCP utiliza una arquitectura en capas para resolver los problemas de estandarización y seguridad en las aplicaciones de agentes. Una aplicación host (como Manus) se conecta a varios programas de servicio (Servidor MCP) a través del cliente MCP al mismo tiempo, y cada servidor realiza sus propias tareas, proporcionando acceso estandarizado a una fuente de datos o aplicación.
Primero, MCP resuelve el problema de compatibilidad en las llamadas de datos/herramientas de agentes a través de un consenso estándar. MCP reemplaza la integración fragmentada con una interfaz unificada, y la IA solo necesita comprender y cumplir con el acuerdo para interactuar con todas las herramientas que cumplen con las especificaciones, lo que reduce significativamente la integración duplicada. En segundo lugar, MCP tiene tres consideraciones en términos de seguridad. Primero, el modelo y las fuentes de datos específicas están aisladas en el enlace de datos, y los dos interactúan a través del protocolo del servidor MCP. El modelo no depende directamente de los detalles internos de la fuente de datos, lo que aclara el origen de la mezcla de datos de múltiples partes. La segunda es mejorar la transparencia y la auditabilidad del enlace de comando y control a través de protocolos de comunicación y resolver los desafíos de asimetría de información y caja negra de la interacción de datos usuario-modelo. El tercero es garantizar la controlabilidad del enlace de autorización respondiendo de acuerdo con los permisos y garantizar el control del usuario sobre el agente en el uso de herramientas/datos.
MCP construye una interfaz estandarizada y un mecanismo de protección de seguridad a través de una arquitectura en capas, logrando un equilibrio entre la interoperabilidad y la seguridad en las llamadas de datos y herramientas. A nivel de valor para el usuario, MCP aporta una colaboración e interacción más sólidas entre los cuerpos inteligentes y más herramientas, e incluso cuerpos más inteligentes. En la siguiente etapa, MCP se centrará en desarrollar soporte para conexiones remotas.
Interfaces Estandarizadas para una Mayor Compatibilidad
Una de las características clave de MCP es su uso de interfaces estandarizadas. Esto significa que los agentes de IA pueden interactuar con diferentes herramientas y fuentes de datos sin requerir código personalizado para cada integración. En cambio, el agente simplemente necesita comprender el protocolo MCP, que define un conjunto común de comandos y formatos de datos. Esto simplifica enormemente el proceso de integración y reduce la cantidad de trabajo de desarrollo requerido. También facilita el cambio entre diferentes herramientas y fuentes de datos, ya que el agente no necesita ser reconfigurado cada vez.
El uso de interfaces estandarizadas también promueve la interoperabilidad entre diferentes agentes de IA. Si varios agentes admiten el protocolo MCP, pueden comunicarse y compartir datos fácilmente entre sí. Esto puede conducir al desarrollo de sistemas de IA más complejos y sofisticados, donde varios agentes trabajan juntos para resolver un problema.
Mecanismos de Seguridad Robustos para la Protección de Datos
La seguridad es una prioridad máxima en el diseño de MCP. El protocolo incluye varios mecanismos para proteger los datos y prevenir el acceso no autorizado. Una característica clave es el aislamiento de los modelos de fuentes de datos específicas. Esto significa que el agente no tiene acceso directo a los datos subyacentes, sino que interactúa con ellos a través del protocolo del servidor MCP. Esto agrega una capa de indirección que dificulta que un atacante comprometa los datos.
MCP también incluye mecanismos para mejorar la transparencia y la auditabilidad de los enlaces de comando y control. Esto permite a los usuarios ver exactamente qué comandos se envían al agente y verificar que el agente está actuando de acuerdo con sus instrucciones. Esto es importante para generar confianza en los sistemas de IA, ya que permite a los usuarios comprender cómo el agente está tomando decisiones.
Finalmente, MCP proporciona un mecanismo para controlar la autorización de los agentes. Esto permite a los usuarios especificar a qué herramientas y fuentes de datos puede acceder el agente. Esto es importante para evitar que el agente acceda a datos confidenciales o realice acciones que no está autorizado a hacer.
MCP: Sentando las Bases para la Gobernanza de Agentes
MCP proporciona garantías de compatibilidad y seguridad para las llamadas de datos y herramientas, sentando las bases para la gobernanza de agentes, pero no puede resolver todos los desafíos que enfrenta la gobernanza.
Primero, en términos de credibilidad, MCP no ha formado un estándar normativo para la selección de fuentes de datos y herramientas de llamada, ni ha evaluado y verificado los resultados de la ejecución. En segundo lugar, MCP no puede ajustar temporalmente el nuevo tipo de relación de cooperación competitiva comercial generada por Agent.
En general, MCP proporciona una respuesta técnica inicial a las principales preocupaciones de seguridad que enfrentan los usuarios que utilizan agentes y se ha convertido en el punto de partida para la gobernanza de agentes. Con la popularización de Agent y otras aplicaciones de IA, se necesitan métodos distribuidos para satisfacer las necesidades diferenciadas de los diferentes usuarios. El enfoque de la gobernanza no es solo la seguridad del modelo, sino también el requisito principal de satisfacer las necesidades del usuario. El protocolo MCP ha dado el primer paso para responder a las necesidades del usuario y promover la cogobernanza tecnológica. También es sobre la base de MCP que Agent logra una división eficiente del trabajo y la colaboración de diversas herramientas y recursos. Hace una semana, Google abrió el código fuente del protocolo Agent2Agent (A2A) para la comunicación entre agentes, de modo que los agentes construidos en diferentes plataformas puedan negociar tareas y llevar a cabo una colaboración segura, y promover el desarrollo de una ecología multi-inteligente.
Abordar las Preocupaciones de Confianza y Fiabilidad
Si bien MCP proporciona una base sólida para la gobernanza de agentes, no aborda todos los desafíos. Un área clave que necesita más atención es la cuestión de la confianza y la fiabilidad. Actualmente, MCP no incluye ningún mecanismo para verificar la precisión de los resultados de la ejecución o para garantizar que los agentes estén seleccionando fuentes de datos y herramientas apropiadas. Esto significa que es posible que los usuarios no puedan confiar plenamente en las decisiones tomadas por un agente, especialmente en situaciones de alto riesgo.
Para abordar esta preocupación, será necesario desarrollar nuevos estándares y mejores prácticas para el desarrollo y la implementación de agentes. Esto podría incluir cosas como métodos de verificación formal, que se pueden utilizar para demostrar que un agente siempre se comportará de una manera predecible y segura. También podría incluir el uso de técnicas de IA explicable, que pueden ayudar a los usuarios a comprender cómo un agente está tomando decisiones.
Navegar por el Nuevo Panorama Competitivo
Otro desafío que MCP no aborda por completo es el impacto de los agentes en el panorama competitivo. A medida que los agentes se vuelven más frecuentes, es probable que interrumpan los modelos de negocio existentes y creen nuevas formas de competencia. Es importante considerar el impacto potencial de los agentes en el panorama competitivo y desarrollar estrategias para navegar por este nuevo entorno. Esto incluye abordar cuestiones como la propiedad de los datos, la propiedad intelectual y el potencial de comportamiento anticompetitivo.
Un enfoque potencial es desarrollar nuevos marcos regulatorios que estén específicamente diseñados para agentes de IA. Estos marcos podrían abordar cuestiones como la privacidad de los datos, el sesgo algorítmico y el potencial de manipulación del mercado. También podrían incluir mecanismos para promover la competencia y prevenir los monopolios.
El Camino a Seguir: Colaboración e Innovación
El desarrollo de MCP es un paso significativo en el campo de la gobernanza de agentes. Sin embargo, es importante reconocer que esto es solo el comienzo. Todavía hay muchos desafíos que superar, y requerirá un esfuerzo de colaboración de investigadores, desarrolladores, legisladores y usuarios para garantizar que los agentes de IA se utilicen de forma segura y responsable.
Un avance prometedor es el reciente lanzamiento del protocolo Agent2Agent (A2A) de Google. Este protocolo permite a los agentes construidos en diferentes plataformas comunicarse y colaborar entre sí. Esto podría conducir al desarrollo de sistemas de IA más complejos y sofisticados, donde varios agentes trabajan juntos para resolver un problema. También podría ayudar a fomentar un ecosistema de IA más competitivo e innovador, ya que los desarrolladores pueden crear agentes que se puedan integrar sin problemas con otros agentes.
A medida que la tecnología de IA continúa evolucionando, es crucial mantenerse a la vanguardia y desarrollar nuevos mecanismos de gobernanza que puedan abordar los desafíos del futuro. Esto requerirá un compromiso con la colaboración, la innovación y la voluntad de adaptarse al panorama en constante cambio de la IA.