En una escena que recuerda las intrincadas luchas de poder en ‘Juego de Tronos’, la industria de la IA está presenciando su propio drama de alto riesgo. Mientras que la atención del mundo se centra en la competencia en torno a los parámetros y el rendimiento de los modelos, se está gestando una batalla silenciosa sobre los estándares, protocolos y ecosistemas de la IA y los agentes.
En noviembre de 2024, Anthropic introdujo el Model Context Protocol (MCP), un estándar abierto para agentes inteligentes, con el objetivo de unificar los protocolos de comunicación entre los grandes modelos de lenguaje y las fuentes de datos y herramientas externas. Poco después, OpenAI anunció el soporte del Agent SDK para MCP. El CEO de Google DeepMind, Demis Hassabis, también confirmó que el modelo Gemini de Google y los kits de desarrollo de software integrarían este estándar abierto, calificando a MCP como ‘convirtiéndose rápidamente en el estándar abierto para la era de los agentes de IA’.
Simultáneamente, Google anunció el Agent2Agent Protocol (A2A) de código abierto en la conferencia Google Cloud Next 2025. Este protocolo tiene como objetivo romper las barreras entre los marcos y proveedores existentes, permitiendo una colaboración segura y eficiente entre los agentes en diferentes ecosistemas.
Estas acciones de los gigantes tecnológicos han revelado una competencia en toda la IA y los agentes inteligentes en términos de estándares de conexión, protocolos de interfaz y ecosistemas. El principio de ‘protocolo equivale a poder’ es evidente. A medida que el panorama global de la IA toma forma, quien controle la definición de los estándares de protocolo básicos en la era de la IA tiene la oportunidad de remodelar la estructura de poder y el orden de distribución de valor de la cadena industrial global de la IA.
El ‘Puerto USB-C’ del Futuro Ecosistema de la IA
Con el rápido avance de la tecnología de la IA, los grandes modelos de lenguaje como GPT y Claude han demostrado capacidades impresionantes. El valor real de estos modelos reside en su capacidad para interactuar con los datos y las herramientas del mundo externo para resolver problemas del mundo real.
Sin embargo, esta capacidad de interacción se ha enfrentado durante mucho tiempo a problemas de fragmentación y falta de estandarización, lo que requiere que los desarrolladores implementen una lógica de integración específica para diferentes modelos y plataformas de IA.
Para abordar este problema, ha surgido MCP. Como puente que conecta los modelos de IA con el mundo externo, MCP resuelve varios problemas clave que se enfrentan durante la interacción de la IA.
Antes de MCP, si un modelo de IA necesitaba conectarse a una base de datos local (como SQLite) para obtener datos o llamar a herramientas remotas (como Slack para la comunicación del equipo, la API de GitHub para administrar el código), los desarrolladores tenían que escribir un código de conexión específico para cada fuente de datos o herramienta. Este proceso no solo era engorroso y propenso a errores, sino también costoso de desarrollar, difícil de mantener y difícil de escalar debido a la falta de un estándar unificado.
Al lanzar MCP, Anthropic hizo una analogía: MCP es como el puerto USB-C para aplicaciones de IA. MCP tiene como objetivo crear un estándar común, permitiendo que varios modelos y sistemas externos utilicen el mismo protocolo para el acceso en lugar de escribir un conjunto separado de soluciones de integración cada vez. Esto hace que el desarrollo y la integración de aplicaciones de IA sean más simples y unificados.
Por ejemplo, en un proyecto de desarrollo de software, una herramienta de IA basada en MCP puede profundizar directamente en el repositorio de código del proyecto, analizar la estructura del código, comprender los registros de confirmación históricos y luego proporcionar a los desarrolladores sugerencias de código que estén más en línea con las necesidades reales del proyecto, mejorando significativamente la eficiencia del desarrollo y la calidad del código.
En el pasado, para permitir que los grandes modelos y otras aplicaciones de IA usaran datos, generalmente era necesario copiar y pegar o cargar y descargar. Incluso los modelos más poderosos estaban limitados por el aislamiento de datos, formando silos de información. Para crear modelos más potentes, cada nueva fuente de datos debía personalizarse e implementarse, lo que dificultaba la escala de sistemas verdaderamente interconectados, lo que resultaba en muchas limitaciones.
Al proporcionar una interfaz unificada, MCP une directamente la IA y los datos (incluidos los datos locales y de Internet). A través del servidor MCP y el cliente MCP, siempre que ambos sigan este protocolo, ‘todo se puede conectar’. Esto permite que las aplicaciones de IA accedan y operen de forma segura datos locales y remotos, proporcionando a las aplicaciones de IA una interfaz para conectarse a todo.
Desde una perspectiva arquitectónica, MCP incluye principalmente dos partes centrales: el servidor MCP y el cliente MCP. Los desarrolladores pueden exponer sus datos a través del servidor MCP, que puede provenir de sistemas de archivos locales, bases de datos o servicios remotos como las API de Slack y GitHub. Las aplicaciones de IA creadas para conectarse a estos servidores se denominan clientes MCP. En pocas palabras, el servidor MCP es responsable de exponer los datos, y el cliente MCP es responsable de acceder a los datos.
Cuando los modelos de IA acceden a datos y herramientas externas, la seguridad es una consideración importante. Al proporcionar interfaces de acceso a datos estandarizadas, MCP reduce significativamente el número de contactos directos con datos confidenciales, reduciendo el riesgo de fuga de datos.
MCP tiene mecanismos de seguridad incorporados, lo que permite que las fuentes de datos compartan datos con la IA de forma controlada dentro de un marco seguro. La IA también puede devolver de forma segura los resultados del procesamiento a las fuentes de datos, asegurando que solo las solicitudes verificadas puedan acceder a recursos específicos, lo que equivale a agregar otra capa de defensa a la seguridad de los datos, disipando las preocupaciones corporativas sobre la seguridad de los datos y sentando una base sólida para la aplicación profunda de la IA en escenarios de nivel empresarial.
Por ejemplo, el servidor MCP controla sus propios recursos y no necesita proporcionar información confidencial como claves API a los proveedores de tecnología de modelos grandes. De esta manera, incluso si el modelo grande es atacado, los atacantes no podrán obtener esta información confidencial, aislando eficazmente los riesgos.
Se puede decir que MCP es un producto natural del desarrollo de la tecnología de la IA y un hito importante. No solo simplifica el proceso de desarrollo de aplicaciones de IA, sino que también crea condiciones para la prosperidad del ecosistema de la IA.
Como estándar abierto, MCP estimula enormemente la vitalidad de la comunidad de desarrolladores. Los desarrolladores globales pueden contribuir con código y desarrollar nuevos conectores en torno a MCP, expandiendo continuamente sus límites de aplicación, formando un ciclo ecológico virtuoso y promoviendo la integración profunda de la IA y los datos en diversas industrias. Esta apertura facilita que las aplicaciones de IA se conecten a varios servicios y herramientas, formando un ecosistema rico, que finalmente beneficia a los usuarios y a toda la industria.
Las ventajas de MCP no solo se reflejan a nivel técnico, sino, lo que es más importante, el valor real que aporta a diferentes campos. En la era de la IA, la capacidad de adquirir y procesar información lo determina todo, y MCP permite que varios agentes colaboren, maximizando las fortalezas de cada uno.
Por ejemplo, en el campo médico, los agentes inteligentes pueden conectarse a los registros médicos electrónicos de los pacientes y a las bases de datos médicas a través de MCP, y combinados con los juicios profesionales de los médicos, pueden proporcionar sugerencias de diagnóstico iniciales más rápidamente. En la industria financiera, los agentes inteligentes pueden colaborar para analizar datos financieros, rastrear los cambios del mercado e incluso realizar operaciones bursátiles automáticamente. Esta división del trabajo y la cooperación entre los agentes inteligentes hace que el procesamiento de datos sea más eficiente y la toma de decisiones más precisa.
Revisando la historia del desarrollo de MCP, no es difícil encontrar que su tasa de crecimiento es asombrosa. A principios de 2023, MCP completó el diseño del protocolo de comunicación central, realizando el registro básico de agentes inteligentes y las funciones de transmisión de mensajes. Esto es como crear un lenguaje universal para los agentes inteligentes, permitiéndoles comunicarse entre sí en lugar de hablar sus propios idiomas.
A finales de 2023, MCP amplió aún más sus funciones, apoyando a los agentes inteligentes para llamar a las API externas y compartir datos, lo que equivale a permitir que los agentes inteligentes no solo charlen, sino también intercambien información y procesen tareas conjuntamente.
A principios de 2024, el ecosistema MCP alcanzó un nuevo nivel. Se lanzaron kits de herramientas para desarrolladores y proyectos de muestra, y el número de complementos de agentes inteligentes aportados por la comunidad superó los 100, logrando una situación de ‘florecimiento’.
Recientemente, Microsoft integró MCP en su servicio Azure OpenAI, y Google DeepMind también anunció que brindará soporte para MCP y lo integrará en el modelo y el SDK de Gemini. No solo las grandes empresas de tecnología, sino también las nuevas empresas de IA y los proveedores de herramientas de desarrollo se han unido a MCP, como Block, Apollo, Zed, Replit, Codeium y Sourcegraph.
El auge de MCP ha atraído un rápido seguimiento y competencia de las empresas de tecnología chinas como Tencent y Alibaba, considerándolo como un paso importante en la estrategia del ecosistema de la IA. Por ejemplo, recientemente la plataforma Bailian de Alibaba Cloud lanzó un servicio MCP de ciclo de vida completo, eliminando la necesidad de que los usuarios administren recursos, desarrollen e implementen, e ingeniericen operaciones y mantenimiento, reduciendo el ciclo de desarrollo de agentes inteligentes a minutos. Tencent Cloud lanzó el ‘Kit de desarrollo de IA’, que admite servicios de alojamiento de complementos MCP para ayudar a los desarrolladores a construir rápidamente agentes inteligentes orientados a los negocios.
El ‘Puente Invisible’ para la Colaboración Multi-Agente
A medida que el protocolo MCPtransforma a los agentes inteligentes de herramientas de chat en asistentes de acción, los gigantes tecnológicos están comenzando a construir ‘pequeños patios y altos muros’ de estándares y ecosistemas en este nuevo campo de batalla.
En comparación con MCP, que se centra en conectar modelos de IA con herramientas y datos externos, A2A va un paso más allá, centrándose en la colaboración eficiente entre agentes inteligentes.
La intención original del protocolo A2A es simple: permitir que los agentes inteligentes de diferentes fuentes y fabricantes se entiendan y colaboren entre sí, brindando mayor autonomía a la colaboración de múltiples agentes inteligentes.
Esto es como la OMC que tiene como objetivo reducir las barreras arancelarias entre países. Los agentes inteligentes de diferentes proveedores y marcos son como países independientes. Una vez que se adopta A2A, es equivalente a unirse a una zona de libre comercio, donde pueden comunicarse en un idioma común, colaborar sin problemas y completar conjuntamente flujos de trabajo complejos que un solo agente inteligente no puede completar de forma independiente.
La forma específica de interoperabilidad del protocolo A2A se logra facilitando la comunicación entre el Agente Cliente y el Agente Remoto. El agente cliente es responsable de formular y comunicar tareas, y el agente remoto toma medidas en función de estas tareas para proporcionar la información correcta o realizar las operaciones correspondientes.
En este proceso, el protocolo A2A tiene las siguientes capacidades clave:
Primero, los agentes inteligentes pueden anunciar sus capacidades a través de ‘tarjetas de agentes inteligentes’. Estas ‘tarjetas de agentes inteligentes’ existen en formato JSON, lo que permite a los agentes clientes identificar qué agente remoto es el más adecuado para realizar una tarea específica.
Una vez que se identifica el agente remoto apropiado, el agente cliente puede usar el protocolo A2A para comunicarse con él y asignarle la tarea.
La gestión de tareas es una parte importante del protocolo A2A. La comunicación entre los agentes cliente y remoto gira en torno a la finalización de tareas. El protocolo define un objeto ‘tarea’. Para tareas simples, se puede completar de inmediato; para tareas complejas y a largo plazo, los agentes inteligentes pueden comunicarse entre sí para mantener la sincronización en el estado de finalización de la tarea.
Además, A2A también admite la colaboración entre agentes inteligentes. Múltiples agentes inteligentes pueden enviarse mensajes entre sí, que pueden contener información contextual, respuestas o instrucciones del usuario. De esta manera, múltiples agentes inteligentes pueden trabajar juntos mejor para completar tareas complejas juntos.
Al diseñar este protocolo, Google siguió cinco principios clave. Primero, A2A se centra en permitir que los agentes inteligentes colaboren en sus modos naturales y no estructurados, incluso si no comparten memoria, herramientas y contexto.
Segundo, el protocolo está construido sobre estándares existentes y populares, incluidos HTTP, Server-Sent Events (SSE) y JSON-RPC, lo que significa que es más fácil integrarse con las pilas de TI existentes que las empresas ya usan a diario.
Por ejemplo, una empresa de comercio electrónico utiliza el protocolo HTTP diariamente para manejar la transmisión de datos web y JSON-RPC para transmitir instrucciones de datos entre el front-end y el back-end. Después de introducir el protocolo A2A, el sistema de gestión de pedidos de la empresa puede obtener rápidamente las actualizaciones de datos logísticos proporcionadas por los agentes inteligentes relevantes a través del acoplamiento del protocolo HTTP y A2A, sin tener que reconstruir canales de transmisión de datos complejos, lo que facilita la integración en la arquitectura de TI existente y facilita la colaboración de varios sistemas.
Tercero, A2A está diseñado para admitir la autenticación y autorización de nivel empresarial. El uso del protocolo A2A puede autenticar rápidamente y obtener datos de forma segura, garantizando la seguridad y el cumplimiento de la transmisión de datos y previniendo los riesgos de fuga de datos.
Cuarto, A2A es lo suficientemente flexible como para admitir varios escenarios, desde tareas rápidas hasta investigaciones en profundidad que pueden llevar horas o incluso días (cuando los humanos están involucrados). A lo largo del proceso, A2A puede proporcionar a los usuarios comentarios, notificaciones y actualizaciones de estado en tiempo real.
Tomemos como ejemplo una institución de investigación. Los investigadores utilizan agentes inteligentes bajo el protocolo A2A para realizar investigaciones relacionadas con el desarrollo de nuevos fármacos. Las tareas simples, como recuperar rápidamente la información de la estructura molecular del fármaco existente en la base de datos, se pueden completar y devolver a los investigadores en segundos. Sin embargo, para tareas complejas, como simular la reacción de nuevas moléculas de fármacos en el entorno del cuerpo humano, puede llevar varios días.
Durante este período, el protocolo A2A enviará continuamente el progreso de la simulación a los investigadores, como cuántos pasos se han completado, los problemas actuales encontrados, etc., lo que permite a los investigadores mantenerse al tanto de la situación, como tener un asistente que informe el progreso del trabajo en todo momento.
Quinto, el mundo de los agentes inteligentes no se limita al texto, por lo que A2A admite varias modalidades, incluidos audio, imágenes y transmisiones de video.
Imagine que en el futuro, su asistente inteligente, el sistema CRM de la empresa, la IA de gestión de la cadena de suministro e incluso los agentes inteligentes en diferentes plataformas en la nube pueden ‘charlar sobre tareas y dividir el trabajo’ como viejos amigos, completando eficientemente varias necesidades, desde consultas simples hasta procesos complejos, abriendo así la era de la inteligencia artificial.
Actualmente, el protocolo ya admite plataformas de aplicaciones para más de 50 empresas de tecnología convencionales, incluidas Atlassian, Box, Cohere, Intuit, MongoDB, PayPal, Salesforce y SAP.
Vale la pena señalar que estas son todas las empresas que tienen relaciones sutiles con el ecosistema de Google. Por ejemplo, Cohere, una startup independiente de IA, fue fundada en 2019 por tres investigadores que anteriormente trabajaron en Google Brain; tienen una asociación técnica a largo plazo con Google Cloud, y Google Cloud proporciona a Cohere la potencia de cálculo necesaria para entrenar modelos.
Atlassian, una empresa que proporciona herramientas de colaboración en equipo, como Jira y Confluence, es utilizada por muchas personas. Tienen una asociación con Google, y algunas aplicaciones se pueden usar en productos de Google.
Aunque Google dijo que A2A es un complemento del protocolo de contexto del modelo MCP propuesto por Anthropic, esto es un poco como Google tomando la iniciativa en el desarrollo del sistema Android con más de 80 empresas en el pasado. A medida que se unan más y más empresas, el valor comercial de A2A mejorará enormemente y promoverá el rápido desarrollo de todo el ecosistema de agentes inteligentes.
De ‘Conectar Herramientas’ a ‘Dominar Ecosistemas’
MCP y A2A representan dos caminos diferentes para la interconexión de la IA. MCP, como el protocolo de interacción del modelo subyacente, asegura el acoplamiento perfecto entre las aplicaciones y los diferentes modelos; A2A proporciona un marco de colaboración entre agentes inteligentes sobre esta base, enfatizando el descubrimiento autónomo y la colaboración flexible entre agentes inteligentes. Esta estructura en capas puede satisfacer simultáneamente las necesidades de estandarización de modelos y colaboración de agentes inteligentes.
Al mismo tiempo, ambos han logrado posiciones dominantes en sus respectivos subcampos. MCP tiene ventajas en aplicaciones de nivel empresarial, servicios entre modelos y escenarios de estandarización; A2A ha ganado más apoyo en comunidades de código abierto, proyectos de investigación y aplicaciones innovadoras.
Desde una perspectiva macro, el auge de MCP y A2A no solo está relacionado con los futuros estándares de tecnología de IA, sino que también anuncia un cambio importante en el panorama de la industria de la IA. Estamos presenciando un punto de inflexión histórico en la IA desde la ‘inteligencia autónoma’ hasta las ‘redes colaborativas’. Como muestra la historia del desarrollo de Internet, el establecimiento de protocolos abiertos y estandarizados se convertirá en una fuerza clave para promover el desarrollo de la industria.
Pero desde un nivel más profundo, MCP y A2A esconden enormes intereses comerciales y la competencia por el futuro poder del discurso de la tecnología de IA.
En términos de modelos de negocio, los dos están abriendo diferentes caminos de beneficio. Anthropic planea lanzar un servicio de versión empresarial basado en MCP, cobrando a las empresas en función del volumen de llamadas API. Las empresas utilizan MCP para integrar profundamente los datos internos con la IA, mejorar la eficiencia empresarial y necesitan pagar por este servicio conveniente.
Google está utilizando el protocolo A2A para promover las suscripciones a servicios en la nube. Cuando las empresas utilizan A2A para construir redes de colaboración de agentes inteligentes, se les guía a utilizar la potente potencia de cálculo y los servicios relacionados de Google Cloud, lo que aumenta los ingresos comerciales de Google Cloud.
En términos de monopolio de datos, dominar los estándares de protocolo significa controlar el flujo de datos de IA. A través del protocolo A2A, Google recopila grandes cantidades de datos durante la colaboración de muchos agentes inteligentes empresariales. Estos datos se retroalimentan en sus algoritmos publicitarios centrales, consolidando aún más su dominio en el mercado publicitario. Anthropic quiere usar MCP para permitir que la IA penetre en el núcleo de los datos empresariales. Si forma una ventaja de escala, también acumulará una gran cantidad de datos de la industria, proporcionando soporte de datos para expandir el negocio y desarrollar productos de IA que estén más en línea con las necesidades empresariales.
En términos de estrategia de código abierto, aunque ambos afirman ser de código abierto, tienen sus propios planes. El protocolo central MCP es de código abierto, atrayendo a los desarrolladores a participar en la construcción del ecosistema, pero las funciones clave de nivel empresarial (como las funciones avanzadas de conexión remota y el procesamiento en profundidad de datos multi-modales) deben desbloquearse por una tarifa, equilibrando el código abierto y los intereses comerciales. Si bien el protocolo A2A es de código abierto, guía a más de 50 socios empresariales a dar prioridad al uso de los servicios de Google Cloud, uniendo estrechamente el ecosistema de código abierto con su propio sistema comercial y mejorando la fidelidad del usuario y la competitividad de la plataforma.
La tecnología en sí no tiene bondad ni maldad, pero cuando se incrusta en la cadena de intereses, se convierte en un portador de poder y control. Cada revolución tecnológica está remodelando la cadena de intereses del mundo. La revolución industrial trasladó la cadena de intereses de la tierra y el trabajo al capital y las máquinas, mientras que la revolución digital la empujó a los datos y los algoritmos.
Las herramientas de código abierto ciertamente pueden explorar caminos innovadores, pero no espere usar claves de datos y algoritmos para abrir todas las puertas, porque cada cadena de claves está grabada con la contraseña de interés de la plataforma.
Si bien las empresas de tecnología parecen estar abriendo el ecosistema de la IA, en realidad están construyendo muros ecológicos altos y gruesos alrededor de los escenarios de aplicación que son más propicios para ellos, evitando que se extraigan minas de oro de datos, después de todo, la competitividad final en la era de la IA sigue siendo los datos.
Si MCP y A2A pueden eventualmente fusionarse aún es incierto. Si cada uno actúa de forma independiente, es muy probable que los gigantes tecnológicos construyan ‘pequeños muros de patio de IA’. Como resultado, el fenómeno de la isla de datos se volverá más grave, la circulación de datos entre las empresas en diferentes campos de protocolo se bloqueará, limitando el alcance de las aplicaciones de innovación de IA; los desarrolladores deberán dominar múltiples habilidades de desarrollo de protocolo, aumentando los costos de aprendizaje y la carga de trabajo de desarrollo, suprimiendo la vitalidad de la innovación; la dirección de la innovación de la industria se guiará fácilmente por los protocolos gigantes, y las empresas emergentes estarán en desventaja en la competencia debido a la dificultad para soportar múltiples protocolos, obstaculizando el ritmo general de la innovación de la industria.
Esperamos que el auge de MCP y A2A promueva que la industria global de la IA evolucione en la dirección de la colaboración en lugar de la confrontación.
Al igual que la disputa sobre el ancho de vía ferroviario en el siglo XIX y la guerra de estándares de comunicación móvil en el siglo XX, cada división tecnológica está acompañada de enormes costos sociales. Las consecuencias de la disputa sobre los estándares y protocolos de IA pueden ser más trascendentales. Determinará si nos estamos moviendo hacia una federación estelar de ‘Internet de todo’ o cayendo en un bosque oscuro donde prevalece la ‘cadena de sospecha’.