El auge de ChatGPT ha impulsado el avance de los modelos de lenguaje grande (LLM). Si bien el foco inicial estuvo en el tamaño de los parámetros, la atención se ha desplazado hacia las aplicaciones prácticas. Sin embargo, las empresas enfrentan desafíos al adoptar la IA, incluyendo altos costos computacionales y la fragmentación del ecosistema de aplicaciones de IA, generando un dilema persistente sobre el retorno de la inversión (ROI).
El Amanecer de MCP y A2A: Un Cambio de Paradigma
La aparición de los protocolos Model Context Protocol (MCP) y Agent2Agent (A2A) en 2025 marca un punto de inflexión en el desarrollo de aplicaciones de IA. MCP busca estandarizar las interfaces para eliminar los silos de datos, permitiendo que los LLM accedan a recursos externos de manera eficiente y facilitando el flujo de datos entre sistemas y plataformas. A2A promueve la interacción fluida entre agentes, fomentando la colaboración y la comunicación para formar sistemas cohesivos e integrados.
El cambio de MCP a A2A subraya el creciente énfasis en la ‘apertura’ como un impulsor clave en el ecosistema de aplicaciones de IA. Esta apertura abarca tanto la interoperabilidad técnica como el espíritu colaborativo. Desde una perspectiva más amplia, esta transformación refleja una progresión natural en el desarrollo tecnológico: una transición desde la emoción inicial a la implementación práctica, y desde la innovación aislada a la evolución del ecosistema colaborativo.
Históricamente, el valor de los LLM se ha atribuido desproporcionadamente a la escala de parámetros y las capacidades independientes. Hoy en día, MCP y A2A abordan el problema crítico de la interconectividad entre las aplicaciones de IA y remodelan la dinámica competitiva del ecosistema LLM. El desarrollo de aplicaciones de IA está evolucionando de un enfoque de ‘lobo solitario’ a un modelo de interconexión. Esto exige una reevaluación del valor de la IA para los CTO, cambiando el enfoque de la mera búsqueda del tamaño del modelo y las estrategias ‘all-in’ al aprovechamiento de plataformas que conectan diversas capacidades de IA. El objetivo es integrar orgánicamente la IA en los procesos empresariales y los sistemas de producción existentes, mejorar la eficiencia general a través de la colaboración y la estandarización, resolver problemas críticos con recursos computacionales mínimos y superar el ‘dilema del ROI’.
El Azote del Desperdicio Computacional y los Escenarios Desalineados
La incapacidad para superar el cuello de botella de alta inversión y baja producción ha plagado durante mucho tiempo la implementación de los LLM. Este fenómeno refleja contradicciones profundas en el desarrollo de la IA. En primer lugar, existe un importante desperdicio de potencia informática. Los datos indican que los centros de computación de propósito general a nivel empresarial operan con una utilización de sólo el 10-15%, dejando ociosas grandes cantidades de recursos informáticos. En segundo lugar, existe una desalineación de los escenarios en los que el rendimiento del modelo no satisface las necesidades reales de los escenarios empresariales.
Un problema común es la ‘exageración’ de utilizar modelos grandes para tareas ligeras. Algunas empresas dependen excesivamente de los LLM de propósito general para aplicaciones sencillas. Además, la naturaleza única de los escenarios empresariales crea dilemas. El uso de modelos grandes incurre en altos costos computacionales y largos tiempos de inferencia. Optar por modelos más pequeños puede no satisfacer los requisitos empresariales. Este conflicto es particularmente evidente en los escenarios empresariales que requieren conocimientos especializados del dominio.
Considere el escenario de coincidencia de talento y trabajo en la industria de la contratación. Las empresas requieren modelos con profundas habilidades de razonamiento para comprender las complejas relaciones entre los currículos y las descripciones de los puestos de trabajo, al tiempo que exigen tiempos de respuesta rápidos. Los largos tiempos de inferencia de los LLM de propósito general pueden degradar significativamente la experiencia del usuario, especialmente bajo las demandas de los usuarios de alta concurrencia.
Para equilibrar el rendimiento y la eficiencia, la destilación de modelos ha ganado terreno en los últimos años. El lanzamiento de DeepSeek-R1 a principios de este año ha resaltado aún más el valor de esta técnica. En el manejo de tareas de razonamiento complejas, la destilación de modelos captura el patrón de ‘cadena de pensamiento’ de DeepSeek-R1, permitiendo que los modelos de estudiante ligeros hereden sus habilidades de razonamiento en lugar de simplemente imitar los resultados de salida.
Por ejemplo, Zhaopin, una plataforma de contratación líder, empleó DeepSeek-R1 (más de 600.000 millones de parámetros) como modelo profesor para destilar la cadena de pensamiento y la lógica de toma de decisiones utilizadas en las tareas de coincidencia de talento y trabajo. Utilizaron la plataforma de desarrollo de modelos Qianfan de Baidu AI Cloud para destilar el modelo profesor y transferirlo al modelo ERNIE Speed (más de 10.000 millones de parámetros), el modelo estudiante. Este enfoque logró un rendimiento comparable al del modelo profesor (DeepSeek-R1 logró una precisión del 85% en los resultados del enlace de razonamiento, mientras que el modelo estudiante logró más del 81%), mejoró la velocidad de inferencia a un nivel aceptable y redujo los costos al 30% del original, al tiempo que logró velocidades 1 vez más rápidas que el DeepSeek-R1 en toda regla.
Actualmente, las empresas suelen adoptar dos enfoques para la destilación de modelos: construir un sistema técnico completo desde la infraestructura y las GPU hasta los marcos de formación, o utilizar soluciones basadas en plataformas como la plataforma de desarrollo de modelos Qianfan u otros proveedores. Yao Sijia, un experto en aplicaciones de IA de Zhaopin, declaró que si bien Zhaopin tiene su propio marco de formación, eligieron la plataforma de desarrollo de modelos Qianfan para la destilación de modelos debido a tres consideraciones principales:
- Soporte integral: La plataforma de desarrollo de modelos Qianfan proporciona un soporte líder en la industria para la destilación de modelos, optimizando profundamente toda la cadena técnica en torno a los escenarios de destilación.
- Control de costos: En comparación con la compra y el mantenimiento de hardware de forma independiente, la plataforma de desarrollo de modelos Qianfan ofrece ventajas significativas en el control de costos y una asignación de recursos más flexible.
- Comprensión profunda de los escenarios empresariales: El equipo de soluciones profesionales de Baidu comprende profundamentelos requisitos básicos como ‘coincidencia precisa’ y ‘respuesta de alta concurrencia’ en el dominio de la contratación y colabora con las empresas para explorar soluciones.
Yao Sijia añadió que Zhaopin seguirá siendo pionera en los escenarios de IA+ contratación, utilizando la tecnología de ajuste fino de aprendizaje por refuerzo (RFT) de Qianfan para mejorar aún más el rendimiento del modelo. Planean explorar si el modelo profesor puede mejorarse aún más y si mejores mecanismos de recompensa pueden optimizar los modelos de estudiante ya destilados para mejorar la precisión. Qianfan es la primera plataforma en China que produce métodos de aprendizaje por refuerzo líderes como RFT y GRPO. Al transformar estos métodos de aprendizaje por refuerzo de vanguardia en soluciones implementables, Qianfan ofrece a empresas como Zhaopin más posibilidades para optimizar el rendimiento del modelo.
Sin embargo, la destilación de modelos sólo optimiza el rendimiento de un único modelo. En escenarios empresariales complejos, es necesario coincidir con precisión las diversas capacidades de IA con los escenarios.
Considere un smartphone. En escenarios de reconocimiento de intenciones como los asistentes de llamadas, se suelen utilizar modelos ligeros para identificar rápidamente los problemas del usuario. Para escenarios generales de preguntas y respuestas de conocimiento como consultas meteorológicas y recuperación de noticias, se suelen utilizar modelos de tamaño medio para proporcionar rápidamente respuestas precisas e informativas. En escenarios de análisis de datos y razonamiento lógico que requieren un pensamiento profundo, se suelen utilizar modelos grandes.
Esto significa que un smartphone necesita llamar de forma flexible a múltiples LLM en diferentes escenarios de demanda del usuario. Para los fabricantes de teléfonos, esto presenta desafíos como los altos costos de selección de modelos y los complejos procesos de llamada debido a los diferentes protocolos de interfaz de modelos.
Para abordar estos puntos débiles de la industria, la plataforma de desarrollo de modelos Qianfan produjo interfaces de enrutamiento de modelos. En comparación con el uso directo de modelos de fábrica originales, proporciona capacidades de desarrollo personalizado y llamada API lista para usar, lo que ayuda a las empresas a ahorrar carga de trabajo de ingeniería y tiempo de desarrollo al tiempo que reduce los costos. Además, la plataforma de desarrollo de modelos Qianfan admite llamadas flexibles para usuarios a gran escala, lo que garantiza la velocidad y la estabilidad incluso bajo demandas de llamadas de alta frecuencia y alta concurrencia.
A nivel de modelo, las capacidades técnicas como la destilación de modelos y la llamada multi-modelo están ayudando a cada vez más empresas a optimizar la asignación de recursos, permitiendo que las capacidades de IA coincidan con precisión con los escenarios empresariales al tiempo que reducen los costos. A nivel de aplicación, MCP y A2A, que han atraído una atención significativa de la industria, reducen aún más los costos de prueba y error de la IA, ayudan a las empresas a optimizar los paradigmas de colaboración de aplicaciones y cambian el modelo ineficiente de ‘reinventar la rueda’ en el desarrollo de agentes tradicional.
Un ‘golpe de combinación’ de modelos a aplicaciones es la respuesta perfecta para ayudar a los LLM a superar el ‘dilema del ROI’.
De Cerrado a Abierto: Disminuyendo la Barrera a la Experimentación con la IA
Desde 2023, la palabra clave para la implementación de aplicaciones de IA ha cambiado gradualmente a Agente. Para 2024, casi todas las empresas están discutiendo las aplicaciones y el desarrollo de Agentes. Sin embargo, los Agentes en ese momento carecían de verdaderas capacidades de planificación y se basaban principalmente en perspectivas de flujo de trabajo, conectando los LLM con aplicaciones básicas cosiendo o procesando componentes a través de reglas impulsadas por expertos.
Con el reciente auge de los protocolos MCP y A2A, 2025 se ha convertido en el verdadero ‘Año Cero del Agente’. En particular, el impacto de MCP en el campo de la IA es comparable al del protocolo TCP/IP en Internet.
Zhou Ze’an, CEO de Biyao Technology, declaró en una entrevista con InfoQ que el valor central de MCP para el campo de la IA se refleja en tres dimensiones:
- Estandarización de la llamada de herramientas LLM: En el pasado, cada empresa tenía su propia implementación de llamada de función, con diferencias significativas entre ellas. MCP establece un estándar de acceso unificado, lo que permite la verdadera estandarización de los esquemas de programación de aplicaciones entre clientes y servidores. Además, MCP permite la interacción no sólo entre los LLM que soportan la llamada de función, sino también con los LLM que no tienen esta característica.
- Resolver los retos de la colaboración de herramientas: El estándar unificado del protocolo MCP hace que la construcción de servicios de Agente sea más diversa. Los desarrolladores necesitan considerar no sólo sus propios Agentes y servicios MCP, sino también cómo integrar capacidades externas para lograr funciones de Agente más potentes.
- Controlar todo el contexto a través de los LLM, lo que resulta en una interacción más amigable para el usuario: Al construir procesos, puede utilizar una gama más amplia de fuentes de datos para resolver tareas complejas que antes eran imposibles.
‘En general, el protocolo MCP reduce significativamente la barrera para que las empresas adopten la tecnología de IA. En el pasado, el proceso de integración técnica para acceder a los Agentes era complejo. Ahora, las empresas ya no necesitan comprender profundamente los complejos detalles de implementación técnica, sino que sólo necesitan aclarar sus necesidades empresariales’, dijo Zhou Ze’an. Biyao Technology ha abierto completamente las capacidades de procesamiento de documentos de su LLM vertical de la industria de recursos humanos autodesarrollado ‘Bole’ a través del protocolo MCP, incluyendo contratos, currículos y PPT, y se convirtió en uno de los primeros desarrolladores empresariales en lanzar componentes MCP en la plataforma de desarrollo de aplicaciones Qianfan. Actualmente, cualquier empresa o desarrollador individual puede llamar directamente a sus capacidades profesionales en la plataforma Qianfan.
‘Baidu ayudará a los desarrolladores a adoptar activa y exhaustivamente MCP.’ En la conferencia de desarrolladores de IA Create2025 Baidu celebrada el 25 de abril, la plataforma Qianfan lanzó oficialmente servicios MCP de nivel empresarial. El fundador de Baidu, Li Yanhong, demostró el caso de la plataforma Qianfan que abraza MCP, permitiendo a los desarrolladores acceder de forma flexible a 1000 servidores MCP, incluyendo la búsqueda de Baidu AI, mapas y Wenku, al crear Agentes. Además, Qianfan lanzó una herramienta de bajo código para crear servidores MCP, permitiendo a los desarrolladores desarrollar fácilmente sus propios servidores MCP en Qianfan y publicarlos en Qianfan MCP Square con un solo clic. Estos servidores MCP también serán indexados rápidamente por la búsqueda de Baidu, permitiendo que sean descubiertos y utilizados por más desarrolladores.
De hecho, Qianfan ha estado resolviendo continuamente el problema de la última milla de la implementación de la IA antes del auge del protocolo MCP, ayudando a las empresas de forma eficiente y con bajas barreras para disfrutar de los beneficios de la tecnología de IA y proporcionando soluciones maduras para múltiples industrias.
Por ejemplo, en la industria de la casa inteligente, las empresas generalmente se enfrentan a un problema común: ¿cómo proporcionar servicios inteligentes precisos para modelos de productos masivos? Con la implementación acelerada de los LLM, cada vez más empresas están utilizando Agentes para proporcionar rápidamente a los usuarios respuestas precisas y personalizadas. Sin embargo, esto también trae un nuevo desafío: ¿cómo desarrollar y gestionar numerosos Agentes? Las marcas de casas inteligentes suelen tener muchas categorías y modelos de productos diferentes. Construir un Agente para cada producto por separado no sólo resultaría en altos costos de desarrollo, sino también en importantes costos de gestión y mantenimiento en las etapas posteriores.
Por ejemplo, una marca líder de casas inteligentes utilizó la plataforma de desarrollo de aplicaciones Qianfan de Baidu AI Cloud para tratar los nombres de los archivos como sectores independientes e incrustar información de sectores de nombres de archivos en cada sector de grano fino. En lugar de construir un Agente para cada producto por separado, sólo necesitaban ordenar la base de conocimientos correspondiente y definir los nombres de los modelos de productos. Luego, podrían utilizar la estrategia de análisis automático del marco RAG de la plataforma Qianfan para lograr una coincidencia precisa de los modelos de productos y los puntos de conocimiento.
La plataforma de desarrollo de aplicaciones Qianfan también proporciona a la marca un conjunto de herramientas de operaciones para construir un centro inteligente en evolución continua. A través de la función de reflujo de datos, todos los registros de interacción del usuario se transforman en materiales de optimización. El personal de operaciones puede ver los problemas de alta frecuencia en tiempo real e intervenir inmediatamente en los puntos de conocimiento no descubiertos, formando un bucle cerrado de ‘operación - retroalimentación - optimización’. Además, la plataforma de desarrollo de aplicaciones Qianfan y Xiaodu AI Assistant construyeron conjuntamente un marco de interacción de voz. Confiando en este marco, la marca puede permitir que el hardware ‘hable’ directamente con los usuarios, logrando una experiencia interactiva más natural, eficiente y personalizada.
De MCP a A2A, la apertura se ha convertido en una nueva palabra clave en el ecosistema de aplicaciones LLM. La apertura es también la intención original de la plataforma Qianfan. Desde el primer día de su lanzamiento en 2023, Qianfan ha adoptado la postura más abierta para acceder a una gran cantidad de LLM de terceros. Actualmente, Qianfan tiene acceso a más de 100 modelos de más de 30 proveedores de modelos, que cubren 11 tipos de capacidades tales como texto, imagen y razonamiento profundo, incluyendo modelos de terceros como DeepSeek, LLaMA, Tongyi y Vidu. También proporciona una gama completa de Wenxin LLM, incluyendo el modelo multi-modal nativo recientemente lanzado Wenxin 4.5 Turbo y el modelo de pensamiento profundo Wenxin X1 Turbo, así como el modelo de pensamiento profundo Wenxin X1 lanzado anteriormente.
Para las empresas que quieren implementar rápidamente la tecnología de IA, Baidu AI Cloud se está convirtiendo gradualmente en la primera opción. Los datos del mercado son la mejor prueba. Actualmente, la plataforma Qianfan sirve a más de 400.000 clientes, con una tasa de penetración de más del 60% en las empresas centrales. Según el Informe de monitoreo e información sobre proyectos de licitación de modelos grandes de China (2025Q1), Baidu logró el doble de primicia en el número de proyectos de licitación de modelos grandes y el monto de las ofertas ganadoras en el primer trimestre: ganando 19 proyectos de licitación de modelos grandes con un monto de proyecto divulgado de más de 450 millones de yuanes, y los proyectos de modelos grandes ganadores fueron casi todos de clientes centrales de empresas estatales en industrias como la energía y las finanzas.
La tarjeta de informe de Baidu AI Cloud también envía una señal al mundo exterior: en esta batalla a largo plazo por la implementación de la tecnología de IA, sólo aquellas soluciones que realmente entienden los puntos débiles de la industria y pueden ayudar a las empresas a reducir los costos de prueba y error son las más vitales.