A Revolução MCP: Remodelando a IA e Aliviando Dúvidas

O Amanhecer do MCP e A2A: Uma Mudança de Paradigma

Desde o advento do ChatGPT, a busca implacável por avanços em modelos de linguagem grandes (LLMs) tem sido uma característica definidora do cenário da IA. O foco inicial no tamanho dos parâmetros gradualmente mudou para aplicações práticas, mas desafios significativos persistem para as empresas que buscam aproveitar o poder da IA. Os altos custos associados ao poder computacional e a natureza fragmentada do ecossistema de aplicações de IA permanecem pontos problemáticos críticos. As empresas frequentemente descobrem que seus investimentos substanciais em IA não se traduzem nos retornos esperados, levando a um persistente ‘dilema do ROI’.

O surgimento dos protocolos Model Context Protocol (MCP) e Agent2Agent (A2A) em 2025 marca um momento crucial na evolução do desenvolvimento de aplicações de IA. O MCP visa padronizar interfaces para quebrar os silos de dados, permitindo que os LLMs acessem recursos externos de forma eficiente e facilitando o fluxo contínuo de dados entre sistemas e plataformas. O A2A promove ainda mais a interação perfeita entre agentes, fomentando a colaboração e a comunicação para formar sistemas coesos e integrados.

A mudança do MCP para o A2A sublinha a crescente ênfase na ‘abertura’ como um motor chave no ecossistema de aplicações de IA. Essa abertura abrange tanto a interoperabilidade técnica quanto o espírito colaborativo. De uma perspectiva mais ampla, essa transformação reflete uma progressão natural no desenvolvimento da tecnologia: uma transição da excitação inicial para a implementação prática e da inovação isolada para a evolução colaborativa do ecossistema.

Historicamente, o valor dos LLMs tem sido desproporcionalmente atribuído à escala de parâmetros e às capacidades independentes. Hoje, o MCP e o A2A abordam a questão crítica da interconectividade entre as aplicações de IA e remodelam a dinâmica competitiva do ecossistema de LLMs. O desenvolvimento de aplicações de IA está evoluindo de uma abordagem de ‘lobo solitário’ para um modelo de interconectividade. Isso exige uma reavaliação do valor da IA para os CTOs, mudando o foco de simplesmente buscar o tamanho do modelo e as estratégias ‘tudo em um’ para alavancar plataformas que conectam diversas capacidades de IA. O objetivo é incorporar organicamente a IA nos processos de negócios e sistemas de produção existentes, melhorar a eficiência geral por meio da colaboração e padronização, resolver problemas críticos com recursos computacionais mínimos e superar o ‘dilema do ROI’.

O Flagelo do Computo Desperdiçado e Cenários Desalinhados

A incapacidade de superar o gargalo de alto investimento e baixo rendimento há muito atormenta a implementação de LLMs. Este fenômeno reflete profundas contradições no desenvolvimento da IA. Primeiro, há um desperdício significativo no poder computacional. Os dados indicam que os centros de computação de uso geral de nível empresarial operam com apenas 10-15% de utilização, deixando vastas quantidades de recursos computacionais ociosos. Em segundo lugar, há um desalinhamento de cenários onde o desempenho do modelo não atende às necessidades reais dos cenários de negócios.

Um problema comum é o ‘exagero’ de usar grandes modelos para tarefas leves. Algumas empresas dependem excessivamente de LLMs de uso geral para aplicações simples. Além disso, a natureza única dos cenários de negócios cria dilemas. Usar grandes modelos acarreta altos custos computacionais e longos tempos de inferência. Optar por modelos menores pode não satisfazer os requisitos de negócios. Este conflito é particularmente evidente em cenários de negócios que exigem conhecimento especializado do domínio.

Considere o cenário de correspondência talento-emprego na indústria de recrutamento. As empresas exigem modelos com profundas habilidades de raciocínio para entender as relações complexas entre currículos e descrições de trabalho, ao mesmo tempo em que exigem tempos de resposta rápidos. Os longos tempos de inferência dos LLMs de uso geral podem degradar significativamente a experiência do usuário, especialmente sob altas demandas de usuários simultâneos.

Para equilibrar desempenho e eficiência, a destilação de modelos ganhou força nos últimos anos. O lançamento do DeepSeek-R1 no início deste ano destacou ainda mais o valor desta técnica. No tratamento de tarefas complexas de raciocínio, a destilação de modelos captura o padrão de ‘cadeia de pensamento’ do DeepSeek-R1, permitindo que modelos de estudantes leves herdem suas habilidades de raciocínio em vez de simplesmente imitar os resultados de saída.

Por exemplo, a Zhaopin, uma plataforma líder de recrutamento, empregou o DeepSeek-R1 (mais de 600 bilhões de parâmetros) como um modelo de professor para destilar a cadeia de pensamento e a lógica de tomada de decisão usadas em tarefas de correspondência talento-emprego. Eles usaram a plataforma de desenvolvimento de modelos Qianfan do Baidu AI Cloud para destilar o modelo de professor e transferi-lo para o modelo ERNIE Speed (mais de 10 bilhões de parâmetros), o modelo de aluno. Essa abordagem alcançou um desempenho comparável ao do modelo de professor (o DeepSeek-R1 alcançou 85% de precisão nos resultados do link de raciocínio, enquanto o modelo de aluno alcançou mais de 81%), melhorou a velocidade de inferência para um nível aceitável e reduziu os custos para 30% do original, ao mesmo tempo em que alcançou velocidades 1x mais rápidas do que o DeepSeek-R1 completo.

Atualmente, as empresas normalmente adotam duas abordagens para a destilação de modelos: construir um sistema técnico completo desde a infraestrutura e GPUs até as estruturas de treinamento, ou usar soluções baseadas em plataforma como a plataforma de desenvolvimento de modelos Qianfan ou outros fornecedores. Yao Sijia, um especialista em aplicações de IA da Zhaopin, afirmou que, embora a Zhaopin tenha sua própria estrutura de treinamento, eles escolheram a plataforma de desenvolvimento de modelos Qianfan para a destilação de modelos devido a três considerações principais:

  • Suporte abrangente: A plataforma de desenvolvimento de modelos Qianfan fornece suporte líder do setor para destilação de modelos, otimizando profundamente toda a cadeia técnica em torno de cenários de destilação.
  • Controle de custos: Em comparação com a compra e manutenção de hardware de forma independente, a plataforma de desenvolvimento de modelos Qianfan oferece vantagens significativas no controle de custos e alocação de recursos mais flexível.
  • Profundo entendimento dos cenários de negócios: A equipe de soluções profissionais do Baidu entende profundamente os requisitos básicos, como ‘correspondência precisa’ e ‘resposta de alta concorrência’ no domínio do recrutamento e colabora com as empresas para explorar soluções.

Yao Sijia acrescentou que a Zhaopin continuará a ser pioneira em cenários de recrutamento AI+, usando a tecnologia Reinforcement Learning Fine-Tuning (RFT) da Qianfan para melhorar ainda mais o desempenho do modelo. Eles planejam explorar se o modelo de professor pode ser aprimorado ainda mais e se melhores mecanismos de recompensa podem otimizar modelos de alunos já destilados para melhorar a precisão. Qianfan é a primeira plataforma na China a produzir métodos de aprendizado por reforço líderes, como RFT e GRPO. Ao transformar esses métodos de aprendizado por reforço de ponta em soluções implementáveis, a Qianfan oferece a empresas como a Zhaopin mais possibilidades para otimizar o desempenho do modelo.

No entanto, a destilação de modelos apenas otimiza o desempenho de um único modelo. Em cenários de negócios complexos, é necessário corresponder precisamente diversas capacidades de IA com cenários.

Considere um smartphone. Em cenários de reconhecimento de intenção, como assistentes de chamada, modelos leves são normalmente usados para identificar rapidamente os problemas do usuário. Para cenários gerais de perguntas e respostas sobre conhecimento, como consultas sobre o clima e recuperação de notícias, modelos de tamanho médio são normalmente usados para fornecer respostas rápidas, precisas e informativas. Em cenários de análise de dados e raciocínio lógico que exigem pensamento profundo, grandes modelos são normalmente usados.

Isso significa que um smartphone precisa chamar de forma flexível vários LLMs em diferentes cenários de demanda do usuário. Para os fabricantes de telefones, isso apresenta desafios como altos custos de seleção de modelos e processos de chamada complexos devido a diferentes protocolos de interface de modelo.

Para resolver esses problemas da indústria, a plataforma de desenvolvimento de modelos Qianfan produziu interfaces de roteamento de modelos. Em comparação com o uso diretode modelos de fábrica originais, ela fornece recursos de desenvolvimento personalizado e chamada de API pronta para uso, ajudando as empresas a economizar carga de trabalho de engenharia e tempo de desenvolvimento, reduzindo custos. Além disso, a plataforma de desenvolvimento de modelos Qianfan suporta chamadas flexíveis para usuários de grande escala, garantindo velocidade e estabilidade mesmo sob demandas de chamadas de alta frequência e alta simultaneidade.

No nível do modelo, recursos técnicos como destilação de modelo e chamada multi-modelo estão ajudando cada vez mais empresas a otimizar a alocação de recursos, permitindo que as capacidades de IA correspondam precisamente aos cenários de negócios, reduzindo custos. No nível da aplicação, o MCP e o A2A, que atraíram atenção significativa da indústria, reduzem ainda mais os custos de tentativa e erro da IA, ajudam as empresas a otimizar os paradigmas de colaboração de aplicações e mudam o modelo ineficiente de ‘re-inventar a roda’ no desenvolvimento de agentes tradicionais.

Um ‘soco combinado’ de modelos para aplicações é a resposta perfeita para ajudar os LLMs a superar o ‘dilema do ROI’.

De Fechado a Aberto: Reduzindo a Barreira à Experimentação de IA

Desde 2023, apalavra-chave para a implementação de aplicações de IA mudou gradualmente para Agente. Em 2024, quase todas as empresas estão discutindo aplicações e desenvolvimento de Agentes. No entanto, os Agentes daquela época careciam de verdadeiras capacidades de planejamento e eram baseados principalmente em perspectivas de fluxo de trabalho, conectando LLMs com aplicações básicas costurando ou processualizando componentes por meio de regras orientadas por especialistas.

Com a recente ascensão dos protocolos MCP e A2A, 2025 se tornou o verdadeiro ‘Ano Zero do Agente’. Em particular, o impacto do MCP no campo da IA é comparável ao do protocolo TCP/IP na Internet.

Zhou Ze’an, CEO da Biyao Technology, afirmou em uma entrevista à InfoQ que o valor central do MCP para o campo da IA se reflete em três dimensões:

  • Padronização da chamada de ferramentas LLM: No passado, cada empresa tinha sua própria implementação de Function Call, com diferenças significativas entre elas. O MCP estabelece um padrão de acesso unificado, permitindo a verdadeira padronização de esquemas de agendamento de aplicações entre clientes e servidores. Além disso, o MCP permite a interação não apenas entre LLMs que suportam Function Call, mas também com LLMs que não possuem esse recurso.
  • Resolvendo desafios de colaboração de ferramentas: O padrão unificado do protocolo MCP torna a construção de serviços de Agente mais diversa. Os desenvolvedores precisam considerar não apenas seus próprios Agentes e serviços MCP, mas também como integrar capacidades externas para alcançar funções de Agente mais poderosas.
  • Controlando todo o contexto por meio de LLMs, resultando em uma interação mais amigável: Ao construir processos, ele pode usar uma gama mais ampla de fontes de dados para resolver tarefas complexas que antes eram impossíveis.

‘Em geral, o protocolo MCP reduz significativamente a barreira para as empresas adotarem a tecnologia de IA. No passado, o processo de integração técnica para acessar Agentes era complexo. Agora, as empresas não precisam mais entender profundamente os detalhes complexos da implementação técnica, mas apenas precisam esclarecer suas necessidades de negócios’, disse Zhou Ze’an. A Biyao Technology abriu totalmente as capacidades de processamento de documentos de seu LLM vertical da indústria de recursos humanos autodesenvolvido ‘Bole’ por meio do protocolo MCP, incluindo contratos, currículos e PPTs, e se tornou uma das primeiras empresas desenvolvedoras a lançar componentes MCP na plataforma de desenvolvimento de aplicações Qianfan. Atualmente, qualquer empresa ou desenvolvedor individual pode chamar diretamente suas capacidades profissionais na plataforma Qianfan.

‘O Baidu ajudará os desenvolvedores a abraçar ativa e abrangentemente o MCP.’ Na Create2025 Baidu AI Developer Conference realizada em 25 de abril, a plataforma Qianfan lançou oficialmente os serviços MCP de nível empresarial. O fundador do Baidu, Li Yanhong, demonstrou o caso da plataforma Qianfan abraçando o MCP, permitindo que os desenvolvedores acessem de forma flexível 1000 servidores MCP, incluindo pesquisa de IA, mapas e Wenku do Baidu, ao criar Agentes. Além disso, Qianfan lançou uma ferramenta de baixo código para criar servidores MCP, permitindo que os desenvolvedores desenvolvam facilmente seus próprios servidores MCP no Qianfan e os publiquem no Qianfan MCP Square com um clique. Esses servidores MCP também serão prontamente indexados pela pesquisa do Baidu, permitindo que sejam descobertos e usados por mais desenvolvedores.

De fato, Qianfan tem resolvido continuamente o problema da última milha da implementação da IA antes da ascensão do protocolo MCP, ajudando as empresas de forma eficiente e com baixas barreiras a desfrutar dos benefícios da tecnologia de IA e fornecendo soluções maduras para vários setores.

Por exemplo, no setor de casas inteligentes, as empresas geralmente enfrentam um problema comum: como fornecer serviços inteligentes precisos para modelos de produtos massivos? Com a implementação acelerada de LLMs, cada vez mais empresas estão usando Agentes para fornecer rapidamente aos usuários respostas precisas e personalizadas. No entanto, isso também traz um novo desafio: como desenvolver e gerenciar inúmeros Agentes? As marcas de casas inteligentes normalmente têm muitas categorias e modelos de produtos diferentes. Construir um Agente para cada produto separadamente não apenas resultaria em altos custos de desenvolvimento, mas também em custos significativos de gerenciamento e manutenção nos estágios posteriores.

Por exemplo, uma marca líder de casas inteligentes usou a plataforma de desenvolvimento de aplicações Baidu AI Cloud Qianfan para tratar os nomes de arquivos como fatias independentes e incorporar informações de fatias de nome de arquivo em cada fatia de grão fino. Em vez de construir um Agente para cada produto separadamente, eles só precisavam classificar a base de conhecimento correspondente e definir os nomes dos modelos de produtos. Então, eles poderiam usar a estratégia de análise automática da estrutura RAG da plataforma Qianfan para alcançar a correspondência precisa de modelos de produtos e pontos de conhecimento.

A plataforma de desenvolvimento de aplicações Qianfan também fornece à marca um conjunto de ferramentas de operações para construir um hub inteligente em constante evolução. Por meio da função de retorno de dados, todos os registros de interação do usuário são transformados em materiais de otimização. O pessoal de operações pode visualizar problemas de alta frequência em tempo real e intervir imediatamente em pontos de conhecimento descobertos, formando um ciclo fechado de ‘operação - feedback - otimização’. Além disso, a plataforma de desenvolvimento de aplicações Qianfan e o Xiaodu AI Assistant construíram conjuntamente uma estrutura de interação por voz. Contando com essa estrutura, a marca pode permitir que o hardware ‘converse’ diretamente com os usuários, alcançando uma experiência interativa mais natural, eficiente e personalizada.

De MCP para A2A, a abertura se tornou uma nova palavra-chave no ecossistema de aplicações LLM. A abertura também é a intenção original da plataforma Qianfan. Desde o primeiro dia de seu lançamento em 2023, Qianfan adotou a postura mais aberta para acessar uma riqueza de LLMs de terceiros. Atualmente, Qianfan tem acesso a mais de 100 modelos de mais de 30 fornecedores de modelos, cobrindo 11 tipos de capacidades, como texto, imagem e raciocínio profundo, incluindo modelos de terceiros como DeepSeek, LLaMA, Tongyi e Vidu. Ele também fornece uma gama completa de Wenxin LLMs, incluindo o recém-lançado modelo multi-modal nativo Wenxin 4.5 Turbo e o modelo de pensamento profundo Wenxin X1 Turbo, bem como o modelo de pensamento profundo Wenxin X1 lançado anteriormente.

Para as empresas que desejam implementar rapidamente a tecnologia de IA, o Baidu AI Cloud está se tornando gradualmente a primeira escolha. Os dados de mercado são a melhor prova. Atualmente, a plataforma Qianfan atende a mais de 400.000 clientes, com uma taxa de penetração de mais de 60% em empresas centrais. De acordo com o China Large Model Bidding Project Monitoring and Insight Report (2025Q1), Baidu alcançou o primeiro lugar duplo no número de grandes projetos de licitação de modelos e no valor dos lances vencedores no primeiro trimestre: vencendo 19 grandes projetos de licitação de modelos com um valor de projeto divulgado de mais de 450 milhões de yuans, e os grandes projetos de modelos vencedores foram quase todos de clientes de empresas estatais centrais em setores como energia e finanças.

O boletim do Baidu AI Cloud também envia um sinal para o mundo exterior: nesta longa batalha pela implementação da tecnologia de IA, apenas as soluções que realmente entendem os pontos problemáticos da indústria e podem ajudar as empresas a reduzir os custos de tentativa e erro são as mais vitais.