A Ascensão do MCP na IA: O Futuro?

O mundo da Inteligência Artificial (IA) está em constante evolução, com novos termos e tecnologias surgindo em ritmo acelerado. Um desses termos que recentemente ganhou atenção significativa é ‘MCP’, ou Model Context Protocol. Este conceito gerou considerável entusiasmo dentro da comunidade de IA, traçando paralelos com os primeiros dias do desenvolvimento de aplicativos móveis.

Como o presidente da Baidu, Li Yanhong, afirmou na conferência Baidu Create em 25 de abril, ‘Desenvolver agentes inteligentes baseados em MCP é como desenvolver aplicativos móveis em 2010.’ Esta analogia destaca o impacto potencial do MCP no futuro das aplicações de IA.

Entendendo o MCP

Se você ainda não está familiarizado com o MCP, provavelmente já encontrou o termo ‘Agente’ (ou agente inteligente). O aumento na popularidade da Manus, uma startup chinesa, no início de 2025, trouxe este conceito à tona.

A chave para o apelo do Agente reside em sua capacidade de realizar tarefas de forma eficaz. Ao contrário dos modelos de linguagem grande (LLMs) anteriores que serviam principalmente como interfaces conversacionais, os Agentes são projetados para executar ativamente tarefas, aproveitando ferramentas externas e fontes de dados. Os LLMs tradicionais são limitados por seus dados de treinamento e exigem processos complexos para acessar recursos externos.

O MCP é crucial para realizar a visão do Agente, permitindo que os LLMs interajam perfeitamente com ferramentas externas que suportam o protocolo MCP. Isso permite que eles executem tarefas mais específicas e complexas.

Atualmente, várias aplicações, incluindo Amap e WeChat Read, lançaram servidores MCP oficiais. Isso capacita os desenvolvedores a criar aplicações de IA, selecionando um LLM preferido e integrando-o com servidores MCP como Amap ou WeChat Read. Isso permite que o LLM execute tarefas como consultas de mapas e recuperação de informações de livros.

A onda MCP começou em fevereiro de 2024 e rapidamente ganhou impulso em todo o mundo.

Grandes players como OpenAI, Google, Meta, Alibaba, Tencent, ByteDance e Baidu anunciaram suporte para o protocolo MCP e lançaram suas próprias plataformas MCP, convidando desenvolvedores e provedores de serviços de aplicações a participar.

MCP: Unificando o Ecossistema de IA

O conceito de ‘super aplicações’ foi um tema quente no campo da IA em 2024, com expectativas de uma rápida proliferação de aplicações de IA. No entanto, o ecossistema de inovação de IA permaneceu fragmentado.

O surgimento do MCP pode ser comparado à unificação da China sob Qin Shi Huang, que padronizou os sistemas de escrita, transporte e medição. Essa padronização facilitou muito a atividade econômica e o comércio.

Muitos analistas de mercado acreditam que a adoção do MCP e protocolos semelhantes abrirá caminho para um aumento significativo nas aplicações de IA em 2025.

Em essência, o MCP atua como um ‘super plug-in’ para IA, permitindo a integração perfeita com várias ferramentas externas e fontes de dados.

A Fundação Técnica do MCP

O MCP, ou Model Context Protocol, foi introduzido pela primeira vez pela Anthropic em novembro de 2024.

Como um padrão aberto, o MCP permite que as aplicações de IA se comuniquem com fontes de dados e ferramentas externas.

Pense no MCP como um adaptador universal para LLMs, definindo uma ‘interface USB’ padrão.

Esta interface permite que os desenvolvedores criem aplicações de uma forma mais padronizada e organizada, conectando-se a várias fontes de dados e fluxos de trabalho.

Superando as Barreiras ao Desenvolvimento de Aplicações de IA

Antes da ascensão do MCP, desenvolver aplicações de IA era um processo desafiador e complexo.

Por exemplo, desenvolver um assistente de viagem de IA exigia que um LLM realizasse tarefas como acessar mapas, pesquisar guias de viagem e criar roteiros personalizados com base nas preferências do usuário.

Para permitir que o LLM consultasse mapas e pesquisasse guias, os desenvolvedores enfrentaram os seguintes desafios:

  • Cada provedor de IA (OpenAI, Anthropic, etc.) implementava o Function Calling de forma diferente. A troca entre LLMs exigia que os desenvolvedores reescrevessem o código de adaptação, essencialmente criando um ‘manual do usuário’ para o LLM usar ferramentas externas. Caso contrário, a precisão da saída do modelo diminuiria significativamente.
  • A falta de um padrão unificado para a interação do LLM com o mundo exterior resultou em baixa reutilização de código, dificultando o desenvolvimento do ecossistema de aplicações de IA.

De acordo com Chen Ziqian, um especialista em tecnologia de algoritmos no Alibaba Cloud ModelScope, ‘Antes do MCP, os desenvolvedores precisavam entender os LLMs e realizar o desenvolvimento secundário para incorporar ferramentas externas em suas aplicações. Se o desempenho das ferramentas fosse ruim, os desenvolvedores tinham que investigar se o problema era com a aplicação em si ou com as ferramentas.’

A Manus, a startup de IA mencionada acima, serve como um excelente exemplo. Em uma avaliação anterior, descobriu-se que a Manus precisava chamar mais de dez ferramentas para escrever um simples artigo de notícias, incluindo abrir um navegador, navegar e raspar páginas da web, escrever, verificar e entregar o resultado final.

Se a Manus optasse por chamar ferramentas externas em cada etapa, ela precisaria escrever uma ‘função’ para organizar como as ferramentas externas seriam executadas. Como resultado, a Manus frequentemente encerrava tarefas devido à sobrecarga e consumia tokens excessivos.

Os Benefícios do MCP

Com o MCP, os desenvolvedores não precisam mais ser responsáveis pelo desempenho de ferramentas externas. Em vez disso, eles podem se concentrar na manutenção e depuração da própria aplicação, reduzindo significativamente a carga de trabalho de desenvolvimento.

Servidores individuais dentro do ecossistema, como Alipay e Amap, podem manter seus serviços MCP, atualizar para as versões mais recentes e esperar que os desenvolvedores se conectem.

Limitações e Desafios do MCP

Apesar de seu potencial, o ecossistema MCP ainda está em seus estágios iniciais e enfrenta vários desafios.

Alguns desenvolvedores argumentam que o MCP é uma camada desnecessária de complexidade, sugerindo que as APIs são uma solução mais simples. Os LLMs já podem chamar APIs através de vários protocolos, fazendo com que o MCP pareça redundante.

Atualmente, a maioria dos serviços MCP lançados por grandes empresas são definidos pelas próprias empresas, determinando quais funções podem ser chamadas pelos LLMs e como elas são agendadas. No entanto, isso levanta preocupações de que as empresas podem não fornecer acesso às suas informações mais críticas e em tempo real.

Além disso, se os servidores MCP não forem lançados oficialmente ou bem mantidos, a segurança e a estabilidade das conexões MCP podem ser questionáveis.

Tang Shuang, um desenvolvedor independente, compartilhou um exemplo de um servidor MCP de mapa com menos de 20 ferramentas. Cinco dessas ferramentas exigiam latitude e longitude, enquanto uma ferramenta meteorológica exigia um ID de divisão administrativa sem fornecer instruções sobre como obter esses IDs. A única solução era para os usuários retornarem ao ecossistema do provedor de serviços e seguirem as etapas para obter informações e permissões.

Embora a popularidade do MCP seja evidente, a dinâmica subjacente é complexa. Embora os fornecedores de LLM estejam dispostos a fornecer serviços MCP, eles mantêm o controle e hesitam em beneficiar outros ecossistemas. Se os serviços não forem devidamente mantidos, os desenvolvedores podem enfrentar um aumento da carga de trabalho, minando o propósito do ecossistema.

A Vitória do Código Aberto

Por que o MCP está ganhando força agora?

Inicialmente, o MCP recebeu pouca atenção após seu lançamento pela Anthropic. Apenas um número limitado de aplicações, como o Claude Desktop da Anthropic, suportava o protocolo MCP. Os desenvolvedores não tinham um ecossistema de desenvolvimento de IA unificado e trabalhavam principalmente isolados.

A adoção do MCP pelos desenvolvedores gradualmente o trouxe à tona. A partir de fevereiro de 2025, várias aplicações populares de programação de IA, incluindo Cursor, VSCode e Cline, anunciaram suporte para o protocolo MCP, aumentando significativamente seu perfil.

Após a adoção pela comunidade de desenvolvedores, a integração do MCP pelos fornecedores de LLM foi o fator chave em sua adoção generalizada.

O anúncio da OpenAI de suporte para MCP em 27 de março, seguido pelo Google, foi um passo crucial.

O CEO do Google, Sundar Pichai, expressou sua ambivalência em relação ao MCP no X, afirmando: ‘Ser ou não ser MCP, eis a questão’. No entanto, apenas quatro dias após postar este tweet, o Google também anunciou seu suporte para MCP.

A rápida adoção do MCP por grandes players da indústria de IA destaca seu potencial para transformar a forma como as aplicações de IA são desenvolvidas e implementadas.

O Caminho a Seguir para o MCP

À medida que o ecossistema MCP continua a evoluir, será crucial abordar as limitações e desafios existentes. Isso inclui:

  • Padronização: Desenvolver um protocolo MCP mais padronizado que seja independente de fornecedores individuais.
  • Segurança: Implementar medidas de segurança robustas para garantir a segurança e a confiabilidade das conexões MCP.
  • Manutenibilidade: Incentivar o desenvolvimento e a manutenção de servidores MCP de alta qualidade.
  • Acessibilidade: Tornar o MCP mais acessível a desenvolvedores de todos os níveis de habilidade.

Ao enfrentar esses desafios, o MCP tem o potencial de desbloquear uma nova era de inovação em IA, permitindo a criação de aplicações de IA mais poderosas, versáteis e fáceis de usar.

Em conclusão, embora o MCP ainda esteja em seus estágios iniciais, seu potencial para transformar o cenário da IA é inegável. Ao promover um ecossistema mais aberto, padronizado e colaborativo, o MCP pode abrir caminho para um futuro onde a IA seja mais acessível e benéfica para todos.