Governança de Agentes: MCP e Segurança

À medida que a demanda por agentes inteligentes se diversifica entre os grupos de usuários, a governança deve abordar prioridades variadas. O Model Context Protocol (MCP), reforçado pela colaboração de código aberto e supervisão humana, fornece uma base para um ecossistema de agentes seguro e confiável.

Agentes inteligentes (AI Agents) são sistemas alimentados por grandes modelos de linguagem, capazes de interagir com o mundo externo por meio de ferramentas e agir em nome dos usuários. O recente surgimento de Manus destaca a expectativa do mercado por aplicações práticas de agentes.

Anunciado em novembro de 2024, o Model Context Protocol (MCP) de código aberto da Anthropic oferece uma solução técnica para aprimorar a eficiência e a segurança de agentes de propósito geral. O MCP simplifica a integração por meio de interfaces padronizadas, aumentando a eficiência do acesso a dados e ferramentas. Ele também fortalece a segurança ao isolar modelos de fontes de dados específicas e aprimorar a transparência do controle de comandos. Essa abordagem equilibrada prioriza a experiência do usuário, garantindo a autorização controlada.

Embora o MCP estabeleça uma base para a governança do agente, ele não resolve todos os desafios. Por exemplo, não valida a lógica por trás da seleção de ferramentas ou a precisão dos resultados da execução, nem aborda efetivamente a competição e a colaboração dentro do ecossistema agente-aplicação.

Desafios Enfrentados por Agentes de Propósito Geral em Aplicação

Um Agente é um sistema equipado com memória, planejamento, percepção, invocação de ferramentas e capacidades de ação, capacitado por extensos modelos de linguagem, que interage com o ambiente externo por meio de ferramentas, agindo em nome do usuário. O Agente precisa perceber e entender as intenções do usuário, obter e armazenar informações por meio do módulo de memória, formular e otimizar estratégias aproveitando o módulo de planejamento, invocar o módulo de ferramenta para executar tarefas específicas e implementar planos por meio do módulo de ação, alcançando assim o objetivo de concluir tarefas de forma autônoma.

Manus é mais um Agente de propósito geral, ao contrário dos produtos de Agente orientados a fluxo de trabalho.

As expectativas da indústria para Agentes, especialmente Agentes de propósito geral, decorrem das necessidades coletivas que eles abordam. Nos mercados de capitais, os Agentes representam o caminho de ciclo fechado antecipado da indústria para o valor comercial dos modelos, mudando o preço da IA da computação baseada em token para o preço baseado em efeito para serviços personalizados, resultando em maior lucratividade. Do lado do usuário, as empresas esperam que os Agentes executem processos repetitivos, padronizados e claramente definidos com automação de precisão, enquanto o público antecipa que os Agentes tragam ‘benefícios tecnológicos’, tornando-se ‘administradores digitais’ personalizados e de baixo limiar para todos.

No entanto, os Agentes de propósito geral enfrentam desafios de compatibilidade, segurança e competitividade em aplicação. Em termos de compatibilidade, os modelos precisam colaborar de forma eficiente com diferentes ferramentas e fontes de dados na chamada. Em termos de segurança, os Agentes precisam executar tarefas de forma clara e transparente de acordo com as instruções do usuário e alocar razoavelmente as responsabilidades de segurança sob a convergência dos dados de várias partes. Em termos de competição, os Agentes precisam resolver as relações competitivas e cooperativas no novo ecossistema de negócios.

Portanto, o protocolo MCP, que permite que os modelos colaborem de forma eficiente com diferentes ferramentas e fontes de dados e aloquem razoavelmente as responsabilidades de segurança sob a convergência dos dados de várias partes, vale a pena estudar em profundidade em comparação com o próprio produto Manus.

Preocupações com a Compatibilidade

O mundo da IA está evoluindo rapidamente, com novos modelos e ferramentas surgindo constantemente. Para que um agente de propósito geral seja realmente útil, ele precisa ser capaz de se integrar perfeitamente com uma ampla variedade de recursos. Isso apresenta um desafio significativo, pois cada ferramenta ou fonte de dados pode ter sua própria interface e formato de dados exclusivos. Sem uma abordagem padronizada, os desenvolvedores precisariam escrever código personalizado para cada integração, o que é demorado e ineficiente. Essa falta de compatibilidade pode dificultar a adoção generalizada de agentes de IA, pois os usuários podem estar relutantes em investir em uma tecnologia que não funciona facilmente com seus sistemas existentes.

Riscos de Segurança

Os agentes de IA são projetados para agir em nome dos usuários, o que significa que geralmente têm acesso a dados e sistemas confidenciais. Isso levanta preocupações significativas de segurança, pois um agente comprometido pode ser usado para roubar dados, interromper operações ou até mesmo causar danos físicos. É crucial garantir que os agentes sejam projetados com segurança em mente e que sejam submetidos a testes e monitoramento rigorosos para evitar vulnerabilidades. Além disso, é importante estabelecer linhas claras de responsabilidade pela segurança, especialmente quando várias partes estão envolvidas no desenvolvimento e implantação de um agente.

Panorama Competitivo

À medida que os agentes de IA se tornam mais prevalentes, é provável que interrompam os modelos de negócios existentes e criem novas formas de competição. Por exemplo, um agente que pode negociar automaticamente os preços com os fornecedores pode dar a uma empresa uma vantagem competitiva significativa. No entanto, isso também pode levar a uma corrida para o fundo, à medida que as empresas competem para oferecer os preços mais baixos. É importante considerar o impacto potencial dos agentes de IA no panorama competitivo e desenvolver estratégias para navegar neste novo ambiente. Isso inclui abordar questões como propriedade de dados, propriedade intelectual e o potencial para comportamento anticompetitivo.

MCP: Uma Solução Técnica para Compatibilidade e Segurança em Aplicações de Agentes

Em novembro de 2024, a Anthropic abriu o código do protocolo aberto MCP (Model Context Protocol), permitindo que os sistemas forneçam contexto para modelos de IA e podem ser universalizados em diferentes cenários de integração. O MCP usa uma arquitetura em camadas para resolver os problemas de padronização e segurança em aplicações de Agentes. Um aplicativo host (como Manus) se conecta a vários programas de serviço (Servidor MCP) por meio do cliente MCP ao mesmo tempo, e cada Servidor desempenha suas próprias funções, fornecendo acesso padronizado a uma fonte de dados ou aplicativo.

Primeiro, o MCP resolve o problema de compatibilidade em chamadas de dados/ferramentas do Agente por meio de consenso padrão. O MCP substitui a integração fragmentada por uma interface unificada, e a IA só precisa entender e seguir o acordo para interagir com todas as ferramentas que atendem às especificações, o que reduz significativamente a integração duplicada. Segundo, o MCP tem três considerações em termos de segurança. Primeiro, o modelo e as fontes de dados específicas são isolados no link de dados, e os dois interagem por meio do protocolo do Servidor MCP. O modelo não depende diretamente dos detalhes internos da fonte de dados, esclarecendo a fonte da mistura de dados de várias partes. O segundo é melhorar a transparência e a auditabilidade do link de comando e controle por meio de protocolos de comunicação e resolver a assimetria de informações e os desafios da caixa preta da interação de dados usuário-modelo. O terceiro é garantir a controlabilidade do link de autorização respondendo de acordo com as permissões e garantir o controle do usuário sobre o Agente no uso de ferramentas/dados.

O MCP constrói uma interface padronizada e um mecanismo de proteção de segurança por meio de uma arquitetura em camadas, alcançando um equilíbrio entre interoperabilidade e segurança em chamadas de dados e ferramentas. No nível de valor do usuário, o MCP traz uma colaboração e interação mais fortes entre corpos inteligentes e mais ferramentas, e até mesmo corpos mais inteligentes. Na próxima etapa, o MCP se concentrará no desenvolvimento de suporte para conexões remotas.

Interfaces Padronizadas para Compatibilidade Aprimorada

Uma das principais características do MCP é o uso de interfaces padronizadas. Isso significa que os agentes de IA podem interagir com diferentes ferramentas e fontes de dados sem exigir código personalizado para cada integração. Em vez disso, o agente simplesmente precisa entender o protocolo MCP, que define um conjunto comum de comandos e formatos de dados. Isso simplifica muito o processo de integração e reduz a quantidade de trabalho de desenvolvimento necessário. Também torna mais fácil alternar entre diferentes ferramentas e fontes de dados, pois o agente não precisa ser reconfigurado cada vez.

O uso de interfaces padronizadas também promove a interoperabilidade entre diferentes agentes de IA. Se vários agentes suportarem o protocolo MCP, eles podem facilmente se comunicar e compartilhar dados uns com os outros. Isso pode levar ao desenvolvimento de sistemas de IA mais complexos e sofisticados, onde vários agentes trabalham juntos para resolver um problema.

Mecanismos de Segurança Robustos para Proteção de Dados

A segurança é uma prioridade máxima no design do MCP. O protocolo inclui vários mecanismos para proteger os dados e evitar o acesso não autorizado. Uma característica fundamental é o isolamento de modelos de fontes de dados específicas. Isso significa que o agente não tem acesso direto aos dados subjacentes, mas interage com eles por meio do protocolo do Servidor MCP. Isso adiciona uma camada de indireção que torna mais difícil para um invasor comprometer os dados.

O MCP também inclui mecanismos para melhorar a transparência e a auditabilidade dos links de comando e controle. Isso permite que os usuários vejam exatamente quais comandos estão sendo enviados ao agente e verifiquem se o agente está agindo de acordo com suas instruções. Isso é importante para construir confiança em sistemas de IA, pois permite que os usuários entendam como o agente está tomando decisões.

Finalmente, o MCP fornece um mecanismo para controlar a autorização de agentes. Isso permite que os usuários especifiquem quais ferramentas e fontes de dados o agente tem permissão para acessar. Isso é importante para evitar que o agente acesse dados confidenciais ou execute ações que não estão autorizadas a fazer.

MCP: Lançando as Bases para a Governança do Agente

O MCP fornece garantias de compatibilidade e segurança para chamadas de dados e ferramentas, lançando as bases para a governança do Agente, mas não pode resolver todos os desafios enfrentados na governança.

Primeiro, em termos de credibilidade, o MCP não formou um padrão normativo para a seleção de fontes de dados e ferramentas de chamada, nem avaliou e verificou os resultados da execução. Segundo, o MCP não pode ajustar temporariamente o novo tipo de relação de cooperação competitiva comercial trazida pelo Agente.

No geral, o MCP fornece uma resposta técnica inicial às principais preocupações de segurança enfrentadas pelos usuários que usam Agentes e se tornou o ponto de partida para a governança do Agente. Com a popularização do Agente e outras aplicações de IA, métodos distribuídos são necessários para atender às necessidades diferenciadas de diferentes usuários. O foco da governança não é apenas a segurança do modelo, mas também o requisito principal de atender às necessidades do usuário. O protocolo MCP deu o primeiro passo para responder às necessidades do usuário e promover a co-governança tecnológica. É também com base no MCP que o Agente alcança uma divisão eficiente do trabalho e colaboração de várias ferramentas e recursos. Há uma semana, o Google abriu o código do protocolo Agent2Agent (A2A) para comunicação entre Agentes, para que os Agentes construídos em diferentes plataformas possam negociar tarefas e realizar colaboração segura, e promover o desenvolvimento de uma ecologia multi-corpos inteligentes.

Abordando Preocupações de Confiança e Confiabilidade

Embora o MCP forneça uma base sólida para a governança do agente, ele não aborda todos os desafios. Uma área fundamental que precisa de mais atenção é a questão da confiança e da confiabilidade. O MCP atualmente não inclui nenhum mecanismo para verificar a precisão dos resultados da execução ou para garantir que os agentes estão selecionando fontes de dados e ferramentas apropriadas. Isso significa que os usuários podem não ser capazes de confiar totalmente nas decisões tomadas por um agente, especialmente em situações de alto risco.

Para abordar essa preocupação, será necessário desenvolver novos padrões e práticas recomendadas para o desenvolvimento e implantação de agentes. Isso pode incluir coisas como métodos de verificação formal, que podem ser usados para provar que um agente sempre se comportará de maneira previsível e segura. Também pode incluir o uso de técnicas de IA explicáveis, que podem ajudar os usuários a entender como um agente está tomando decisões.

Outro desafio que o MCP não aborda totalmente é o impacto dos agentes no panorama competitivo. À medida que os agentes se tornam mais prevalentes, é provável que interrompam os modelos de negócios existentes e criem novas formas de competição. É importante considerar o impacto potencial dos agentes no panorama competitivo e desenvolver estratégias para navegar neste novo ambiente. Isso inclui abordar questões como propriedade de dados, propriedade intelectual e o potencial para comportamento anticompetitivo.

Uma abordagem potencial é desenvolver novas estruturas regulatórias que sejam especificamente adaptadas aos agentes de IA. Essas estruturas podem abordar questões como privacidade de dados, viés algorítmico e o potencial de manipulação de mercado. Eles também podem incluir mecanismos para promover a competição e evitar monopólios.

O Caminho a Seguir: Colaboração e Inovação

O desenvolvimento do MCP é um passo significativo na área de governança de agentes. No entanto, é importante reconhecer que este é apenas o começo. Ainda há muitos desafios a serem superados, e será necessário um esforço colaborativo de pesquisadores, desenvolvedores, formuladores de políticas e usuários para garantir que os agentes de IA sejam usados de forma segura e responsável.

Um desenvolvimento promissor é o recente lançamento do protocolo Agent2Agent (A2A) do Google. Este protocolo permite que agentes construídos em diferentes plataformas se comuniquem e colaborem uns com os outros. Isso pode levar ao desenvolvimento de sistemas de IA mais complexos e sofisticados, onde vários agentes trabalham juntos para resolver um problema. Também pode ajudar a promover um ecossistema de IA mais competitivo e inovador, à medida que os desenvolvedores são capazes de construir agentes que podem se integrar perfeitamente com outros agentes.

À medida que a tecnologia de IA continua a evoluir, é crucial ficar à frente da curva e desenvolver novos mecanismos de governança que possam enfrentar os desafios do futuro. Isso exigirá um compromisso com a colaboração, inovação e uma vontade de se adaptar ao panorama em constante mudança da IA.