A Chave para Desbloquear a Revolução dos Agentes de IA: Priorizando Padrões de Segurança
A indústria de agentes de IA está atualmente vivenciando uma narrativa familiar. Os agentes de IA alavancam as capacidades gerais de grandes modelos para automatizar a resolução de tarefas complexas do usuário usando tecnologias e ferramentas existentes. Isso os posiciona como a avenida mais promissora para implantar a tecnologia de modelo hoje.
Nos últimos meses, houve uma explosão de produtos de agentes de IA. Ofertas de alto perfil como o Manus ganharam atenção popular, e novos modelos da OpenAI e do Google estão cada vez mais ‘AI agent-ized’. Crucialmente, os protocolos padrão estão ganhando força rapidamente.
A Anthropic lançou o MCP (Model Communication Protocol) como código aberto no final do ano passado. O MCP visa estabelecer uma especificação aberta e padronizada que permita que grandes modelos de linguagem interajam perfeitamente com várias fontes de dados e ferramentas externas, como software de negócios, bancos de dados e repositórios de código. Poucos meses após seu lançamento, OpenAI, Google, Alibaba e Tencent expressaram apoio e o integraram. Em seguida, o Google lançou o A2A (Agent-to-Agent), com o objetivo de automatizar a colaboração e os fluxos de trabalho entre os agentes de IA. Isso impulsionou ainda mais o crescente cenário de agentes de IA.
Em essência, esses protocolos abordam dois desafios principais: o MCP facilita as conexões entre agentes e provedores de ferramentas/serviços, enquanto o A2A permite conexões colaborativas entre agentes para realizar tarefas altamente complexas.
Portanto, o MCP pode ser comparado às primeiras interfaces unificadas, enquanto o A2A se assemelha ao protocolo HTTP.
No entanto, na história da internet, o advento do HTTP foi seguido por um elemento crítico que era necessário para a genuína prosperidade da internet: padrões de segurança em camadas em cima do protocolo.
Hoje, o MCP e o A2A enfrentam um dilema semelhante.
‘Quando o HTTP surgiu, encontrou mais tarde desafios significativos de segurança. A internet experimentou essa evolução’, explica Zixi, líder técnico da IIFAA (Internet Industry Financial Authentication Alliance) Trusted Authentication Alliance e especialista em segurança de agentes de IA.
Esses desafios podem se manifestar de várias formas. Atualmente, agentes maliciosos podem criar ferramentas falsas de ‘consulta meteorológica’ e registrá-las nos servidores MCP, roubando secretamente informações de voo do usuário em segundo plano. Quando um usuário compra medicamentos por meio de um agente, o agente A pode ser responsável por comprar cefpodoxima, enquanto o agente B compra álcool. Devido à falta de capacidades de identificação de risco entre plataformas, o sistema não pode fornecer um aviso de ‘combinação perigosa’, como fazem as plataformas de e-commerce existentes. Mais criticamente, a autenticação agente-a-agente e a propriedade dos dados permanecem obscuras. O usuário está autorizando um aplicativo local em seu dispositivo ou está sincronizando dados privados na nuvem?
‘O A2A, em sua documentação oficial, afirma que garante apenas a segurança da transmissão de nível superior. Deixa a responsabilidade de garantir as origens da identidade e das credenciais, a privacidade dos dados e o reconhecimento de intenção para empresas individuais.’
O verdadeiro florescimento de agentes inteligentes exige que essas questões sejam abordadas. A IIFAA, onde Zixi trabalha, é a primeira organização a começar a enfrentar esse problema.
‘Nesse contexto, a IIFAA se dedica a resolver uma série de problemas que os agentes inteligentes enfrentarão no futuro’, diz Zixi. ‘Na era do A2A, também definimos um produto semelhante chamado ASL (Agent Security Layer), que pode se basear no protocolo MCP para garantir a segurança dos agentes em termos de permissões, dados, privacidade e outros aspectos. Este produto middleware também aborda os desafios da transição do A2A para os futuros padrões de segurança.’
O IIFAA Intelligent Agent Trusted Interconnection Working Group é a primeira organização doméstica de colaboração em ecossistemas de segurança de agentes de IA. Foi iniciado em conjunto pela Academia Chinesa de Tecnologia da Informação e Comunicações (CAICT), Ant Group e mais de vinte outras empresas e instituições de tecnologia.
Do ASL à Escalabilidade
‘O desenvolvimento de agentes de IA está acontecendo mais rápido do que antecipávamos, tanto tecnologicamente quanto em termos de aceitação de padrões pelo ecossistema’, diz Zixi.
O conceito da IIFAA de um protocolo de segurança para comunicação agente-a-agente surgiu já em novembro do ano passado, antes do lançamento do MCP. O IIFAA Intelligent Agent Trusted Interconnection Working Group foi oficialmente estabelecido em dezembro, coincidindo com o lançamento oficial do MCP.
‘Atores maliciosos às vezes dominam novas tecnologias mais rápido que os defensores. Não podemos esperar que os problemas surjam antes de discutirmos a ordem. Essa é a necessidade da existência deste grupo de trabalho’, afirmou um membro da IIFAA em uma apresentação anterior. Construir normas da indústria para segurança e confiança mútua é fundamental para um desenvolvimento saudável a longo prazo.
De acordo com Zixi, seu foco atual é abordar as seguintes questões-chave na primeira fase:
Identidade Confiável do Agente: ‘Nosso objetivo é construir um sistema de certificação de Agente baseado em instituições autorizadas e mecanismos de reconhecimento mútuo. Assim como precisar de um passaporte e visto para viagens internacionais, isso permitirá que Agentes certificados entrem rapidamente em uma rede de colaboração e impedir que Agentes não certificados interrompam a ordem colaborativa.’
Compartilhamento Confiável de Intenção: ‘A colaboração entre agentes inteligentes depende da autenticidade e precisão da intenção. Portanto, o compartilhamento confiável de intenção é crucial para garantir uma colaboração multi-agente eficiente e confiável.’
Mecanismo de Proteção de Contexto: ‘Quando um Agente de IA se conecta a vários servidores MCP (protocolo multi-canal), todas as informações de descrição da ferramenta são carregadas no mesmo contexto de sessão. Um servidor MCP malicioso pode explorar isso para injetar instruções maliciosas. A proteção de contexto pode impedir interferência maliciosa, manter a segurança do sistema, garantir a integridade da intenção do usuário e impedir ataques de envenenamento.’
Proteção de Privacidade de Dados: ‘Na colaboração multi-agente, o compartilhamento de dados pode levar a violações de privacidade. A proteção de privacidade é crucial para impedir o uso indevido de informações sensíveis.’
Compartilhamento Confiável da Memória do Agente: ‘O compartilhamento de memória melhora a eficiência da colaboração multi-agente. O compartilhamento confiável de memória garante a consistência, autenticidade e segurança dos dados, impedindo a adulteração e o vazamento, aumentando a eficácia da colaboração e a confiança do usuário.’
Circulação Confiável da Identidade: ‘Os usuários esperam uma experiência de serviço contínua e suave em aplicativos nativos de IA. Portanto, alcançar o reconhecimento de identidade não intrusivo e entre plataformas é fundamental para melhorar a experiência do usuário.’
‘Esses são nossos objetivos de curto prazo. Em seguida, lançaremos o ASL para toda a indústria. Esta é uma implementação de software, não uma especificação de protocolo. Pode ser aplicado ao MCP e A2A para melhorar a segurança de nível empresarial desses dois protocolos. Este é o objetivo de curto prazo’, explica Zixi.
‘No início, não especificaremos coisas na camada de segurança. Não especificaremos o A2AS. Em vez disso, esperamos que, se alguém especificar o A2AS no futuro, nosso ASL possa se tornar um componente de implementação de software, assim como o SSL é um componente de implementação de software do HTTPS.’
A Analogia do HTTPS: Garantindo o Futuro dos Agentes de IA
Traçando paralelos com a história do HTTPS, a garantia de segurança permite a adoção generalizada de funcionalidades como pagamento, abrindo assim o caminho para oportunidades comerciais em maior escala. Um ritmo semelhante está se desenrolando atualmente. Em 15 de abril, o Alipay colaborou com a comunidade ModelScope para revelar o serviço ‘Payment MCP Server’. Isso permite que desenvolvedores de IA integrem perfeitamente os serviços de pagamento Alipay usando linguagem natural, facilitando a implantação rápida de funcionalidades de pagamento dentro de agentes de IA.
Abordar esses objetivos de curto prazo um por um acabará por resultar na formação de um padrão e ambiente de colaboração de Agente seguro. A chave para esse processo é alcançar um efeito de escala. ‘Lojas’ domésticas MCP que estão se movendo rapidamente já começaram a agir. A ‘MCP Zone’ da plataforma de agente inteligente Baibaoxiang do Ant Group integrará as soluções de segurança da IIFAA. Esta ‘MCP Store’ atualmente suporta a implantação e invocação de vários serviços MCP, incluindo Alipay, Amap e Wuying, permitindo a criação mais rápida de um agente inteligente conectado aos serviços MCP em apenas 3 minutos.
Zixi acredita que as capacidades gerais de grandes modelos têm o potencial de revolucionar genuinamente as experiências do usuário e os paradigmas de interação. No futuro, a abordagem atual de chamar Apps para concluir tarefas pode ser substituída por um super gateway que depende de um pool de ferramentas oculto nos bastidores, semelhante a uma MCP Store. Isso se tornará mais simples e mais compreensível das necessidades do usuário. A comercialização torna-se possível.
‘O desenvolvimento da AGI agora entrou na fase de agente inteligente. Comparado com robôs de bate-papo e IA com capacidades de raciocínio limitadas, os agentes inteligentes finalmente se libertaram do estágio fechado ponto a ponto, abrindo verdadeiramente um novo capítulo em aplicações comerciais.’
A IIFAA lançou recentemente o ASL e anunciou seu lançamento de código aberto. Ao compartilhar abertamente código, padrões e experiência, visa acelerar a inovação e iteração tecnológica, incentivando as empresas e desenvolvedores do setor a participar extensivamente e promovendo a padronização da tecnologia dentro do setor. O plano de código aberto adotará a licença Apache 2.0 mais permissiva e disponibilizará externamente as práticas de segurança do documento de design da biblioteca de código. Desenvolvedores globais podem participar da co-construção dentro da comunidade Github.
O Imperativo da Segurança no Desenvolvimento de Agentes de IA
A ascensão dos agentes de IA representa uma mudança de paradigma na forma como interagimos com a tecnologia. Não estamos mais confinados a aplicações discretas, mas sim, estamos caminhando para um mundo onde agentes inteligentes podem orquestrar perfeitamente uma infinidade de ferramentas e serviços para atingir nossos objetivos. Esta visão, no entanto, depende de abordar os riscos de segurança inerentes que acompanham uma tecnologia tão poderosa. Assim como a internet exigiu HTTPS para facilitar o e-commerce seguro e outras transações sensíveis, os agentes de IA precisam de padrões de segurança robustos para fomentar a confiança e permitir a adoção generalizada.
O cenário atual do desenvolvimento de agentes de IA é caracterizado por rápida inovação e experimentação. Novos modelos, protocolos e aplicações estão surgindo em um ritmo sem precedentes. Embora este dinamismo seja, sem dúvida, emocionante, também apresenta um desafio: as preocupações com a segurança muitas vezes ficam em segundo plano em relação à velocidade e funcionalidade. Isso pode levar a vulnerabilidades que agentes maliciosos podem explorar, potencialmente comprometendo os dados do usuário, interrompendo os serviços e minando a confiança em todo o ecossistema.
A analogia com os primeiros dias da internet é particularmente apropriada. Na ausência de medidas de segurança generalizadas, a internet foi assolada por golpes, fraudes e outras atividades maliciosas. Isso prejudicou seu crescimento e impediu que atingisse seu pleno potencial. Foi somente com o advento do HTTPS e outros protocolos de segurança que a internet se tornou uma plataforma segura e confiável para e-commerce, serviços bancários online e outras transações sensíveis.
Da mesma forma, os agentes de IA precisam de uma base sólida de segurança para realizar seu potencial transformador. Sem tal base, eles correm o risco de se tornarem um terreno fértil para novas formas de cibercrime e exploração online. Isso poderia sufocar a inovação, erodir a confiança do usuário e, finalmente, impedir que os agentes de IA se tornassem a tecnologia ubíqua e benéfica que muitos imaginam.
Abordando os Desafios de Segurança
Os desafios de segurança enfrentados pelos agentes de IA são multifacetados e exigem uma abordagem abrangente. Alguns dos principais desafios incluem:
- Autenticação e Autorização: Garantir que apenas agentes autorizados possam acessar dados e recursos sensíveis. Isso requer mecanismos de autenticação robustos e controles de acesso granulares.
- Privacidade de Dados: Proteger os dados do usuário contra acesso, uso ou divulgação não autorizados. Isso requer a implementação de técnicas de preservação da privacidade, como anonimização, criptografia e privacidade diferencial.
- Verificação de Intenção: Verificar se a intenção de um agente está alinhada com os objetivos do usuário e se não está sendo manipulada por agentes maliciosos. Isso requer o desenvolvimento de algoritmos sofisticados de reconhecimento e verificação de intenção.
- Segurança Contextual: Proteger os agentes de ataques maliciosos que exploram vulnerabilidades no ambiente circundante. Isso requer a implementação de medidas de segurança robustas em todas as camadas do sistema, do hardware ao software.
- Segurança Agente-a-Agente: Garantir que os agentes possam se comunicar e colaborar com segurança entre si. Isso requer o desenvolvimento de protocolos de comunicação seguros e mecanismos de confiança.
O ASL da IIFAA é um passo promissor na direção certa. Ao fornecer uma implementação de software que melhora a segurança do MCP e A2A, o ASL pode ajudar a abordar alguns desses desafios. No entanto, mais precisa ser feito para criar uma estrutura de segurança abrangente para agentes de IA.
O Caminho a Seguir: Colaboração e Padronização
O desenvolvimento de agentes de IA seguros requer um esforço colaborativo envolvendo pesquisadores, desenvolvedores, partes interessadas da indústria e formuladores de políticas. Alguns dos principais passos que precisam ser tomados incluem:
- Desenvolvimento de padrões abertos: Estabelecer padrões abertos para a segurança de agentes de IA é crucial para garantir a interoperabilidade e promover a inovação.
- Compartilhamento de melhores práticas: Compartilhar melhores práticas para o desenvolvimento seguro de agentes de IA pode ajudar a prevenir vulnerabilidades comuns e promover uma cultura de segurança.
- Investimento em pesquisa: Investir em pesquisa sobre a segurança de agentes de IA é essencial para desenvolver novas técnicas e tecnologias para enfrentar as ameaças emergentes.
- Promoção de educação e conscientização: Promover a educação e a conscientização sobre a segurança de agentes de IA pode ajudar a elevar o nível de segurança e incentivar o desenvolvimento responsável.
- Estabelecimento de estruturas regulatórias: Estabelecer estruturas regulatórias para a segurança de agentes de IA pode ajudar a garantir que a segurança seja priorizada e que os usuários sejam protegidos.
Ao trabalhar juntos, podemos criar um futuro onde os agentes de IA não sejam apenas poderosos e benéficos, mas também seguros e confiáveis. Isso exigirá um esforço conjunto para enfrentar os desafios de segurança que estão por vir e construir uma base sólida de segurança para o ecossistema de agentes de IA. Somente então podemos desbloquear todo o potencial dos agentes de IA e criar uma tecnologia verdadeiramente transformadora. Os esforços de organizações como a IIFAA são louváveis ao liderar esta iniciativa, mas a adoção generalizada e a adesão aos padrões de segurança são cruciais para o desenvolvimento seguro e próspero dos agentes de IA.