Gemini 2.5 Pro: Falta de Relatório de Segurança

A recente divulgação do modelo de IA Gemini 2.5 Pro da Google gerou controvérsia devido à ausência de um relatório de segurança crucial. Essa omissão parece contradizer as promessas feitas pela Google ao governo dos EUA e em cúpulas internacionais, levantando preocupações sobre o compromisso da empresa com a transparência e o desenvolvimento responsável da IA. Especialistas agora questionam se a Google e outros laboratórios líderes de IA estão a recuar nas suas promessas de informar o público sobre as capacidades e os potenciais riscos associados aos seus modelos de IA.

Promessas Quebradas e Compromissos Não Cumpridos

O fracasso da Google em fornecer um relatório de pesquisa de segurança juntamente com o lançamento do Gemini 2.5 Pro é visto como uma violação dos compromissos anteriores. Em julho de 2023, a Google participou numa reunião da Casa Branca convocada pelo governo Biden, onde se juntou a outras empresas proeminentes de IA na assinatura de uma série de compromissos. Um compromisso fundamental foi a publicação de relatórios para todos os principais lançamentos de modelos públicos que ultrapassassem o atual estado da arte da IA na época. Dados os seus avanços, o Gemini 2.5 Pro quase certamente estaria dentro do escopo desses Compromissos da Casa Branca.

Na época, a Google concordou que esses relatórios deveriam abranger:

  • Avaliações de segurança realizadas, incluindo avaliações de capacidades perigosas.
  • Limitações de desempenho significativas que poderiam impactar casos de uso apropriados.
  • Discussões sobre os efeitos do modelo em riscos sociais como justiça e parcialidade.
  • Resultados de testes adversários para avaliar a aptidão do modelo para implantação.

Após a reunião do G7 em Hiroshima, Japão, em outubro de 2023, a Google e outras empresas comprometeram-se a aderir a um código de conduta voluntário para o desenvolvimento de IA avançada. Este código do G7 enfatizou a importância de relatar publicamente as capacidades, limitações e aplicações adequadas e inadequadas dos sistemas avançados de IA. O objetivo era aumentar a transparência e a responsabilidade no campo da IA.

Em maio de 2024, numa cúpula internacional sobre segurança de IA realizada em Seul, Coreia do Sul, a Google reiterou os seus compromissos. A empresa prometeu divulgar publicamente as capacidades, limitações, casos de uso apropriados e inadequados do modelo, e fornecer transparência em torno das suas avaliações de risco e resultados.

Resposta da Google e Transparência Atrasada

Em resposta a perguntas sobre o relatório de segurança ausente, um porta-voz da Google DeepMind, a divisão responsável pelo desenvolvimento de modelos Gemini, afirmou que o mais recente Gemini passou por testes de pré-lançamento. Isso incluiu avaliações de desenvolvimento internas e avaliações de garantia realizadas antes do lançamento do modelo. O porta-voz também indicou que um relatório com informações de segurança adicionais e cartões de modelo estava ‘próximo’. No entanto, apesar da declaração inicial ter sido emitida em 2 de abril, nenhum cartão de modelo foi publicado até o momento.

Uma Tendência Mais Ampla de Negligenciar a Elaboração de Relatórios de Segurança

A Google não está sozinha ao enfrentar críticas em relação ao seu compromisso com a segurança da IA. No início do ano, a OpenAI também enfrentou escrutínio por não divulgar um cartão de modelo oportuno para o seu modelo de Deep Research. Em vez disso, publicaram um cartão de sistema semanas após o lançamento inicial do projeto. Da mesma forma, o recente relatório de segurança da Meta para o Llama 4 foi criticado por ser muito breve e carecer de detalhes.

Esses casos destacam uma tendência preocupante dentro da indústria de IA, onde alguns grandes laboratórios não estão a priorizar a elaboração de relatórios de segurança em linha com os seus lançamentos de modelos. Isso é particularmente preocupante, dados os compromissos voluntários que essas empresas fizeram com o governo dos EUA e a comunidade global para produzir tais relatórios. Esses compromissos foram inicialmente feitos para o governo Biden em 2023 e subsequentemente reforçados através de promessas de cumprir o código de conduta de IA adotado pelas nações do G7 na sua cúpula de IA em Hiroshima.

Kevin Bankston, um conselheiro sobre governança de IA no Center for Democracy and Technology, expressou a sua decepção, afirmando que essas falhas minam a credibilidade das empresas envolvidas e levantam questões sobre o seu compromisso com o desenvolvimento responsável da IA.

Questões Não Respondidas e Avaliação Externa

A declaração do porta-voz da Google também não abordou questões específicas sobre se o Gemini 2.5 Pro foi submetido para avaliação externa pelo U.K. AI Security Institute ou pelo U.S. AI Safety Institute. Anteriormente, a Google havia fornecido gerações anteriores dos seus modelos Gemini ao U.K. AI Safety Institute para avaliação.

Na Cúpula de Segurança de Seul, a Google inscreveu-se nos ‘Frontier AI Safety Commitments’, que incluíam uma promessa de fornecer transparência pública sobre a implementação de avaliações de segurança. As únicas exceções foram casos em que fazê-lo aumentaria o risco ou divulgaria informações comerciais confidenciais a um grau desproporcional ao benefício social. A promessa também afirmava que informações mais detalhadas que não pudessem ser partilhadas publicamente deveriam ainda ser partilhadas com os governos dos países em que as empresas estão sediadas, que seriam os EUA no caso da Google.

As empresas também se comprometeram a explicar como atores externos, como governos, sociedade civil, académicos e o público, estão envolvidos no processo de avaliação dos riscos dos seus modelos de IA. O fracasso da Google em responder a perguntas diretas sobre se submeteu o Gemini 2.5 Pro a avaliadores do governo dos EUA ou do Reino Unido potencialmente viola este compromisso também.

Priorizando a Implantação Sobre a Transparência

A ausência de um relatório de segurança levantou preocupações de que a Google possa estar a priorizar a implantação rápida sobre a transparência e as avaliações de segurança minuciosas. Sandra Wachter, professora e investigadora sénior no Oxford Internet Institute, enfatizou a importância da transparência na investigação e inovação responsáveis. Ela fez uma analogia com outras indústrias, afirmando que ‘Se este fosse um carro ou um avião, não diríamos: vamos apenas trazer isto para o mercado o mais rápido possível e analisaremos os aspetos de segurança mais tarde.’ Wachter expressou preocupação de que existe uma atitude prevalecente dentro do campo da IA generativa de ‘colocar isto lá fora e preocupar-se, investigar e corrigir os problemas com isso mais tarde.’

Mudanças Políticas e Pressões Competitivas

As recentes mudanças políticas, juntamente com a intensificação da rivalidade entre as empresas de Big Tech, podem estar a contribuir para um afastamento dos compromissos de segurança anteriores, à medida que as empresas correm para implantar modelos de IA. Wachter observou que ‘O ponto de pressão para estas empresas de serem mais rápidas, serem mais rápidas, serem as primeiras, serem as melhores, serem dominantes, é mais prevalecente do que costumava ser’, acrescentando que os padrões de segurança estavam a diminuir em toda a indústria.

Esses padrões em declínio podem ser impulsionados por uma crescente preocupação entre os países de tecnologia e alguns governos de que os procedimentos de segurança de IA estão a impedir a inovação. Nos EUA, o governo Trump indicou a sua intenção de adotar uma abordagem menos rigorosa à regulamentação da IA em comparação com o governo Biden. A nova administração já rescindiu uma ordem executiva da era Biden sobre IA e tem cultivado relacionamentos mais estreitos com líderes de tecnologia. Na recente cúpula de IA em Paris, o vice-presidente dos EUA, JD Vance, afirmou que ‘políticas de IA pró-crescimento’ devem ser priorizadas sobre a segurança, e que a IA era ‘uma oportunidade que o governo Trump não desperdiçará’.

Na mesma cúpula, tanto o Reino Unido quanto os EUA recusaram-se a assinar um acordo internacional sobre inteligência artificial que promovesse uma abordagem ‘aberta’, ‘inclusiva’ e ‘ética’ para o desenvolvimento da tecnologia.

A Necessidade de Requisitos de Transparência Claros

Bankston enfatizou que ‘Se não podemos contar com essas empresas para cumprir mesmo os seus compromissos de segurança e transparência mais básicos ao lançar novos modelos - compromissos que elas próprias fizeram voluntariamente - então elas estão claramente a lançar modelos muito rapidamente na sua corrida competitiva para dominar o campo.’ Ele acrescentou que, à medida que os desenvolvedores de IA continuam a vacilar nesses compromissos, caberá aos legisladores desenvolver e aplicar requisitos de transparência claros que as empresas não podem se esquivar.

As Implicações Mais Amplas para a Governança da IA

A controvérsia em torno do Gemini 2.5 Pro da Google e o relatório de segurança ausente sublinham a necessidade crítica de estruturas robustas de governança da IA. Essas estruturas devem abordar questões-chave como:

  • Transparência: Garantir que os desenvolvedores de IA sejam transparentes sobre as capacidades, limitações e potenciais riscos dos seus modelos.
  • Responsabilidade: Estabelecer linhas claras de responsabilidade para o desenvolvimento e implantação de sistemas de IA.
  • Segurança: Implementar testes de segurança rigorosos e procedimentos de avaliação para minimizar o risco de danos.
  • Considerações éticas: Integrar princípios éticos no design e desenvolvimento de sistemas de IA.
  • Engajamento público: Envolver-se com o público para promover uma compreensão mais ampla da IA e das suas implicações.
  • Cooperação internacional: Colaborar internacionalmente para desenvolver padrões comuns e melhores práticas para a governança da IA.

A falta de transparência em torno do Gemini 2.5 Pro destaca as potenciais consequências de negligenciar esses aspetos cruciais da governança da IA. Sem transparência e responsabilidade adequadas, torna-se difícil avaliar o verdadeiro impacto dos sistemas de IA e garantir que são desenvolvidos e implantados de forma responsável e ética.

Avançando: Um Chamado por Maior Responsabilidade

A indústria de IA está numa encruzilhada crítica. À medida que as tecnologias de IA se tornam cada vez mais poderosas e omnipresentes, é essencial que os desenvolvedores priorizem a segurança, a transparência e as considerações éticas. A controvérsia em torno do Gemini 2.5 Pro serve como um lembrete de que os compromissos voluntários nem sempre são suficientes. Os governos e os órgãos reguladores devem desempenhar um papel mais ativo no estabelecimento de padrões claros e na aplicação da conformidade.

Além disso, é crucial que os desenvolvedores de IA se envolvam com o público e promovam uma compreensão mais ampla da IA e das suas implicações. Isso inclui ser transparente sobre as limitações e potenciais riscos dos sistemas de IA, bem como as medidas que estão a ser tomadas para mitigar esses riscos. Ao trabalharem juntos, a indústria de IA, os governos e o público podem garantir que as tecnologias de IA sejam desenvolvidas e implantadas de uma forma que beneficie a sociedade como um todo.