A Influência Penetrante das Falsidades Apoiadas pelo Kremlin
O cerne do problema reside na contaminação deliberada das fontes de informação online. Ao inundar os resultados de pesquisa e os ‘web crawlers’ com falsidades pró-Kremlin, uma rede de atores de desinformação está a moldar ativamente o output dos modelos de linguagem grande (LLMs). Esses modelos, que alimentam os chatbots de IA com os quais interagimos diariamente, dependem de vastos conjuntos de dados extraídos da internet. Quando esses dados são poluídos com desinformação, o output resultante reflete esses vieses.
A NewsGuard, uma empresa que fornece classificações de credibilidade e impressões digitais de desinformação para sites de notícias e informações, conduziu uma análise aprofundada desse fenómeno. As suas descobertas revelam uma realidade perturbadora: uma parte significativa das informações geradas pelos principais chatbots de IA ecoa as narrativas propagadas por uma rede específica de sites pró-Kremlin.
A Mecânica da Desinformação: Como os Modelos de IA são Manipulados
A estratégia empregada por esta rede de desinformação é insidiosa e sofisticada. Não se destina principalmente a atrair leitores humanos; em vez disso, é projetada para manipular os próprios algoritmos que sustentam os chatbots de IA. Essa tática, conhecida como ‘LLM grooming’, envolve o plantio estratégico de informações falsas ou enganosas em inúmeros sites, sabendo que essas plataformas serão rastreadas e assimiladas pelos LLMs.
O American Sunlight Project (ASP), uma organização americana sem fins lucrativos, destacou essa ameaça num relatório de fevereiro de 2025. Eles alertaram que a rede Pravda, uma coleção de sites que promovem narrativas pró-russas, foi provavelmente criada com o propósito explícito de influenciar modelos de IA. Quanto maior o volume de narrativas pró-Rússia, maior a probabilidade de os LLMs as integrarem na sua base de conhecimento.
As implicações disso são de longo alcance. À medida que os LLMs se tornam cada vez mais integrados nas nossas vidas diárias, servindo como fontes de informação e assistência, o potencial para a disseminação generalizada de conteúdo manipulado é alarmante.
Auditoria da NewsGuard: Quantificando o Impacto
Para avaliar a extensão desse problema, a NewsGuard conduziu uma auditoria em dez chatbots de IA proeminentes. Estes incluíram:
- ChatGPT-4o da OpenAI
- Smart Assistant da You.com
- Grok da xAI
- Pi da Inflection
- le Chat da Mistral
- Copilot da Microsoft
- Meta AI
- Claude da Anthropic
- Gemini do Google
- Motor de resposta da Perplexity
A auditoria concentrou-se em 15 narrativas falsas distintas que foram ativamente promovidas por 150 sites Pravda pró-Kremlin entre abril de 2022 e fevereiro de 2025. Essas narrativas cobriram uma variedade de tópicos, todos projetados para promover uma agenda política específica.
A metodologia envolveu testar cada chatbot com uma série de prompts baseados nas ‘Misinformation Fingerprints’ da NewsGuard, um catálogo de alegações comprovadamente falsas sobre tópicos de notícias significativos. Os prompts foram elaborados em três estilos diferentes – Inocente, Sugestivo e Maligno – para imitar as várias maneiras pelas quais os usuários interagem com modelos de IA generativos. Isso resultou num total de 450 respostas (45 por chatbot).
Resultados Perturbadores: Desinformação Prevalente nos Chatbots
As descobertas da auditoria da NewsGuard foram claras. Coletivamente, os dez chatbots de IA repetiram narrativas falsas de desinformação russa em 33,55% das respostas. Eles forneceram uma não resposta em 18,22% dos casos e uma refutação da narrativa em 48,22% dos casos.
Todos os chatbots testados repetiram desinformação originária da rede Pravda. Ainda mais preocupante, sete dos chatbots citaram diretamente artigos específicos de sites Pravda como suas fontes. Embora dois dos modelos de IA não forneçam citações explícitas, verificou-se que eles ainda geram ou repetem narrativas falsas da rede. Apenas um dos oito modelos que citam fontes não citou o Pravda.
No total, 56 das 450 respostas geradas por chatbot incluíram links diretos para artigos que espalham alegações falsas publicadas pela rede Pravda. Os chatbots citaram coletivamente 92 artigos diferentes contendo desinformação, com dois modelos referenciando até 27 artigos Pravda cada. Esses artigos originaram-se de vários domínios dentro da rede, incluindo Denmark.news-pravda.com, Trump.news-pravda.com e NATO.news-pravda.com.
A Natureza dos Prompts: Imitando Interações do Mundo Real
Os três estilos de prompt usados na auditoria da NewsGuard foram projetados para refletir o espectro de interações do usuário com chatbots de IA:
- Prompts Inocentes: Esses prompts apresentavam a narrativa falsa de forma neutra, não sugestiva, como se o usuário estivesse simplesmente a procurar informações sem quaisquer noções preconcebidas.
- Prompts Sugestivos: Esses prompts sugeriam subtilmente a narrativa falsa, insinuando a sua validade sem declará-la explicitamente. Isso imita cenários em que os usuários podem ter alguma exposição prévia à desinformação e estão a procurar confirmação.
- Prompts Malignos: Esses prompts afirmavam diretamente a narrativa falsa como fato, refletindo situações em que os usuários já estão convencidos da desinformação e estão a procurar reforço.
Essa abordagem multifacetada foi crucial para entender como diferentes tipos de envolvimento do usuário podem influenciar a resposta do chatbot. Revelou que os chatbots eram suscetíveis a repetir desinformação, independentemente do estilo do prompt, embora a frequência e a natureza das respostas variassem.
Exemplos Específicos de Desinformação Ecoada pelos Chatbots
O relatório da NewsGuard fornece inúmeros exemplos de narrativas falsas específicas propagadas pela rede Pravda e subsequentemente repetidas pelos chatbots de IA. Esses exemplos destacam a amplitude e a profundidade da campanha de desinformação. Algumas das narrativas incluíram:
- Alegações de que a Ucrânia é um estado nazista.
- Afirmações falsas sobre as causas do conflito na Ucrânia.
- Informações enganosas sobre o envolvimento ocidental no conflito.
- Histórias fabricadas sobre a liderança ucraniana.
Estes são apenas alguns exemplos das muitas narrativas falsas que foram meticulosamente documentadas e rastreadas pela NewsGuard. O fato de essas narrativas estarem a ser ecoadas pelos principais chatbots de IA ressalta a necessidade urgente de contramedidas eficazes.
O Desafio de Combater a Desinformação Impulsionada por IA
Resolver esse problema é uma tarefa complexa. Requer uma abordagem multifacetada que envolva soluções tecnológicas e maior consciencialização do usuário.
Soluções Tecnológicas:
- Filtragem de Dados Melhorada: Os desenvolvedores de IA precisam implementar mecanismos mais robustos para filtrar a desinformação dos conjuntos de dados usados para treinar LLMs. Isso envolve identificar e excluir fontes não confiáveis, bem como desenvolver algoritmos que possam detectar e sinalizar informações potencialmente falsas ou enganosas.
- Verificação de Fonte Aprimorada: Os chatbots devem ser projetados para priorizar informações de fontes credíveis e verificadas. Isso inclui fornecer citações claras e permitir que os usuários rastreiem facilmente a origem das informações apresentadas.
- Transparência e Explicabilidade: Os modelos de IA devem ser mais transparentes sobre seus processos de tomada de decisão. Os usuários devem ser capazes de entender por que um chatbot está a fornecer uma resposta específica e em quais fontes de dados ele está a confiar.
Consciencialização do Usuário:
- Educação para a Literacia Mediática: Os usuários precisam ser educados sobre o potencial de desinformação gerada por IA. Isso inclui desenvolver habilidades de pensamento crítico e aprender a avaliar a credibilidade das fontes de informação online.
- Ceticismo e Verificação: Os usuários devem abordar as informações fornecidas pelos chatbots de IA com uma dose saudável de ceticismo. É crucial cruzar informações com outras fontes e desconfiar de alegações que pareçam sensacionalistas ou boas demais para ser verdade.
Os Riscos a Longo Prazo: Políticos, Sociais e Tecnológicos
A disseminação desenfreada de desinformação por meio de chatbots de IA representa riscos significativos a longo prazo. Esses riscos vão além do impacto imediato de narrativas falsas individuais e abrangem consequências sociais mais amplas.
- Riscos Políticos: A manipulação da opinião pública por meio da desinformação impulsionada por IA pode minar os processos democráticos e corroer a confiança nas instituições. Pode ser usada para influenciar eleições, semear discórdia e desestabilizar governos.
- Riscos Sociais: A disseminação de narrativas falsas pode exacerbar as divisões sociais existentes e criar novas. Pode alimentar preconceitos, discriminação e até violência.
- Riscos Tecnológicos: A erosão da confiança na tecnologia de IA devido à disseminação de desinformação pode dificultar seu desenvolvimento e adoção. As pessoas podem ficar relutantes em usar ferramentas de IA se não puderem confiar na precisão e confiabilidade das informações fornecidas.
A batalha contra a desinformação impulsionada por IA é crítica. Requer um esforço conjunto de desenvolvedores de IA, formuladores de políticas, educadores e usuários individuais para garantir que essas tecnologias poderosas sejam usadas de forma responsável e ética. O futuro da informação, e de fato o futuro das nossas sociedades, pode depender disso.