Durante um breve conflito entre a Índia e o Paquistão, um aumento na desinformação levou usuários de mídia social a dependerem de chatbots de AI para verificação. No entanto, esses chatbots forneceram ainda mais informações falsas, destacando sua não confiabilidade como ferramentas de checagem de fatos. À medida que as principais plataformas de tecnologia reduzem o número de verificadores de fatos humanos, os usuários estão cada vez mais recorrendo a chatbots impulsionados por AI, como o Grok da xAI, o ChatGPT da OpenAI e o Gemini do Google, para obter informações confiáveis.
A Ascensão da Checagem de Fatos por Chatbots de AI
Na plataforma X de Elon Musk (anteriormente Twitter), a pergunta "@Grok, isso é verdade?" se tornou uma ocorrência comum entre os usuários. Grok, um assistente de AI construído na plataforma X, reflete uma tendência de usuários buscando desmascaramentos instantâneos nas mídias sociais. No entanto, as respostas desses chatbots de AI estão frequentemente repletas de informações incorretas.
O Grok ganhou destaque recentemente por inserir a teoria da conspiração de extrema-direita do "genocídio branco" em consultas não relacionadas. O Grok identificou erroneamente imagens antigas de um vídeo do aeroporto de Khartoum no Sudão como um ataque de míssil à base da Força Aérea de Nur Khan, do Paquistão, durante o conflito Indo-Paquistanês. Além disso, um prédio em chamas no Nepal foi incorretamente identificado como "possivelmente" mostrando uma resposta militar paquistanesa a um ataque indiano.
As Limitações da Checagem de Fatos por AI
McKenzie Sadeghi, pesquisadora da agência de monitoramento de informações NewsGuard, disse à Agence France-Presse, "Como o X e outras grandes empresas de tecnologia têm diminuído o investimento em verificadores de fatos humanos, as pessoas estão cada vez mais dependendo do Grok como um verificador de fatos." Ela avisou, "Nossa pesquisa tem demonstrado repetidamente que os chatbots de AI não são fontes confiáveis de notícias e informações, especialmente quando se trata de notícias de última hora."
A pesquisa da NewsGuard descobriu que 10 chatbots líderes, incluindo o Grok, repetiam prontamente desinformação, incluindo narrativas de propaganda russa e alegações falsas ou enganosas relacionadas às recentes eleições australianas. Um estudo recente do Tow Center for Digital Journalism da Universidade de Columbia sobre oito ferramentas de busca de AI descobriu que os chatbots "geralmente não são bons em se recusar a responder perguntas que não podem responder com precisão e, em vez disso, fornecem respostas incorretas ou especulativas."
Um checador de fatos da Agence France-Presse no Uruguai perguntou ao Gemini sobre uma imagem de uma mulher gerada por AI; o Gemini não apenas confirmou a autenticidade da imagem, mas também inventou detalhes sobre a identidade da mulher e onde a imagem possivelmente foi tirada.
Recentemente, o Grok rotulou um vídeo de uma suposta anaconda gigante nadando no rio Amazonas como "real", até mesmo citando expedições científicas com som plausível para fazer backup de sua falsa afirmação. Na verdade, o vídeo foi gerado por AI, e os checadores de fatos da Agence France-Presse na América Latina relataram que muitos usuários estavam citando a avaliação do Grok como prova de que o vídeo era real.
Preocupações Sobre a Checagem de Fatos por AI
Essas descobertas geraram preocupações, pois pesquisas indicam que um número crescente de usuários online está se voltando para chatbots de AI em vez de mecanismos de busca tradicionais para coletar e verificar informações. Enquanto isso, a Meta anunciou no início deste ano que encerraria seu programa de checagem de fatos de terceiros nos Estados Unidos, mudando a tarefa de desmascarar notícias para usuários comuns no que chama de modelo "Community Notes" – um modo popularizado pela plataforma X. No entanto, os pesquisadores questionaram repetidamente a eficácia do "Community Notes" no combate à desinformação.
A checagem de fatos humana tem sido um ponto crítico em um clima político polarizado há muito tempo, particularmente nos Estados Unidos, onde os conservadores argumentam que ela suprime a liberdade de expressão e censura o conteúdo de direita – uma alegação que os verificadores de fatos profissionais negam veementemente.
A Agence France-Presse atualmente faz parceria com o programa de checagem de fatos do Facebook em 26 idiomas, incluindo na Ásia, América Latina e União Europeia.
A qualidade e a precisão dos chatbots de AI podem variar dependendo de como são treinados e programados, o que levanta preocupações de que suas saídas possam ser influenciadas ou controladas politicamente.
A xAI de Musk recentemente culpou "modificações não autorizadas" pelo Grok gerar postagens não solicitadas citando o "genocídio branco" na África do Sul. Quando o especialista em AI David Caswell perguntou ao Grok quem pode ter alterado seus prompts de sistema, o chatbot listou Musk como o "candidato mais provável".
Musk é um bilionário nascido na África do Sul e apoiador do ex-presidente dos EUA Donald Trump. Ele já havia espalhado alegações infundadas de que os líderes sul-africanos estavam "promovendo abertamente o genocídio de brancos".
Angie Holan, diretora da International Fact-Checking Network, disse à Agence France-Presse, "Vimos assistentes de AI inventar resultados ou dar respostas tendenciosas depois que codificadores humanos alteram explicitamente suas instruções." "Estou particularmente preocupada com a forma como o Grok lidará com solicitações sobre questões muito delicadas depois de receber instruções para fornecer respostas pré-autorizadas."
Os Riscos dos Chatbots de AI na Esfera da Informação
O aumento do uso de chatbots de AI para fornecer informações levanta sérias preocupações com relação a seus potenciais impactos enganosos e manipulativos. Embora essas tecnologias ofereçam vantagens em termos de acesso rápido a informações e racionalização da pesquisa, suas inerentes limitações e vieses podem, não intencionalmente ou intencionalmente, espalhar desinformação ou propaganda.
Limitações Inerentes dos Chatbots de AI
Os chatbots de AI aprendem analisando vastas quantidades de dados de texto, mas carecem da capacidade de pensamento crítico dos humanos. Isso significa que eles podem extrair padrões dos dados e gerar respostas com som plausível, mas sem realmente compreender o significado ou contexto subjacente. Essa falta de compreensão pode levar à produção de informações imprecisas, incompletas ou enganosas.
Além disso, os dados de treinamento dos chatbots de AI podem conter vieses, que se refletem nas respostas geradas. Por exemplo, se os dados de treinamento forem predominantemente provenientes de uma fonte ou perspectiva específica, o chatbot pode exibir uma predisposição para essa fonte ou perspectiva, espalhando assim informações tendenciosas.
Riscos Apresentados pelos Chatbots de AI
À medida que mais pessoas dependem dos chatbots de AI para obter informações, o risco de disseminação de desinformação aumenta. Se um chatbot gerar informações imprecisas ou enganosas, os usuários podem, sem saber, aceitar e espalhar essas informações, levando à proliferação de falsas crenças.
Além disso, os chatbots de AI podem ser usados para fins maliciosos, como a disseminação de propaganda ou a manipulação da opinião pública. Ao projetar cuidadosamente os dados de treinamento ou ajustar os algoritmos, os atores maliciosos podem manipular os chatbots para produzir tipos específicos de respostas, influenciando assim as crenças e comportamentos dos usuários.
Mitigação dos Riscos
Para mitigar os riscos associados aos chatbots de AI, várias medidas podem ser tomadas. Em primeiro lugar, os desenvolvedores devem se esforçar para garantir que os dados de treinamento dos chatbots de AI sejam o mais abrangentes e imparciais possível. Isso pode envolver a inclusão de uma ampla variedade de amostras de dados de diferentes fontes e perspectivas, a fim de reduzir o impacto dos vieses.
Em segundo lugar, os chatbots de AI precisam passar por testes e avaliações rigorosos para identificar e corrigir quaisquer tendências à imprecisão ou tendenciosidade. Isso pode envolver a verificação humana das respostas geradas pelo chatbot e o uso de várias métricas para avaliar sua precisão e imparcialidade.
Em terceiro lugar, os usuários devem manter uma mentalidade crítica e não confiar cegamente nas informações fornecidas pelos chatbots de AI. Os usuários devem sempre verificar as informações de várias fontes e estar cientes dos potenciais vieses que os chatbots possam ter.
O Papel das Plataformas Tecnológicas e das Comunidades
As plataformas tecnológicas e as comunidades desempenham um papel importante na regulação e supervisão do conteúdo gerado pelos chatbots de AI. As plataformas podem implementar políticas para identificar e remover informações incorretas ou propaganda, e podem cooperar com organizações de checagem de fatos para verificar a precisão das respostas geradas pelos chatbots. Além disso, as comunidades podem ajudar a aumentar a conscientização dos usuários sobre as limitações e vieses dos chatbots de AI, promovendo discussões sobre o tema e incentivando os usuários a manter uma atitude crítica.
Conclusão
Os chatbots de AI são ferramentas úteis, mas também apresentam limitações e riscos inerentes. Para garantir que essas tecnologias sejam usadas de forma responsável e que a disseminação de desinformação e manipulação seja minimizada, desenvolvedores, reguladores e usuários precisam permanecer vigilantes. Ao tomar as medidas necessárias, podemos maximizar os benefícios dos chatbots de AI, minimizando seus potenciais malefícios.