Bots de IA: fontes de desinformação?

A Dependência na Verificação de Fatos por IA em Conflitos e Suas Falhas

Durante um conflito de quatro dias entre a Índia e o Paquistão, usuários de mídia social recorreram a chatbots de inteligência artificial para verificação. No entanto, encontraram mais desinformação, destacando a falta de confiabilidade desses chatbots como ferramentas de verificação de fatos. Com as plataformas de tecnologia reduzindo gradualmente o número de verificadores de fatos humanos, os usuários estão cada vez mais dependendo de chatbots impulsionados por IA, incluindo o Grok da xAI, o ChatGPT da OpenAI e o Gemini do Google, para encontrar informações confiáveis. Mas descobriu-se que as respostas fornecidas por esses chatbots de IA muitas vezes estão repletas de informações falsas.

Uma forma comum de consulta emergiu na plataforma X (anteriormente Twitter) de Elon Musk, ou seja, "@Grok, isso é verdade?". O Grok tem um assistente de IA integrado na plataforma, refletindo uma tendência crescente de buscar desmistificações instantâneas nas mídias sociais. No entanto, as respostas fornecidas pelos chatbots de IA são frequentemente repletas de informações falsas.

Exemplos de Chatbots de IA Espalhando Informações Imprecisas

O Grok está atualmente sob novo controle, com relatos de que inseriu a teoria da conspiração de extrema direita "genocídio branco" em consultas não relacionadas. Ele identificou erroneamente imagens antigas de vídeo do Aeroporto de Cartum, no Sudão, como o ataque com mísseis à Base Aérea de Nur Khan, no Paquistão, durante o conflito indo-paquistanês. Além disso, um vídeo não relacionado de um edifício em chamas no Nepal foi identificado incorretamente como "possivelmente" mostrando uma resposta paquistanesa a ataques indianos.

Recentemente, o Grok também marcou um vídeo supostamente filmado de uma sucuri gigante no Rio Amazonas como "real", até mesmo citando expedições científicas com som plausível para apoiar sua afirmação falsa. Na verdade, o vídeo foi gerado por IA. Os verificadores de fatos da Agence France-Presse na América Latina observaram que muitos usuários citaram a avaliação do Grok como prova de que o clipe era genuíno.

Redução do Investimento em Verificadores de Fatos

Com o X e outras grandes empresas de tecnologia reduzindo o investimento em verificadores de fatos humanos, há uma dependência crescente do Grok como um verificador de fatos ad hoc. Mackenzie Saddij, pesquisadora da organização de monitoramento de notícias NewsGuard, alertou: "Nossa pesquisa descobriu repetidamente que os chatbots de IA não são fontes confiáveis de notícias e informações, especialmente quando se trata de notícias de última hora".

A pesquisa da NewsGuard descobriu que 10 dos principais chatbots eram propensos a repetir informações falsas, incluindo narrativas de desinformação russas e alegações falsas ou enganosas ligadas às recentes eleições australianas. Um estudo recente do Tow Center for Digital Journalism da Universidade de Columbia de oito ferramentas de busca de IA descobriu que os chatbots "geralmente não são bons em se recusar a responder perguntas que não podem responder com precisão, em vez disso, oferecem respostas incorretas ou especulativas".

Lutas da IA para Confirmar Imagens Falsas e Fabricar Detalhes

Quando os verificadores de fatos da Agence France-Presse no Uruguai perguntaram ao Gemini sobre uma imagem de uma mulher gerada por IA, ele não apenas confirmou a autenticidade da imagem, mas também fabricou detalhes sobre sua identidade, bem como onde a imagem poderia ter sido tirada.

Essas descobertas levantaram preocupações à medida que pesquisas indicam que os usuários online estão cada vez mais se afastando dos mecanismos de busca tradicionais e recorrendo a chatbots de IA para obter informações e validação.

A Mudança na Abordagem de Verificação de Fatos do Meta

No início deste ano, o Meta anunciou que encerraria seu programa de verificação de fatos de terceiros nos EUA, optando por confiar a tarefa de desmascarar informações falsas a usuários regulares, um modelo conhecido como "notas da comunidade", que foi defendido pelo X. No entanto, os pesquisadores questionaram repetidamente a eficácia das "notas da comunidade" no combate à desinformação.

Desafios e Controvérsias da Verificação de Fatos Humana

A verificação de fatos humana tem sido um ponto de inflamação em um clima político polarizado, particularmente nos EUA, onde defensores conservadores afirmam que ela suprime a liberdade de expressão e censura o conteúdo de direita - uma alegação que os verificadores de fatos profissionais contestam fortemente. A Agence France-Presse atualmente faz parceria com o programa de verificação de fatos do Facebook em 26 idiomas, inclusive na Ásia, América Latina e União Europeia.

Influência Política e Chatbots de IA

A qualidade e a precisão dos chatbots de inteligência artificial variam muito, dependendo de como são treinados e programados, o que levantou preocupações de que seus resultados possam ser influenciados ou controlados politicamente. Recentemente, a xAI de Musk culpou uma "modificação não autorizada" para o Grok gerar postagens não solicitadas mencionando "genocídio branco" na África do Sul. Quando o especialista em IA David K অ্যাস জিজ্ঞাসাasked Grok quem poderia ter modificado suas instruções de sistema, o chatbot listou Musk como o "provável" culpado.

Musk é um bilionário sul-africano e um crítico e apoiador ocasional do presidente Donald Trump. Ele já havia divulgado alegações infundadas de que líderes sul-africanos estavam "abertamente defendendo o genocídio de brancos".

Preocupações Sobre o Tratamento de Questões Sensíveis por Chatbots de IA

Angie Holan, diretora da International Fact-Checking Network, disse: "Vimos repetidamente que os assistentes de IA podem inventar resultados ou dar respostas enviesadas depois que codificadores humanos alteram especificamente as instruções. Estou particularmente preocupada com a forma como o Grok lida com solicitações que envolvem assuntos muito sensíveis depois de receber instruções para fornecer respostas pré-autorizadas".

A Importância de Garantir a Precisão da IA

A crescente popularidade dos chatbots de IA apresenta desafios significativos para a disseminação de informações. Embora ofereçam uma maneira rápida e conveniente de acessar informações, também são propensos a erros e à disseminação de informações falsas. À medida que os usuários dependem cada vez mais dessas ferramentas para verificação de fatos, torna-se essencial garantir sua precisão e confiabilidade.

Empresas de tecnologia, organizações de verificação de fatos e pesquisadores devem trabalhar juntos para melhorar a qualidade e a confiabilidade dos chatbots de IA. Isso inclui a implementação de protocolos de treinamento rigorosos, a utilização de verificadores de fatos humanos para verificar as informações geradas por IA e o desenvolvimento de mecanismos para detectar e erradicar informações falsas.

Olhando para o Futuro

À medida que a tecnologia de IA continua a avançar, os chatbots de IA certamente desempenharão um papel cada vez maior na forma como acessamos e consumimos informações. No entanto, é importante abordar essas ferramentas com um olho crítico e estar ciente de suas limitações. Ao tomar medidas para garantir a precisão e a confiabilidade dos chatbots de IA, podemos aproveitar seu potencial e, ao mesmo tempo, mitigar os riscos associados à disseminação de informações falsas.

Viés em Ferramentas de IA

O viés pode estar presente nas ferramentas de IA, seja nos dados em que são treinadas ou na forma como são programadas. Esse viés pode levar a resultados imprecisos ou enganosos. O exemplo do Grok inserindo a teoria da conspiração de extrema direita "genocídio branco" em consultas não relacionadas ilustra como os sistemas de IA podem perpetuar ideologias prejudiciais.

O viés em ferramentas de IA pode resultar de vários fatores, incluindo:

  • Viés nos dados de treinamento: Os sistemas de IA aprendem por meio de conjuntos de dados de treinamento. Se esses conjuntos de dados contêm viés, o sistema de IA também aprenderá esses viés. Por exemplo, se um sistema de IA for treinado principalmente em artigos escritos por homens, ele poderá desenvolver vieses contra as mulheres.

  • Viés em algoritmos: Os algoritmos usados para construir sistemas de IA também podem conter viés. Por exemplo, se um algoritmo for projetado para priorizar as respostas de certos grupos, ele poderá discriminar outros grupos.

  • Viés devido à intervenção humana: Mesmo que um sistema de IA seja treinado em dados não enviesados, a intervenção humana ainda pode introduzir viés. Por exemplo, se os codificadores humanos forem instruídos a dar respostas pré-autorizadas ao responder a perguntas específicas, isso poderá criar viés.

É importante abordar o viés em ferramentas de IA por vários motivos:

  • Justiça: Se um sistema de IA contém viés, ele pode ser injusto para certos grupos. Por exemplo, se um sistema de IA for usado para recrutamento, ele poderá discriminar grupos marginalizados.

  • Precisão: Se um sistema de IA contém viés, ele pode não fornecer informações precisas. Por exemplo, se um sistema de IA for usado para fornecer conselhos médicos, ele poderá fornecer conselhos incorretos ou enganosos.

  • Confiança: Se as pessoas não confiam que um sistema de IA é justo e preciso, é menos provável que o usem.

Abordar o viés em ferramentas de IA requer uma abordagem multifacetada, incluindo:

  • Coleta de dados não enviesados: É importante garantir que os conjuntos de dados usados para treinar sistemas de IA sejam não enviesados. Isso pode exigir um esforço significativo, pois pode ser difícil encontrar e remover viés nos dados.

  • Desenvolvimento de algoritmos não enviesados: Os algoritmos usados para construir os sistemas de IA devem ser não enviesados. Isso pode exigir o uso de novas técnicas de aprendizado de máquina para construir algoritmos que são menos suscetíveis a viés.

  • Intervenção humana: A intervenção humana pode ser usada para corrigir viés em sistemas de IA. Por exemplo, os codificadores humanos podem revisar as respostas geradas pelos sistemas de IA e corrigir quaisquer vieses que encontrarem.

  • Transparência: É importante que os usuários de sistemas de IA estejam cientes dos possíveis vieses nos sistemas de IA. Isso pode ser feito fornecendo informações sobre os dados em que o sistema de IA foi treinado e os algoritmos usados para construir o sistema de IA.

Abordar o viés em ferramentas de IA é um desafio contínuo, mas é essencial para garantir que essas ferramentas sejam justas, precisas e confiáveis.

Limitações da Verificação de Fatos por IA

Embora as ferramentas de verificação de fatos por IA tenham feito avanços no reconhecimento de informações falsas, ainda existem limitações em suas capacidades e eficácia. Essas limitações decorrem de vários fatores:

  • Compreensão do contexto: É difícil para os sistemas de IA entender o contexto complexo e as nuances que são essenciais para a verificação de fatos precisa. Por exemplo, os sistemas de IA podem não conseguir distinguir entre sátira ou humor e declarações factuais.

  • Detecção de desinformação sutil: Os sistemas de IA podem ter dificuldade em detectar desinformação sutil, como tirar informações do contexto ou relatar seletivamente os fatos.

  • Falta de conhecimento especializado em um assunto: Os sistemas de IA geralmente carecem do conhecimento especializado necessário para verificar fatos sobre certos tópicos. Por exemplo, um sistema de IA pode não ter o conhecimento médico necessário para verificar com precisão as alegações relacionadas à saúde.

  • Manipulação adversária: Os propagadores de desinformação estão constantemente desenvolvendo novos métodos para manipular e contornar os sistemas de verificação de fatos. Os sistemas de IA devem ser atualizados e aprimorados continuamente para acompanhar essas novas táticas.

  • Barreiras de idioma: As ferramentas de verificação de fatos por IA podem não ser eficazes no tratamento de desinformação em diferentes idiomas. Traduzir e entender as nuances de diferentes idiomas é desafiador e requer conhecimento linguístico especializado.

  • Risco de falsos positivos: Os sistemas de verificação de fatos por IA podem cometer erros, levando à marcação de informações precisas como informações falsas. Esses falsos positivos podem ter consequências sérias, como censurar conteúdo legítimo ou danificar a reputação de indivíduos ou organizações.

Para mitigar as limitações da verificação de fatos por IA, é essencial combinar a especialização humana com as ferramentas de IA. Os verificadores de fatos humanos podem fornecer contextualização, conhecimento especializado e pensamento crítico que são difíceis de replicar com sistemas automatizados. Além disso, transparência e melhoria contínua são cruciais para garantir a eficácia e a confiabilidade dos sistemas de verificação de fatos por IA.

Estratégias para Mitigar Riscos e Melhorar a Verificação de Fatos por IA

Mitigar os riscos da verificação de fatos por IA e aumentar sua precisão e confiabilidade requer uma abordagem multifacetada que envolva melhorias técnicas, supervisão humana e considerações éticas. Aqui estão algumas estratégias-chave:

  • Melhorar os dados de treinamento: Melhorar os dados de treinamento usados para treinar modelos de IA, incorporando uma gama diversificada e abrangente de fontes de informação factuais. Garantir que os dados não sejam enviesados, estejam atualizados e cubram uma ampla variedade de tópicos e perspectivas.

  • Combinar a especialização humana: Mitigar as limitações da IA envolvendo verificadores de fatos humanos no processo de verificação de fatos da IA. Os especialistas humanos podem fornecer contexto, pensamento crítico e conhecimento especializado que são difíceis de replicar com sistemas automatizados.

  • Desenvolver abordagens híbridas: Desenvolver abordagens híbridas que combinem tecnologias de IA com supervisão humana. A IA pode ser usada para identificar potenciais informações falsas, e os checadores humanos podem analisar e validar os resultados.

  • Implementar processos transparentes: Estabelecer processos e metodologias de verificação de fatos transparentes para que os usuários possam entender como as conclusões são alcançadas e avaliar a precisão. Fornecer informações sobre as fontes de dados, algoritmos e envolvimento humano.

  • Promover alfabetização midiática: Promover a alfabetização midiática por meio de programas educacionais e campanhas de conscientização para ajudar os indivíduos a avaliar informações de forma crítica, identificar desinformação e tomar decisões informadas.

  • Incentivar a colaboração entre setores: Incentivar a colaboração entre empresas de tecnologia, organizações de checagem de fatos, pesquisadores e formuladores de políticas para compartilhar conhecimento, melhores práticas e recursos. Trabalhar colaborativamente para abordar os desafios e oportunidades na verificação de fatos da IA.

  • Abordar as barreiras de idioma: Desenvolver ferramentas de busca de fatos de IA que possam efetivamente lidar com informações incorretas em diferentes idiomas. Investir na tradução automática e treinar modelos especializados para cada idioma.

  • Avaliar de forma contínua e melhorar: Avaliar de forma contínua o desempenho dos sistemas de busca de fatos de IA, identificar áreas para melhoria e otimizar os algoritmos. Realizar auditorias e testes regulares para garantir precisão e confiabilidade.

  • Estabelecer diretrizes éticas: Estabelecer diretrizes éticas para o desenvolvimento e a implantação da verificação da IA, abordando questões como viés, transparência, responsabilidade e respeito aos direitos humanos. Garante que os sistemas de busca de fatos da IA sejam usados de forma justa, imparcial e responsável.

Ao implementar essas estratégias, podemos aumentar a precisão e a confiabilidade da verificação da IA, mitigar os riscos e maximizar seu potencial para combater as informações incorretas.

O Papel da Alfabetização Informacional e do Pensamento Crítico

Diante da grande quantidade de informações online e da possível divulgação de informações imprecisas por chatbots de IA, promover a alfabetização informacional e o pensamento crítico é essencial. A alfabetização informacional equipa os indivíduos com as habilidades para acessar, avaliar e usar informações de forma eficaz. O pensamento crítico capacita as pessoas a analisar, interpretar e fazer julgamentos sólidos.

Aqui estão as habilidades essenciais para a alfabetização informacional e o pensamento crítico:

  • Identificar fontes confiáveis: Avaliar a credibilidade, reputação e viés das fontes de informação. Buscar fontes com especialização, políticas transparentes e evidências para apoiar suas afirmações.

  • Verifique informações: Verifique informações cruzando dados com várias fontes de informação confiáveis. Tenha cuidado com afirmações não comprovadas, teorias de conspiração e títulos sensacionalistas.

  • Reconhecer o viés: Esteja ciente de que todas as fontes de informação podem conter preconceitos. Avaliar os preconceitos, agendas ou afiliações políticas dos autores ou organizações por trás das fontes de informação.

  • Analise argumentações: Avalie as evidências e o raciocínio apresentados pelas fontes de informação. Procurar falácias lógicas, relatórios seletivos e apelos emocionais.

  • Considere perspectivas diferentes: Busque diferentes pontos de vista e perspectivas sobre um problema. Envolver-se em conversas com pessoas que têm opiniões diferentes e considerar diferentes argumentações.

  • Mantenha uma mente aberta: Esteja disposto a mudar suas opiniões com base em novas informações ou evidências. Evitar o viés de confirmação, que é a tendência de buscar apenas informações que confirmem as crenças pré-existentes.

Promover a alfabetização informacional e o pensamento crítico pode ser alcançado por meio de vários esforços, como:

  • Os programas educacionais: Oferecer programas educacionais sobre alfabetização informacional e habilidades de pensamento crítico em escolas, universidades e organizações comunitárias.

  • Campanhas de alfabetização midiática: Lançar anúncios de utilidade pública, recursos on-line e workshops de alfabetização midiática para aumentar a conscientização e promover o pensamento crítico.

  • Treinamento de professores: Fornecer aos professores treinamento sobre como ensinar habilidades de alfabetização informacional e pensamento crítico.

  • Envolvimento dos pais: Incentivar os pais a se envolverem nos hábitos de consumo de mídia de seus filhos e discutir a precisão e a confiabilidade das informações on-line com eles.

Ao promover a alfabetização informacional e o pensamento crítico, podemos capacitar os indivíduos a tomar decisões informadas, evitar a desinformação e tornar-se cidadãos ativos no mundo digital cheio de informações.