L’influence omniprésente des mensonges soutenus par le Kremlin
Le cœur du problème réside dans la contamination délibérée des sources d’information en ligne. En inondant les résultats de recherche et les robots d’indexation de mensonges pro-Kremlin, un réseau d’acteurs de la désinformation façonne activement les résultats des grands modèles de langage (LLM). Ces modèles, qui alimentent les chatbots d’IA avec lesquels nous interagissons quotidiennement, s’appuient sur de vastes ensembles de données extraites d’Internet. Lorsque ces données sont polluées par la désinformation, les résultats reflètent ces biais.
NewsGuard, une entreprise qui fournit des évaluations de crédibilité et des empreintes de désinformation pour les sites d’actualités et d’information, a mené une analyse approfondie de ce phénomène. Leurs conclusions révèlent une réalité troublante : une part importante des informations générées par les principaux chatbots d’IA fait écho aux récits propagés par un réseau spécifique de sites web pro-Kremlin.
Les mécanismes de la désinformation : comment les modèles d’IA sont manipulés
La stratégie employée par ce réseau de désinformation est à la fois insidieuse et sophistiquée. Elle ne vise pas principalement à attirer des lecteurs humains ; elle est plutôt conçue pour manipuler les algorithmes mêmes qui sous-tendent les chatbots d’IA. Cette tactique, connue sous le nom de ‘LLM grooming’, consiste à diffuser stratégiquement des informations fausses ou trompeuses sur de nombreux sites web, sachant que ces plateformes seront analysées et intégrées par les LLM.
L’American Sunlight Project (ASP), une organisation américaine à but non lucratif, a souligné cette menace dans un rapport de février 2025. Ils ont averti que le réseau Pravda, un ensemble de sites web diffusant des récits pro-russes, avait probablement été créé dans le but explicite d’influencer les modèles d’IA. Plus le volume de récits pro-russes est important, plus la probabilité que les LLM les intègrent dans leur base de connaissances est élevée.
Les implications de ceci sont considérables. À mesure que les LLM s’intègrent de plus en plus dans notre vie quotidienne, en tant que sources d’information et d’assistance, le potentiel de diffusion à grande échelle de contenu manipulé est alarmant.
L’audit de NewsGuard : quantifier l’impact
Pour évaluer l’ampleur de ce problème, NewsGuard a mené un audit de dix chatbots d’IA de premier plan. Ceux-ci incluaient :
- ChatGPT-4o d’OpenAI
- Smart Assistant de You.com
- Grok de xAI
- Pi d’Inflection
- le Chat de Mistral
- Copilot de Microsoft
- Meta AI
- Claude d’Anthropic
- Gemini de Google
- Le moteur de réponse de Perplexity
L’audit s’est concentré sur 15 récits faux distincts qui avaient été activement promus par 150 sites web pro-Kremlin Pravda entre avril 2022 et février 2025. Ces récits couvraient un éventail de sujets, tous conçus pour faire avancer un agenda politique spécifique.
La méthodologie consistait à tester chaque chatbot avec une série d’invites basées sur les empreintes de désinformation de NewsGuard, un catalogue d’affirmations manifestement fausses sur des sujets d’actualité importants. Les invites ont été conçues dans trois styles différents – Innocent, Directif et Malin – pour imiter les différentes manières dont les utilisateurs interagissent avec les modèles d’IA génératifs. Cela a donné un total de 450 réponses (45 par chatbot).
Résultats inquiétants : la désinformation prévaut dans tous les chatbots
Les conclusions de l’audit de NewsGuard sont sans appel. Collectivement, les dix chatbots d’IA ont répété de faux récits de désinformation russe dans 33,55 % des réponses. Ils ont fourni une non-réponse dans 18,22 % des cas et une réfutation du récit dans 48,22 % des cas.
Chaque chatbot testé a répété la désinformation provenant du réseau Pravda. Plus inquiétant encore, sept des chatbots ont directement cité des articles spécifiques de sites web Pravda comme sources. Bien que deux des modèles d’IA ne fournissent pas de citations explicites, ils ont tout de même été trouvés pour générer ou répéter de faux récits du réseau. Un seul des huit modèles qui citent des sources n’a pas cité Pravda.
Au total, 56 des 450 réponses générées par les chatbots incluaient des liens directs vers des articles diffusant de fausses affirmations publiées par le réseau Pravda. Les chatbots ont collectivement cité 92 articles différents contenant de la désinformation, deux modèles faisant référence à jusqu’à 27 articles Pravda chacun. Ces articles provenaient de divers domaines au sein du réseau, notamment Denmark.news-pravda.com, Trump.news-pravda.com et NATO.news-pravda.com.
La nature des invites : imiter les interactions du monde réel
Les trois styles d’invites utilisés dans l’audit de NewsGuard ont été conçus pour refléter le spectre des interactions des utilisateurs avec les chatbots d’IA :
- Invites innocentes : Ces invites présentaient le faux récit d’une manière neutre et non directive, comme si l’utilisateur cherchait simplement des informations sans aucune idée préconçue.
- Invites directives : Ces invites suggéraient subtilement le faux récit, laissant entendre sa validité sans l’affirmer explicitement. Cela imite les scénarios où les utilisateurs pourraient avoir une certaine exposition préalable à la désinformation et cherchent une confirmation.
- Invites malignes : Ces invites affirmaient directement le faux récit comme un fait, reflétant les situations où les utilisateurs sont déjà convaincus de la désinformation et cherchent à la renforcer.
Cette approche multiforme était cruciale pour comprendre comment différents types d’engagement des utilisateurs pouvaient influencer la réponse du chatbot. Elle a révélé que les chatbots étaient susceptibles de répéter la désinformation quel que soit le style d’invite, bien que la fréquence et la nature des réponses varient.
Exemples spécifiques de désinformation relayée par les chatbots
Le rapport de NewsGuard fournit de nombreux exemples de récits faux spécifiques propagés par le réseau Pravda et ensuite répétés par les chatbots d’IA. Ces exemples mettent en évidence l’ampleur et la profondeur de la campagne de désinformation. Certains des récits incluaient :
- Des affirmations selon lesquelles l’Ukraine est un État nazi.
- De fausses affirmations sur les causes du conflit en Ukraine.
- Des informations trompeuses sur l’implication occidentale dans le conflit.
- Des histoires fabriquées sur les dirigeants ukrainiens.
Ce ne sont là que quelques exemples des nombreux faux récits qui ont été méticuleusement documentés et suivis par NewsGuard. Le fait que ces récits soient repris par les principaux chatbots d’IA souligne le besoin urgent de contre-mesures efficaces.
Le défi de la lutte contre la désinformation pilotée par l’IA
Résoudre ce problème est une entreprise complexe. Cela nécessite une approche multidimensionnelle impliquant à la fois des solutions technologiques et une sensibilisation accrue des utilisateurs.
Solutions technologiques :
- Filtrage amélioré des données : Les développeurs d’IA doivent mettre en œuvre des mécanismes plus robustes pour filtrer la désinformation des ensembles de données utilisés pour former les LLM. Cela implique d’identifier et d’exclure les sources non fiables, ainsi que de développer des algorithmes capables de détecter et de signaler les informations potentiellement fausses ou trompeuses.
- Vérification améliorée des sources : Les chatbots devraient être conçus pour donner la priorité aux informations provenant de sources crédibles et vérifiées. Cela inclut de fournir des citations claires et de permettre aux utilisateurs de retracer facilement l’origine des informations présentées.
- Transparence et explicabilité : Les modèles d’IA devraient être plus transparents sur leurs processus décisionnels. Les utilisateurs devraient être en mesure de comprendre pourquoi un chatbot fournit une réponse particulière et sur quelles sources de données il s’appuie.
Sensibilisation des utilisateurs :
- Éducation à la littératie médiatique : Les utilisateurs doivent être sensibilisés au potentiel de désinformation générée par l’IA. Cela inclut le développement de compétences de pensée critique et l’apprentissage de l’évaluation de la crédibilité des sources d’information en ligne.
- Scepticisme et vérification : Les utilisateurs doivent aborder les informations fournies par les chatbots d’IA avec une bonne dose de scepticisme. Il est crucial de recouper les informations avec d’autres sources et de se méfier des affirmations qui semblent trop sensationnelles ou trop belles pour être vraies.
Les risques à long terme : politiques, sociaux et technologiques
La propagation incontrôlée de la désinformation par le biais des chatbots d’IA présente des risques importants à long terme. Ces risques dépassent l’impact immédiat des faux récits individuels et englobent des conséquences sociétales plus larges.
- Risques politiques : La manipulation de l’opinion publique par le biais de la désinformation pilotée par l’IA peut saper les processus démocratiques et éroder la confiance dans les institutions. Elle peut être utilisée pour influencer les élections, semer la discorde et déstabiliser les gouvernements.
- Risques sociaux : La propagation de faux récits peut exacerber les divisions sociales existantes et en créer de nouvelles. Elle peut alimenter les préjugés, la discrimination et même la violence.
- Risques technologiques : L’érosion de la confiance dans la technologie de l’IA due à la propagation de la désinformation pourrait entraver son développement et son adoption. Les gens pourraient hésiter à utiliser des outils d’IA s’ils ne peuvent pas être sûrs de l’exactitude et de la fiabilité des informations fournies.
La lutte contre la désinformation pilotée par l’IA est cruciale. Elle nécessite un effort concerté de la part des développeurs d’IA, des décideurs, des éducateurs et des utilisateurs individuels pour garantir que ces technologies puissantes sont utilisées de manière responsable et éthique. L’avenir de l’information, et même l’avenir de nos sociétés, en dépendent.