Le réseau de propagande russe utilise l’IA pour diffuser la désinformation
NewsGuard, un service qui évalue la crédibilité des sites d’information, a récemment découvert une campagne de désinformation sophistiquée originaire de Moscou. Cette opération, baptisée ‘Pravda’ (qui signifie ‘vérité’ en russe), injecte systématiquement de la propagande russe dans les systèmes d’intelligence artificielle (IA) occidentaux. Les résultats révèlent une tendance inquiétante : les principaux chatbots IA sont susceptibles d’être manipulés, intégrant et diffusant souvent de faux récits générés par ce réseau.
Les mécanismes du ‘LLM Grooming’
Le réseau Pravda opère à travers un vaste réseau d’environ 150 faux sites d’information. Ces sites, cependant, ne sont pas conçus pour la consommation humaine. Avec un trafic minimal – la plupart des pages recevant moins de 1 000 visiteurs par mois – leur objectif principal est d’alimenter les systèmes d’IA en contenu. Cette stratégie représente une nouvelle approche de la désinformation, allant au-delà des méthodes traditionnelles qui ciblent directement les lecteurs humains.
Cette tactique est connue sous le nom de ‘LLM grooming‘, un terme qui décrit la manipulation délibérée des données d’entraînement de l’IA. Le réseau y parvient en publiant en masse du contenu fortement optimisé pour les moteurs de recherche (SEO). Cela garantit que la propagande est facilement ingérée et redistribuée par les modèles d’IA, influençant leurs résultats et façonnant potentiellement la perception du public.
John Mark Dougan, un Américain résidant à Moscou et identifié par NewsGuard comme soutenant prétendument les campagnes de désinformation russes, a expliqué le principe sous-jacent lors d’une conférence locale : ‘Plus cette information est diversifiée, plus elle influence la formation et la future IA’. Cette déclaration met en évidence la nature insidieuse de l’opération, visant à corrompre subtilement les données fondamentales sur lesquelles les systèmes d’IA sont construits.
Échelle et portée de l’opération
L’ampleur des activités du réseau Pravda est stupéfiante. Rien qu’en 2024, ces sites ont publié environ 3,6 millions d’articles dans 49 pays. Les noms de domaine sont stratégiquement choisis pour imiter les sources d’information légitimes, avec des exemples tels que NATO.News-Pravda.com, Trump.News-Pravda.com et Macron.News-Pravda.com. Cette imitation ajoute une couche de tromperie, rendant plus difficile pour les observateurs occasionnels de distinguer le contenu authentique du contenu fabriqué.
Le contenu lui-même couvre un large éventail de sujets, mais promeut systématiquement des récits pro-russes et sape les perspectives occidentales. Le réseau est actif depuis au moins avril 2022, et l’analyse de NewsGuard s’est concentrée sur 15 fausses histoires vérifiables distribuées par le réseau Pravda entre cette date et février 2025.
Vulnérabilité des chatbots IA
L’enquête de NewsGuard a consisté à tester plusieurs chatbots IA de premier plan pour évaluer leur vulnérabilité à la désinformation du réseau Pravda. Les systèmes testés comprenaient :
- ChatGPT-4o d’OpenAI
- Smart Assistant de You.com
- Grok de xAI
- Pi d’Inflection
- le Chat de Mistral
- Copilot de Microsoft
- Meta AI
- Claude d’Anthropic
- Gemini de Google
- Perplexity
Les résultats étaient préoccupants. Les chatbots IA ont accepté de faux récits du réseau Pravda dans 33,5 % des cas. Bien que les systèmes aient correctement identifié le contenu russe comme de la désinformation dans 48,2 % des cas, ils ont parfois cité les sources trompeuses, leur accordant potentiellement une crédibilité imméritée. Les 18,2 % de réponses restantes n’étaient pas concluantes, soulignant davantage les défis à relever pour discerner la vérité du mensonge à l’ère du contenu généré par l’IA.
Le défi de la lutte contre la désinformation pilotée par l’IA
Combattre ce type de manipulation représente un défi de taille. Les méthodes traditionnelles de blocage des sites de désinformation connus s’avèrent inefficaces. Lorsque les autorités bloquent les domaines Pravda, de nouveaux apparaissent rapidement, démontrant l’agilité et la résilience du réseau.
De plus, la désinformation circule simultanément par de multiples canaux, souvent avec différents sites du réseau régurgitant le contenu des uns et des autres. Cela crée un réseau complexe de sources interconnectées, rendant difficile l’isolement et la neutralisation de la propagande à sa racine. Le simple blocage de sites Web offre une protection limitée contre la campagne plus large et coordonnée.
Le contexte plus large : la manipulation de l’IA parrainée par l’État
Les activités du réseau Pravda ne sont pas des incidents isolés. Elles s’inscrivent dans un schéma plus large d’efforts parrainés par l’État pour exploiter l’IA à des fins de désinformation. Une étude récente d’OpenAI a révélé que des acteurs soutenus par l’État de Russie, de Chine, d’Iran et d’Israël ont déjà tenté d’utiliser des systèmes d’IA pour des campagnes de propagande. Ces opérations combinent souvent du contenu généré par l’IA avec des matériaux traditionnels créés manuellement, brouillant les frontières entre l’information authentique et l’information manipulée.
L’utilisation de l’IA dans la manipulation politique ne se limite pas aux acteurs étatiques. Des groupes politiques, tels que le parti d’extrême droite allemand AFD, ont également été observés utilisant des modèles d’images IA à des fins de propagande. Même des personnalités comme Donald Trump ont interagi avec du contenu généré par l’IA, à la fois en tant que consommateur et, paradoxalement, en qualifiant de fausses informations générées par l’IA des informations authentiques. Cette tactique, identifiée comme une forme de contre-propagande, sème la méfiance à l’égard de toutes les informations en ligne, poussant potentiellement les individus à ne se fier qu’à des personnalités de confiance, quelle que soit l’exactitude des faits.
Même la conception des modèles d’IA eux-mêmes peut être influencée par les agendas des États. Les modèles d’IA chinois, par exemple, se sont révélés être préchargés avec de la censure et de la propagande, reflétant les priorités politiques du gouvernement chinois.
Analyse approfondie : exemples spécifiques de faux récits
Bien que le rapport de NewsGuard ne détaille pas chaque faux récit propagé par le réseau Pravda, la méthodologie consistant à utiliser des histoires fausses et vérifiables suggère un schéma de diffusion de fausses informations conçu pour :
- Saper les institutions occidentales : Des histoires pourraient faussement dépeindre l’OTAN comme agressive ou instable, ou fabriquer des scandales impliquant des dirigeants occidentaux.
- Promouvoir le sentiment pro-russe : Les récits pourraient exagérer les succès militaires de la Russie, minimiser ses violations des droits de l’homme ou justifier ses actions sur la scène mondiale.
- Semer la discorde et la division : Le contenu pourrait viser à exacerber les tensions sociales et politiques existantes dans les pays occidentaux, en amplifiant les questions qui divisent et en favorisant la polarisation.
- Déformer la réalité autour d’événements spécifiques : De fausses informations pourraient être diffusées sur des événements tels que des élections, des conflits ou des incidents internationaux, en déformant le récit pour favoriser une interprétation pro-russe.
Le fil conducteur est la manipulation de l’information pour servir un agenda géopolitique spécifique. L’utilisation de l’IA amplifie la portée et l’impact potentiel de ces récits, les rendant plus difficiles à détecter et à contrer.
Les implications à long terme
Les implications de cette désinformation pilotée par l’IA sont considérables. L’érosion de la confiance dans les sources d’information, le potentiel de manipulation de l’opinion publique et la déstabilisation des processus démocratiques sont autant de préoccupations sérieuses. Alors que les systèmes d’IA sont de plus en plus intégrés à notre vie quotidienne, la capacité de distinguer la vérité du mensonge devient de plus en plus cruciale.
La technique du ‘LLM grooming’ représente une escalade significative dans le paysage de la guerre de l’information. Elle met en évidence la vulnérabilité des systèmes d’IA à la manipulation et la nécessité de mettre en place des défenses robustes contre cette menace émergente. Le défi ne consiste pas seulement à identifier et à bloquer les sources de désinformation, mais aussi à élaborer des stratégies pour immuniser les modèles d’IA contre ces formes subtiles mais omniprésentes d’influence. Cela nécessite une approche multidimensionnelle, impliquant :
- Amélioration de la littératie en matière d’IA : Éduquer le public sur le potentiel de la désinformation générée par l’IA et promouvoir l’esprit critique.
- Amélioration des outils de détection de l’IA : Développer des méthodes plus sophistiquées pour identifier et signaler le contenu généré par l’IA et la désinformation.
- Renforcement des données d’entraînement de l’IA : Mettre en œuvre des mesures pour garantir l’intégrité et la diversité des données d’entraînement de l’IA, les rendant plus résistantes à la manipulation.
- Coopération internationale : Favoriser la collaboration entre les gouvernements, les entreprises technologiques et les chercheurs pour relever ce défi mondial.
- Transparence accrue: Les développeurs d’IA devraient être transparents sur les données d’entraînement utilisées et les biais potentiels qui pourraient exister dans leurs modèles.
- Responsabilité algorithmique: Tenir les développeurs d’IA responsables des résultats de leurs systèmes, en particulier lorsque ces résultats sont utilisés pour diffuser de la désinformation.
La lutte contre la désinformation pilotée par l’IA est complexe et évolutive. Elle exige un effort concerté de la part des individus, des organisations et des gouvernements pour préserver l’intégrité de l’information et protéger les fondements d’une prise de décision éclairée. Les activités du réseau Pravda rappellent de manière frappante les enjeux et l’urgence de s’attaquer à cette menace croissante. L’avenir du discours public éclairé, et potentiellement la stabilité des sociétés démocratiques, peuvent dépendre de notre capacité à contrer avec succès cette nouvelle forme de manipulation. Le défi n’est pas seulement technologique ; il est aussi sociétal, exigeant un engagement renouvelé en faveur de la vérité, de l’exactitude et de l’esprit critique à l’ère numérique.