Russisch AI-netwerk Verspreidt Desinformatie

De Mechanismen van ‘LLM Grooming’

Het Pravda-netwerk opereert via een uitgebreid web van ongeveer 150 nepnieuwswebsites. Deze sites zijn echter niet ontworpen voor menselijke consumptie. Met minimaal verkeer – de meeste pagina’s ontvangen minder dan 1.000 maandelijkse bezoekers – is hun primaire doel het voeden van AI-systemen met content. Deze strategie vertegenwoordigt een nieuwe benadering van desinformatie, die verder gaat dan traditionele methoden die zich rechtstreeks op menselijke lezers richten.

Deze tactiek staat bekend als ‘LLM grooming‘, een term die de opzettelijke manipulatie van AI-trainingsgegevens beschrijft. Het netwerk bereikt dit door massaal content te publiceren die sterk is geoptimaliseerd voor zoekmachines (SEO). Dit zorgt ervoor dat de propaganda gemakkelijk wordt opgenomen en herverdeeld door AI-modellen, waardoor hun output wordt beïnvloed en mogelijk de publieke perceptie wordt gevormd.

John Mark Dougan, een Amerikaan die in Moskou woont en door NewsGuard wordt geïdentificeerd als iemand die naar verluidt Russische desinformatiecampagnes ondersteunt, legde het onderliggende principe uit op een lokale conferentie: ‘Hoe diverser deze informatie is, hoe meer het de training en de toekomstige AI beïnvloedt.’ Deze verklaring benadrukt de verraderlijke aard van de operatie, die erop gericht is de fundamentele gegevens waarop AI-systemen zijn gebouwd, subtiel te corrumperen.

Schaal en Omvang van de Operatie

De schaal van de activiteiten van het Pravda-netwerk is verbijsterend. Alleen al in 2024 publiceerden deze sites ongeveer 3,6 miljoen artikelen in 49 landen. Domeinnamen worden strategisch gekozen om legitieme nieuwsbronnen na te bootsen, met voorbeelden als NATO.News-Pravda.com, Trump.News-Pravda.com en Macron.News-Pravda.com. Deze nabootsing voegt een laag van misleiding toe, waardoor het voor gewone waarnemers moeilijker wordt om onderscheid te maken tussen authentieke en gefabriceerde inhoud.

De inhoud zelf bestrijkt een breed scala aan onderwerpen, maar promoot consequent pro-Russische narratieven en ondermijnt westerse perspectieven. Het netwerk is actief sinds ten minste april 2022, en de analyse van NewsGuard richtte zich op 15 aantoonbaar valse verhalen die tussen die tijd en februari 2025 door het Pravda-netwerk werden verspreid.

Kwetsbaarheid van AI-Chatbots

Het onderzoek van NewsGuard omvatte het testen van verschillende prominente AI-chatbots om hun kwetsbaarheid voor de desinformatie van het Pravda-netwerk te beoordelen. De geteste systemen omvatten:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity

De resultaten waren zorgwekkend. De AI-chatbots accepteerden in 33,5% van de gevallen valse narratieven van het Pravda-netwerk. Hoewel de systemen de Russische inhoud in 48,2% van de gevallen correct identificeerden als desinformatie, citeerden ze soms de misleidende bronnen, waardoor ze mogelijk onverdiende geloofwaardigheid kregen. De resterende 18,2% van de reacties was onduidelijk, wat de uitdagingen verder benadrukt bij het onderscheiden van waarheid van onwaarheid in het tijdperk van door AI gegenereerde inhoud.

De Uitdaging van het Bestrijden van AI-gestuurde Desinformatie

Het bestrijden van dit type manipulatie vormt een aanzienlijke uitdaging. Traditionele methoden om bekende desinformatiewebsites te blokkeren, blijken ineffectief. Wanneer autoriteiten Pravda-domeinen blokkeren, duiken er snel nieuwe op, wat de behendigheid en veerkracht van het netwerk aantoont.

Bovendien stroomt de desinformatie via meerdere kanalen tegelijk, vaak waarbij verschillende netwerksites elkaars inhoud herkauwen. Dit creëert een complex web van onderling verbonden bronnen, waardoor het moeilijk is om de propaganda bij de wortel te isoleren en te neutraliseren. Het simpelweg blokkeren van websites biedt beperkte bescherming tegen de bredere, gecoördineerde campagne.

De Bredere Context: Staatsgesponsorde AI-Manipulatie

De activiteiten van het Pravda-netwerk zijn geen op zichzelf staande incidenten. Ze sluiten aan bij een breder patroon van door de staat gesponsorde inspanningen om AI in te zetten voor desinformatiedoeleinden. Een recent OpenAI-onderzoek onthulde dat door de staat gesteunde actoren uit Rusland, China, Iran en Israël al hebben geprobeerd AI-systemen te gebruiken voor propagandacampagnes. Deze operaties combineren vaak door AI gegenereerde inhoud met traditionele, handmatig gemaakte materialen, waardoor de grenzen tussen authentieke en gemanipuleerde informatie vervagen.

Het gebruik van AI in politieke manipulatie is niet beperkt tot statelijke actoren. Politieke groeperingen, zoals de extreemrechtse AFD-partij in Duitsland, zijn ook waargenomen bij het gebruik van AI-beeldmodellen voor propagandadoeleinden. Zelfs figuren als Donald Trump hebben zich beziggehouden met door AI gegenereerde inhoud, zowel als consument als, paradoxaal genoeg, door echte informatie te bestempelen als door AI gegenereerde vervalsingen. Deze tactiek, geïdentificeerd als een vorm van contrapropaganda, zaait wantrouwen in alle online informatie, waardoor individuen mogelijk alleen nog vertrouwen op vertrouwde figuren, ongeacht de feitelijke juistheid.

Zelfs het ontwerp van AI-modellen zelf kan worden beïnvloed door staatsagenda’s. Van Chinese AI-modellen is bijvoorbeeld vastgesteld dat ze vooraf zijn geladen met censuur en propaganda, wat de politieke prioriteiten van de Chinese overheid weerspiegelt.

Diepgaande Duik: Specifieke Voorbeelden van Valse Narratieven

Hoewel het NewsGuard-rapport niet elk afzonderlijk vals narratief beschrijft dat door het Pravda-netwerk wordt verspreid, suggereert de methodologie van het gebruik van aantoonbaar valse verhalen een patroon van het verspreiden van misinformatie die is ontworpen om:

  1. Westerse Instellingen te Ondermijnen: Verhalen kunnen de NAVO ten onrechte afschilderen als agressief of instabiel, of schandalen verzinnen waarbij westerse leiders betrokken zijn.
  2. Pro-Russische Sentimenten te Bevorderen: Narratieven kunnen de militaire successen van Rusland overdrijven, de mensenrechtenschendingen bagatelliseren of zijn acties op het wereldtoneel rechtvaardigen.
  3. Tweedracht en Verdeeldheid te Zaaien: Inhoud kan erop gericht zijn bestaande sociale en politieke spanningen binnen westerse landen te verergeren, verdeeldheid zaaiende kwesties te versterken en polarisatie te bevorderen.
  4. De Werkelijkheid Rond Specifieke Gebeurtenissen te Vervormen: Valse informatie kan worden verspreid over gebeurtenissen zoals verkiezingen, conflicten of internationale incidenten, waarbij het narratief wordt verdraaid om een pro-Russische interpretatie te bevorderen.

De rode draad is de manipulatie van informatie om een specifieke geopolitieke agenda te dienen. Het gebruik van AI versterkt het bereik en de potentiële impact van deze narratieven, waardoor ze moeilijker te detecteren en te bestrijden zijn.

De Implicaties op Lange Termijn

De implicaties van deze AI-gestuurde desinformatie zijn verstrekkend. De uitholling van het vertrouwen in informatiebronnen, de mogelijkheid tot manipulatie van de publieke opinie en de destabilisatie van democratische processen zijn allemaal ernstige zorgen. Naarmate AI-systemen steeds meer geïntegreerd raken in ons dagelijks leven, wordt het vermogen om onderscheid te maken tussen waarheid en onwaarheid steeds belangrijker.

De ‘LLM grooming’-techniek vertegenwoordigt een aanzienlijke escalatie in het informatielandschap. Het benadrukt de kwetsbaarheid van AI-systemen voor manipulatie en de noodzaak van robuuste verdedigingsmechanismen tegen deze opkomende dreiging. De uitdaging ligt niet alleen in het identificeren en blokkeren van desinformatiebronnen, maar ook in het ontwikkelen van strategieën om AI-modellen te inoculeren tegen deze subtiele maar doordringende vormen van beïnvloeding. Dit vereist een veelzijdige aanpak, waaronder:

  • Verbeterde AI-Geletterdheid: Het publiek informeren over de mogelijkheden van door AI gegenereerde desinformatie en het bevorderen van kritisch denkvermogen.
  • Verbeterde AI-Detectietools: Het ontwikkelen van geavanceerdere methoden voor het identificeren en markeren van door AI gegenereerde inhoud en desinformatie.
  • Versterkte AI-Trainingsgegevens: Het implementeren van maatregelen om de integriteit en diversiteit van AI-trainingsgegevens te waarborgen, waardoor deze beter bestand zijn tegen manipulatie.
  • Internationale Samenwerking: Het bevorderen van samenwerking tussen overheden, technologiebedrijven en onderzoekers om deze wereldwijde uitdaging aan te pakken.
  • Verhoogde Transparantie: AI-ontwikkelaars moeten transparant zijn over de gebruikte trainingsgegevens en de potentiële vooroordelen die in hun modellen kunnen bestaan.
  • Algoritmische Verantwoordelijkheid: AI-ontwikkelaars verantwoordelijk houden voor de output van hun systemen, met name wanneer die output wordt gebruikt om desinformatie te verspreiden.

De strijd tegen AI-gestuurde desinformatie is complex en evolueert voortdurend. Het vereist een gezamenlijke inspanning van individuen, organisaties en overheden om de integriteit van informatie te waarborgen en de fundamenten van geïnformeerde besluitvorming te beschermen. De activiteiten van het Pravda-netwerk dienen als een grimmige herinnering aan de belangen die op het spel staan en de urgentie van het aanpakken van deze groeiende dreiging. De toekomst van een geïnformeerd publiek debat, en mogelijk de stabiliteit van democratische samenlevingen, kan afhangen van ons vermogen om deze nieuwe vorm van manipulatie met succes te bestrijden. De uitdaging is niet alleen technologisch; het is ook maatschappelijk, en vereist een hernieuwde toewijding aan waarheid, nauwkeurigheid en kritisch denken in het digitale tijdperk.