AI-Chatbots en Russische Desinformatie

De Doordringende Invloed van Door het Kremlin Gesteunde Onwaarheden

De kern van het probleem ligt in de opzettelijke vervuiling van online informatiebronnen. Door zoekresultaten en webcrawlers te overspoelen met pro-Kremlin onwaarheden, vormt een netwerk van desinformatie-actoren actief de output van grote taalmodellen (LLM’s). Deze modellen, die de AI-chatbots aandrijven waarmee we dagelijks communiceren, vertrouwen op enorme datasets die van internet zijn geschraapt. Wanneer deze gegevens vervuild zijn met misinformatie, weerspiegelt de resulterende output deze vooroordelen.

NewsGuard, een bedrijf dat geloofwaardigheidsbeoordelingen en ‘misinformation fingerprints’ levert voor nieuws- en informatiewebsites, voerde een diepgaande analyse uit van dit fenomeen. Hun bevindingen onthullen een verontrustende realiteit: een aanzienlijk deel van de informatie die wordt gegenereerd door toonaangevende AI-chatbots, weerspiegelt de verhalen die worden verspreid door een specifiek netwerk van pro-Kremlin-websites.

De Mechanismen van Desinformatie: Hoe AI-Modellen Worden Gemanipuleerd

De strategie die door dit desinformatienetwerk wordt gebruikt, is zowel verraderlijk als geavanceerd. Het is niet primair gericht op het aantrekken van menselijke lezers; het is eerder ontworpen om de algoritmen te manipuleren die ten grondslag liggen aan AI-chatbots. Deze tactiek, bekend als ‘LLM grooming’, omvat het strategisch plaatsen van valse of misleidende informatie op tal van websites, in de wetenschap dat deze platforms zullen worden geschraapt en opgenomen door LLM’s.

Het American Sunlight Project (ASP), een Amerikaanse non-profitorganisatie, benadrukte deze dreiging in een rapport van februari 2025. Ze waarschuwden dat het Pravda-netwerk, een verzameling websites die pro-Russische verhalen pushen, waarschijnlijk is gemaakt met het expliciete doel om AI-modellen te beïnvloeden. Hoe groter het volume van pro-Russische verhalen, hoe groter de kans dat LLM’s ze integreren in hun kennisbasis.

De implicaties hiervan zijn verstrekkend. Naarmate LLM’s steeds meer geïntegreerd raken in ons dagelijks leven, als bronnen van informatie en assistentie, is het potentieel voor wijdverspreide verspreiding van gemanipuleerde inhoud alarmerend.

NewsGuard’s Audit: De Impact Kwantificeren

Om de omvang van dit probleem te beoordelen, voerde NewsGuard een audit uit van tien prominente AI-chatbots. Deze omvatten:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

De audit was gericht op 15 verschillende valse verhalen die actief werden gepromoot door 150 pro-Kremlin Pravda-websites tussen april 2022 en februari 2025. Deze verhalen behandelden een reeks onderwerpen, allemaal ontworpen om een specifieke politieke agenda te bevorderen.

De methodologie omvatte het testen van elke chatbot met een reeks prompts op basis van NewsGuard’s Misinformation Fingerprints, een catalogus van aantoonbaar valse claims over belangrijke nieuwsonderwerpen. De prompts werden opgesteld in drie verschillende stijlen – Innocent, Leading en Malign – om de verschillende manieren na te bootsen waarop gebruikers omgaan met generatieve AI-modellen. Dit resulteerde in totaal 450 reacties (45 per chatbot).

Verontrustende Resultaten: Desinformatie Prevalent bij Chatbots

De bevindingen van de NewsGuard-audit waren grimmig. Gezamenlijk herhaalden de tien AI-chatbots valse Russische desinformatieverhalen in 33,55% van de reacties. Ze gaven in 18,22% van de gevallen geen reactie en in 48,22% van de gevallen een ontkrachting van het verhaal.

Elke geteste chatbot herhaalde desinformatie afkomstig van het Pravda-netwerk. Nog zorgwekkender was dat zeven van de chatbots rechtstreeks specifieke artikelen van Pravda-websites als hun bronnen noemden. Hoewel twee van de AI-modellen geen expliciete citaten geven, bleken ze nog steeds valse verhalen van het netwerk te genereren of te herhalen. Slechts één van de acht modellen die bronnen citeren, citeerde Pravda niet.

In totaal bevatten 56 van de 450 door chatbots gegenereerde reacties directe links naar artikelen die valse claims verspreidden, gepubliceerd door het Pravda-netwerk. De chatbots citeerden gezamenlijk 92 verschillende artikelen met desinformatie, waarbij twee modellen verwezen naar maar liefst 27 Pravda-artikelen. Deze artikelen waren afkomstig van verschillende domeinen binnen het netwerk, waaronder Denmark.news-pravda.com, Trump.news-pravda.com en NATO.news-pravda.com.

De Aard van de Prompts: Interacties uit de Echte Wereld Nabootsen

De drie promptstijlen die in de NewsGuard-audit werden gebruikt, waren ontworpen om het spectrum van gebruikersinteracties met AI-chatbots weer te geven:

  • Innocent Prompts: Deze prompts presenteerden het valse verhaal op een neutrale, niet-sturende manier, alsof de gebruiker gewoon op zoek was naar informatie zonder enige vooropgezette ideeën.
  • Leading Prompts: Deze prompts suggereerden subtiel het valse verhaal, hintend naar de geldigheid ervan zonder het expliciet te vermelden. Dit bootst scenario’s na waarin gebruikers mogelijk enige eerdere blootstelling aan misinformatie hebben gehad en bevestiging zoeken.
  • Malign Prompts: Deze prompts beweerden het valse verhaal rechtstreeks als feit, wat situaties weerspiegelt waarin gebruikers al overtuigd zijn van de misinformatie en versterking zoeken.

Deze veelzijdige aanpak was cruciaal om te begrijpen hoe verschillende soorten gebruikersbetrokkenheid de reactie van de chatbot kunnen beïnvloeden. Het onthulde dat de chatbots vatbaar waren voor het herhalen van desinformatie, ongeacht de promptstijl, hoewel de frequentie en aard van de reacties varieerden.

Specifieke Voorbeelden van Desinformatie die door Chatbots Worden Herhaald

Het NewsGuard-rapport biedt tal van voorbeelden van specifieke valse verhalen die door het Pravda-netwerk zijn verspreid en vervolgens door de AI-chatbots zijn herhaald. Deze voorbeelden benadrukken de breedte en diepte van de desinformatiecampagne. Enkele van de verhalen waren:

  • Beweringen dat Oekraïne een nazi-staat is.
  • Valse beweringen over de oorzaken van het conflict in Oekraïne.
  • Misleidende informatie over westerse betrokkenheid bij het conflict.
  • Verzonnen verhalen over het Oekraïense leiderschap.

Dit zijn slechts enkele voorbeelden van de vele valse verhalen die zorgvuldig zijn gedocumenteerd en gevolgd door NewsGuard. Het feit dat deze verhalen worden herhaald door toonaangevende AI-chatbots, onderstreept de dringende behoefte aan effectieve tegenmaatregelen.

De Uitdaging van het Bestrijden van AI-gestuurde Desinformatie

Het aanpakken van dit probleem is een complexe onderneming. Het vereist een veelzijdige aanpak met zowel technologische oplossingen als een verhoogd gebruikersbewustzijn.

Technologische Oplossingen:

  • Verbeterde Gegevensfiltering: AI-ontwikkelaars moeten robuustere mechanismen implementeren voor het filteren van misinformatie uit de datasets die worden gebruikt om LLM’s te trainen. Dit omvat het identificeren en uitsluiten van onbetrouwbare bronnen, evenals het ontwikkelen van algoritmen die potentieel valse of misleidende informatie kunnen detecteren en markeren.
  • Verbeterde Bronverificatie: Chatbots moeten worden ontworpen om prioriteit te geven aan informatie van geloofwaardige en geverifieerde bronnen. Dit omvat het verstrekken van duidelijke citaten en het gebruikers in staat stellen om de oorsprong van de gepresenteerde informatie gemakkelijk te traceren.
  • Transparantie en Verklaarbaarheid: AI-modellen moeten transparanter zijn over hun besluitvormingsprocessen. Gebruikers moeten kunnen begrijpen waarom een chatbot een bepaald antwoord geeft en op welke gegevensbronnen deze vertrouwt.

Gebruikersbewustzijn:

  • Mediawijsheid Educatie: Gebruikers moeten worden voorgelicht over het potentieel voor door AI gegenereerde misinformatie. Dit omvat het ontwikkelen van kritische denkvaardigheden en het leren hoe de geloofwaardigheid van online informatiebronnen te evalueren.
  • Scepsis en Verificatie: Gebruikers moeten informatie die door AI-chatbots wordt verstrekt, benaderen met een gezonde dosis scepsis. Het is cruciaal om informatie te vergelijken met andere bronnen en op te passen voor claims die te sensationeel of te mooi lijken om waar te zijn.

De Risico’s op Lange Termijn: Politiek, Sociaal en Technologisch

De ongecontroleerde verspreiding van desinformatie via AI-chatbots brengt aanzienlijke risico’s op lange termijn met zich mee. Deze risico’s reiken verder dan de onmiddellijke impact van individuele valse verhalen en omvatten bredere maatschappelijke gevolgen.

  • Politieke Risico’s: De manipulatie van de publieke opinie door middel van AI-gestuurde desinformatie kan democratische processen ondermijnen en het vertrouwen in instellingen aantasten. Het kan worden gebruikt om verkiezingen te beïnvloeden, tweedracht te zaaien en regeringen te destabiliseren.
  • Sociale Risico’s: De verspreiding van valse verhalen kan bestaande sociale verdeeldheid verergeren en nieuwe creëren. Het kan vooroordelen, discriminatie en zelfs geweld aanwakkeren.
  • Technologische Risico’s: De erosie van het vertrouwen in AI-technologie als gevolg van de verspreiding van misinformatie kan de ontwikkeling en acceptatie ervan belemmeren. Mensen kunnen terughoudend worden om AI-tools te gebruiken als ze niet kunnen vertrouwen op de nauwkeurigheid en betrouwbaarheid van de verstrekte informatie.

De strijd tegen AI-gestuurde desinformatie is een cruciale strijd. Het vereist een gezamenlijke inspanning van AI-ontwikkelaars, beleidsmakers, opvoeders en individuele gebruikers om ervoor te zorgen dat deze krachtige technologieën op een verantwoorde en ethische manier worden gebruikt. De toekomst van informatie, en inderdaad de toekomst van onze samenlevingen, kan ervan afhangen.