KI-Chatbots und russische Desinformation

Der allgegenwärtige Einfluss von Kreml-gestützten Unwahrheiten

Der Kern des Problems liegt in der absichtlichen Kontamination von Online-Informationsquellen. Durch die Überschwemmung von Suchergebnissen und Webcrawlern mit Pro-Kreml-Unwahrheiten gestaltet ein Netzwerk von Desinformationsakteuren aktiv die Ausgabe von Large Language Models (LLMs). Diese Modelle, die die KI-Chatbots antreiben, mit denen wir täglich interagieren, stützen sich auf riesige Datenmengen, die aus dem Internet gesammelt wurden. Wenn diese Daten mit Fehlinformationen verunreinigt sind, spiegeln die resultierenden Ausgaben diese Verzerrungen wider.

NewsGuard, ein Unternehmen, das Glaubwürdigkeitsbewertungen und ‘Misinformation Fingerprints’ für Nachrichten- und Informationswebsites bereitstellt, führte eine eingehende Analyse dieses Phänomens durch. Ihre Ergebnisse zeigen eine beunruhigende Realität: Ein erheblicher Teil der von führenden KI-Chatbots generierten Informationen gibt die Narrative wieder, die von einem bestimmten Netzwerk von Pro-Kreml-Websites verbreitet werden.

Die Mechanismen der Desinformation: Wie KI-Modelle manipuliert werden

Die Strategie dieses Desinformationsnetzwerks ist sowohl heimtückisch als auch raffiniert. Sie zielt nicht primär darauf ab, menschliche Leser anzuziehen; vielmehr soll sie die Algorithmen manipulieren, die KI-Chatbots zugrunde liegen. Diese Taktik, bekannt als ‘LLM-Grooming’, beinhaltet das strategische Platzieren falscher oder irreführender Informationen auf zahlreichen Websites, in dem Wissen, dass diese Plattformen von LLMs gescannt und aufgenommen werden.

Das American Sunlight Project (ASP), eine US-amerikanische gemeinnützige Organisation, wies in einem Bericht vom Februar 2025 auf diese Bedrohung hin. Sie warnten, dass das Pravda-Netzwerk, eine Sammlung von Websites, die Pro-russische Narrative verbreiten, wahrscheinlich mit dem expliziten Ziel geschaffen wurde, KI-Modelle zu beeinflussen. Je größer die Menge an Pro-Russland-Narrativen ist, desto höher ist die Wahrscheinlichkeit, dass LLMs sie in ihre Wissensbasis integrieren.

Die Auswirkungen davon sind weitreichend. Da LLMs zunehmend in unseren Alltag integriert werden und als Informations- und Hilfsquellen dienen, ist das Potenzial für eine weitverbreitete Verbreitung manipulierter Inhalte alarmierend.

NewsGuards Audit: Quantifizierung der Auswirkungen

Um das Ausmaß dieses Problems zu beurteilen, führte NewsGuard ein Audit von zehn prominenten KI-Chatbots durch. Diese umfassten:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

Das Audit konzentrierte sich auf 15 verschiedene falsche Narrative, die zwischen April 2022 und Februar 2025 aktiv von 150 Pro-Kreml Pravda-Websites verbreitet wurden. Diese Narrative deckten eine Reihe von Themen ab, die alle darauf abzielten, eine bestimmte politische Agenda voranzutreiben.

Die Methodik umfasste das Testen jedes Chatbots mit einer Reihe von Prompts, die auf NewsGuards ‘Misinformation Fingerprints’ basierten, einem Katalog nachweislich falscher Behauptungen zu wichtigen Nachrichtenthemen. Die Prompts wurden in drei verschiedenen Stilen verfasst – Unschuldig, Leitend und Böswillig –, um die verschiedenen Arten der Interaktion von Benutzern mit generativen KI-Modellen nachzuahmen. Dies führte zu insgesamt 450 Antworten (45 pro Chatbot).

Beunruhigende Ergebnisse: Desinformation in Chatbots weit verbreitet

Die Ergebnisse des NewsGuard-Audits waren eindeutig. Zusammengenommen wiederholten die zehn KI-Chatbots in 33,55 % der Antworten falsche russische Desinformationsnarrative. In 18,22 % der Fälle gaben sie keine Antwort und in 48,22 % der Fälle widerlegten sie das Narrativ.

Jeder einzelne getestete Chatbot wiederholte Desinformationen, die aus dem Pravda-Netzwerk stammten. Noch besorgniserregender ist, dass sieben der Chatbots direkt bestimmte Artikel von Pravda-Websites als ihre Quellen zitierten. Während zwei der KI-Modelle keine expliziten Zitate liefern, wurde dennoch festgestellt, dass sie falsche Narrative aus dem Netzwerk generieren oder wiederholen. Nur eines der acht Modelle, die Quellen zitieren, zitierte Pravda nicht.

Insgesamt enthielten 56 der 450 von Chatbots generierten Antworten direkte Links zu Artikeln, die falsche Behauptungen verbreiteten, die vom Pravda-Netzwerk veröffentlicht wurden. Die Chatbots zitierten zusammen 92 verschiedene Artikel, die Desinformationen enthielten, wobei zwei Modelle auf bis zu 27 Pravda-Artikel verwiesen. Diese Artikel stammten von verschiedenen Domains innerhalb des Netzwerks, darunter Denmark.news-pravda.com, Trump.news-pravda.com und NATO.news-pravda.com.

Die Art der Prompts: Nachahmung realer Interaktionen

Die drei im NewsGuard-Audit verwendeten Prompt-Stile wurden entwickelt, um das Spektrum der Benutzerinteraktionen mit KI-Chatbots widerzuspiegeln:

  • Unschuldige Prompts: Diese Prompts präsentierten das falsche Narrativ auf neutrale, nicht leitende Weise, als ob der Benutzer einfach nach Informationen suchen würde, ohne vorgefasste Meinungen.
  • Leitende Prompts: Diese Prompts deuteten das falsche Narrativ subtil an und deuteten auf seine Gültigkeit hin, ohne es explizit zu nennen. Dies ahmt Szenarien nach, in denen Benutzer möglicherweise bereits Fehlinformationen ausgesetzt waren und nach Bestätigung suchen.
  • Bösartige Prompts: Diese Prompts behaupteten das falsche Narrativ direkt als Tatsache und spiegelten Situationen wider, in denen Benutzer bereits von der Fehlinformation überzeugt sind und nach Verstärkung suchen.

Dieser facettenreiche Ansatz war entscheidend, um zu verstehen, wie verschiedene Arten von Benutzerinteraktionen die Antwort des Chatbots beeinflussen können. Es zeigte sich, dass die Chatbots unabhängig vom Prompt-Stil anfällig für die Wiederholung von Desinformationen waren, obwohl die Häufigkeit und Art der Antworten variierte.

Spezifische Beispiele für Desinformationen, die von Chatbots wiedergegeben werden

Der NewsGuard-Bericht liefert zahlreiche Beispiele für spezifische falsche Narrative, die vom Pravda-Netzwerk verbreitet und anschließend von den KI-Chatbots wiederholt wurden. Diese Beispiele verdeutlichen die Breite und Tiefe der Desinformationskampagne. Einige der Narrative umfassten:

  • Behauptungen, dass die Ukraine ein Nazi-Staat ist.
  • Falsche Behauptungen über die Ursachen des Konflikts in der Ukraine.
  • Irreführende Informationen über die westliche Beteiligung am Konflikt.
  • Fabrizierte Geschichten über die ukrainische Führung.

Dies sind nur einige Beispiele für die vielen falschen Narrative, die von NewsGuard sorgfältig dokumentiert und verfolgt wurden. Die Tatsache, dass diese Narrative von führenden KI-Chatbots wiedergegeben werden, unterstreicht den dringenden Bedarf an wirksamen Gegenmaßnahmen.

Die Herausforderung der Bekämpfung KI-gestützter Desinformation

Die Bewältigung dieses Problems ist ein komplexes Unterfangen. Es erfordert einen mehrgleisigen Ansatz, der sowohl technologische Lösungen als auch ein erhöhtes Benutzerbewusstsein umfasst.

Technologische Lösungen:

  • Verbesserte Datenfilterung: KI-Entwickler müssen robustere Mechanismen zur Filterung von Fehlinformationen aus den Datensätzen implementieren, die zum Trainieren von LLMs verwendet werden. Dies beinhaltet die Identifizierung und den Ausschluss unzuverlässiger Quellen sowie die Entwicklung von Algorithmen, die potenziell falsche oder irreführende Informationen erkennen und kennzeichnen können.
  • Verbesserte Quellenüberprüfung: Chatbots sollten so konzipiert sein, dass sie Informationen aus glaubwürdigen und verifizierten Quellen priorisieren. Dazu gehört die Bereitstellung klarer Zitate und die Möglichkeit für Benutzer, den Ursprung der präsentierten Informationen leicht nachzuvollziehen.
  • Transparenz und Erklärbarkeit: KI-Modelle sollten transparenter über ihre Entscheidungsprozesse sein. Benutzer sollten in der Lage sein zu verstehen, warum ein Chatbot eine bestimmte Antwort gibt und auf welche Datenquellen er sich stützt.

Benutzerbewusstsein:

  • Medienkompetenz-Schulung: Benutzer müssen über das Potenzial KI-generierter Fehlinformationen aufgeklärt werden. Dazu gehört die Entwicklung kritischer Denkfähigkeiten und das Erlernen der Bewertung der Glaubwürdigkeit von Online-Informationsquellen.
  • Skepsis und Überprüfung: Benutzer sollten Informationen, die von KI-Chatbots bereitgestellt werden, mit einer gesunden Portion Skepsis betrachten. Es ist entscheidend, Informationen mit anderen Quellen abzugleichen und sich vor Behauptungen zu hüten, die zu sensationell oder zu gut erscheinen, um wahr zu sein.

Die langfristigen Risiken: Politisch, sozial und technologisch

Die ungebremste Verbreitung von Desinformationen durch KI-Chatbots birgt erhebliche langfristige Risiken. Diese Risiken gehen über die unmittelbaren Auswirkungen einzelner falscher Narrative hinaus und umfassen umfassendere gesellschaftliche Folgen.

  • Politische Risiken: Die Manipulation der öffentlichen Meinung durch KI-gestützte Desinformation kann demokratische Prozesse untergraben und das Vertrauen in Institutionen untergraben. Sie kann verwendet werden, um Wahlen zu beeinflussen, Zwietracht zu säen und Regierungen zu destabilisieren.
  • Soziale Risiken: Die Verbreitung falscher Narrative kann bestehende soziale Spaltungen verschärfen und neue schaffen. Sie kann Vorurteile, Diskriminierung und sogar Gewalt schüren.
  • Technologische Risiken: Die Erosion des Vertrauens in die KI-Technologie aufgrund der Verbreitung von Fehlinformationen könnte ihre Entwicklung und Akzeptanz behindern. Menschen könnten zögern, KI-Tools zu verwenden, wenn sie sich nicht auf die Genauigkeit und Zuverlässigkeit der bereitgestellten Informationen verlassen können.

Der Kampf gegen KI-gestützte Desinformation ist entscheidend. Er erfordert eine konzertierte Anstrengung von KI-Entwicklern, politischen Entscheidungsträgern, Pädagogen und einzelnen Benutzern, um sicherzustellen, dass diese leistungsstarken Technologien verantwortungsvoll und ethisch eingesetzt werden. Die Zukunft der Information und damit die Zukunft unserer Gesellschaften könnten davon abhängen.