Rosyjska propaganda używa chatbotów AI

Mechanika ‘LLM Grooming’

Sieć Pravda działa za pośrednictwem rozległej sieci około 150 fałszywych stron informacyjnych. Strony te nie są jednak przeznaczone do konsumpcji przez ludzi. Przy minimalnym ruchu – większość stron odwiedza mniej niż 1000 osób miesięcznie – ich głównym celem jest dostarczanie treści do systemów AI. Ta strategia stanowi nowatorskie podejście do dezinformacji, wykraczające poza tradycyjne metody, które są skierowane bezpośrednio do ludzkich czytelników.

Taktyka ta jest znana jako ‘LLM grooming‘, termin opisujący celową manipulację danymi treningowymi AI. Sieć osiąga to poprzez masowe publikowanie treści, które są mocno zoptymalizowane pod kątem wyszukiwarek (SEO). Zapewnia to, że propaganda jest łatwo przyswajana i redystrybuowana przez modele AI, wpływając na ich wyniki i potencjalnie kształtując postrzeganie opinii publicznej.

John Mark Dougan, Amerykanin mieszkający w Moskwie, zidentyfikowany przez NewsGuard jako rzekomo wspierający rosyjskie kampanie dezinformacyjne, wyjaśnił podstawową zasadę na lokalnej konferencji: ‘Im bardziej zróżnicowane są te informacje, tym bardziej wpływają na szkolenie i przyszłą AI’. To stwierdzenie podkreśla podstępny charakter operacji, mającej na celu subtelne zepsucie podstawowych danych, na których budowane są systemy AI.

Skala i zakres operacji

Skala działań sieci Pravda jest oszałamiająca. Tylko w 2024 roku strony te opublikowały około 3,6 miliona artykułów w 49 krajach. Nazwy domen są strategicznie dobierane tak, aby naśladować legalne źródła wiadomości, na przykład NATO.News-Pravda.com, Trump.News-Pravda.com i Macron.News-Pravda.com. To naśladownictwo dodaje warstwę oszustwa, utrudniając przypadkowym obserwatorom odróżnienie autentycznych treści od sfabrykowanych.

Sama treść obejmuje szeroki zakres tematów, ale konsekwentnie promuje prorosyjskie narracje i podważa zachodnie perspektywy. Sieć działa co najmniej od kwietnia 2022 r., a analiza NewsGuard skupiła się na 15 weryfikowalnie fałszywych historiach rozpowszechnianych przez sieć Pravda między tym czasem a lutym 2025 r.

Podatność chatbotów AI

Dochodzenie NewsGuard obejmowało testowanie kilku znanych chatbotów AI w celu oceny ich podatności na dezinformację sieci Pravda. Testowane systemy obejmowały:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity

Wyniki były niepokojące. Chatboty AI zaakceptowały fałszywe narracje z sieci Pravda w 33,5% przypadków. Chociaż systemy poprawnie zidentyfikowały rosyjskie treści jako dezinformację w 48,2% przypadków, czasami cytowały wprowadzające w błąd źródła, potencjalnie nadając im niezasłużoną wiarygodność. Pozostałe 18,2% odpowiedzi było niejednoznacznych, co dodatkowo podkreśla wyzwania związane z odróżnianiem prawdy od fałszu w dobie treści generowanych przez AI.

Wyzwanie przeciwdziałania dezinformacji opartej na AI

Zwalczanie tego typu manipulacji stanowi poważne wyzwanie. Tradycyjne metody blokowania znanych stron dezinformacyjnych okazują się nieskuteczne. Kiedy władze blokują domeny Pravdy, szybko pojawiają się nowe, co świadczy o zwinności i odporności sieci.

Co więcej, dezinformacja przepływa jednocześnie wieloma kanałami, często z różnymi witrynami sieciowymi, które powtarzają nawzajem swoje treści. Tworzy to złożoną sieć wzajemnie powiązanych źródeł, co utrudnia izolowanie i neutralizowanie propagandy u jej źródła. Samo blokowanie stron internetowych zapewnia ograniczoną ochronę przed szerszą, skoordynowaną kampanią.

Szerszy kontekst: sponsorowana przez państwo manipulacja AI

Działania sieci Pravda nie są odosobnionymi incydentami. Wpisują się one w szerszy wzorzec sponsorowanych przez państwo wysiłków mających na celu wykorzystanie AI do celów dezinformacyjnych. Niedawne badanie OpenAI ujawniło, że wspierani przez państwo aktorzy z Rosji, Chin, Iranu i Izraela próbowali już wykorzystywać systemy AI do kampanii propagandowych. Operacje te często łączą treści generowane przez AI z tradycyjnymi, ręcznie tworzonymi materiałami, zacierając granice między autentycznymi i zmanipulowanymi informacjami.

Wykorzystanie AI w manipulacji politycznej nie ogranicza się do podmiotów państwowych. Zaobserwowano również, że grupy polityczne, takie jak skrajnie prawicowa partia AFD w Niemczech, wykorzystują modele obrazów AI do celów propagandowych. Nawet postacie takie jak Donald Trump angażowały się w treści generowane przez AI, zarówno jako konsument, jak i, paradoksalnie, oznaczając prawdziwe informacje jako fałszywe generowane przez AI. Ta taktyka, zidentyfikowana jako forma kontrpropagandy, sieje nieufność do wszystkich informacji online, potencjalnie skłaniając jednostki do polegania wyłącznie na zaufanych postaciach, niezależnie od dokładności faktów.

Nawet na sam projekt modeli AI mogą wpływać programy państwowe. Stwierdzono na przykład, że chińskie modele AI są fabrycznie wyposażone w cenzurę i propagandę, co odzwierciedla priorytety polityczne chińskiego rządu.

Szczegółowe przykłady fałszywych narracji

Chociaż raport NewsGuard nie wyszczególnia każdej fałszywej narracji propagowanej przez sieć Pravda, metodologia wykorzystywania weryfikowalnie fałszywych historii sugeruje wzorzec rozpowszechniania dezinformacji mającej na celu:

  1. Podważanie zachodnich instytucji: Historie mogą fałszywie przedstawiać NATO jako agresywne lub niestabilne, lub fabrykować skandale z udziałem zachodnich przywódców.
  2. Promowanie prorosyjskich nastrojów: Narracje mogą wyolbrzymiać sukcesy militarne Rosji, bagatelizować łamanie praw człowieka lub usprawiedliwiać jej działania na arenie międzynarodowej.
  3. Sianie niezgody i podziałów: Treści mogą mieć na celu zaostrzenie istniejących napięć społecznych i politycznych w krajach zachodnich, wzmacniając dzielące kwestie i promując polaryzację.
  4. Zniekształcanie rzeczywistości wokół konkretnych wydarzeń: Fałszywe informacje mogą być rozpowszechniane na temat wydarzeń takich jak wybory, konflikty lub incydenty międzynarodowe, wypaczając narrację na korzyść prorosyjskiej interpretacji.

Spójnym wątkiem jest manipulowanie informacjami w celu realizacji określonego programu geopolitycznego. Wykorzystanie AI wzmacnia zasięg i potencjalny wpływ tych narracji, utrudniając ich wykrycie i przeciwdziałanie im.

Długoterminowe implikacje

Implikacje tej dezinformacji opartej na AI są dalekosiężne. Erozja zaufania do źródeł informacji, możliwość manipulowania opinią publiczną i destabilizacja procesów demokratycznych to poważne obawy. W miarę jak systemy AI stają się coraz bardziej zintegrowane z naszym codziennym życiem, umiejętność odróżniania prawdy od fałszu staje się coraz ważniejsza.

Technika ‘LLM grooming’ stanowi znaczącą eskalację w krajobrazie wojny informacyjnej. Podkreśla podatność systemów AI na manipulację i potrzebę solidnych zabezpieczeń przed tym pojawiającym się zagrożeniem. Wyzwanie polega nie tylko na identyfikowaniu i blokowaniu źródeł dezinformacji, ale także na opracowywaniu strategii uodparniania modeli AI na te subtelne, ale wszechobecne formy wpływu. Wymaga to wieloaspektowego podejścia, obejmującego:

  • Zwiększona alfabetyzacja AI: Edukowanie społeczeństwa na temat potencjału dezinformacji generowanej przez AI i promowanie umiejętności krytycznego myślenia.
  • Ulepszone narzędzia do wykrywania AI: Opracowywanie bardziej wyrafinowanych metod identyfikowania i oznaczania treści generowanych przez AI i dezinformacji.
  • Wzmocnione dane treningowe AI: Wdrażanie środków w celu zapewnienia integralności i różnorodności danych treningowych AI, czyniąc je bardziej odpornymi na manipulacje.
  • Współpraca międzynarodowa: Wspieranie współpracy między rządami, firmami technologicznymi i badaczami w celu rozwiązania tego globalnego wyzwania.
  • Zwiększona przejrzystość: Twórcy AI powinni być transparentni w kwestii wykorzystywanych danych treningowych i potencjalnych uprzedzeń, które mogą istnieć w ich modelach.
  • Odpowiedzialność algorytmiczna: Pociąganie twórców AI do odpowiedzialności za wyniki ich systemów, szczególnie gdy te wyniki są wykorzystywane do rozpowszechniania dezinformacji.

Walka z dezinformacją opartą na AI jest złożona i ewoluuje. Wymaga skoordynowanego wysiłku ze strony jednostek, organizacji i rządów, aby chronić integralność informacji i podstawy świadomego podejmowania decyzji. Działania sieci Pravda stanowią dobitne przypomnienie o stawkach i pilnej potrzebie zajęcia się tym rosnącym zagrożeniem. Przyszłość świadomej debaty publicznej, a potencjalnie stabilność społeczeństw demokratycznych, może zależeć od naszej zdolności do skutecznego przeciwdziałania tej nowej formie manipulacji. Wyzwanie jest nie tylko technologiczne; jest również społeczne, wymagające odnowionego zaangażowania w prawdę, dokładność i krytyczne myślenie w erze cyfrowej.