Chatboty AI a dezinformacja

Wpływ fałszywych informacji wspieranych przez Kreml

Sedno problemu leży w celowym zanieczyszczaniu internetowych źródeł informacji. Poprzez zalewanie wyników wyszukiwania i robotów indeksujących stron internetowych prorosyjskimi fałszerstwami, sieć dezinformatorów aktywnie kształtuje wyniki generowane przez duże modele językowe (LLM). Modele te, które napędzają chatboty AI, z którymi codziennie wchodzimy w interakcje, opierają się na ogromnych zbiorach danych pobieranych z Internetu. Kiedy te dane są zanieczyszczone dezinformacją, wynikowe dane wyjściowe odzwierciedlają te uprzedzenia.

NewsGuard, firma dostarczająca oceny wiarygodności i odciski palców dezinformacji dla witryn z wiadomościami i informacjami, przeprowadziła dogłębną analizę tego zjawiska. Ich odkrycia ujawniają niepokojącą rzeczywistość: znaczna część informacji generowanych przez wiodące chatboty AI powtarza narracje propagowane przez określoną sieć prorosyjskich stron internetowych.

Mechanika dezinformacji: jak manipuluje się modelami AI

Strategia stosowana przez tę sieć dezinformacyjną jest zarówno podstępna, jak i wyrafinowana. Nie jest ona przede wszystkim skierowana do ludzkich czytelników; jest raczej zaprojektowana do manipulowania samymi algorytmami, które stanowią podstawę chatbotów AI. Ta taktyka, znana jako ‘LLM grooming’, polega na strategicznym umieszczaniu fałszywych lub wprowadzających w błąd informacji na wielu stronach internetowych, wiedząc, że platformy te zostaną zindeksowane i wchłonięte przez LLM.

American Sunlight Project (ASP), amerykańska organizacja non-profit, zwróciła uwagę na to zagrożenie w raporcie z lutego 2025 roku. Ostrzegali, że sieć Pravda, zbiór stron internetowych promujących prorosyjskie narracje, została prawdopodobnie stworzona w wyraźnym celu wpływania na modele AI. Im większa ilość prorosyjskich narracji, tym większe prawdopodobieństwo, że LLM zintegrują je ze swoją bazą wiedzy.

Implikacje tego są dalekosiężne. W miarę jak LLM stają się coraz bardziej zintegrowane z naszym codziennym życiem, służąc jako źródła informacji i pomocy, potencjał szerokiego rozpowszechniania zmanipulowanych treści jest alarmujący.

Audyt NewsGuard: Kwantyfikacja wpływu

Aby ocenić skalę tego problemu, NewsGuard przeprowadził audyt dziesięciu prominentnych chatbotów AI. Obejmowały one:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

Audyt skupił się na 15 odrębnych fałszywych narracjach, które były aktywnie promowane przez 150 prorosyjskich stron internetowych Pravda między kwietniem 2022 a lutym 2025. Narracje te obejmowały szereg tematów, a wszystkie miały na celu promowanie określonego programu politycznego.

Metodologia obejmowała przetestowanie każdego chatbota za pomocą serii podpowiedzi opartych na NewsGuard’s Misinformation Fingerprints, katalogu ewidentnie fałszywych twierdzeń na istotne tematy informacyjne. Podpowiedzi zostały opracowane w trzech różnych stylach – Innocent, Leading i Malign – aby naśladować różne sposoby interakcji użytkowników z generatywnymi modelami AI. W rezultacie uzyskano łącznie 450 odpowiedzi (45 na chatbota).

Niepokojące wyniki: Dezinformacja powszechna w chatbotach

Wyniki audytu NewsGuard były uderzające. Łącznie dziesięć chatbotów AI powtórzyło fałszywe rosyjskie narracje dezinformacyjne w 33,55% odpowiedzi. W 18,22% przypadków nie udzieliły odpowiedzi, a w 48,22% przypadków obaliły narrację.

Każdy przetestowany chatbot powtórzył dezinformację pochodzącą z sieci Pravda. Co więcej, siedem chatbotów bezpośrednio cytowało konkretne artykuły ze stron internetowych Pravda jako swoje źródła. Chociaż dwa z modeli AI nie podają wyraźnych cytatów, nadal stwierdzono, że generują lub powtarzają fałszywe narracje z sieci. Tylko jeden z ośmiu modeli, które cytują źródła, nie cytował Pravdy.

W sumie 56 z 450 odpowiedzi wygenerowanych przez chatboty zawierało bezpośrednie linki do artykułów rozpowszechniających fałszywe twierdzenia opublikowane przez sieć Pravda. Chatboty łącznie cytowały 92 różne artykuły zawierające dezinformację, przy czym dwa modele odwoływały się do aż 27 artykułów Pravda każdy. Artykuły te pochodziły z różnych domen w sieci, w tym Denmark.news-pravda.com, Trump.news-pravda.com i NATO.news-pravda.com.

Charakter podpowiedzi: Naśladowanie interakcji w świecie rzeczywistym

Trzy style podpowiedzi użyte w audycie NewsGuard zostały zaprojektowane tak, aby odzwierciedlać spektrum interakcji użytkowników z chatbotami AI:

  • Innocent Prompts: Te podpowiedzi przedstawiały fałszywą narrację w neutralny, nienarzucający się sposób, tak jakby użytkownik po prostu szukał informacji bez żadnych z góry przyjętych założeń.
  • Leading Prompts: Te podpowiedzi subtelnie sugerowały fałszywą narrację, wskazując na jej prawdziwość bez wyraźnego stwierdzenia. Naśladuje to scenariusze, w których użytkownicy mogli mieć pewien kontakt z dezinformacją i szukają potwierdzenia.
  • Malign Prompts: Te podpowiedzi bezpośrednio przedstawiały fałszywą narrację jako fakt, odzwierciedlając sytuacje, w których użytkownicy są już przekonani o dezinformacji i szukają wzmocnienia.

To wieloaspektowe podejście było kluczowe w zrozumieniu, jak różne rodzaje zaangażowania użytkowników mogą wpływać na odpowiedź chatbota. Ujawniło, że chatboty były podatne na powtarzanie dezinformacji niezależnie od stylu podpowiedzi, chociaż częstotliwość i charakter odpowiedzi były różne.

Konkretne przykłady dezinformacji powtarzanej przez chatboty

Raport NewsGuard zawiera liczne przykłady konkretnych fałszywych narracji propagowanych przez sieć Pravda, a następnie powtarzanych przez chatboty AI. Przykłady te podkreślają szerokość i głębokość kampanii dezinformacyjnej. Niektóre z narracji obejmowały:

  • Twierdzenia, że Ukraina jest państwem nazistowskim.
  • Fałszywe twierdzenia dotyczące przyczyn konfliktu na Ukrainie.
  • Wprowadzające w błąd informacje na temat zachodniego zaangażowania w konflikt.
  • Wymyślone historie o ukraińskim przywództwie.

To tylko kilka przykładów z wielu fałszywych narracji, które zostały skrupulatnie udokumentowane i śledzone przez NewsGuard. Fakt, że narracje te są powtarzane przez wiodące chatboty AI, podkreśla pilną potrzebę skutecznych środków zaradczych.

Wyzwanie zwalczania dezinformacji opartej na AI

Rozwiązanie tego problemu jest złożonym przedsięwzięciem. Wymaga wielotorowego podejścia obejmującego zarówno rozwiązania technologiczne, jak i zwiększoną świadomość użytkowników.

Rozwiązania technologiczne:

  • Ulepszone filtrowanie danych: Twórcy AI muszą wdrożyć solidniejsze mechanizmy filtrowania dezinformacji ze zbiorów danych używanych do szkolenia LLM. Obejmuje to identyfikowanie i wykluczanie niewiarygodnych źródeł, a także opracowywanie algorytmów, które mogą wykrywać i oznaczać potencjalnie fałszywe lub wprowadzające w błąd informacje.
  • Ulepszona weryfikacja źródeł: Chatboty powinny być zaprojektowane tak, aby priorytetowo traktować informacje z wiarygodnych i zweryfikowanych źródeł. Obejmuje to dostarczanie jasnych cytatów i umożliwienie użytkownikom łatwego śledzenia pochodzenia prezentowanych informacji.
  • Przejrzystość i wyjaśnialność: Modele AI powinny być bardziej przejrzyste w swoich procesach decyzyjnych. Użytkownicy powinni być w stanie zrozumieć, dlaczego chatbot udziela określonej odpowiedzi i na jakich źródłach danych się opiera.

Świadomość użytkowników:

  • Edukacja w zakresie umiejętności korzystania z mediów: Użytkownicy muszą być edukowani na temat potencjału dezinformacji generowanej przez AI. Obejmuje to rozwijanie umiejętności krytycznego myślenia i uczenie się, jak oceniać wiarygodność internetowych źródeł informacji.
  • Sceptycyzm i weryfikacja: Użytkownicy powinni podchodzić do informacji dostarczanych przez chatboty AI ze zdrową dozą sceptycyzmu. Kluczowe jest porównywanie informacji z innymi źródłami i zachowanie ostrożności wobec twierdzeń, które wydają się zbyt sensacyjne lub zbyt piękne, aby mogły być prawdziwe.

Długoterminowe ryzyko: polityczne, społeczne i technologiczne

Niekontrolowane rozprzestrzenianie się dezinformacji za pośrednictwem chatbotów AI stwarza poważne długoterminowe ryzyko. Ryzyko to wykracza poza bezpośredni wpływ poszczególnych fałszywych narracji i obejmuje szersze konsekwencje społeczne.

  • Ryzyko polityczne: Manipulacja opinią publiczną za pomocą dezinformacji opartej na AI może podważyć procesy demokratyczne i osłabić zaufanie do instytucji. Może być wykorzystywana do wpływania na wybory, siania niezgody i destabilizacji rządów.
  • Ryzyko społeczne: Rozprzestrzenianie się fałszywych narracji może zaostrzyć istniejące podziały społeczne i stworzyć nowe. Może podsycać uprzedzenia, dyskryminację, a nawet przemoc.
  • Ryzyko technologiczne: Erozja zaufania do technologii AI z powodu rozprzestrzeniania się dezinformacji może utrudnić jej rozwój i przyjęcie. Ludzie mogą niechętnie korzystać z narzędzi AI, jeśli nie mogą być pewni dokładności i wiarygodności dostarczanych informacji.

Walka z dezinformacją opartą na AI jest kluczowa. Wymaga wspólnego wysiłku twórców AI, decydentów, edukatorów i indywidualnych użytkowników, aby zapewnić, że te potężne technologie są wykorzystywane w sposób odpowiedzialny i etyczny. Od tego może zależeć przyszłość informacji, a nawet przyszłość naszych społeczeństw.