Руска пропаганда и AI

Механиката на ‘LLM Grooming’

Мрежата ‘Правда’ оперира чрез обширна мрежа от приблизително 150 фалшиви новинарски сайта. Тези сайтове обаче не са предназначени за човешка консумация. С минимален трафик – повечето страници получават по-малко от 1000 месечни посетители – основната им цел е да подават съдържание към AI системи. Тази стратегия представлява нов подход към дезинформацията, преминавайки отвъд традиционните методи, които са насочени директно към човешките читатели.

Тази тактика е известна като ‘LLM grooming‘, термин, който описва умишлената манипулация на данните за обучение на AI. Мрежата постига това чрез масово публикуване на съдържание, което е силно оптимизирано за търсачки (SEO). Това гарантира, че пропагандата лесно се поглъща и преразпределя от AI модели, оказвайки влияние върху техните резултати и потенциално оформяйки общественото възприятие.

John Mark Dougan, американец, пребиваващ в Москва и идентифициран от NewsGuard като предполагаем поддръжник на руски кампании за дезинформация, обясни основния принцип на местна конференция: ‘Колкото по-разнообразна е тази информация, толкова повече влияе на обучението и бъдещия AI.’ Това изявление подчертава коварния характер на операцията, целяща фино да корумпира основните данни, върху които са изградени AI системите.

Мащаб и обхват на операцията

Мащабът на дейността на мрежата ‘Правда’ е зашеметяващ. Само през 2024 г. тези сайтове са публикували приблизително 3,6 милиона статии в 49 държави. Имената на домейни са стратегически избрани, за да имитират легитимни източници на новини, като примерите включват NATO.News-Pravda.com, Trump.News-Pravda.com и Macron.News-Pravda.com. Тази мимикрия добавя слой измама, което затруднява случайните наблюдатели да разграничат автентичното от изфабрикуваното съдържание.

Самото съдържание обхваща широк спектър от теми, но последователно насърчава проруски наративи и подкопава западните гледни точки. Мрежата е активна поне от април 2022 г., а анализът на NewsGuard се фокусира върху 15 проверимо фалшиви истории, разпространени от мрежата ‘Правда’ между това време и февруари 2025 г.

Уязвимост на AI чатботовете

Разследването на NewsGuard включва тестване на няколко известни AI чатбота, за да се оцени тяхната уязвимост към дезинформацията на мрежата ‘Правда’. Тестваните системи включват:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity

Резултатите бяха тревожни. AI чатботовете приеха фалшиви наративи от мрежата ‘Правда’ в 33,5% от случаите. Докато системите правилно идентифицираха руското съдържание като дезинформация в 48,2% от случаите, те понякога цитираха подвеждащите източници, потенциално придавайки им незаслужено доверие. Останалите 18,2% от отговорите бяха неубедителни, което допълнително подчертава предизвикателствата при разграничаването на истината от лъжата в ерата на генерираното от AI съдържание.

Предизвикателството на противодействието на дезинформацията, управлявана от AI

Борбата с този тип манипулация представлява значително предизвикателство. Традиционните методи за блокиране на известни уебсайтове за дезинформация се оказват неефективни. Когато властите блокират домейни на ‘Правда’, бързо се появяват нови, което демонстрира гъвкавостта и устойчивостта на мрежата.

Освен това дезинформацията протича през множество канали едновременно, често като различни сайтове в мрежата повтарят съдържанието си един на друг. Това създава сложна мрежа от взаимосвързани източници, което затруднява изолирането и неутрализирането на пропагандата в нейния корен. Простото блокиране на уебсайтове предлага ограничена защита срещу по-широката, координирана кампания.

По-широкият контекст: Държавно спонсорирана AI манипулация

Дейностите на мрежата ‘Правда’ не са изолирани инциденти. Те се съгласуват с по-широк модел на държавно спонсорирани усилия за използване на AI за целите на дезинформацията. Неотдавнашно проучване на OpenAI разкри, че държавно подкрепяни актьори от Русия, Китай, Иран и Израел вече са се опитали да използват AI системи за пропагандни кампании. Тези операции често комбинират генерирано от AI съдържание с традиционни, ръчно създадени материали, размивайки границите между автентична и манипулирана информация.

Използването на AI в политическата манипулация не се ограничава до държавни актьори. Политически групи, като крайнодясната партия AFD в Германия, също са били наблюдавани да използват AI модели за изображения за пропагандни цели. Дори фигури като Доналд Тръмп са се ангажирали с генерирано от AI съдържание, както като потребител, така и, парадоксално, като етикетират истинска информация като генерирани от AI фалшификати. Тази тактика, идентифицирана като форма на контрапропаганда, сее недоверие във всяка онлайн информация, потенциално карайки хората да разчитат единствено на доверени фигури, независимо от фактическата точност.

Дори дизайнът на самите AI модели може да бъде повлиян от държавни програми. Установено е например, че китайските AI модели идват предварително заредени с цензура и пропаганда, отразявайки политическите приоритети на китайското правителство.

Задълбочен преглед: Конкретни примери за фалшиви наративи

Въпреки че докладът на NewsGuard не описва подробно всеки един фалшив наратив, разпространяван от мрежата ‘Правда’, методологията за използване на проверимо фалшиви истории предполага модел на разпространение на дезинформация, предназначен да:

  1. Подкопава западните институции: Историите могат фалшиво да представят НАТО като агресивен или нестабилен, или да изфабрикуват скандали, включващи западни лидери.
  2. Насърчава проруските настроения: Наративите могат да преувеличават военните успехи на Русия, да омаловажават нарушенията на човешките права или да оправдават действията й на световната сцена.
  3. Сее раздор и разделение: Съдържанието може да има за цел да изостри съществуващите социални и политически напрежения в западните страни, засилвайки разделящите въпроси и насърчавайки поляризацията.
  4. Изопачава реалността около конкретни събития: Може да се разпространява невярна информация за събития като избори, конфликти или международни инциденти, като се изкривява разказът, за да се благоприятства проруска интерпретация.

Последователната нишка е манипулирането на информация, за да служи на конкретна геополитическа програма. Използването на AI усилва обхвата и потенциалното въздействие на тези наративи, което ги прави по-трудни за откриване и противодействие.

Дългосрочните последици

Последиците от тази дезинформация, управлявана от AI, са широкообхватни. Ерозията на доверието в източниците на информация, потенциалът за манипулиране на общественото мнение и дестабилизирането на демократичните процеси са сериозни опасения. Тъй като AI системите стават все по-интегрирани в ежедневието ни, способността да се прави разлика между истина и лъжа става все по-критична.

Техниката ‘LLM grooming’ представлява значителна ескалация в пейзажа на информационната война. Тя подчертава уязвимостта на AI системите към манипулация и необходимостта от надеждни защити срещу тази нововъзникваща заплаха. Предизвикателството се състои не само в идентифицирането и блокирането на източници на дезинформация, но и в разработването на стратегии за инокулиране на AI модели срещу тези фини, но всеобхватни форми на влияние. Това изисква многостранен подход, включващ:

  • Подобрена AI грамотност: Обучение на обществеността относно потенциала за генерирана от AI дезинформация и насърчаване на умения за критично мислене.
  • Подобрени инструменти за откриване на AI: Разработване на по-сложни методи за идентифициране и маркиране на генерирано от AI съдържание и дезинформация.
  • Укрепени данни за обучение на AI: Прилагане на мерки за гарантиране на целостта и разнообразието на данните за обучение на AI, което ги прави по-устойчиви на манипулация.
  • Международно сътрудничество: Насърчаване на сътрудничеството между правителства, технологични компании и изследователи за справяне с това глобално предизвикателство.
  • Повишена прозрачност: Разработчиците на AI трябва да бъдат прозрачни относно използваните данни за обучение и потенциалните пристрастия, които може да съществуват в техните модели.
  • Алгоритмична отчетност: Търсене на отговорност от разработчиците на AI за резултатите от техните системи, особено когато тези резултати се използват за разпространение на дезинформация.

Битката срещу дезинформацията, управлявана от AI, е сложна и се развива. Тя изисква съгласувани усилия от страна на отделни лица, организации и правителства, за да се защити целостта на информацията и да се защитят основите на информираното вземане на решения. Дейностите на мрежата ‘Правда’ служат като ярко напомняне за залозите и спешността на справянето с тази нарастваща заплаха. Бъдещето на информирания обществен дискурс и потенциално стабилността на демократичните общества може да зависи от способността ни успешно да се противопоставим на тази нова форма на манипулация. Предизвикателството не е само технологично; то е и обществено, изискващо подновен ангажимент към истината, точността и критичното мислене в дигиталната ера.