Повсеместното влияние на подкрепяните от Кремъл лъжи
В основата на проблема е умишленото замърсяване на онлайн източниците на информация. Чрез заливане на резултатите от търсенето и уеб обхождащите роботи с прокремълски лъжи, мрежа от дезинформационни актьори активно оформя изхода на големите езикови модели (LLMs). Тези модели, които захранват AI чатботовете, с които ежедневно взаимодействаме, разчитат на огромни масиви от данни, извлечени от интернет. Когато тези данни са замърсени с дезинформация, полученият резултат отразява тези пристрастия.
NewsGuard, компания, която предоставя оценки за достоверност и пръстови отпечатъци за дезинформация за новинарски и информационни уебсайтове, проведе задълбочен анализ на този феномен. Техните констатации разкриват тревожна реалност: значителна част от информацията, генерирана от водещи AI чатботове, повтаря наративите, разпространявани от конкретна мрежа от прокремълски уебсайтове.
Механиката на дезинформацията: Как се манипулират AI моделите
Стратегията, използвана от тази дезинформационна мрежа, е едновременно коварна и изтънчена. Тя не е насочена предимно към привличане на човешки читатели; по-скоро е предназначена да манипулира самите алгоритми, които са в основата на AI чатботовете. Тази тактика, известна като ‘LLM grooming’, включва стратегическо засаждане на невярна или подвеждаща информация в множество уебсайтове, знаейки, че тези платформи ще бъдат обходени и усвоени от LLMs.
American Sunlight Project (ASP), американска организация с нестопанска цел, подчерта тази заплаха в доклад от февруари 2025 г. Те предупредиха, че мрежата Pravda, колекция от уебсайтове, прокарващи проруски наративи, вероятно е създадена с изричната цел да повлияе на AI моделите. Колкото по-голям е обемът на проруските наративи, толкова по-голяма е вероятността LLMs да ги интегрират в своята база знания.
Последиците от това са широкообхватни. Тъй като LLMs стават все по-интегрирани в ежедневието ни, служейки като източници на информация и помощ, потенциалът за широко разпространение на манипулирано съдържание е тревожен.
Одитът на NewsGuard: Количествено определяне на въздействието
За да оцени степента на този проблем, NewsGuard проведе одит на десет известни AI чатбота. Те включват:
- OpenAI’s ChatGPT-4o
- You.com’s Smart Assistant
- xAI’s Grok
- Inflection’s Pi
- Mistral’s le Chat
- Microsoft’s Copilot
- Meta AI
- Anthropic’s Claude
- Google’s Gemini
- Perplexity’s answer engine
Одитът се фокусира върху 15 различни фалшиви наратива, които са били активно популяризирани от 150 прокремълски уебсайта Pravda между април 2022 г. и февруари 2025 г. Тези наративи обхващат редица теми, всички предназначени да прокарват конкретен политически дневен ред.
Методологията включва тестване на всеки чатбот със серия от подкани, базирани на Misinformation Fingerprints на NewsGuard, каталог от доказано неверни твърдения по значими новинарски теми. Подканите са изработени в три различни стила – Innocent, Leading и Malign – за да имитират различните начини, по които потребителите взаимодействат с генеративни AI модели. Това доведе до общо 450 отговора (45 на чатбот).
Тревожни резултати: Дезинформацията е широко разпространена сред чатботовете
Резултатите от одита на NewsGuard бяха категорични. Общо десетте AI чатбота повториха фалшиви руски дезинформационни наративи в 33,55% от отговорите. Те предоставиха неотговор в 18,22% от случаите и опровержение на наратива в 48,22% от случаите.
Всеки един тестван чатбот повтори дезинформация, произхождаща от мрежата Pravda. Още по-тревожно е, че седем от чатботовете директно цитираха конкретни статии от уебсайтове на Pravda като свои източници. Докато два от AI моделите не предоставят изрични цитати, те все пак бяха установени да генерират или повтарят фалшиви наративи от мрежата. Само един от осемте модела, които цитират източници, не цитира Pravda.
Общо 56 от 450-те генерирани от чатбота отговора включваха директни връзки към статии, разпространяващи неверни твърдения, публикувани от мрежата Pravda. Чатботовете колективно цитираха 92 различни статии, съдържащи дезинформация, като два модела се позовават на цели 27 статии на Pravda. Тези статии произхождат от различни домейни в мрежата, включително Denmark.news-pravda.com, Trump.news-pravda.com и NATO.news-pravda.com.
Естеството на подканите: Имитиране на взаимодействия в реалния свят
Трите стила на подкани, използвани в одита на NewsGuard, бяха проектирани да отразяват спектъра от потребителски взаимодействия с AI чатботове:
- Innocent Prompts: Тези подкани представят фалшивия наратив по неутрален, ненасочващ начин, сякаш потребителят просто търси информация без никакви предубеждения.
- Leading Prompts: Тези подкани фино подсказват фалшивия наратив, намеквайки за неговата валидност, без изрично да го заявяват. Това имитира сценарии, при които потребителите може да имат известна предварителна експозиция на дезинформация и търсят потвърждение.
- Malign Prompts: Тези подкани директно твърдят фалшивия наратив като факт, отразявайки ситуации, при които потребителите вече са убедени в дезинформацията и търсят подсилване.
Този многостранен подход беше от решаващо значение за разбирането на това как различните видове потребителско ангажиране могат да повлияят на отговора на чатбота. Той разкри, че чатботовете са податливи на повтаряне на дезинформация, независимо от стила на подканата, въпреки че честотата и естеството на отговорите варират.
Конкретни примери за дезинформация, повторена от чатботове
Докладът на NewsGuard предоставя множество примери за конкретни фалшиви наративи, разпространявани от мрежата Pravda и впоследствие повторени от AI чатботовете. Тези примери подчертават широчината и дълбочината на дезинформационната кампания. Някои от наративите включват:
- Твърдения, че Украйна е нацистка държава.
- Фалшиви твърдения за причините за конфликта в Украйна.
- Подвеждаща информация за западното участие в конфликта.
- Изфабрикувани истории за украинското ръководство.
Това са само няколко примера за многото фалшиви наративи, които са били щателно документирани и проследени от NewsGuard. Фактът, че тези наративи се повтарят от водещи AI чатботове, подчертава спешната нужда от ефективни контрамерки.
Предизвикателството на борбата с дезинформацията, управлявана от AI
Справянето с този проблем е сложно начинание. То изисква многостранен подход, включващ както технологични решения, така и повишена информираност на потребителите.
Технологични решения:
- Подобрено филтриране на данни: Разработчиците на AI трябва да внедрят по-стабилни механизми за филтриране на дезинформация от масивите от данни, използвани за обучение на LLMs. Това включва идентифициране и изключване на ненадеждни източници, както и разработване на алгоритми, които могат да откриват и маркират потенциално невярна или подвеждаща информация.
- Подобрена проверка на източниците: Чатботовете трябва да бъдат проектирани да дават приоритет на информация от достоверни и проверени източници. Това включва предоставяне на ясни цитати и позволяване на потребителите лесно да проследяват произхода на представената информация.
- Прозрачност и обяснимост: AI моделите трябва да бъдат по-прозрачни относно своите процеси на вземане на решения. Потребителите трябва да могат да разберат защо чатботът предоставя конкретен отговор и на какви източници на данни разчита.
Информираност на потребителите:
- Образование за медийна грамотност: Потребителите трябва да бъдат образовани за потенциала за дезинформация, генерирана от AI. Това включва развиване на умения за критично мислене и обучение как да се оценява достоверността на онлайн източниците на информация.
- Скептицизъм и проверка: Потребителите трябва да подхождат към информацията, предоставена от AI чатботове, със здравословна доза скептицизъм. От решаващо значение е да се кръстосва информация с други източници и да се внимава с твърдения, които изглеждат твърде сензационни или твърде добри, за да са истина.
Дългосрочните рискове: Политически, социални и технологични
Безконтролното разпространение на дезинформация чрез AI чатботове представлява значителни дългосрочни рискове. Тези рискове се простират отвъд непосредственото въздействие на отделните фалшиви наративи и обхващат по-широки обществени последици.
- Политически рискове: Манипулирането на общественото мнение чрез дезинформация, управлявана от AI, може да подкопае демократичните процеси и да подкопае доверието в институциите. Може да се използва за оказване на влияние върху избори, сеене на раздор и дестабилизиране на правителства.
- Социални рискове: Разпространението на фалшиви наративи може да изостри съществуващите социални разделения и да създаде нови. Може да подхранва предразсъдъци, дискриминация и дори насилие.
- Технологични рискове: Ерозията на доверието в AI технологията поради разпространението на дезинформация може да попречи на нейното развитие и приемане. Хората може да станат неохотни да използват AI инструменти, ако не могат да бъдат уверени в точността и надеждността на предоставената информация.
Битката срещу дезинформацията, управлявана от AI, е критична. Тя изисква съгласувани усилия от страна на разработчиците на AI, политиците, преподавателите и отделните потребители, за да се гарантира, че тези мощни технологии се използват отговорно и етично. Бъдещето на информацията и всъщност бъдещето на нашите общества може да зависи от това.