Механизм ‘LLM Grooming’
Сеть ‘Правда’ действует через обширную сеть из примерно 150 фейковых новостных сайтов. Эти сайты, однако, не предназначены для потребления человеком. С минимальным трафиком – большинство страниц получают менее 1000 посещений в месяц – их основная цель – скармливать контент системам ИИ. Эта стратегия представляет собой новый подход к дезинформации, выходящий за рамки традиционных методов, нацеленных непосредственно на читателей-людей.
Эта тактика известна как ‘LLM grooming‘, термин, описывающий преднамеренное манипулирование данными обучения ИИ. Сеть достигает этого путем массовой публикации контента, который сильно оптимизирован для поисковых систем (SEO). Это гарантирует, что пропаганда легко усваивается и распространяется моделями ИИ, влияя на их результаты и потенциально формируя общественное восприятие.
Джон Марк Дуган, американец, проживающий в Москве и идентифицированный NewsGuard как предположительно поддерживающий российские кампании по дезинформации, объяснил основополагающий принцип на местной конференции: ‘Чем разнообразнее эта информация, тем больше она влияет на обучение и будущий ИИ’. Это заявление подчеркивает коварный характер операции, направленной на тонкое искажение основополагающих данных, на которых построены системы ИИ.
Масштаб и охват операции
Масштабы деятельности сети ‘Правда’ ошеломляют. Только в 2024 году эти сайты опубликовали около 3,6 миллиона статей в 49 странах. Доменные имена стратегически выбраны так, чтобы имитировать законные источники новостей, например, NATO.News-Pravda.com, Trump.News-Pravda.com и Macron.News-Pravda.com. Эта мимикрия добавляет уровень обмана, затрудняя случайным наблюдателям различение подлинного и сфабрикованного контента.
Сам контент охватывает широкий круг тем, но последовательно продвигает пророссийские нарративы и подрывает западные точки зрения. Сеть активна как минимум с апреля 2022 года, и анализ NewsGuard был сосредоточен на 15 поддающихся проверке ложных историях, распространенных сетью ‘Правда’ в период с этого времени по февраль 2025 года.
Уязвимость ИИ-чатботов
Расследование NewsGuard включало тестирование нескольких известных ИИ-чатботов для оценки их уязвимости к дезинформации сети ‘Правда’. Тестируемые системы включали:
- OpenAI’s ChatGPT-4o
- You.com’s Smart Assistant
- xAI’s Grok
- Inflection’s Pi
- Mistral’s le Chat
- Microsoft’s Copilot
- Meta AI
- Anthropic’s Claude
- Google’s Gemini
- Perplexity
Результаты были тревожными. ИИ-чатботы приняли ложные нарративы из сети ‘Правда’ в 33,5% случаев. Хотя системы правильно идентифицировали российский контент как дезинформацию в 48,2% случаев, они иногда цитировали вводящие в заблуждение источники, потенциально придавая им незаслуженный авторитет. Остальные 18,2% ответов были неубедительными, что еще раз подчеркивает проблемы различения правды и лжи в эпоху контента, генерируемого ИИ.
Проблема противодействия дезинформации, управляемой ИИ
Борьба с этим типом манипуляций представляет собой серьезную проблему. Традиционные методы блокировки известных веб-сайтов с дезинформацией оказываются неэффективными. Когда власти блокируют домены ‘Правды’, быстро появляются новые, демонстрируя гибкость и устойчивость сети.
Более того, дезинформация течет по нескольким каналам одновременно, часто при этом разные сайты сети повторяют контент друг друга. Это создает сложную сеть взаимосвязанных источников, что затрудняет изоляцию и нейтрализацию пропаганды в ее корне. Простая блокировка веб-сайтов обеспечивает ограниченную защиту от более широкой, скоординированной кампании.
Более широкий контекст: манипуляции ИИ, спонсируемые государством
Деятельность сети ‘Правда’ не является единичным случаем. Она согласуется с более широкой картиной спонсируемых государством усилий по использованию ИИ в целях дезинформации. Недавнее исследование OpenAI показало, что поддерживаемые государством субъекты из России, Китая, Ирана и Израиля уже пытались использовать системы ИИ для пропагандистских кампаний. Эти операции часто сочетают контент, сгенерированный ИИ, с традиционными, созданными вручную материалами, размывая границы между подлинной и манипулируемой информацией.
Использование ИИ в политических манипуляциях не ограничивается государственными субъектами. Политические группы, такие как крайне правая партия ‘Альтернатива для Германии’ (AfD), также были замечены в использовании моделей изображений ИИ в пропагандистских целях. Даже такие фигуры, как Дональд Трамп, взаимодействовали с контентом, сгенерированным ИИ, как в качестве потребителя, так и, как это ни парадоксально, называя подлинную информацию фейками, сгенерированными ИИ. Эта тактика, определяемая как форма контрпропаганды, сеет недоверие ко всей онлайн-информации, потенциально побуждая людей полагаться исключительно на доверенных лиц, независимо от фактической точности.
Даже на дизайн самих моделей ИИ могут влиять государственные программы. Например, было обнаружено, что китайские модели ИИ поставляются с предварительно загруженной цензурой и пропагандой, отражающими политические приоритеты китайского правительства.
Подробный разбор: конкретные примеры ложных нарративов
Хотя отчет NewsGuard не детализирует каждый отдельный ложный нарратив, распространяемый сетью ‘Правда’, методология использования поддающихся проверке ложных историй предполагает схему распространения дезинформации, направленную на:
- Подрыв западных институтов: Истории могут ложно изображать НАТО как агрессивную или нестабильную организацию, или фабриковать скандалы с участием западных лидеров.
- Продвижение пророссийских настроений: Нарративы могут преувеличивать военные успехи России, преуменьшать нарушения прав человека или оправдывать ее действия на мировой арене.
- Посев раздора и разногласий: Контент может быть направлен на обострение существующих социальных и политических противоречий в западных странах, усиливая спорные вопросы и способствуя поляризации.
- Искажение реальности вокруг конкретных событий: Ложная информация может распространяться о таких событиях, как выборы, конфликты или международные инциденты, искажая повествование в пользу пророссийской интерпретации.
Последовательной нитью является манипулирование информацией для обслуживания определенной геополитической повестки дня. Использование ИИ усиливает охват и потенциальное воздействие этих нарративов, затрудняя их обнаружение и противодействие им.
Долгосрочные последствия
Последствия этой дезинформации, управляемой ИИ, далеко идущие. Эрозия доверия к источникам информации, возможность манипулирования общественным мнением и дестабилизация демократических процессов – все это вызывает серьезную озабоченность. По мере того, как системы ИИ становятся все более интегрированными в нашу повседневную жизнь, способность различать правду и ложь становится все более важной.
Техника ‘LLM grooming’ представляет собой значительную эскалацию в ландшафте информационной войны. Она подчеркивает уязвимость систем ИИ к манипуляциям и необходимость надежной защиты от этой возникающей угрозы. Задача состоит не только в выявлении и блокировании источников дезинформации, но и в разработке стратегий для защиты моделей ИИ от этих тонких, но распространенных форм влияния. Это требует многостороннего подхода, включающего:
- Повышение грамотности в области ИИ: Информирование общественности о потенциале дезинформации, генерируемой ИИ, и содействие развитию навыков критического мышления.
- Улучшенные инструменты обнаружения ИИ: Разработка более сложных методов для идентификации и маркировки контента, сгенерированного ИИ, и дезинформации.
- Усиление данных обучения ИИ: Реализация мер по обеспечению целостности и разнообразия данных обучения ИИ, делающих их более устойчивыми к манипуляциям.
- Международное сотрудничество: Содействие сотрудничеству между правительствами, технологическими компаниями и исследователями для решения этой глобальной проблемы.
- Повышенная прозрачность: Разработчики ИИ должны быть прозрачны в отношении используемых данных обучения и потенциальных предубеждений, которые могут существовать в их моделях.
- Алгоритмическая подотчетность: Привлечение разработчиков ИИ к ответственности за результаты работы их систем, особенно когда эти результаты используются для распространения дезинформации.
Борьба с дезинформацией, управляемой ИИ, сложна и постоянно развивается. Она требует согласованных усилий от отдельных лиц, организаций и правительств для защиты целостности информации и основ информированного принятия решений. Деятельность сети ‘Правда’ служит суровым напоминанием о ставках и о необходимости срочного решения этой растущей угрозы. Будущее информированного общественного дискурса и, возможно, стабильность демократических обществ, могут зависеть от нашей способности успешно противостоять этой новой форме манипуляций. Задача не только технологическая; она также социальная, требующая возобновления приверженности правде, точности и критическому мышлению в цифровую эпоху.