ИИ-поиск лжет, и это усугубляется

Иллюзия точности

Фундаментальное обещание поисковых систем состояло в том, чтобы соединять пользователей с достоверными источниками. Сейчас это обещание нарушается. Поисковые инструменты на базе искусственного интеллекта (AI) все чаще отдают приоритет скорости, а не содержанию, выдавая ответы, которые выглядят уверенно, но не имеют необходимой поддержки проверяемых доказательств. Мы наблюдаем переход от системы, которая направляет пользователей к надежной информации, к системе, которая производит ответы, часто мало заботясь об их правдивости.

Это не просто вопрос случайных ошибок. Это системная проблема. Исследование CJR показывает, что поисковые системы с AI не просто совершают ошибки; они активно конструируют реальность, оторванную от проверяемых источников. Они собирают контент со всего Интернета, но вместо того, чтобы направлять пользователей к первоисточникам — веб-сайтам, которые кропотливо производят и публикуют информацию, — они предоставляют мгновенные, часто сфабрикованные ответы.

Утечка трафика и фантомные цитаты

Последствия такого подхода далеко идущие. Непосредственным результатом является значительное сокращение трафика к первоисточникам информации. Веб-сайты, новостные организации и исследователи, которые вкладывают время и ресурсы в создание контента, оказываются обойденными. Пользователи получают ответы напрямую от AI, без необходимости посещать сайты, которые создали информацию.

Отдельное исследование подтверждает эту тревожную тенденцию, обнаружив, что показатели кликабельности (click-through rates) из результатов поиска, сгенерированных AI, и чат-ботов существенно ниже, чем у традиционных поисковых систем, таких как Google. Это означает, что источник жизненной силы онлайн-контента — возможность охватить аудиторию — медленно перекрывается.

Но проблема еще глубже. Эти инструменты AI не просто не указывают источники; они часто создают фантомные цитаты. Они генерируют ссылки на несуществующие веб-страницы или на URL-адреса, которые не работают или не имеют отношения к делу. Это похоже на то, как если бы студент писал исследовательскую работу и изобретал источники для поддержки своих утверждений. Это не просто небрежно; это фундаментальное нарушение интеллектуальной честности.

Глубокое погружение в обман

Исследование CJR тщательно проанализировало работу нескольких ведущих поисковых моделей AI. Результаты вызывают глубокую тревогу. Более половины цитат, сгенерированных Google Gemini и xAI’s Grok 3 — двумя известными игроками в области поиска с AI, — вели на сфабрикованные или недоступные веб-страницы. Это не мелкий сбой; это системный сбой.

И проблема выходит за рамки цитирования. Было обнаружено, что чат-боты в целом предоставляют неверную информацию в ошеломляющих более чем 60% случаев. Среди оцененных моделей Grok 3 оказался худшим нарушителем: шокирующие 94% его ответов содержали неточности. Gemini, хотя и показал себя немноголучше, все же давал полностью правильный ответ только один раз из десяти попыток. Даже Perplexity, который оказался самым точным из протестированных моделей, все равно возвращал неверные ответы в 37% случаев.

Эти цифры — не просто статистика; они представляют собой фундаментальный сбой в надежности информации. Они предполагают, что те самые инструменты, которые призваны помочь нам ориентироваться в сложностях цифрового мира, на самом деле сбивают нас с пути.

Игнорирование правил: протокол исключения роботов

Авторы исследования обнаружили еще один тревожный аспект этого обмана, управляемого AI. Несколько моделей AI, по-видимому, намеренно игнорировали Robot Exclusion Protocol. Этот протокол является стандартным, широко распространенным механизмом, который позволяет веб-сайтам контролировать, какие части их сайта могут быть доступны и просканированы автоматическими ботами. Это способ для веб-сайтов защитить свой контент и управлять тем, как он используется.

Тот факт, что поисковые системы с AI игнорируют этот протокол, поднимает серьезные этические вопросы. Это предполагает пренебрежение правами создателей контента и готовность использовать онлайн-информацию без разрешения. Такое поведение подрывает сами основы Интернета, который опирается на хрупкий баланс между доступом к информации и защитой интеллектуальной собственности.

Отголоски прошлых предупреждений

Выводы исследования CJR не являются единичными. Они перекликаются с предыдущим исследованием, опубликованным в ноябре 2024 года, которое было посвящено поисковым возможностям ChatGPT. Это более раннее исследование выявило последовательную картину уверенных, но неверных ответов, вводящих в заблуждение цитат и ненадежного поиска информации. Другими словами, проблемы, выявленные CJR, не новы; они постоянны и системны.

Эрозия доверия и субъектности

Эксперты в этой области уже некоторое время бьют тревогу по поводу опасностей генеративного AI. Такие критики, как Чираг Шах (Chirag Shah) и Эмили М. Бендер (Emily M. Bender), выражали обеспокоенность тем, что поисковые системы с AI подрывают субъектность пользователей, усиливают предвзятость в доступе к информации и часто представляют вводящие в заблуждение или даже токсичные ответы, которые пользователи могут принять без вопросов.

Основная проблема заключается в том, что эти модели AI разработаны так, чтобы звучать авторитетно, даже когда они ошибаются. Они обучены на огромных массивах текста и кода и способны генерировать ответы, которые имитируют человеческий язык с поразительной беглостью. Но эта беглость может быть обманчивой. Она может маскировать тот факт, что лежащая в основе информация является ошибочной, сфабрикованной или просто неверной.

Механика дезинформации

Исследование CJR включало подробный анализ 1600 запросов, предназначенных для сравнения того, как различные генеративные поисковые модели AI извлекают информацию. Исследователи сосредоточились на ключевых элементах, таких как заголовки, издатели, даты публикации и URL-адреса. Они протестировали ряд моделей, включая ChatGPT Search, Microsoft CoPilot, DeepSeek Search, Perplexity (и его версию Pro), xAI’s Grok-2 и Grok-3 Search, а также Google Gemini.

Методология тестирования была строгой. Исследователи использовали прямые выдержки из десяти случайно выбранных статей, полученных от 20 различных издателей. Такой подход гарантировал, что запросы были основаны на реальном контенте и что модели оценивались по их способности точно извлекать и представлять этот контент.

Результаты, как подробно описано выше, рисуют мрачную картину состояния поиска, управляемого AI. Инструменты, которые все чаще становятся нашими основными шлюзами к информации, явно ненадежны, склонны к фабрикации и часто неуважительно относятся к тем самым источникам, на которые они опираются.

Последствия для будущего информации

Последствия этой широко распространенной дезинформации огромны. Если мы не можем доверять инструментам, которые мы используем для поиска информации, как мы можем принимать обоснованные решения? Как мы можем участвовать в содержательных дебатах? Как мы можем привлечь власть к ответственности?

Рост поиска на базе AI с его неотъемлемыми недостатками и предвзятостями представляет собой серьезную угрозу для самой ткани нашей информационной экосистемы. Он подрывает доверие к новостным организациям, исследователям и другим создателям контента. Он подрывает доверие общества к институтам. И он дает силу тем, кто стремится распространять дезинформацию и манипулировать общественным мнением.

Задача, стоящая перед нами, заключается не просто в том, чтобы повысить точность поисковых систем с AI. Она заключается в том, чтобы коренным образом переосмыслить то, как мы подходим к поиску информации в цифровую эпоху. Нам необходимо уделять первоочередное внимание прозрачности, подотчетности и уважению к источникам информации. Нам необходимо разработать инструменты и стратегии, которые позволяют пользователям критически оценивать информацию, с которой они сталкиваются в Интернете. И нам необходимо воспитывать культуру скептицизма и критического мышления, когда мы являемся не просто пассивными получателями информации, а активными участниками поиска истины. От этого зависит будущее информированного дискурса и, возможно, даже самой демократии.


Кризис дезинформации в поиске на базе AI — это не просто техническая проблема; это проблема общества. Она требует многогранного ответа, в котором участвуют не только инженеры и разработчики, но и журналисты, педагоги, политики и широкая общественность. Мы должны коллективно работать над созданием более надежной, заслуживающей доверия и прозрачной информационной экосистемы, которая служит потребностям информированных граждан, а не распространителей лжи.


Текущая траектория неустойчива. Если AI-поиск продолжит отдавать приоритет скорости и удобству, а не точности и правде, мы рискуем создать мир, в котором дезинформация будет царить безраздельно, а само понятие объективной реальности станет все более неуловимым. Ставки слишком высоки, чтобы позволить этому случиться.