Дезинформация в AI фактчекинге

В период недавнего непродолжительного конфликта между Индией и Пакистаном резко возросло количество дезинформации, и пользователи социальных сетей стали полагаться на AI чат-ботов для проверки фактов. Однако эти чат-боты часто предоставляли больше ложной информации, подчеркивая их ненадежность в качестве инструментов проверки фактов. По мере того, как крупные технологические платформы продолжают сокращать число штатных фактчекеров, пользователи все чаще обращаются к AI-управляемым чат-ботам, таким как Grok от xAI, ChatGPT от OpenAI и Gemini от Google, в поисках надежной информации.

Подъем AI чат-ботов в фактчекинге

На платформе X (ранее Twitter) Илона Маска стало обычным явлением, когда пользователи спрашивают: "@Grok, это правда?". Grok, AI-помощник, встроенный в платформу X, отражает тенденцию пользователей искать мгновенные опровержения в социальных сетях. Однако ответы этих AI чат-ботов часто изобилуют дезинформацией.

Grok недавно привлек к себе пристальное внимание после того, как вставил ультраправую теорию заговора о "белом геноциде" в не связанные с ней запросы. Grok ошибочно идентифицировал старые видеокадры из аэропорта Хартума в Судане как ракетный удар по авиабазе Нур-Хан в Пакистане во время индо-пакистанского конфликта. Кроме того, горящее здание в Непале было ошибочно идентифицировано как "возможно", показывающее военный ответ Пакистана на индийскую атаку.

Ограничения AI в проверке фактов

Исследователь McKenzie Sadeghi из NewsGuard, организации, занимающейся мониторингом информации, сообщила Agence France-Presse (AFP): "Поскольку X и другие крупные технологические компании сократили инвестиции в штатных фактчекеров, люди все чаще полагаются на Grok как на фактчекера". Она предупреждает: "Наши исследования неоднократно показывают, что AI чат-боты не являются надежными источниками новостей и информации, особенно когда речь идет о последних новостях".

Исследование NewsGuard показало, что 10 ведущих чат-ботов, включая Grok, легко повторяют ложную информацию, в том числе российские дезинформационные нарративы и ложные или вводящие в заблуждение утверждения, связанные с недавними выборами в Австралии. Недавнее исследование Tow Center for Digital Journalism Колумбийского университета, проведенное с участием восьми AI-инструментов поиска, показало, что чат-боты "обычно не умеют отказывать в ответах на вопросы, на которые они не могут ответить точно, и вместо этого предоставляют неверные или предположительные ответы".

Фактчекеры AFP в Уругвае спросили Gemini об изображении женщины, сгенерированном AI. Gemini не только подтвердил подлинность изображения, но и сфабриковал подробности о личности женщины и о том, где могло быть сделано изображение.

Grok недавно пометил видео, якобы показывающее, как гигантская анаконда плавает в реке Амазонке, как "подлинное", даже сославшись на звучащую правдоподобно научную экспедицию в поддержку своего ложного утверждения. Фактически, видео было сгенерировано AI, и фактчекеры AFP в Латинской Америке сообщили, что многие пользователи цитируют оценку Grok как доказательство подлинности видео.

Опасения по поводу AI фактчекинга

Эти выводы вызывают обеспокоенность, поскольку опросы показывают, что все больше онлайн-пользователей переходят от традиционных поисковых систем к AI чат-ботам для сбора и проверки информации. Тем временем Meta ранее в этом году объявила, что прекратит свою программу сторонней проверки фактов в США, вместо этого передав задачи по опровержению обычным пользователям, используя модель под названием "Community Notes", продвигаемую платформой X. Однако исследователи неоднократно ставили под сомнение эффективность "Community Notes" в борьбе с дезинформацией.

Проверка фактов людьми давно является причиной разногласий в поляризованном политическом климате, особенно в США, где консерваторы утверждают, что она подавляет свободу слова и подвергает цензуре контент правого толка, хотя профессиональные фактчекеры решительно отвергают это утверждение.

AFP в настоящее время сотрудничает с программой проверки фактов Facebook на 26 языках, включая Азию, Латинскую Америку и Европейский союз.

Качество и точность AI чат-ботов могут варьироваться в зависимости от того, как они обучены и запрограммированы, что вызывает опасения, что их результаты могут быть подвержены политическому влиянию или контролю.

xAI Маска недавно объяснила включение Grok в незапрошенные сообщения, ссылающиеся на "белый геноцид" в Южной Африке, "несанкционированной модификацией". Когда AI-эксперт David Caswell спросил Grok, кто мог изменить его системные подсказки, чат-бот перечислил Маска как "наиболее вероятного" виновника.

Маск, миллиардер, родившийся в Южной Африке, является сторонником президента США Дональда Трампа. Ранее он распространял необоснованные утверждения о том, что южноафриканские лидеры "открыто призывают к геноциду белых".

Angie Holan, директор Международной сети фактчекинга, сказала AFP: "Мы видели, как AI-помощники фабрикуют результаты или дают предвзятые ответы после того, как люди-кодировщики специально изменили их инструкции". "Меня особенно беспокоит то, как Grok обрабатывает запросы по очень щекотливым вопросам после получения инструкций по предоставлению предварительно одобренных ответов".

Риски AI чат-ботов в информационной сфере

Растущее использование AI чат-ботов для предоставления информации вызывает серьезные опасения, связанные с их потенциальным вводящим в заблуждение и манипулятивным воздействием. Хотя эти технологии имеют преимущества в быстром доступе к информации и упрощении исследований, их присущие ограничения и предвзятости могут непреднамеренно или преднамеренно распространять дезинформацию или пропаганду.

Внутренние ограничения AI чат-ботов

AI чат-боты обучаются путем анализа огромных массивов текстовых данных, но им не хватает человеческого критического мышления. Это означает, что они могут извлекать закономерности из данных и генерировать правдоподобно звучащие ответы, не понимая при этом истинного значения или контекста. Отсутствие знаний может привести к созданию неточной, неполной или вводящей в заблуждение информации.

Кроме того, в обучающих данных AI чат-ботов могут содержаться предвзятости, которые отражаются в генерируемых ответах. Например, если обучающие данные в основном взяты из определенного источника или точки зрения, чат-бот может проявлять предпочтение к этому источнику или точке зрения, тем самым распространяя предвзятую информацию.

Риски, связанные с AI чат-ботами

По мере того, как все больше людей полагаются на AI чат-ботов для получения информации, возрастает риск распространения дезинформации. Если чат-бот генерирует неточную или вводящую в заблуждение информацию, пользователи могут неосознанно принять и распространить эту информацию, что приведет к распространению ложных убеждений.

Кроме того, AI чат-боты могут использоваться в злонамеренных целях, таких как распространение пропаганды или манипулирование общественным мнением. Путем тщательной разработки обучающих данных или корректировки алгоритмов злоумышленники могут манипулировать чат-ботами для создания определенных типов ответов, тем самым влияя на убеждения и поведение пользователей.

Как смягчить риски

Чтобы смягчить риски, связанные с AI чат-ботами, необходимо предпринять ряд мер. Во-первых, разработчики должны стремиться к тому, чтобы обучающие данные AI чат-ботов были максимально полными и непредвзятыми. Это может потребовать включения различных образцов данных из различных источников и точек зрения, чтобы уменьшить влияние предвзятостей.
Во-вторых, необходимо проводить тщательное тестирование и оценку AI чат-ботов для выявления и устранения любых неточностей или предвзятых наклонностей. Это может потребовать ручной проверки ответов, сгенерированных чат-ботом, и использования различных показателей для оценки его точности и беспристрастности.
В-третьих, пользователям следует сохранять критическое мышление и не слепо доверять информации, предоставляемой на AI чат-ботах. Пользователи всегда должны сопоставлять информацию из разных источников и помнить о возможных предвзятостях чат-ботов.

Роль технологических платформ и сообществ

Технологические платформы и сообщества играют важную роль в регулировании и надзоре за содержимым, генерируемым AI чат-ботами. Платформы могут внедрять стратегии выявления и удаления дезинформации или пропаганды, а также могут сотрудничать с организациями по проверке фактов для подтверждения точности ответов, генерируемых чат-ботами. Кроме того, сообщества могут помочь повысить осведомленность пользователей, способствуя обсуждению ограничений и предвзятостей AI чат-ботов, и поощряя пользователей к сохранению критического мышления.

Заключение

AI чат-боты являются полезными инструментами, но у них также есть существенные ограничения и риски. Чтобы обеспечить ответственное использование этих технологий и уменьшить распространение дезинформации и манипуляций, разработчикам, регулирующим органам и пользователям необходимо сохранять бдительность. Принимая необходимые меры, мы можем максимально увеличить преимущества AI чат-ботов, одновременно минимизируя их потенциальный вред.