AI-чатботы: источник дезинформации?

Зависимость от AI-проверки фактов во время конфликтов и ее недостатки

Во время четырехдневного конфликта между Индией и Пакистаном пользователи социальных сетей обратились к AI-чатботам для получения информации. Однако вместо проверки фактов они встретились с еще большим количеством дезинформации, что подчеркивает ненадежность этих чат-ботов в качестве инструментов проверки фактов. По мере того как технологические платформы постепенно сокращают число людей, занимающихся проверкой фактов, пользователи все чаще полагаются на чат-ботов на основе AI, включая Grok от xAI, ChatGPT от OpenAI и Gemini от Google, в поисках надежной информации. Но было обнаружено, что ответы, предоставляемые этими AI-чатботами, часто изобилуют ложной информацией.

На платформе X (ранее Twitter), принадлежащей Илону Маску, уже появился распространенный способ задавать вопросы: "@Grok, это правда?". Grok имеет встроенного AI-ассистента, что отражает растущую тенденцию искать немедленные опровержения в социальных сетях. Однако ответы, которые выдают AI-чатботы, нередко оказываются переполненными дезинформацией.

Примеры распространения неточной информации AI-чатботами

Grok в настоящее время подвергается новой проверке, поскольку появились сообщения о том, что он вставлял ультраправые теории заговора о "геноциде белых" в несвязанные запросы. Он ошибочно определил старые видеокадры из аэропорта Хартума в Судане как ракетный удар по пакистанской авиабазе Нур-Хан во время индо-пакистанского конфликта. Кроме того, несвязанное видео пожара в здании в Непале было ошибочно идентифицировано как "возможное" изображение ответа Пакистана на нападение Индии.

Grok также недавно пометил видео, предположительно снятое с гигантской анакондой в реке Амазонке, как "подлинное", даже со ссылкой на якобы правдоподобные научные экспедиции в поддержку своего ложного заявления. На самом деле, это видео было сгенерировано AI. Фактчекеры AFP в Латинской Америке отметили, что многие пользователи ссылались на оценку Grok как на доказательство подлинности этого фрагмента.

Сокращение инвестиций в фактчекеров

По мере того как X и другие крупные технологические компании сокращают инвестиции в людей, занимающихся проверкой фактов, люди все больше полагаются на Grok в качестве фактчекера. Маккензи Садги, исследователь из организации NewsGuard, занимающейся мониторингом новостей, предупреждает: "Наши исследования неоднократно показывали, что AI-чатботы не являются надежным источником новостей и информации, особенно когда речь идет о последних новостях".

Исследование NewsGuard показало, что 10 ведущих чат-ботов склонны повторять ложные сообщения, в том числе российские дезинформационные нарративы и ложные или вводящие в заблуждение утверждения, связанные с недавними выборами в Австралии. Недавнее исследование, проведенное Центром цифровой журналистики Тау Колумбийского университета, восьми AI-поисковых инструментов показало, что чат-боты "обычно не умеют отказываться отвечать на вопросы, на которые они не могут ответить точно, а скорее предоставляют неверные или предположительные ответы".

Трудности AI в подтверждении поддельных изображений и изготовлении деталей

Когда фактчекеры AFP в Уругвае спросили Gemini об изображении женщины, сгенерированном AI, он не только подтвердил подлинность изображения, но и сфабриковал детали о ее личности и о том, где могло быть сделано изображение.

Подобные открытия вызывают беспокойство, поскольку исследования показывают, что онлайн-пользователи все чаще переходят от традиционных поисковых систем к AI-чатботам для получения информации и проверки.

Изменение подхода Meta к проверке фактов

Ранее в этом году Meta объявила, что прекратит свою программу сторонней проверки фактов в США, а вместо этого передаст задачу разоблачения ложной информации обычным пользователям, используя модель, известную как "Примечания сообщества", которая была популяризирована X. Однако исследователи неоднократно ставили под сомнение эффективность "Примечаний сообщества" в борьбе с дезинформацией.

Проблемы и споры, связанные с проверкой фактов людьми

Проверка фактов людьми долгое время была яблоком раздора в поляризованном политическом климате, особенно в США, где консервативные сторонники утверждают, что она подавляет свободу слова и подвергает цензуре правый контент - утверждение, которое профессиональные фактчекеры решительно отвергают. AFP в настоящее время сотрудничает с программой проверки фактов Facebook на 26 языках, в том числе в Азии, Латинской Америке и Европейском союзе.

Политическое влияние и AI-чатботы

Качество и точность AI-чатботов варьируются в зависимости от того, как они обучены и запрограммированы, что вызывает опасения, что на их результаты может оказывать влияние политика или контроль. Недавно xAI Маска возложила на "несанкционированную модификацию" ответственность за то, что Grok сгенерировал незапрошенные упоминания о "геноциде белых" в Южной Африке. Когда эксперт по AI Дэвид Касуэлл спросил Grok, кто мог изменить его системные подсказки, чат-бот назвал Маска "наиболее вероятным" виновником.

Маск - миллиардер, родившийся в Южной Африке, и сторонник президента Дональда Трампа. Ранее он распространял необоснованные утверждения о том, что лидеры Южной Африки "открыто продвигают геноцид белых".

Опасения по поводу обработки AI-чатботами деликатных вопросов

Энджи Холлан, директор Международной сети проверки фактов, заявила: "Мы видели, что AI-ассистенты могут фабриковать результаты или давать предвзятые ответы после того, как люди-кодировщики специально изменили инструкции. Меня особенно беспокоит то, как Grok будет обрабатывать запросы, касающиеся очень деликатных вопросов, после получения инструкций о предоставлении предварительно утвержденных ответов".

Важность обеспечения точности AI

Растущая популярность AI-чатботов создает серьезные проблемы для распространения информации. Хотя они предлагают быстрый и удобный способ доступа к информации, они также подвержены ошибкам и распространению ложной информации. По мере того как пользователи все больше полагаются на эти инструменты для проверки фактов, становится крайне важным обеспечить их точность и надежность.

Технологические компании, организации по проверке фактов и исследователи должны работать вместе, чтобы повысить качество и надежность AI-чатботов. Это включает в себя внедрение строгих протоколов обучения, использование людей для проверки информации, сгенерированной AI, и разработку механизмов для обнаружения и искоренения ложной информации.

Взгляд в будущее

По мере дальнейшего развития технологий AI-чатботы, несомненно, будут играть все более важную роль в том, как мы получаем и потребляем информацию. Однако важно критически относиться к этим инструментам и осознавать их ограничения. Принимая меры для обеспечения точности и надежности AI-чатботов, мы можем использовать их потенциал, одновременно смягчая риски, связанные с распространением дезинформации.

Предвзятость в инструментах AI

В инструментах AI может присутствовать предвзятость, будь то в данных, на которых они обучены, или в том, как они запрограммированы. Эта предвзятость может привести к неточным или вводящим в заблуждение результатам. Пример Grok, вставляющего ультраправые теории заговора о "геноциде белых" в несвязанные запросы, показывает, как AI-системы могут распространять вредоносные идеологии.

Предвзятость в инструментах AI может быть вызвана многочисленными факторами, в том числе:

  • Предвзятость в обучающих данных: AI-системы обучаются на наборах данных. Если эти наборы данных содержат предвзятость, то AI-системы также усвоят эту предвзятость. Например, если AI-система обучена в основном на статьях, написанных о мужчинах, то она может быть предвзятой по отношению к женщинам.

  • Предвзятость в алгоритмах: Алгоритмы, используемые для создания AI-систем, также могут содержать предвзятость. Например, если алгоритм разработан для приоритета ответов от определенных групп, то он может дискриминировать другие группы.

  • Предвзятость из-за вмешательства человека: Даже если AI-система обучена на беспристрастных данных, вмешательство человека все равно может привести к предвзятости. Например, если людям-кодировщикам даны инструкции давать предварительно утвержденные ответы при ответе на определенные вопросы, то это может создать предвзятость.

Важно решать проблему предвзятости в инструментах AI по ряду причин:

  • Справедливость: Если AI-система содержит предвзятость, то она может несправедливо относиться к определенным группам. Например, если AI-система используется для найма на работу, то она может быть предвзятой по отношению к дискриминируемым группам.

  • Точность: Если AI-система содержит предвзятость, то она может не предоставить точную информацию. Например, если AI-система используется для предоставления медицинских советов, то она может предоставить неправильные или вводящие в заблуждение советы.

  • Доверие: Если люди не верят, что AI-системы являются справедливыми и точными, то они с меньшей вероятностью будут их использовать.

Решение проблемы предвзятости в инструментах AI требует многостороннего подхода, в том числе:

  • Сбор необработанных данных: Крайне важно обеспечить, чтобы наборы данных, которые используются для обучения AI-систем, были необработанными. Это может потребовать значительных усилий, поскольку найти и удалить предвзятость из данных может быть сложно.

  • Разработка беспристрастных алгоритмов: Алгоритмы, используемые для создания AI-систем, должны быть беспристрастными. Это может потребовать использования новых технологий машинного обучения для создания алгоритмов, которые менее подвержены предвзятости.

  • Вмешательство человека: Вмешательство человека можно использовать для исправления предвзятости в AI-системах. Например, люди-кодировщики могут проверять ответы, генерируемые AI-системой, и исправлять любые предвзятости, которые появятся.

  • Прозрачность: Важно, чтобы пользователи AI-систем знали о предвзятости, которая может существовать в AI-системе. Это можно сделать, предоставляя информацию о данных, на которых обучена AI-система, и об алгоритмах, которые используются для создания AI-системы.

Решение проблемы предвзятости в инструментах AI - это постоянная задача, но она имеет решающее значение для обеспечения того, чтобы эти инструменты были справедливыми, точными и надежными.

Ограничения AI-проверки фактов

Хотя инструменты AI-проверки фактов добились прогресса в выявлении ложной информации, все еще существуют ограничения в их возможностях и эффективности. Эти ограничения проистекают из нескольких факторов:

  • Понимание контекста: AI-системам сложно понимать сложный контекст и тонкие нюансы, которые имеют решающее значение для точной проверки фактов. Например, AI-система может оказаться не в состоянии отличить сатиру или юмор от правдивых утверждений.

  • Выявление тонкой ложной информации: AI-системам может быть сложно обнаруживать тонкую ложную информацию, такую как вырывание утверждений из контекста или выборочная отчетность о фактах.

  • Отсутствие знаний в предметной области: AI-системам часто не хватает знаний в предметной области, необходимых для проверки фактов на определенные темы. Например, AI-система может не иметь достаточных медицинских знаний для точной проверки фактов заявлений, связанных со здоровьем.

  • Сопротивление манипуляциям: Распространители дезинформации постоянно разрабатывают новые методы для манипулирования и обхода систем проверки фактов. AI-системы должны постоянно обновляться и улучшаться, чтобы не отставать от этих новых стратегий.

  • Языковые барьеры: Инструменты AI-проверки фактов могут оказаться не в состоянии эффективно обрабатывать ложную информацию на разных языках. Перевод и понимание тонкостей различных языков является сложной задачей и требует специализированных языковых знаний.

  • Риск ложных срабатываний: AI-система проверки фактов могут допускать ошибки, что приводит к тому, что точная информация помечается как ложная информация. Эти ложные срабатывания могут иметь серьезные последствия, такие как цензура законного контента или нанесение ущерба репутации людей или организаций.

Чтобы смягчить ограничения AI-проверки фактов, крайне важно объединить экспертные знания людей с инструментами AI. Люди, занимающиеся проверкой фактов, могут предоставить контекст, знания в предметной области и критическое мышление, которые трудно воспроизвести автоматизированным системам. Кроме того, прозрачность и постоянное улучшение имеют важное значение для обеспечения эффективности и надежности системы AI-проверки фактов.

Стратегии смягчения рисков и совершенствования AI-проверки фактов

Смягчение рисков в AI-проверке фактов и повышение ее точности и надежности требует многостороннего подхода, включающего технические улучшения, надзор со стороны человека и этические соображения. Вот некоторые ключевые стратегии:

  • Расширение данных обучения: Улучшение данных обучения, используемых для обучения моделей AI, путем интеграции разнообразного, всестороннего набора надежных источников информации. Обеспечьте, чтобы данные были необработанными, актуальными и охватывали широкий круг тем и точек зрения.

  • Объединение экспертов человека: Преодоление ограничений AI путем включения людей, занимающихся проверкой фактов, в процесс AI-проверки фактов. Эксперты человека могут предоставить контекст, критичес