Рост ИИ в проверке информации
Интеграция искусственного интеллекта (ИИ) в социальные сети не нова. Шаг X, позволяющий пользователям взаимодействовать с Grok от xAI, в некотором смысле просто следует тенденции. Это отражает подход Perplexity, у которого есть автоматизированная учетная запись в X для предоставления аналогичного опыта.
После того, как xAI создал автоматизированное присутствие Grok в X, пользователи быстро начали изучать его возможности, задавая вопросы и ища ответы. В таких регионах, как Индия, возникла особенно тревожная тенденция: люди начали использовать Grok для проверки комментариев и запросов, многие из которых были нацелены на конкретные политические идеологии.
Опасения специалистов по проверке фактов
Эта зависимость от Grok и, по сути, любого подобного ИИ-помощника для проверки фактов вызывает серьезную озабоченность. Сама природа этих ИИ-ботов такова, что они могут формулировать ответы, которые звучат убедительно, независимо от их фактической точности. Это не теоретическая проблема; у Grok есть задокументированная история распространения фейковых новостей и дезинформации.
Один примечательный случай произошел, когда несколько государственных секретарей умоляли Маска внести важные изменения в Grok. Этот срочный запрос последовал за появлением вводящей в заблуждение информации, сгенерированной ИИ-помощником, в социальных сетях, что вызвало тревогу в преддверии выборов.
Grok не одинок в этом. Было обнаружено, что другие известные чат-боты, в том числе ChatGPT от OpenAI и Gemini от Google, также предоставляют неточную информацию, связанную с выборами. Исследователи дезинформации также подчеркнули возможность злоупотреблений, обнаружив в 2023 году, что чат-боты с ИИ, такие как ChatGPT, можно легко использовать для создания убедительных текстов, содержащих вводящие в заблуждение повествования.
Иллюзия подлинности
Энджи Холан, директор International Fact-Checking Network (IFCN) в Poynter, сформулировала основную проблему, сказав: “ИИ-помощники, такие как Grok, действительно хорошо используют естественный язык и дают ответ, который звучит так, как будто его сказал человек. И таким образом, продукты ИИ претендуют на естественность и аутентичность ответов, даже если они потенциально очень неверны. В этом и заключается опасность”.
Опасность, как подчеркивает Холан, заключается в обманчивом внешнем виде подлинности. Способность ИИ имитировать человеческий язык создает иллюзию достоверности, даже если базовая информация ошибочна или полностью сфабрикована.
Фундаментальное различие: ИИ против специалистов по проверке фактов
Контраст между ИИ-помощниками и специалистами по проверке фактов разителен. Специалисты по проверке фактов тщательно проверяют информацию, опираясь на множество достоверных источников. Они действуют прозрачно, указывая свои имена и принадлежность к организации в своих выводах, тем самым обеспечивая подотчетность и повышая доверие.
Пратик Синха, соучредитель индийского некоммерческого веб-сайта по проверке фактов Alt News, отметил, что, хотя ответы Grok в настоящее время могут казаться убедительными, его точность принципиально ограничена данными, которые он получает. “Кто будет решать, какие данные ему предоставляются, и именно здесь в игру вступит вмешательство правительства и т. д.”, - отметил он, подчеркнув критическую проблему прозрачности источников данных.
Отсутствие прозрачности, подчеркнул Синха, является питательной средой для потенциального вреда. “Все, что лишено прозрачности, причинит вред, потому что все, что лишено прозрачности, может быть сформировано любым способом”.
Собственное признание Grok: возможность злоупотреблений
В некоторой степени иронично, что учетная запись Grok в X в одном из своих опубликованных ответов признала, что ею “можно злоупотребить — для распространения дезинформации и нарушения конфиденциальности”.
Несмотря на это признание, автоматизированная учетная запись не предоставляет никаких оговорок пользователям, получающим ее ответы. Это упущение делает пользователей уязвимыми для дезинформации, особенно в случаях, когда ИИ “галлюцинировал” ответ, что является хорошо задокументированным явлением в области ИИ, когда система генерирует ложную или бессмысленную информацию.
Анушка Джейн, научный сотрудник Digital Futures Lab, подробно остановилась на этом моменте, заявив: “Он может придумывать информацию, чтобы дать ответ”. Эта тенденция к фабрикации информации подчеркивает неотъемлемые ограничения ИИ в контексте проверки фактов.
Дилемма данных обучения
Еще один уровень сложности возникает из-за вопроса о данных обучения Grok. Существует неопределенность в отношении того, в какой степени Grok использует сообщения в X в качестве учебного материала, и какие меры контроля качества, если таковые имеются, используются для проверки фактов таких сообщений. Изменение, внесенное ранее, по-видимому, предоставило Grok доступ по умолчанию к данным пользователей X, что вызывает опасения по поводу возможности того, что ИИ будет поглощать и распространять дезинформацию, присутствующую на платформе.
Публичное и частное потребление информации, сгенерированной ИИ
Еще одна серьезная проблема связана с публичным характером ИИ-помощников, таких как Grok, в социальных сетях. В отличие от взаимодействия с чат-ботами, такими как ChatGPT, которое обычно происходит в частной обстановке, ответы Grok доставляются публично.
Это публичное распространение создает ситуацию, когда, даже если один пользователь знает, что информация, предоставленная ИИ, может быть неточной, другие пользователи на платформе все равно могут принять ее за правду. Это может привести к серьезным социальным последствиям.
Существуют исторические прецеденты. Индия, например, стала свидетелем трагических инцидентов самосуда толпы, вызванных дезинформацией, распространяемой через WhatsApp. Эти события, хотя и предшествовали широкой доступности генеративного ИИ, служат суровым напоминанием о реальных опасностях неконтролируемой дезинформации. Появление GenAI с его способностью генерировать синтетический контент, который выглядит удивительно реалистично, только усилило эти риски.
Уровень ошибок ИИ
Холан из IFCN предупредила: “Если вы увидите много этих ответов Grok, вы скажете: ‘Эй, ну, большинство из них верны’, и это может быть так, но будут и те, которые неверны. И сколько? Это не маленькая доля. Некоторые исследования показали, что модели ИИ подвержены 20% ошибок… и когда что-то идет не так, это может привести к действительно серьезным последствиям в реальном мире”.
Уровень ошибок в 20%, как подчеркнула Холан, является существенной цифрой. Он подчеркивает неотъемлемую ненадежность ИИ в ситуациях, требующих фактической точности. И, как она подчеркивает, последствия этих ошибок могут быть глубокими, выходя далеко за пределы цифровой сферы.
ИИ: инструмент, а не замена человеческому суждению
Хотя компании, занимающиеся ИИ, в том числе xAI, постоянно совершенствуют свои модели для достижения более человечного общения, фундаментальная реальность остается: ИИ не может и не должен заменять человеческое суждение, особенно в критической области проверки фактов.
Тенденция среди технологических компаний к поиску путей снижения зависимости от специалистов по проверке фактов вызывает озабоченность. Платформы, такие как X и Meta, приняли концепцию краудсорсинговой проверки фактов, примером которой являются такие инициативы, как ‘Community Notes’. Эти сдвиги, хотя и могут потенциально предложить определенные преимущества, также вызывают вопросы о возможном размывании строгих стандартов проверки фактов.
Возвращение маятника к проверке фактов людьми?
Синха из Alt News выразил оптимистичный взгляд, предположив, что люди в конечном итоге научатся различать результаты работы машин и работу специалистов по проверке фактов, в конечном итоге оценивая точность и надежность последних.
“Мы увидим, как маятник в конечном итоге качнется обратно в сторону большей проверки фактов”, - предсказала Холан из IFCN.
Однако она предупредила, что в промежуточный период специалистам по проверке фактов, вероятно, придется столкнуться с увеличением рабочей нагрузки из-за быстрого распространения информации, сгенерированной ИИ. Задача будет состоять в том, чтобы эффективно противостоять потоку дезинформации, гарантируя, что общественность будет информирована правдой, а не убедительными иллюзиями.
Главный вопрос: забота об истине
В основе вопроса лежит фундаментальный вопрос: “Действительно ли вас волнует то, что на самом деле правда или нет? Или вы просто ищете видимость чего-то, что звучит и ощущается как правда, но на самом деле не является правдой? Потому что именно это вы получите от ИИ-помощника”, - заявила Холан.
Этот вопрос отражает критическую дилемму, поставленную ростом ИИ в распространении информации. Готовы ли мы, как общество, отдать приоритет удобству и видимости правды над кропотливым процессом проверки фактов? Ответ на этот вопрос в конечном итоге определит будущее информации, определяя, поддадимся ли мы миру сфабрикованных реальностей или будем отстаивать принципы правды и точности.