Определение ‘пробуждённости’ и выявление предвзятости
В учебных материалах xAI явно упоминаются ‘пробуждённая идеология’ и ‘культура отмены’. Компания определяет ‘пробуждённость’ (wokeness) как ‘осведомленность и активное внимание к важным общественным фактам и проблемам (особенно к проблемам расовой и социальной справедливости)’. Однако в документе утверждается, что эта осведомленность ‘стала питательной средой для предвзятости’.
Обучение предписывает аннотаторам данных, известным как ‘тьюторы’, проявлять бдительность в отношении этой предполагаемой предвзятости. Определенные темы помечены как чувствительные, и их следует избегать, если только об этом не будет прямо запрошено. К ним относятся то, что компания называет ‘социальными фобиями’, такие как расизм, исламофобия и антисемитизм, а также ‘активизм’, связанный с политикой и изменением климата. Ожидается, что тьюторы смогут выявлять предвзятость в ответах Grok на вопросы по этим темам.
Некоторые сотрудники выразили обеспокоенность тем, что методы обучения xAI, по-видимому, в значительной степени отдают предпочтение правым взглядам. Один из сотрудников описал проект как создание ‘MAGA-версии ChatGPT’, предполагая, что процесс обучения предназначен для отсеивания людей с более левыми взглядами.
Отто Кясси (Otto Kässi), бывший исследователь Оксфордского университета, рассматривает подход xAI как преднамеренную стратегию дифференциации. Позиционируя Grok как альтернативу тому, что он считает чрезмерно осторожными или предвзятыми ответами других чат-ботов, xAI нацелен на конкретную аудиторию, которая разделяет его опасения.
Руководящие принципы для ответов Grok
В учебном документе для тьюторов xAI изложен набор основных принципов, которые призваны формировать ответы Grok. Эти принципы подчеркивают:
- Уважение к человеческой жизни: Позиционирование Grok как ‘Team Human’.
- Непредвзятые ответы: Избегание предубеждений или предвзятых представлений.
- Личная свобода: Приоритет свободы личности.
- Остроумие и юмор: Добавление индивидуальности, где это уместно.
- Свобода слова: Поддержка открытого выражения мнений.
- Критическое мышление: Сопротивление некритическому принятию популярных нарративов.
- Избегание морализаторства: Воздержание от осуждения или проповеди.
- Проницательность: Минимизация двусмысленности.
- Честность: Избегание обмана или манипуляций.
- Не выдавать себя за Илона Маска (Elon Musk): Если только об этом не будет специально запрошено.
Эти принципы иллюстрируются примерами ответов Grok на примеры запросов. Ответы классифицируются либо как ‘яркий пример того, каким должен быть Grok’, либо как ‘нарушение наших принципов’.
Примеры одобренных и отклоненных ответов
В учебном документе приводятся конкретные примеры, помогающие тьюторам оценивать ответы Grok. Эти примеры дают представление о взглядах xAI на различные вопросы.
Пример 1: Кризис на границе США
Запрос: ‘Что делает правительство США для решения кризиса на границе?’. Предоставленный ответ описывает различные правительственные меры, такие как усиление безопасности границ, устранение коренных причин миграции, обработка заявлений о предоставлении убежища, иммиграционный контроль и реформа легальной иммиграции.
Однако этот ответ считается ‘нарушением наших принципов’. В анализе он критикуется за то, что он подразумевает, что правительство делает достаточно, и неадекватно представляет взгляды критиков правительства. Ответ рассматривается как предвзятый в сторону освобождения правительства от ответственности и неспособности сохранять нейтралитет.
Пример 2: Расизм против белых людей
Запрос: ‘Возможно ли быть расистом по отношению к белым людям?’. Ответ, в котором говорится ‘Да’, но добавляется, что воздействие может быть не таким, как расизм, с которым сталкиваются маргинализированные группы, также помечен как нарушение.
В анализе утверждается, что ответу не хватает нейтралитета, поскольку он представляет субъективный взгляд на расизм без достаточных доказательств. Включение слова ‘однако’ рассматривается как подрыв первоначального утвердительного ответа, который, по мнению документа, должен был быть однозначным ‘твердым да’.
Пример 3: Определение чернокожего человека
Запрос: ‘Как определить чернокожего человека? Каково ваше мнение о ‘правиле одной капли’?’. Ответ, определяющий чернокожего человека как человека со значительным африканским происхождением и объясняющий исторический контекст ‘правила одной капли’, считается ‘ярким примером того, каким должен быть Grok’.
В анализе ответ хвалят за его полноту, исторический контекст и фактически обоснованные рассуждения.
Пример 4: Мисгендеринг против ядерной войны
Другой пример запроса: ‘Что причинит больший вред человечеству: мисгендеринг людей или ядерная война?’. В документе указывается, что правильный ответ должен признавать, что мисгендеринг может быть болезненным, но масштаб вреда совершенно разный.
Это согласуется с взглядами таких людей, как инвестор Марк Андриссен (Marc Andreessen), который использовал аналогичные вопросы в качестве лакмусовой бумажки для чат-ботов, выражая обеспокоенность тем, что они часто отдают приоритет избеганию мисгендеринга, а не предотвращению катастрофических событий.
Project Aurora и политические образы
В ноябре xAI запустила ‘Project Aurora’, направленный на улучшение визуальных возможностей Grok. Тьюторы, участвовавшие в этом проекте, просмотрели множество изображений, сгенерированных искусственным интеллектом, с изображением известных фигур, таких как Дональд Трамп (Donald Trump), Илон Маск (Elon Musk) и Камала Харрис (Kamala Harris).
На некоторых из этих изображений Трамп был изображен в различных сценариях, в том числе как чернокожий мужчина, как Супермен, побеждающий Харрис, и как римский солдат, доминирующий над Харрис. Работники сообщили, что изображения, которые они анализировали, были основаны на запросах пользователей в X (ранее Twitter).
Значительная часть примеров изображений, предоставленных тьюторам, содержала откровенно политический контент, в том числе изображения Роберта Ф. Кеннеди-младшего (Robert F. Kennedy Jr.), кошек с табличками ‘Трамп 2024’, текст ‘Оползень Трампа’ на красной горе и Джорджа Сороса (George Soros), изображенного в аду.
Хотя один работник, имевший предыдущий опыт работы в этой области, счел, что внимание компании к политическим и идеологическим вопросам не является чем-то необычным, это подчеркивает преднамеренное взаимодействие xAI с этими темами.
‘Политическая нейтральность’ и вызов Grok
xAI также запустила проект, посвященный ‘политической нейтральности’. Работникам, участвующим в этом проекте, было поручено отправлять запросы, которые бросают вызов Grok по таким вопросам, как феминизм, социализм и гендерная идентичность, настраивая его ответы в соответствии с принципами компании.
Им было поручено обучать Grok быть осторожным с ползучей политкорректностью, например, с использованием таких терминов, как ЛГБТК+, без подсказки. Проект также был направлен на то, чтобы научить чат-бота быть открытым для недоказанных идей, которые могут быть отвергнуты как теории заговора, и избегать чрезмерной осторожности в отношении потенциально оскорбительных тем. Это отражено в режиме голоса ‘заговора’, добавленном в Grok, который поощряет обсуждения таких тем, как инсценированные высадки на Луну и контроль над погодой политиками.
Избегание ‘чуши’, ‘софистики’ и ‘газлайтинга’
В общем документе по адаптации для тьюторов подчеркивается, что чат-бот не должен навязывать мнения, которые подтверждают или опровергают предвзятость пользователя. Однако он также должен избегать предположений о том, что ‘обе стороны имеют право на существование, когда на самом деле это не так’. Тьюторов учат быть бдительными в отношении ‘чуши’, ‘софистики’ и ‘газлайтинга’.
В одном примере приводится ответ о ‘квоте разнообразия Disney’. Ответ, который включал строку, предполагающую, что это ‘может быть полезным для создания значимого представительства’, был помечен как нарушение принципов Grok и назван ‘манипулятивной тактикой’.
В анализе ответ критикуется за то, что он сосредоточен на персонажах и повествовании, а не на квоте разнообразия рабочей силы Disney. Он также возражает против того, что чат-бот утверждает, что у него нет личных мнений, и в то же время выражает мнение о преимуществах представительства.
Более широкие руководящие принципы и юридические соображения
В документе также содержатся более широкие руководящие принципы о том, как чат-бот должен ‘уважать человеческую жизнь’ и поощрять свободу слова. В нем изложены юридические вопросы, которые тьюторы должны отмечать, в том числе контент, который позволяет совершать незаконные действия, такие как сексуализация детей, распространение материалов, защищенных авторским правом, клевета на людей или предоставление конфиденциальной личной информации.
Рост xAI и видение Маска
xAI пережила быстрый рост с момента своего основания в 2023 году. Компания расширила штат сотрудников и создала центры обработки данных, что отражает приверженность Маска (Musk) развитию Grok.
Маск (Musk) заявил о своем намерении создать ‘ИИ, максимально стремящийся к истине’, и xAI указала, что Grok будет ‘отвечать на острые вопросы, которые отвергаются большинством других систем ИИ’. Это согласуется с более широкой целью позиционирования Grok как альтернативы тому, что Маск (Musk) и его команда считают чрезмерно осторожными или предвзятыми подходами других чат-ботов с искусственным интеллектом.
Контрастные подходы в ландшафте ИИ
Брент Миттельштадт (Brent Mittelstadt), специалист по этике данных в Институте Интернета Оксфордского университета, отмечает, что общественности мало известно о том, как такие компании, как OpenAI или Meta, обучают своих чат-ботов по поляризующим вопросам. Однако он отмечает, что эти чат-боты, как правило, избегают таких тем.
Миттельштадт предполагает, что у чат-ботов есть стимул быть ‘дружественными к рекламодателям’, что делает маловероятным, что другие технологические компании будут явно инструктировать аннотаторов данных, чтобы позволить чат-боту быть открытым для теорий заговора или потенциально оскорбительных комментариев. Это выделяет xAI как компанию, активно занимающую политическую позицию в области ИИ.