Недавний выпуск Google модели искусственного интеллекта (ИИ) Gemini 2.5 Pro вызвал споры из-за отсутствия важного отчёта по безопасности. Это упущение, по-видимому, противоречит обещаниям, данным Google правительству США и на международных саммитах, что вызывает опасения по поводу приверженности компании прозрачности и ответственной разработке ИИ. Эксперты сейчас задаются вопросом, не отказываются ли Google и другие ведущие лаборатории ИИ от своих обещаний информировать общественность о возможностях и потенциальных рисках, связанных с их моделями ИИ.
Нарушенные обещания и невыполненные обязательства
Неспособность Google предоставить отчёт об исследованиях безопасности вместе с выпуском Gemini 2.5 Pro рассматривается как нарушение предыдущих обязательств. В июле 2023 года Google участвовала во встрече в Белом доме, созванной администрацией Байдена, где она присоединилась к другим известным компаниям ИИ в подписании ряда обязательств. Ключевым обязательством была публикация отчётов для всех основных публичных выпусков моделей, которые превзошли современный уровень ИИ на тот момент. Учитывая его достижения, Gemini 2.5 Pro почти наверняка подпадает под действие этих обязательств Белого дома.
В то время Google согласилась с тем, что эти отчёты должны включать:
- Проведённые оценки безопасности, включая оценки опасных возможностей.
- Существенные ограничения производительности, которые могут повлиять на соответствующие варианты использования.
- Обсуждение влияния модели на социальные риски, такие как справедливость и предвзятость.
- Результаты враждебного тестирования для оценки пригодности модели для развёртывания.
После встречи G7 в Хиросиме, Япония, в октябре 2023 года Google и другие компании обязались придерживаться добровольного кодекса поведения при разработке передового ИИ. Этот кодекс G7 подчеркнул важность публичного отчёта о возможностях, ограничениях и подходящих и неподходящих приложениях передовых систем ИИ. Целью было повышение прозрачности и подотчётности в области ИИ.
В мае 2024 года на международном саммите по безопасности ИИ, состоявшемся в Сеуле, Южная Корея, Google подтвердила свои обязательства. Компания пообещала публично раскрывать возможности модели, ограничения, подходящие и неподходящие варианты использования, а также обеспечивать прозрачность своих оценок рисков и результатов.
Ответ Google и отложенная прозрачность
В ответ на вопросы об отсутствующем отчёте по безопасности представитель Google DeepMind, подразделения, отвечающего за разработку моделей Gemini, заявил, что последняя версия Gemini прошла предварительное тестирование. Это включало внутренние оценки разработки и оценки обеспечения, проведённые до выпуска модели. Представитель также указал, что отчёт с дополнительной информацией о безопасности и картами моделей “скоро появится”. Однако, несмотря на то, что первоначальное заявление было сделано 2 апреля, карта модели не была опубликована до сих пор.
Более широкая тенденция пренебрежения отчётностью по безопасности
Google не одинока в столкновении с критикой в отношении своей приверженности безопасности ИИ. Ранее в этом году OpenAI также столкнулась с критикой за неспособность своевременно выпустить карту модели для своей модели Deep Research. Вместо этого они опубликовали системную карту через несколько недель после первоначального выпуска проекта. Аналогично, недавний отчёт Meta о безопасности для Llama 4 подвергся критике за то, что он слишком краток и не содержит деталей.
Эти случаи высвечивают тревожную тенденцию в индустрии ИИ, когда некоторые крупные лаборатории не уделяют приоритетное внимание отчётности по безопасности в соответствии с выпусками своих моделей. Это особенно тревожно, учитывая добровольные обязательства, которые эти компании взяли на себя перед правительством США и мировым сообществом по подготовке таких отчётов. Эти обязательства были первоначально взяты на себя перед администрацией Байдена в 2023 году и впоследствии были подкреплены обещаниями соблюдать кодекс поведения в области ИИ, принятый странами G7 на их саммите по ИИ в Хиросиме.
Кевин Банкстон, советник по управлению ИИ в Центре демократии и технологий, выразил своё разочарование, заявив, что эти неудачи подрывают доверие к вовлечённым компаниям и поднимают вопросы об их приверженности ответственной разработке ИИ.
Без ответа вопросы и внешняя оценка
Заявление представителя Google также не затронуло конкретные вопросы о том, была ли Gemini 2.5 Pro представлена для внешней оценки Институтом безопасности ИИ Великобритании или Институтом безопасности ИИ США. Ранее Google предоставляла более ранние поколения своих моделей Gemini Институту безопасности ИИ Великобритании для оценки.
На Сеульском саммите по безопасности Google подписала “Обязательства по безопасности передового ИИ”, которые включали обещание обеспечить публичную прозрачность в отношении реализации оценок безопасности. Единственным исключением были случаи, когда это увеличивало бы риск или раскрывало конфиденциальную коммерческую информацию в степени, непропорциональной общественной выгоде. В обязательстве также говорилось, что более подробная информация, которой нельзя делиться публично, всё равно должна быть передана правительствам стран, в которых базируются компании, что в случае Google будет США.
Компании также обязались объяснить, как внешние участники, такие как правительства, гражданское общество, учёные и общественность, вовлечены в процесс оценки рисков своих моделей ИИ. Неспособность Google ответить на прямые вопросы о том, представила ли она Gemini 2.5 Pro правительственным оценщикам США или Великобритании, потенциально нарушает это обязательство.
Приоритет развёртывания над прозрачностью
Отсутствие отчёта по безопасности вызвало опасения, что Google может отдавать приоритет быстрому развёртыванию над прозрачностью и тщательными оценками безопасности. Сандра Вахтер, профессор и старший научный сотрудник Оксфордского института Интернета, подчеркнула важность прозрачности в ответственных исследованиях и инновациях. Она провела аналогию с другими отраслями, заявив, что “Если бы это была машина или самолёт, мы бы не сказали: давайте просто выведем это на рынок как можно быстрее, а аспекты безопасности рассмотрим позже”. Вахтер выразила обеспокоенность тем, что в области генеративного ИИ преобладает отношение “выпустить это и беспокоиться, исследовать и исправлять проблемы позже”.
Политические сдвиги и конкурентное давление
Недавние политические изменения в сочетании с усилением соперничества между компаниями Big Tech могут способствовать отходу от предыдущих обязательств по безопасности, поскольку компании спешат развернуть модели ИИ. Вахтер отметила, что “Точка давления для этих компаний, заключающаяся в том, чтобы быть быстрее, быть проворнее, быть первыми, быть лучшими, быть доминирующими, более распространена, чем раньше”, добавив, что стандарты безопасности снижаются во всей отрасли.
Эти скользящие стандарты могут быть вызваны растущей обеспокоенностью среди технологических стран и некоторых правительств тем, что процедуры безопасности ИИ препятствуют инновациям. В США администрация Трампа дала понять о своём намерении принять менее строгий подход к регулированию ИИ по сравнению с администрацией Байдена. Новая администрация уже отменила указ Байдена об ИИ и налаживает более тесные отношения с лидерами технологической отрасли. На недавнем саммите по ИИ в Париже вице-президент США Дж.Д. Вэнс заявил, что “про-рост политики в области ИИ” следует отдавать приоритет над безопасностью и что ИИ - это “возможность, которую администрация Трампа не упустит”.
На том же саммите и Великобритания, и США отказались подписать международное соглашение об искусственном интеллекте, которое продвигало “открытый”, “инклюзивный” и “этичный” подход к развитию этой технологии.
Необходимость чётких требований к прозрачности
Банкстон подчеркнул, что “Если мы не можем рассчитывать на то, что эти компании выполнят даже свои самые основные обязательства по безопасности и прозрачности при выпуске новых моделей - обязательства, которые они сами добровольно взяли на себя, - то они явно выпускают модели слишком быстро в своей конкурентной гонке за доминирование в этой области”. Он добавил, что, поскольку разработчики ИИ продолжают спотыкаться в этих обязательствах, законодателям будет необходимо разработать и обеспечить соблюдение чётких требований к прозрачности, от которых компании не смогут уклониться.
Более широкие последствия для управления ИИ
Споры вокруг Google Gemini 2.5 Pro и отсутствующий отчёт по безопасности подчёркивают критическую необходимость надёжных рамок управления ИИ. Эти рамки должны решать ключевые вопросы, такие как:
- Прозрачность: Обеспечение прозрачности разработчиков ИИ в отношении возможностей, ограничений и потенциальных рисков их моделей.
- Подотчётность: Установление чётких линий подотчётности за разработку и развёртывание систем ИИ.
- Безопасность: Внедрение строгих процедур тестирования и оценки безопасности для минимизации риска причинения вреда.
- Этические соображения: Интеграция этических принципов в проектирование и разработку систем ИИ.
- Вовлечение общественности: Вовлечение общественности для содействия более широкому пониманию ИИ и его последствий.
- Международное сотрудничество: Сотрудничество на международном уровне для разработки общих стандартов и передовых методов управления ИИ.
Отсутствие прозрачности вокруг Gemini 2.5 Pro высвечивает потенциальные последствия пренебрежения этими важнейшими аспектами управления ИИ. Без надлежащей прозрачности и подотчётности становится трудно оценить истинное воздействие систем ИИ и обеспечить их разработку и развёртывание ответственным и этичным образом.
Движение вперёд: Призыв к большей ответственности
Индустрия ИИ находится на критическом этапе. Поскольку технологии ИИ становятся всё более мощными и распространёнными, важно, чтобы разработчики отдавали приоритет безопасности, прозрачности и этическим соображениям. Споры вокруг Gemini 2.5 Pro служат напоминанием о том, что добровольных обязательств не всегда достаточно. Правительства и регулирующие органы должны играть более активную роль в установлении чётких стандартов и обеспечении их соблюдения.
Более того, для разработчиков ИИ крайне важно взаимодействовать с общественностью и способствовать более широкому пониманию ИИ и его последствий. Это включает в себя прозрачность в отношении ограничений и потенциальных рисков систем ИИ, а также шаги, предпринимаемые для смягчения этих рисков. Работая вместе, индустрия ИИ, правительства и общественность могут обеспечить, чтобы технологии ИИ разрабатывались и развёртывались таким образом, чтобы приносить пользу обществу в целом.