Появление сложных моделей искусственного интеллекта, таких как R1 от DeepSeek, вызвало волнение в технологическом ландшафте Запада, побуждая к необходимому самоанализу стратегий развития ИИ, особенно в отношении часто конкурирующих требований экономической эффективности и передовых возможностей. Однако последствия выходят далеко за рамки простых технических показателей или экономической эффективности. Траектория, обозначенная DeepSeek, заставляет задуматься над более глубоким и неотложным вопросом: Что означает подъем определенных типов ИИ, особенно тех, которые продвигаются недемократическими государствами, для будущего здоровья и принципов самой демократии в эпоху, все более формируемую алгоритмами?
В основе этой проблемы лежит концепция open-source AI. Это относится к системам ИИ, где фундаментальные компоненты – от базового кода до наборов данных, используемых для обучения – делаются общедоступными. Эта прозрачность позволяет пользователям не только использовать инструменты, но и изучать их внутреннее устройство, модифицировать их для конкретных целей и делиться своими инновациями. Хотя точное определение ‘open source’ в контексте сложных моделей ИИ все еще обсуждается, его потенциал огромен. Он обещает демократизировать разработку ИИ, способствуя созданию динамичной экосистемы, где разработчики могут сотрудничать и опираться на работу друг друга. Этот дух сотрудничества может расширить возможности отдельных лиц, исследователей и сообществ для адаптации решений ИИ для критически важных секторов, таких как образование, здравоохранение и финансовые услуги, потенциально открывая значительные инновации и ускоряя экономический прогресс во всех сферах.
Тем не менее, этот многообещающий технологический путь несет в себе присущие сложности и риски, особенно в отношении его управления и основополагающих ценностей. Например, сообщения о модели DeepSeek R1 предполагают, что она может включать механизмы, которые цензурируют или выборочно скрывают информацию от пользователей. Этот единичный пример подчеркивает большую опасность: демократические страны рискуют не просто отстать в технологической гонке за превосходство в ИИ. Они сталкиваются с не менее критической опасностью уступки позиций в решающей битве за формирование управления ИИ, потенциально позволяя системам, пронизанным авторитарными принципами, распространяться по всему миру, затмевая те, которые разработаны для поддержки демократических норм, таких как свобода выражения мнений и доступ к информации.
Поэтому текущий момент требует проактивного и скоординированного ответа. Соединенным Штатам необходимо наладить прочное партнерство со своими демократическими союзниками, при этом Европейский Союз является особенно важным сотрудником, для установления глобальных стандартов и лучших практик специально для open-source AI. Используя свои существующие законодательные рамки и значительное рыночное влияние, эти трансатлантические партнеры должны возглавить создание надежной структуры управления для этой развивающейся области. Критически важным первым шагом является официальное согласование функционального определения open-source AI для обеспечения ясности и эффективности регулирования. После этого необходимо согласованное ускорение усилий для обеспечения того, чтобы демократические ценности – прозрачность, справедливость, подотчетность и уважение основных прав – были глубоко внедрены в разрабатываемые и продвигаемые модели open-source AI. Такой стратегический толчок необходим, чтобы проложить путь к будущему ИИ, которое будет действительно открытым, прозрачным и расширяющим возможности для всех, а не тонко сформированным автократическим контролем.
Расчетливое принятие открытости Китаем
Понимание текущей динамики требует оценки стратегических маневров Китая в области ИИ. Часть заметного успеха DeepSeek заключается не только в техническом мастерстве; он согласуется со все более ясными сигналами от Коммунистической партии Китая (CCP), указывающими на намерение интегрировать нормотворчество в области open-source AI непосредственно в свою правовую и политическую архитектуру. Значительный индикатор появился в апреле 2024 года с проектом Типового закона об ИИ. Этот документ явно формулирует поддержку Пекином культивирования отечественной экосистемы open-source AI.
Статья 19 этого проекта закона провозглашает, что государство «способствует построению экосистемы open source» и активно «поддерживает соответствующие организации в создании или эксплуатации платформ open source, сообществ open source и проектов open source». Он идет дальше, поощряя компании делать «исходный код программного обеспечения, аппаратные разработки и прикладные сервисы общедоступными», якобы для содействия обмену в масштабах всей отрасли и совместным инновациям. Возможно, наиболее показательно то, что проект предлагает снизить или даже отменить юридическую ответственность для организаций, предоставляющих модели open-source AI, при условии создания систем управления, соответствующих «национальным стандартам», и внедрения «соответствующих мер безопасности». Это представляет собой потенциально значительный сдвиг по сравнению с предыдущим законодательством Китая, связанным с ИИ, которое часто более явно подчеркивало защиту прав пользователей. Хотя это все еще проект, конкретные положения Типового закона об ИИ предлагают ценный план, раскрывающий, как Китай представляет себе развертывание open-source AI внутри страны и, что особенно важно, какими характеристиками могут обладать его экспортируемые модели ИИ.
Дальнейшим подкреплением этого стратегического направления является Рамочная программа управления безопасностью ИИ (AI Safety Governance Framework), документ, который Китай намерен использовать на международном уровне для «содействия международному сотрудничеству в области управления безопасностью ИИ на глобальном уровне». Эта рамочная программа отражает растущую напористость страны в отношении open-source AI. Разработанная Национальным техническим комитетом Китая 260 по кибербезопасности – органом, тесно связанным с влиятельной Администрацией киберпространства Китая, чьи руководящие принципы кибербезопасности были официально приняты CCP в сентябре 2024 года – рамочная программа недвусмысленно заявляет: «Мы должны способствовать обмену знаниями в области ИИ, делать технологии ИИ доступными для общественности на условиях open-source и совместно разрабатывать чипы, фреймворки и программное обеспечение для ИИ». Включение такого сильного заявления в документ, предназначенный для глобальной аудитории, ясно сигнализирует об амбициях Китая не просто участвовать в движении open-source AI, но и позиционировать себя как ведущего защитника и законодателя стандартов в этой критической технологической сфере. Однако это расчетливое принятие «открытости» действует в отчетливо контролируемой среде, стремясь использовать инновационную мощь open source, сохраняя при этом соответствие государственным целям.
Нерешительность Америки: Оборона вместо Направления
По другую сторону Тихого океана повествование вокруг open-source AI в Соединенных Штатах представляет собой исследование контрастов. В течение некоторого времени защитники в технологической индустрии и академических кругах отстаивали значительные преимущества подходов open-source. Видные деятели отрасли публично призывали правительство США уделить большее стратегическое внимание развитию open-source AI. Ярким примером является запуск Марком Цукербергом (Mark Zuckerberg) модели open-source Llama 3.1, сопровождавшийся его утверждением, что open source «представляет собой лучший шанс мира» на создание широких «экономических возможностей и безопасности для всех».
Несмотря на эту громкую пропаганду со стороны влиятельных кругов, Соединенные Штаты заметно не смогли создать какой-либо значимой законодательной базы, специально разработанной для продвижения или руководства разработкой open-source AI. Хотя сенатор США внес законопроект в 2023 году, направленный на создание основы для безопасности программного обеспечения open-source, это законодательство застопорилось без значимого прогресса. Федеральные агентства затрагивали этот вопрос, но часто с осторожной или реактивной позицией. В прошлом году Национальное управление по телекоммуникациям и информации (NTIA) опубликовало отчет, изучающий базовые модели ИИ двойного назначения с «открытыми весами» (‘open weights’). Важно отметить, что ‘open weights’ обычно означает, что параметры модели доступны для использования, но это не обязательно соответствует полным критериям истинного open source (что часто включает доступ к обучающим данным и коду). Отчет NTIA рекомендовал правительству усилить мониторинг потенциальных рисков, связанных с этими моделями с открытыми весами, чтобы лучше определить соответствующие ограничения. Впоследствии окончательная нормативная база администрации Байдена (Biden) в области ИИ заняла несколько более мягкую позицию по отношению к открытым моделям, установив более строгие требования для самых мощных моделей с закрытыми весами (‘closed-weight’), в то же время в значительной степени исключив модели с открытыми весами из этих конкретных ограничений.
Тем не менее, четкая, проактивная национальная стратегия по продвижению демократического open-source AI остается недостижимой. Будущее направление при потенциальных сменах руководства добавляет еще один слой неопределенности. Бывший президент Дональд Трамп (Donald Trump) не сформулировал конкретной политики или руководства в отношении open-source AI. Хотя он отменил первоначальный исполнительный указ президента Байдена об ИИ, изданный взамен указ не содержал каких-либо конкретных инициатив, посвященных содействию или управлению разработкой open-source AI.
В целом, американский подход кажется преимущественно оборонительным. Основное внимание, по-видимому, уделяется разработке высокопроизводительных, часто проприетарных моделей ИИ, одновременно прилагая значительные усилия для предотвращения доступа противников, особенно Китая, к передовым полупроводниковым технологиям и возможностям ИИ. Эта оборонительная позиция, хотя и понятна с точки зрения национальной безопасности, рискует пренебречь критически важной наступательной стратегией: активным культивированием и продвижением глобальной экосистемы open-source AI, основанной на демократических принципах. США, похоже, озабочены охраной своих технологических крепостей, потенциально упуская возможность формировать более широкий глобальный ландшафт посредством проактивного распространения открытых, уважающих права альтернатив ИИ.
Регуляторный парадокс Европы: Власть и Паралич
Европейский Союз (European Union), известный своей напористой регуляторной позицией в цифровой сфере, представляет собой иной вид вызова в отношении open-source AI. С момента знакового внедрения Общего регламента по защите данных (GDPR) ЕС успешно позиционировал себя как глобального законодателя стандартов для цифровой экономики. Страны и многонациональные корпорации по всему миру часто приводят свою практику в соответствие с нормативными рамками ЕС, и эта тенденция распространяется на область искусственного интеллекта с появлением всеобъемлющего Закона ЕС об ИИ (EU AI Act). Этот закон направлен на установление основанных на риске правил для систем ИИ во всем Союзе.
Однако, когда дело доходит до конкретного рассмотрения open-source AI, грозный регуляторный механизм ЕС кажется удивительно нерешительным, а его усилия – несколько недоразвитыми. Статья 2 Закона об ИИ действительно содержит краткое упоминание, предусматривая определенные исключения из регулирования для моделей open-source AI. Тем не менее, практическое влияние этого исключения кажется ограниченным, особенно потому, что оно обычно не применяется к моделям, развернутым в коммерческих целях. Этот узкий охват значительно ограничивает его реальное воздействие на развивающийся ландшафт open-source AI.
Эта парадоксальная ситуация – признание open source при отсутствии активного его поощрения – сохраняется и в других руководящих документах ЕС. Самый последний Кодекс практики для ИИ общего назначения (General-Purpose AI Code of Practice), гипотетически опубликованный в марте 2025 года для целей данного обсуждения, может признавать положительный вклад моделей open-source в разработку безопасного, ориентированного на человека и заслуживающего доверия ИИ. Однако такие документы часто лишены содержательной проработки или конкретных мер, направленных на активное продвижение разработки и широкого внедрения этих потенциально полезных моделей open-source AI. Даже в стратегических рамках, таких как Компас конкурентоспособности ЕС (EU Competitiveness Compass) – якобы разработанный для борьбы с чрезмерным регулированием и повышения стратегической конкурентоспособности в ключевых областях, таких как ИИ – термин ‘open source’ заметно отсутствует или получает минимальное внимание.
Этот осторожный, почти сдержанный подход Брюсселя к полному принятию и регулированию open-source AI, вероятно, обусловлен несколькими факторами. Одним из существенных препятствий является внутренняя сложность точного определения open-source AI. В отличие от традиционного программного обеспечения open-source, которое в основном включает исходный код, open-source AI охватывает сложные предварительно обученные модели, обширные наборы данных и запутанные архитектуры. Отсутствие общепринятого юридического определения, несмотря на усилия таких организаций, как Open Source Initiative (OSI), создает уровень правовой неопределенности, с которым регулирующие органы, такие как Европейская комиссия (European Commission), обычно чувствуют себя некомфортно.
Тем не менее, основная причина этой относительной бездеятельности может лежать глубже. Сам успех ЕС в установлении далеко идущих регуляторных режимов, таких как GDPR, может заставить Комиссию опасаться создания широких исключений для такой мощной и быстро развивающейся технологии, как ИИ, особенно когда ее вариант open-source остается несколько неопределенным. Может существовать опасение, что слишком поспешное принятие open-source AI без полностью установленных защитных механизмов может непреднамеренно ослабить с трудом завоеванное глобальное регуляторное влияние ЕС. Это представляет собой стратегическую авантюру – приоритет всеобъемлющего контроля над потенциальным развитием более динамичной, хотя и менее предсказуемой, открытой инновационной экосистемы – авантюру, на которую Брюссель до сих пор не проявлял особого желания решиться. Этот регуляторный паралич оставляет вакуум, который охотно заполняют другие.
Меняющийся геополитический ландшафт ИИ
Слияние стратегического рывка Китая (China) в open-source AI и относительной нерешительности Соединенных Штатов (United States) и Европейского Союза (European Union) активно перекраивает геополитический ландшафт искусственного интеллекта. Решительное стремление Китая к технологической самодостаточности, кампания, которая теперь явно включает укрепление его стратегий вокруг open-source AI, можно частично понять как ответ на устойчивый экспортный контроль США, нацеленный на передовое вычислительное оборудование и полупроводники, меры, введенные из-за американских опасений по поводу национальной безопасности, экономической конкурентоспособности и защиты интеллектуальной собственности, датируемых несколькими годами ранее. Контрмеры Китая, включая его принятие open source, отражают более широкую, усиливающуюся стратегическую конкуренцию за технологическое превосходство между двумя мировыми державами. ЕС, тем временем, обычно утверждает свое влияние в этой гонке не через прямую технологическую конкуренцию в том же масштабе, а путем установления глобальных норм, сосредоточенных на защите основных прав, конфиденциальности и демократических ценностей, таких как справедливость и алгоритмическая подотчетность – стандартов, которые действительно сформировали политику крупных мировых технологических фирм.
Однако, агрессивно позиционируя себя как лидера и защитника open-source AI, Китай умело превращает вызов – ограниченный доступ к определенным западным технологиям – в стратегическую возможность. Он эффективно создает и продвигает свою собственную отличительную версию открытости ИИ мировому сообществу, особенно развивающимся странам, ищущим доступные инструменты ИИ. Появление способных китайских моделей, таких как R1 от DeepSeek, наряду с предложениями от других отечественных технологических гигантов, таких как Alibaba, начинает менять глобальную динамику. Это потенциально снижает глобальный аппетит к исключительно закрытым, проприетарным моделям ИИ, особенно если открытые альтернативы кажутся более доступными или экономически эффективными. DeepSeek, например, выпустил меньшие, менее требовательные к вычислениям модели, подходящие для устройств с ограниченной вычислительной мощностью. Платформы, такие как Hugging Face, крупный центр разработки ИИ, по сообщениям, начали анализировать и воспроизводить аспекты методов обучения DeepSeek-R1 для улучшения своих собственных моделей. Даже западные технологические гиганты, такие как Microsoft, OpenAI и Meta, все чаще изучают такие методы, как дистилляция моделей, которая приобрела известность отчасти благодаря разработкам DeepSeek.
Этот развивающийся ландшафт показывает, что Китай проактивно продвигает глобальный диалог вокруг открытости ИИ, впервые заставляя Соединенные Штаты реагировать и адаптироваться к этому дискурсу. Одновременно ЕС остается несколько застрявшим в состоянии правовой и регуляторной инерции в отношении open source. Эта асимметрия создает заметный дисбаланс сил именно в критически важной области управления и распространения open-source AI.
Критически важно, что версия open-source AI, распространяемая Китаем, несет значительные опасения для демократических обществ. CCP, по-видимому, стратегически внедряет «двухколейную» систему: поощряя относительную открытость и сотрудничество между разработчиками и фирмами ИИ для стимулирования инноваций, одновременно встраивая контроль и ограничения в общедоступные модели для ограничения потока информации и свободы выражения мнений. Эта «открытость» сильно обусловлена устоявшимися моделями технологического контроля Китая, часто требующими, чтобы входные и выходные данные модели соответствовали санкционированным государством нарративам, ценностям CCP и проецировали положительный национальный имидж. Даже в рамках своей глобально ориентированной Рамочной программы управления безопасностью ИИ (AI Safety Governance Framework), где китайские власти открыто принимают принципы open-source, есть показательные формулировки об угрозах, которые контент, генерируемый ИИ, представляет для «идеологической безопасности» — ясный сигнал о присущих CCP ограничениях свободы мысли и слова.
Без надежной альтернативной основы, основанной на защите демократических принципов и основных прав человека, мир рискует стать свидетелем широкого воспроизводства и принятия более ограничительной интерпретации open-source AI Китаем. Авторитарные режимы и потенциально даже негосударственные субъекты во всем мире могли бы легко опираться на эти модели, обеспечивая изощренную цензуру и наблюдение, при этом вводя в заблуждение утверждениями о том, что они просто способствуют технологической доступности. Поэтому сосредоточение исключительно на достижении технологических показателей Китая недостаточно. Демократии должны реагировать стратегически, взяв на себя инициативу в установлении и продвижении демократического управления для эры open-source AI.
Прокладывая трансатлантический путь вперед
Текущая траектория требует решительных действий и возобновления сотрудничества между ведущими демократиями мира. Соединенные Штаты (United States) и Европейский Союз (European Union) должны серьезно рассмотреть возможность начала стратегии дипломатии open-source (‘open-source diplomacy’). Это включает проактивное продвижение разработки и обмена способными, заслуживающими доверия и уважающими права моделями ИИ по всему миру в качестве противовеса авторитарным альтернативам. Центральным элементом этих усилий является создание единой структуры управления для open-source AI, разработанной совместно US и EU.
Для эффективного формирования демократического будущего ИИ создание специальной трансатлантической рабочей группы по open-source AI является критически важным следующим шагом. Эта группа должна использовать существующие структуры там, где это уместно, такие как Глобальное партнерство по искусственному интеллекту (Global Partnership on Artificial Intelligence, GPAI), но должна критически обеспечить активное участие и вклад ведущих технологических компаний, академических исследователей и экспертов гражданского общества с обеих сторон Атлантики на протяжении всего процесса разработки рамок. Этот инклюзивный подход жизненно важен для создания стандартов, которые являются одновременно принципиальными и практичными.
Во-вторых, как Соединенным Штатам, так и ЕС необходимо подкрепить это видение ощутимыми ресурсами. Это означает стратегическое направление финансирования в академические учреждения, исследовательские лаборатории и инновационные стартапы, специально ориентированные на разработку моделей open-source AI, которые явно соответствуют демократическим ценностям. Ключевые характеристики таких моделей будут включать:
- Прозрачность в дизайне и обучающих данных.
- Надежные гарантии против цензуры и манипуляций.
- Механизмы подотчетности и смягчения предвзятости.
- Встроенное уважение к конфиденциальности и основным правам.
Продвижение этих демократических моделей требует четкого признания со стороны политиков как в Вашингтоне, так и в Брюсселе, что долгосрочные стратегические выгоды от fostering глобальной экосистемы, основанной на этих принципах, значительно перевешивают воспринимаемые краткосрочные риски, связанные с открытостью. Одновременно ЕС должен более решительно использовать свое устоявшееся регуляторное мастерство в этой конкретной области. Сохраняя свою приверженность высоким стандартам, Брюсселю необходимо преодолеть свою нерешительность в отношении юридического определения open-source AI и действовать более оперативно для установления четких руководящих принципов и стимулов, тем самым противодействуя растущему импульсу Китая в формировании глобальных норм. Принятие определенной степени управляемой неопределенности может быть необходимо, чтобы избежать дальнейшей уступки позиций.
Хотя трансатлантические отношения могут периодически сталкиваться с турбулентностью на различных фронтах, вызов, брошенный восхождением Китая в open-source AI, подчеркивает абсолютную необходимость сотрудничества US-EU над конкуренцией в этой области. Восстановление лидерства в этой ключевой технологической арене требует согласованной, дальновидной трансатлантической инициативы. Эта инициатива должна интегрировать проактивную разработку политики, целевое финансирование исследований и поддержку инноваций, все это направлено на установление глобального стандарта для будущего ИИ, которое будет действительно уважающим права, прозрачным, креативным и расширяющим возможности для людей во всем мире. Время нерешительного наблюдения прошло; настал момент для решительных, объединенных действий.