В 2025 году произошло сейсмическое событие в мире искусственного интеллекта: китайская команда DeepSeek представила DeepSeek-R1. Эта языковая модель с открытым исходным кодом и 671 миллиардом параметров быстро зарекомендовала себя как грозный соперник, конкурирующий с ведущими моделями OpenAI в таких важных областях, как математика, программирование и логическое мышление. Способность DeepSeek-R1 решать сложные задачи была особенно примечательна благодаря использованию обучения с подкреплением. Лицензия MIT модели еще больше изменила ситуацию, устранив коммерческие барьеры. Отголоски дебюта DeepSeek-R1 ощущались во всем технологическом мире и даже на финансовых рынках, что, как сообщается, вызвало значительное падение акций AI в течение недели после его выпуска.
DeepSeek-R1 ознаменовал собой значительный скачок вперед для китайского движения AI с открытым исходным кодом в сфере высококлассных языковых моделей. Этот непредвиденный вызов побудил мировых лидеров AI из Соединенных Штатов и Китая ускорить свои инициативы, раскрывая свои стратегии как в технологиях, так и в рыночном позиционировании. Это положило начало гонке AI вокруг модели DeepSeek-R1.
Давайте рассмотрим, как основные игроки на арене AI – Meta, Google, OpenAI, Anthropic, Alibaba и Baidu – отреагировали на эту новую конкуренцию.
Meta: Использование масштаба и эффективности с помощью LLaMA 4
Meta, лидер в сообществе моделей с открытым исходным кодом, отреагировала на DeepSeek R1, представив LLaMA 4. В апреле 2025 года Meta запустила LLaMA 4, свою самую мощную модель на сегодняшний день, предоставив доступ к API через такие платформы, как Cloudflare. LLaMA 4 использует архитектуру Mixture-of-Experts (MoE), которая разделяет модель на подмодели и активирует только часть из них во время каждого вывода. Эта конструкция уравновешивает крупномасштабные параметры с эффективностью вывода.
Серия LLaMA 4 включает в себя несколько подмоделей, в том числе «Scout», с 109 миллиардами общих параметров и только 17 миллиардами активных параметров, что позволяет ей работать на одной карте H100. Модель «Maverick» имеет 400 миллиардов общих параметров (128 экспертов), но по-прежнему только 17 миллиардов активных параметров, что требует кластера DGX. Эта конструкция позволяет LLaMA 4 поддерживать окна контекста до 10 миллионов токенов, что делает ее одной из первых моделей с открытым исходным кодом, предлагающих эту возможность. Это особенно полезно для обобщения длинных документов и анализа больших репозиториев кода.
LLaMA 4 поддерживает быстрое время отклика и поддерживает мультимодальные входы для изображений, аудио и видео благодаря своей архитектуре MoE. Meta выбрала стратегию эффективности, укрепляя свои мультимодальные возможности и оптимизируя свои операции, чтобы укрепить свои позиции в секторе с открытым исходным кодом, в то время как DeepSeek фокусируется на возможностях вывода.
Google: Эволюция Gemini в сторону автономных интеллектуальных агентов
Столкнувшись с объединенным давлением со стороны OpenAI и DeepSeek, Google выбрала стратегию технологических инноваций. В феврале 2025 года Google представила серию Gemini 2.0, в которую вошли версии Flash, Pro и Lite, что сигнализирует о переходе к возможностям «интеллектуального агента».
Агентские возможности Gemini 2.0 представляют собой значительный прогресс. Модель может понимать несколько модальностей и активно использовать поисковые системы, среды исполнения кода и веб-браузинг. Проект Mariner от Google позволяет выполнять операции браузера Chrome на основе AI, позволяя AI заполнять формы и нажимать кнопки.
Google также представила протокол Agent2Agent, который позволяет различным интеллектуальным агентам общаться и работать вместе, чтобы поддерживать свою экосистему агентов. Кроме того, она создала Agent Garden, инструмент и набор для разработки, чтобы стимулировать участие сторонних разработчиков.
Google переопределяет основные сценарии следующей эры, концентрируясь на сотрудничестве интеллектуальных агентов, поскольку AI развивается в сторону основанных на инструментах и автономных возможностей, в отличие от сосредоточения внимания на гонке параметров с DeepSeek и OpenAI. Эволюция Gemini представляет собой стратегический сдвиг, а не просто обновление модели.
OpenAI: Итерация моделей и интеграция экосистем для надежности и лидерства
OpenAI ускорила итерации своих моделей и развертывание продуктов в ответ на DeepSeek R1. В феврале 2025 года OpenAI запустила GPT-4.5, промежуточную версию GPT-4, которая улучшает логическую согласованность и фактическую точность, а также прокладывает путь для GPT-5.
GPT-4.5 считается последней крупной моделью, которая не включает в себя цепочку рассуждений. GPT-5 объединит функции экспериментальной модели рассуждений o3-mini и серии GPT для создания унифицированной «общей когнитивной модели». OpenAI также заявила, что GPT-5 будет иметь высоко регулируемые уровни интеллекта и возможности использования инструментов.
OpenAI решила разрешить бесплатным пользователям ChatGPT использовать базовую версию GPT-5, в то время как платные пользователи будут иметь доступ к более расширенным функциям, чтобы снизить риск переключения пользователей на альтернативы с открытым исходным кодом. Эта стратегия направлена на то, чтобы удержать пользователей с широким охватом.
OpenAI также интегрирует возможности, такие как плагины, браузеры и исполнители кода, в основную модель GPT, а не держит их отдельно, чтобы создать «полнофункциональный AI». OpenAI отвечает на вызов R1 путем систематической интеграции и увеличения плотности интеллекта.
Anthropic: Углубление надежного интеллекта с помощью смешанных рассуждений и бюджетов мышления
Anthropic представила Claude 3.7 Sonnet в феврале 2025 года, которая фокусируется на «смешанном рассуждении» и «бюджетах мышления». Пользователи могут выбрать «стандартный режим» для быстрых ответов или включить «расширенный режим» для более глубокого, пошагового мышления.
Этот метод похож на «больше думать», когда люди сталкиваются с трудными задачами, поскольку он позволяет AI тратить больше времени на рассуждения, чтобы повысить точность. Anthropic также позволяет пользователям устанавливать «время мышления», чтобы сбалансировать глубину рассуждений и затраты на вызовы.
Claude 3.7 превосходит своего предшественника, 3.5, в сложных задачах, таких как программирование и рассуждение, и является одной из немногих моделей в отрасли, которая фокусируется на прозрачности процесса рассуждения. Ее возможности кодирования также достигли 70,3% точности в самых последних оценках.
Claude 3.7 демонстрирует приверженность Anthropic «контролируемому интеллекту», фокусируясь на создании моделей с объяснимыми, стабильными и настраиваемыми схемами мышления, а не на стремлении к наращиванию параметров. Anthropic неуклонно продвигается в своем собственном темпе в «гонке рассуждений», вызванной R1.
Alibaba: Создание китайской экосистемы с открытым исходным кодом с помощью Qwen
Damo Academy Alibaba быстро обновила свое семейство моделей Qwen всего через неделю после выпуска DeepSeek R1, выпустив серию Qwen 2.5 в феврале 2025 года и новую серию Qwen 3 в конце апреля, демонстрируя сильную оперативность продукта и стратегическое видение.
Серия Qwen 3 включает в себя версии моделей с диапазоном от 600 миллионов до 235 миллиардов параметров. Она использует архитектуру MoE для поддержания производительности модели при использовании меньшего количества вычислительных ресурсов. Флагманской модели Qwen3-235B-A22B требуется всего четыре высокопроизводительных графических процессора для развертывания путем оптимизации параметров активации, что значительно снижает барьер для предприятий для внедрения больших моделей. В нескольких стандартных тестах общая производительность Qwen 3 превосходит показатели ведущих международных моделей, таких как DeepSeek R1, OpenAI o1 и Gemini 2.5 Pro.
Alibaba уделяет большое внимание созданию экосистемы с открытым исходным кодом, в дополнение к технологической конкурентоспособности. Qwen 3 полностью открыт под лицензией Apache 2.0, с открытыми весами, кодом обучения и инструментами развертывания, поддерживающими многоязычные (119 языков) и мультимодальные приложения, с целью создания базовой модели, которая может использоваться и настраиваться непосредственно глобальными разработчиками.
Стратегия Alibaba «технология + экосистема» дополняет легкий прорывной стиль DeepSeek. Одна подчеркивает быструю итерацию и ведущий вывод, в то время как другая подчеркивает построение экосистемы и балансирование масштаба и разнообразия. Qwen постепенно зарекомендовывает себя как «экосистемный центр» больших моделей с открытым исходным кодом на внутреннем рынке, что является устойчивым ответом на отраслевые сбои, вызванные DeepSeek.
Baidu: Улучшение мультимодальности и инструментов плагинов с обновлением ERNIE Bot
Baidu значительно обновила свою флагманскую модель ERNIE Bot в марте, выпустив ERNIE Bot 4.5 и ERNIE X1 для публичного тестирования. ERNIE X1 позиционируется как «модель глубокого мышления», фокусируясь на улучшении способности AI понимать, планировать и выполнять сложные задачи.
ERNIE 4.5 – это первая собственная мультимодальная большая модель Baidu, поддерживающая совместное моделирование текста, изображений, аудио и видео. Эта версия также значительно снижает генерацию галлюцинаций и улучшает понимание кода и логические рассуждения, превосходя уровни GPT-4.5 во многих задачах китайского сценария.
Baidu создает «экосистему инструментов AI», которая более полезна. Модель X1 может использовать поиск, Q&A документов, чтение PDF, выполнение кода, распознавание изображений, доступ к веб-страницам и функции запроса бизнес-информации, чтобы по-настоящему реализовать «практическую способность» AI, что перекликается с маршрутом агента Google Gemini.
Baidu также объявила, что откроет некоторые параметры модели ERNIE к концу июня 2025 года и дополнительно расширит интеграцию приложений с корпоративными клиентами. Серия ERNIE переходит от продукта с замкнутым циклом к платформенной экосистеме, привлекая разработчиков и предприятия через API и системы плагинов.
Вместо того, чтобы напрямую конкурировать с R1 и Qwen в пространстве открытого исходного кода, Baidu использует свое глубокое накопление в китайском контенте, поисковых сервисах и графах знаний для глубокой интеграции модели со сценариями продуктов, такими как поиск, офис и информационный поток, создавая более локализованный портфель продуктов AI.
Таким образом, выпуск DeepSeek R1 был больше, чем просто технологическим прорывом; это был катализатор на мировой арене AI. Он заставил гигантов улучшить производительность вывода, стимулировал отечественные компании к конкуренции за открытый исходный код и побудил американские компании ускорить разработку агентов, интеграции и мультимодальности.
Хотя ответы китайских и американских гигантов AI различаются, их цели совпадают: создать более сильные, более надежные и более гибкие большие модели и выиграть тройную конкуренцию технологий, экосистемы и пользователей. Этот процесс далек от завершения. Поскольку GPT-5, Gemini 3, Claude 4 и даже DeepSeek R2 и Qwen 4 выпускаются один за другим, глобальный AI вступает в новую стадию «спирального подъема».
Для корпоративных пользователей и разработчиков эта конкуренция принесет больше выбора, снижение затрат и более мощные инструменты больших моделей. Глобальные возможности AI распространяются и демократизируются беспрецедентными темпами, и следующий решающий технологический прорыв, возможно, уже на подходе.