1. Nvidia
Стремление к созданию все более сложных систем искусственного интеллекта (AI) продолжает стимулировать значительные инвестиции со стороны разработчиков больших языковых моделей (LLM). Однако одна компания уже пожинает плоды этой AI-революции: Nvidia. Запустив гонку AI благодаря своим доминирующим графическим процессорам (GPU), Nvidia теперь идеально позиционирована со своим революционным процессором и платформой Blackwell для поддержки стремления к интеллекту человеческого уровня.
Blackwell превосходит своего предшественника, H100, предлагая до 2,5 раз большую мощность для общих задач обучения моделей, при этом потребляя значительно меньше энергии. Крупные операторы центров обработки данных и AI-лаборатории, включая отраслевых гигантов, таких как Google, Meta, Microsoft, OpenAI, Tesla и xAI, обязались приобрести сотни тысяч GPU Blackwell.
В то время как недавние модели от китайских компаний, таких как DeepSeek и Alibaba, продемонстрировали впечатляющие возможности с использованием более старых, менее мощных GPU Nvidia, Nvidia не почивает на лаврах. Компания активно разрабатывает платформы для различных приложений, начиная от разработки лекарств (Clara for Biopharma) и автономных транспортных средств (Drive AGX) до видеопроизводства (Holoscan) и цифровых двойников (Omniverse). Способствуя прогрессу AI в широком спектре реальных сценариев, Nvidia стратегически позиционирует себя для устойчивого роста, даже если будущие модели будут демонстрировать меньшую зависимость от чистой вычислительной мощности.
2. OpenAI
С 2019 года OpenAI последовательно улучшала свои модели, расширяя данные для обучения и вычислительные ресурсы, - стратегия, которая получила широкое распространение в отрасли. Однако, когда уменьшающаяся отдача от этого подхода масштабирования стала очевидной, OpenAI осознала необходимость нового пути к достижению AGI – моделей, превосходящих человеческий интеллект в большинстве задач.
Решение OpenAI появилось в виде модели o1. Вместо того, чтобы сосредотачиваться исключительно на масштабировании ресурсов во время предварительного обучения, OpenAI разработала o1, чтобы выделять больше времени и вычислительной мощности во время вывода (inference), фазы, когда модель активно развернута и отвечает на запросы пользователей. Во время этого процесса o1 собирает и сохраняет контекстную информацию, как от пользователя, так и из соответствующих источников данных. Он использует методологию проб и ошибок, чтобы определить оптимальный путь к ответу. Результатом является генерация ответов уровня PhD на сложные вопросы, что вывело o1 на вершину рейтингов производительности.
OpenAI предлагает ‘экспериментальные’ и ‘мини’ версии o1 подписчикам ChatGPT Plus. Кроме того, премиальный сервис под названием ChatGPT Pro предоставляет неограниченный доступ к полной модели o1 за 200 долларов в месяц. В декабре 2024 года OpenAI представила преемника o1, o3, а в феврале 2025 года предоставила платным пользователям доступ к o3-mini, меньшему и более быстрому варианту, оптимизированному для науки, математики и программирования. Наиболее глубокое влияние новых моделей рассуждения OpenAI заключается в подтверждении того, что масштабирование вычислений во время вывода является многообещающим путем для достижения дальнейших прорывов в интеллекте на пути к AGI.
3. Google DeepMind
Фундаментальные исследования, которые проложили путь для современных чат-ботов, возникли в Google в конце 2010-х годов. Google разработал чат-бота на основе большой языковой модели задолго до появления ChatGPT. Однако сообщается, что опасения по поводу безопасности, конфиденциальности и юридических последствий привели к осторожному подходу, задержав его публичный выпуск. Эта нерешительность привела к тому, что Google изначально отставал в последовавшей за этим гонке AI, вызванной запуском ChatGPT.
Выпуск Gemini 2.0 от Google DeepMind в 2024 году ознаменовал окончательное возрождение Google. Gemini 2.0 представляет собой первую массовую AI-модель, которая по своей сути является мультимодальной, способной обрабатывать и генерировать изображения, видео, аудио и компьютерный код с той же беглостью, что и текст. Эта возможность позволяет модели анализировать и рассуждать о видеоклипах или даже о прямых видеотрансляциях с камеры телефона с поразительной скоростью и точностью.
Gemini также выделяется своей способностью управлять другими сервисами Google, такими как Maps и Search. Эта интеграция демонстрирует стратегическое преимущество Google, сочетающее его AI-исследования с его устоявшимися информационными и продуктивными инструментами. Gemini – одна из первых AI-моделей, демонстрирующих автономную работу и способность рассуждать о сложных проблемах от имени пользователя. Модель Gemini 2.0 Flash Thinking Experimental даже предоставляет пользователям информацию о мыслительном процессе, используемом для получения ответа. Кроме того, в декабре Google представил Project Mariner, агентную AI-функцию на основе Gemini, предназначенную для автономного выполнения таких задач, как онлайн-покупки продуктов.
4. Anthropic
Основные применения генеративного AI до сих пор были сосредоточены вокруг написания текста, обобщения и генерации изображений. Следующий эволюционный шаг включает в себя оснащение больших языковых моделей способностями к рассуждению и возможностью использовать инструменты. Модель ‘Computer Use’ от Anthropic предоставила ранний взгляд в это будущее.
Начиная с Claude 3.5 Sonnet в 2024 году, модель Anthropic может воспринимать активность на экране, включая интернет-контент. Она может манипулировать курсором, нажимать кнопки и вводить текст. Демонстрационное видео показало способность Claude заполнять форму, используя информацию, доступную на веб-сайтах, открытых во вкладках браузера. Она может выполнять такие задачи, как создание личного веб-сайта или организация логистики однодневной поездки. Автономные действия AI, такие как открытие новых вкладок, проведение поиска и заполнение полей данных, действительно замечательны.
Хотя модель в настоящее время работает медленнее и не всегда может дать правильный ответ, ожидается быстрое улучшение, поскольку Anthropic выявляет и устраняет ее ограничения. Вышеупомянутый Project Mariner от Google последовал примеру Anthropic в декабре, а OpenAI представила свою собственную модель использования компьютера, Operator, в январе 2025 года. В феврале 2025 года Anthropic представила свою следующую крупную итерацию, Claude 3.7 Sonnet, более крупную модель, способную автоматически включать режим рассуждения для сложных запросов.
5. Microsoft
Разработка моделей Phi от Microsoft возникла из фундаментального вопроса, поставленного исследователями компании в 2023 году: ‘Каков наименьший размер модели, который может проявлять признаки эмерджентного интеллекта?’ Этот вопрос ознаменовал поворотный момент в эволюции ‘малых языковых моделей’, моделей, разработанных для оптимальной производительности в сценариях с ограниченной памятью, вычислительной мощностью или возможностями подключения, где решающее значение имеет быстрое время отклика.
В течение 2024 года Microsoft выпустила два поколения небольших моделей, которые демонстрировали способности к рассуждению и логике, явно не включенные во время обучения. В апреле компания представила серию моделей Phi-3, которые превосходили в языковых, логических, кодовых и математических тестах, вероятно, благодаря их обучению на синтетических данных, сгенерированных значительно более крупными и более способными LLM. Варианты Phi-3 с открытым исходным кодом были загружены более 4,5 миллионов раз на Hugging Face в течение 2024 года.
В конце 2024 года Microsoft запустила свои малые языковые модели Phi-4, которые превзошли модели Phi-3 в задачах, ориентированных на рассуждение, и даже превзошли GPT-4o от OpenAI в тестах GPQA (научные вопросы) и MATH. Microsoft выпустила модель под лицензией с открытым исходным кодом и открытыми весами, что позволяет разработчикам создавать периферийные модели или приложения для телефонов или ноутбуков. Менее чем за месяц Phi-4 набрала 375 000 загрузок на Hugging Face.
6. Amazon
Amazon AWS недавно представила Trainium2, новую версию своего процессора Trainium для AI, потенциально бросающую вызов доминированию GPU Nvidia в определенных условиях. Trainium2 разработан для обеспечения огромной вычислительной мощности, необходимой для обучения крупнейших генеративных AI-моделей и для операций во время вывода после развертывания модели. AWS утверждает, что Trainium на 30-40% более рентабелен, чем GPU для сопоставимых задач.
Trainium2 устраняет недостатки мощности и интеграции программного обеспечения, наблюдавшиеся в первом чипе Trainium, что позволяет Amazon потенциально сократить разрыв с Nvidia. (Стоит отметить, что сама AWS по-прежнему сильно зависит от Nvidia в отношении GPU.) Вытеснить Nvidia – сложная задача из-за привязки клиентов к программному уровню CUDA от Nvidia, который предоставляет исследователям детальный контроль над тем, как их модели используют ресурсы чипа. Amazon предлагает свой собственный программный уровень управления ядром, Neuron Kernel Interface (NKI), который, как и CUDA, предоставляет исследователям детальный контроль над взаимодействием ядра чипа.
Важно отметить, что Trainium2 еще не был протестирован в масштабе. AWS в настоящее время строит серверный кластер с 400 000 чипами Trainium2 для Anthropic, что может дать ценную информацию об оптимизации производительности его AI-чипов в крупномасштабных развертываниях.
7. Arm
Британский разработчик полупроводников Arm долгое время был ключевым поставщиком архитектуры, используемой в чипах, питающих небольшие устройства, такие как телефоны, датчики и оборудование IoT. Эта роль приобретает повышенное значение в наступающую эпоху, когда чипы периферийных устройств будут выполнять AI-модели. Центры обработки данных также будут играть решающую роль в этой эволюции, часто обрабатывая некоторые или все самые требовательные AI-вычисления и доставляя результаты на периферийные устройства.
По мере того, как центры обработки данных распространяются по всему миру, их потребление электроэнергии будет становиться все более насущной проблемой. Этот фактор способствует акценту на эффективности в новейшей архитектуре процессора Neoverse от Arm. По заявлению компании, она может похвастаться 50%-ным улучшением производительности по сравнению с предыдущими поколениями и на 20% лучшей производительностью на ватт по сравнению с процессорами, использующими конкурирующие архитектуры x86.
Arm сообщает, что Amazon, Microsoft, Google и Oracle приняли Arm Neoverse как для вычислений общего назначения, так и для AI-вывода и обучения на базе CPU. Например, в 2024 году Microsoft объявила, что ее первый собственный кремний, разработанный для облака, процессор Cobalt 100, был построен на Arm Neoverse. Некоторые из крупнейших AI-центров обработки данных будут полагаться на Grace Hopper Superchip от NVIDIA, который сочетает в себе GPU Hopper и CPU Grace на базе Neoverse. Arm планирует выпустить свой собственный CPU в этом году, и Meta является одним из ее первых клиентов.
8. Gretel
За последний год AI-компании испытали уменьшение отдачи от обучения своих моделей с использованием постоянно увеличивающихся объемов данных, извлеченных из Интернета. Следовательно, они сместили свое внимание с чистого количества данных для обучения на их качество. Это привело к увеличению инвестиций в непубличный и специализированный контент, лицензированный у партнеров-издателей. AI-исследователям также необходимо устранить пробелы или слепые пятна в своих данных для обучения, сгенерированных или аннотированных человеком. Для этой цели они все чаще обращаются к синтетическим данным для обучения, сгенерированным специализированными AI-моделями.
Gretel приобрела известность в 2024 году, специализируясь на создании и курировании синтетических данных для обучения. Компания объявила об общей доступности своего флагманского продукта, Gretel Navigator, который позволяет разработчикам использовать естественный язык или SQL-запросы для генерации, дополнения, редактирования и курирования синтетических наборов данных для обучения для тонкой настройки и тестирования. Платформа уже привлекла сообщество из более чем 150 000 разработчиков, которые синтезировали более 350 миллиардов единиц данных для обучения.
Другие игроки отрасли обратили внимание на возможности Gretel. Gretel заключила партнерство с Google, чтобы сделать свои синтетические данные для обучения легкодоступными для клиентов Google Cloud. Аналогичное партнерство с Databricks было объявлено в июне, предоставляя корпоративным клиентам Databricks доступ к синтетическим данным для обучения для их моделей, работающих в облаке Databricks.
9. Mistral AI
Mistral AI, французский претендент на арене генеративного AI, последовательно оказывал давление на OpenAI, Anthropic и Google на переднем крае разработки передовых AI-моделей. Mistral AI выпустила серию новых моделей, включающих значительные технологические достижения в 2024 году, демонстрируя быстрый рост бизнеса как за счет прямого маркетинга своих API, так и за счет стратегических партнерств.
Ранее в этом году компания представила пару моделей с открытым исходным кодом под названием Mixtral, примечательных своим инновационным использованием архитектуры ‘смеси экспертов’, когда для обработки запроса задействуется только специализированное подмножество параметров модели, что повышает эффективность. В июле 2024 года Mistral объявила о Mistral Large 2, который при 123 миллиардах параметров продемонстрировал значительные улучшения в генерации кода, математике, рассуждениях и вызове функций. Французская компания также выпустила Ministral 3B и Ministral 8B, меньшие модели, предназначенные для выполнения на ноутбуках или телефонах, способные хранить примерно 50 текстовых страниц контекстной информации, предоставленной пользователем.
Mistral добилась успеха в Европе, позиционируя себя как недорогую и гибкую альтернативу американским AI-компаниям, таким как OpenAI. Она также продолжила свою экспансию на рынок предприятий США в течение 2024 года. В июне компания получила раунд финансирования в размере 640 миллионов долларов, возглавляемый венчурной фирмой General Catalyst, в результате чего оценка Mistral составила примерно 6,2 миллиарда долларов.
10. Fireworks AI
Fireworks предлагает настраиваемую среду выполнения, которая упрощает часто сложную инженерную работу, связанную с созданием инфраструктуры для AI-развертываний. Используя платформу Fireworks, предприятия могут интегрировать любую из более чем 100 AI-моделей, а затем настраивать и тонко настраивать их для своих конкретных случаев использования.
Компания представила новые продукты в течение 2024 года, которые позволят ей извлечь выгоду из ключевых тенденций в AI-индустрии. Во-первых, разработчики стали все больше сосредотачиваться на отзывчивости AI-моделей и приложений. Fireworks дебютировала с FireAttention V2, программным обеспечением для оптимизации и квантования, которое ускоряет производительность модели и снижает задержку сети. Во-вторых, AI-системы все чаще превращаются в ‘конвейеры’, которые вызывают различные модели и инструменты через API. Новое программное обеспечение FireFunction V2 действует как оркестратор для всех компонентов в этих все более сложных системах, особенно по мере того, как предприятия развертывают все больше автономных AI-приложений.
Fireworks сообщает о 600%-ном росте доходов в 2024 году. В число ее клиентов входят такие известные компании, как Verizon, DoorDash, Uber, Quora и Upwork.
11. Snorkel AI
Предприятия пришли к пониманию того, что эффективность их AI-систем напрямую связана с качеством их данных. Snorkel AI построила процветающий бизнес, помогая предприятиям подготавливать свои проприетарные данные для использования в AI-моделях. Платформа разработки данных Snorkel Flow AI предоставляет экономичный метод для компаний по разметке и курированию своих проприетарных данных, позволяя использовать их для настройки и оценки AI-моделей для их конкретных бизнес-потребностей.
В 2024 году Snorkel расширила свою поддержку, включив в нее изображения, что позволяет компаниям обучать мультимодальные AI-модели и генераторы изображений, используя свои собственные проприетарные изображения. Она также включила в свою платформу генерацию с расширенным поиском (RAG), позволяя клиентам извлекать только наиболее релевантные сегменты информации из длинных документов, таких как проприетарный контент базы знаний, для использования в AI-обучении. Snorkel Custom, новый, более индивидуальный уровень обслуживания, предполагает прямое сотрудничество экспертов по машинному обучению Snorkel с клиентами над проектами.
Snorkel заявляет, что ее годовые заказы удвоились в течение 2024 года, с трехзначным ростом годовых заказов за каждый из последних трех лет. По данным компании, шесть из крупнейших банков в настоящее время используют Snorkel Flow, наряду с такими брендами, как Chubb, Wayfair и Experian.
12. CalypsoAI
Поскольку AI играет все более важную роль в критически важных процессах принятия решений, предприятия ищут повышенную прозрачность внутренней работы моделей. Эта потребность особенно выражена в регулируемых отраслях, которые должны постоянно следить за предвзятостью и другими непреднамеренными результатами. CalypsoAI была одной из первых, кто осознал это возникающее требование, и быстро отреагировала, добавив расширенные функции объяснимости в свою платформу AI-инфраструктуры.
Что отличает Calypso, так это широта ее технологии наблюдаемости. В 2024 году компания запустила свою платформу AI Security Platform, которая защищает корпоративные данные, обеспечивая безопасность, аудит и мониторинг всех активных генеративных AI-моделей, которые может использовать компания, независимо от поставщика модели и от того, размещена ли модель внутри компании или извне. Calypso также представила новые инструменты визуализации, которые позволяют пользователям наблюдать за логикой, лежащей в основе AI-решений, в режиме реального времени.
Рынок положительно реагирует на акцент Calypso на наблюдаемости AI. Компания сообщает о десятикратном увеличении доходов в течение 2024 года и ожидает дальнейшего пятикратного увеличения в 2025 году.
13. Galileo
Хотя AI-системы демонстрируют меньше случаев фактических галлюцинаций и предвзятостей по сравнению с прошлым годом, они остаются подверженными этим проблемам. Это представляет собой серьезную проблему для любого бизнеса, использующего AI, особенно для тех, кто работает в регулируемых секторах, таких как здравоохранение и банковское дело. Команды разработчиков AI используют AI-платформу Galileo для измерения, оптимизации и мониторинга точности своих моделей и приложений.
В начале 2024 года, после двух лет исследований, Galileo выпустила Luna, набор оценочных моделей, обученных выявлять вредные выходные данные. Эти модели позволяют платформе Galileo быстро проверять и оценивать работу LLM, когда она собирает токены, составляющие ее ответ. Этот процесс занимает примерно 200 миллисекунд, что дает достаточно времени, чтобы пометить и предотвратить отображение выходных данных AI пользователю. Хотя стандартная LLM могла бы выполнить эту задачу, это было бы значительно дороже. Специально созданные модели Galileo предлагают превосходную точность, экономичность и, что особенно важно, скорость.
Galileo сообщает о четырехкратном увеличении своей клиентской базы в 2024 году, среди клиентов Twilio, Reddit, Chegg, Comcast и JPMorgan Chase. Стартап также получил раунд финансирования в размере 68 миллионов долларов от инвесторов, таких как генеральный директор Hugging Face Клеман Деланг.
14. Runway
Одно из самых значительных устремлений — и опасений — связанных с AI, — это его потенциал для генерации видео достаточного качества, чтобы революционизировать искусство и экономику кинопроизводства. Технология сделала существенные шаги к этому будущему в 2024 году, и Runway, нью-йоркский стартап по генерации видео, сыграл в этом ведущую роль. Выпуск модели Gen-3 Alpha от Runway в июне 2024 года получил широкое признание в AI-сообществе за значительно улучшенную правдоподобность сгенерированного видео.
Runway также внедрила значительные улучшения в свои инструменты для управления эстетикой AI-видео. Модель была обучена как на изображениях, так и на видео, и может генерировать видео на основе текстовых или графических входных данных. Впоследствии компания выпустила Gen-3 Alpha Turbo, более экономичную и быструю версию Gen-3.
Голливуд внимательно следит за прогрессом генеративного AI, и Runway сообщает, что начала производить собственные версии своих моделей для игроков индустрии развлечений. Она заключила официальное партнерство с Lionsgate Studios в сентябре 2024 года. Runway разработала собственную модель для производственной компании и обучила ее на каталоге фильмов Lionsgate. Runway заявляет, что модель предназначена для того, чтобы помочь кинематографистам, режиссерам и другим творческим работникам Lionsgate ‘дополнить’ свою работу, ‘экономя время, деньги и ресурсы’. Runway считает, что ее договоренность с Lionsgate может послужить образцом для аналогичного сотрудничества с другими производственными компаниями.
15. Cerebras Systems
AI-системы, особенно крупные передовые модели, требуют огромной вычислительной мощности для работы в масштабе. Это требует соединения тысяч или миллионов чипов для распределения рабочей нагрузки. Однако сетевые соединения между чипами могут создавать узкие места в производительности. Технология Cerebras Systems предназначена для использования преимуществ скорости и эффективности интеграции огромного количества вычислительной мощности на одном исключительно большом чипе.
Например, новейший чип компании WSE-3 (Wafer Scale Engine третьего поколения) имеет размер 814 квадратных миллиметров, размером с обеденную тарелку, и в 56 раз больше, чем лидирующие на рынке чипы H100 от Nvidia. Чип включает в себя ошеломляющие 4 триллиона транзисторов и предлагает 44 гигабита памяти. Эти чипы можно объединять в кластеры для формирования суперкомпьютеров, таких как Condor Galaxy, ‘созвездие’ взаимосвязанных суперкомпьютеров, которое Cerebras разрабатывает в сотрудничестве со своим крупнейшим клиентом, G42, компанией из ОАЭ, занимающейся AI и облачными вычислениями.
На сегодняшний день Cerebras нашла нишу в крупных исследовательских организациях, включая Mayo Clinic, Sandia National Laboratories, Lawrence Livermore National Laboratory и Los Alamos National Laboratory. Компания подала заявку на IPO в сентябре 2024 года. В проспекте эмиссии указано, что продажи компании выросли более чем в три раза до 78,7 млн долларов в 2023 году и выросли до 136,4 млн долларов в первой половине 2024 года.