Масштабное расширение центров обработки данных в Северной Америке и Европе
Компания Cerebras объявила о планах по добавлению шести новых центров обработки данных (ЦОД) для ИИ, стратегически расположенных в Северной Америке и Европе. Это расширение представляет собой двадцатикратное увеличение пропускной способности компании в области логического вывода, что обеспечивает впечатляющую вычислительную мощность - более 40 миллионов токенов в секунду. Новые объекты будут расположены в ключевых мегаполисах, включая Даллас, Миннеаполис, Оклахома-Сити, Монреаль, Нью-Йорк и один объект во Франции. Примечательно, что значительные 85% этих расширенных мощностей будут находиться в Соединенных Штатах.
Эти существенные инвестиции в инфраструктуру подчеркивают убежденность Cerebras в том, что рынок быстрого логического вывода в ИИ готов к взрывному росту. Логический вывод, этап, на котором обученные модели ИИ генерируют выходные данные для практических приложений в реальном мире, становится все более важным, поскольку предприятия ищут более быстрые и эффективные альтернативы традиционным решениям на базе GPU, предлагаемым Nvidia.
Стратегические партнерства с Hugging Face и AlphaSense
В дополнение к расширению инфраструктуры, Cerebras заключила ключевые партнерские соглашения с лидерами отрасли Hugging Face и AlphaSense. Эти сотрудничества призваны значительно расширить охват Cerebras и укрепить ее позиции в конкурентной среде ИИ.
Интеграция с Hugging Face, широко используемой платформой для разработчиков ИИ, особенно примечательна. Это партнерство предоставит обширному сообществу Hugging Face, насчитывающему пять миллионов разработчиков, беспрепятственный доступ к Cerebras Inference в один клик, устраняя необходимость в отдельной регистрации. Этот шаг фактически превращает Hugging Face в основной канал распространения для Cerebras, особенно для разработчиков, использующих модели с открытым исходным кодом, такие как Llama 3.3 70B.
Сотрудничество с AlphaSense, известной платформой аналитики рынка, обслуживающей сектор финансовых услуг, представляет собой значительную победу Cerebras в привлечении корпоративных клиентов. AlphaSense, клиентская база которой охватывает примерно 85% компаний из списка Fortune 100, переходит от ‘глобального поставщика моделей ИИ с закрытым исходным кодом из тройки лидеров’ к использованию возможностей Cerebras. Этот переход подчеркивает растущий спрос на высокоскоростной логический вывод в требовательных приложениях, работающих в режиме реального времени, таких как аналитика рынка, где быстрый доступ к аналитическим данным на основе ИИ имеет первостепенное значение. AlphaSense будет использовать Cerebras для улучшения своих возможностей поиска на основе ИИ, обеспечивая более быстрый и эффективный доступ к критически важным рыночным данным.
Фокус Cerebras: высокоскоростной вывод как отличительная черта
Cerebras стратегически позиционирует себя как специалиста в области высокоскоростного логического вывода. Процессор Wafer-Scale Engine (WSE-3) компании, революционная технология, по утверждениям, обеспечивает производительность логического вывода, которая в 10–70 раз выше, чем у традиционных решений на базе GPU. Это преимущество в скорости становится все более важным по мере развития моделей ИИ, включающих более сложные возможности рассуждений и требующих значительно большей вычислительной мощности.
Эволюция моделей ИИ создает заметное замедление производительности при использовании традиционного оборудования. Это предоставляет уникальную возможность для Cerebras, чье специализированное оборудование специально разработано для ускорения этих сложных рабочих нагрузок ИИ. Компания уже привлекла таких известных клиентов, как Perplexity AI и Mistral AI, которые полагаются на Cerebras для поддержки своих продуктов поиска и помощников на базе ИИ.
Преимущество экономической эффективности
Cerebras делает ставку на то, что сочетание превосходной скорости и экономической эффективности сделает ее услуги логического вывода очень привлекательными даже для компаний, которые в настоящее время используют ведущие модели, такие как GPT-4.
Llama 3.3 70B от Meta, модель с открытым исходным кодом, которую Cerebras тщательно оптимизировала для своего оборудования, теперь достигает сопоставимых результатов в тестах интеллекта с GPT-4 от OpenAI, предлагая при этом значительно более низкие эксплуатационные расходы. Это убедительное ценностное предложение позиционирует Cerebras как сильного конкурента на рынке, предлагая как производительность, так и экономические выгоды.
Инвестиции в отказоустойчивую инфраструктуру
Cerebras делает значительные инвестиции в надежную и отказоустойчивую инфраструктуру в качестве основного компонента своей стратегии расширения. Объект компании в Оклахома-Сити, который планируется ввести в эксплуатацию в июне 2025 года, проектируется с особым упором на устойчивость к экстремальным погодным явлениям.
Этот объект, созданный в сотрудничестве с Scale Datacenter, будет содержать впечатляющий массив из более чем 300 систем Cerebras CS-3. Он будет оснащен тройными резервными электростанциями, обеспечивающими бесперебойную работу даже в случае сбоев в электросети. Кроме того, на объекте будут использоваться специальные решения водяного охлаждения, специально разработанные для уникальных систем Cerebras на уровне пластин, оптимизирующие производительность и надежность.
Ориентация на ключевые области применения
Объявленное расширение и партнерские отношения представляют собой поворотный момент для Cerebras, поскольку компания стремится утвердиться на рынке аппаратного обеспечения для ИИ, где доминирует Nvidia. Cerebras стратегически нацелена на три конкретные области применения, где быстрый логический вывод обеспечивает наибольшую ценность:
- Обработка голоса и видео в реальном времени: Приложения, требующие немедленной обработки аудио- и видеоданных, такие как транскрипция в реальном времени, видеоконференцсвязь и анализ контента в реальном времени, могут получить огромную выгоду от возможностей высокоскоростного логического вывода Cerebras.
- Модели рассуждений: Сложные модели ИИ, выполняющие сложные задачи рассуждений, требующие значительных вычислительных ресурсов, могут выполняться гораздо эффективнее на специализированном оборудовании Cerebras.
- Приложения для кодирования: Помощники по кодированию на базе ИИ и инструменты генерации кода, которым требуется быстрое время отклика для повышения производительности разработчиков, естественным образом подходят для технологии Cerebras.
Сосредоточив свои усилия на высокоскоростном логическом выводе, вместо того, чтобы пытаться конкурировать по всему спектру рабочих нагрузок ИИ, Cerebras определила нишу, в которой она может заявить о лидерстве, даже превосходя возможности крупнейших облачных провайдеров.
Растущее значение логического вывода
Время расширения Cerebras идеально совпадает с растущим акцентом индустрии ИИ на возможностях логического вывода. По мере того, как предприятия переходят от экспериментов с генеративным ИИ к его развертыванию в приложениях производственного уровня, потребность в скорости и экономической эффективности становится первостепенной.
Благодаря тому, что значительные 85% ее мощностей логического вывода расположены в Соединенных Штатах, Cerebras также стратегически позиционирует себя как ключевого участника в развитии отечественной инфраструктуры ИИ. Это особенно актуально в эпоху, когда технологический суверенитет и соображения национальной безопасности стимулируют акцент на укреплении внутренних возможностей.
Рост моделей рассуждений и потребность в скорости
Появление передовых моделей рассуждений, таких как DeepSeek-R1 и o3 от OpenAI, еще больше подпитывает спрос на более быстрые решения для логического вывода. Эти модели, которым могут потребоваться минуты для генерации ответов на обычном оборудовании, могут работать практически мгновенно на системах Cerebras, согласно заявлениям компании. Это резкое сокращение времени отклика открывает новые возможности для приложений реального времени и значительно улучшает взаимодействие с пользователем.
Новая альтернатива для лиц, принимающих технические решения
Для технических руководителей и лиц, принимающих решения, оценивающих варианты инфраструктуры ИИ, расширение Cerebras представляет собой убедительную новую альтернативу традиционным решениям на базе GPU. Это особенно актуально для приложений, где время отклика является критическим фактором для взаимодействия с пользователем и общей производительности приложения.
Хотя вопрос о том, сможет ли Cerebras действительно бросить вызов доминированию Nvidia на более широком рынке аппаратного обеспечения для ИИ, остается открытым, непоколебимая ориентация компании на высокоскоростной логический вывод в сочетании со значительными инвестициями в инфраструктуру демонстрирует четкую и хорошо определенную стратегию по захвату ценного сегмента быстро развивающегося ландшафта ИИ. Приверженность компании инновациям, стратегическим партнерствам и отказоустойчивой инфраструктуре позиционирует ее как грозного игрока в будущем ИИ. Акцент на скорости, экономической эффективности и специализированном оборудовании делает Cerebras убедительным вариантом для организаций, стремящихся развернуть ИИ в масштабе и раскрыть весь потенциал передовых моделей ИИ.