На арене искусственного интеллекта с высокими ставками, где вычислительная мощность правит бал, Nvidia является неоспоримым монархом, а ее графические процессоры (GPUs) — фундаментом, на котором построена большая часть современной революции AI. Тем не менее, слухи, доносящиеся из технологических коридоров, предполагают, что титан полупроводниковой индустрии может рассматривать стратегическое расширение за пределы своего основного бизнеса по производству кремния. Сообщается, что Nvidia ведет активные переговоры о возможном приобретении Lepton AI, молодого стартапа, работающего на все более важном рынке аренды серверов для AI. Этот шаг, если он будет завершен, может сигнализировать о значительной эволюции стратегии Nvidia, продвигая ее дальше по цепочке создания стоимости и потенциально изменяя динамику доступа к инфраструктуре AI.
Потенциальная сделка, оцененная источниками, цитируемыми The Information, в несколько сотен миллионов долларов, сосредоточена на компании, которой едва исполнилось два года. Lepton AI заняла специфическую нишу: она арендует серверы, оснащенные желанными чипами AI от Nvidia, в основном получая эти мощности от крупных облачных провайдеров, а затем сдает эту вычислительную мощность в субаренду другим компаниям, часто более мелким игрокам или тем, кому нужен гибкий доступ без долгосрочных обязательств перед облачными гигантами. Эта бизнес-модель позиционирует Lepton AI как посредника, фасилитатора в сложной экосистеме, поставляющей сырую вычислительную мощность, питающую разработку и развертывание AI.
Расшифровка Lepton AI: Посредник в гонке за GPU
Основанная всего два года назад, Lepton AI олицетворяет предпринимательский пыл, окружающий бум инфраструктуры AI. Ее основное предложение вращается вокруг доступности и гибкости. В то время как гипермасштабируемые облачные провайдеры, такие как Amazon Web Services (AWS), Microsoft Azure и Google Cloud Platform (GCP), предлагают прямой доступ к инстансам Nvidia GPU, навигация по их предложениям, обеспечение мощностей и управление инфраструктурой могут быть сложными и дорогостоящими, особенно для стартапов или команд с колеблющимися потребностями.
Lepton AI заполняет этот пробел. Агрегируя серверные мощности — по сути, покупая оптом у облачных провайдеров — и затем предлагая их на потенциально более гибких условиях или с дополнительными услугами, адаптированными к рабочим нагрузкам AI, она стремится упростить доступ к высокопроизводительным вычислениям. Эта модель процветает на фоне постоянного дефицита и огромного спроса на передовые GPUs Nvidia, такие как H100 и его предшественники. Компании, неспособные получить квоты напрямую от Nvidia или сталкивающиеся с длинными списками ожидания у облачных провайдеров, могут обратиться к посредникам вроде Lepton AI для более быстрого или более адаптированного доступа.
Стартап получил скромное начальное финансирование в размере $11 миллионов в мае 2023 года под руководством CRV и Fusion Fund. Этот первоначальный вливание капитала, вероятно, подпитало его усилия по созданию платформы, установлению отношений с облачными провайдерами и привлечению первоначальной клиентской базы. Работа в этой сфере требует значительного капитала не только на операционные расходы, но и потенциально на предварительное обязательство по аренде серверов для обеспечения доступности мощностей для собственных клиентов. Сообщаемая цена приобретения, таким образом, предполагает либо быстрый рост и многообещающую динамику, достигнутую Lepton AI за короткое время существования, либо, что, возможно, более важно, огромную стратегическую ценность, которую Nvidia придает контролю или влиянию на последующий доступ к своему собственному оборудованию.
Lepton AI по сути действует как специализированный реселлер и сервисный слой, абстрагируя некоторые сложности прямого взаимодействия с крупной облачной инфраструктурой. Его целевая клиентура может включать:
- Стартапы AI: Компании, нуждающиеся в мощных вычислениях для обучения моделей или инференса, но не имеющие масштаба или ресурсов для крупных облачных контрактов.
- Исследовательские лаборатории: Академические или корпоративные исследовательские группы, требующие всплесков высокопроизводительных вычислений для экспериментов.
- Предприятия: Крупные компании, изучающие конкретные проекты AI и нуждающиеся в дополнительных мощностях вне существующих облачных соглашений.
Жизнеспособность этой модели зависит от способности Lepton AI надежно и экономически эффективно обеспечивать мощности GPU, эффективно управлять своей инфраструктурой и предлагать привлекательные цены или услуги по сравнению с прямым обращением к источнику. Это тонкий баланс на рынке, где доминируют гиганты.
Стратегический расчет Nvidia: За пределами кремния
Почему Nvidia, компания, чей феноменальный успех основан на разработке и продаже самых востребованных чипов AI в отрасли, решилась бы войти в бизнес по аренде серверов, фактически конкурируя, хотя и косвенно, со своими крупнейшими клиентами — поставщиками облачных услуг? Потенциальные мотивы многогранны и многое говорят об эволюционирующем ландшафте AI.
1. Вертикальная интеграция и захват стоимости: Цепочка создания стоимости AI простирается от проектирования и производства чипов через интеграцию серверов, операции центров обработки данных, облачные платформы и, наконец, до самих приложений AI. В настоящее время Nvidia захватывает огромную стоимость на уровне чипов. Однако значительная стоимость также генерируется дальше по цепочке на уровне инфраструктуры как услуги (IaaS), где компании платят премии за доступ к вычислениям с ускорением на GPU. Приобретая игрока вроде Lepton AI, Nvidia потенциально могла бы захватить большую долю общих расходов на инфраструктуру AI, перейдя от продажи компонентов к предоставлению услуг.
2. Рыночная разведка и прямая обратная связь с клиентами: Управление арендной службой, даже на расстоянии вытянутой руки, предоставило бы Nvidia бесценные данные в реальном времени о том, как используются ее GPUs, какие рабочие нагрузки наиболее распространены, какие программные стеки предпочитаются и с какими узкими местами сталкиваются клиенты. Эта прямая петля обратной связи могла бы информировать будущее проектирование чипов, разработку программного обеспечения (например, ее платформы CUDA) и общую рыночную стратегию гораздо эффективнее, чем полагаться исключительно на обратную связь, отфильтрованную через крупных облачных партнеров.
3. Формирование рынка и обеспечение доступа: Хотя гиперскейлеры являются ключевыми партнерами, Nvidia может желать большего прямого влияния на то, как ее технология достигает более широкого рынка, особенно мелких новаторов. Арендное подразделение могло бы служить каналом для обеспечения гарантированного доступа определенных сегментов клиентов или стратегических инициатив к новейшему оборудованию Nvidia, потенциально способствуя инновациям, которые в конечном итоге стимулируют больший спрос на ее чипы. Оно также могло бы служить испытательным полигоном для нового оборудования или программных предложений перед более широким выпуском через крупных облачных партнеров.
4. Конкурентная динамика: Этот шаг также можно интерпретировать как защитный. Поскольку конкуренты (такие как AMD и Intel) стремятся закрепиться на рынке чипов AI, а гиперскейлеры разрабатывают собственный специализированный кремний для AI, Nvidia может рассматривать владение прямым каналом к конечным пользователям как способ укрепить доминирование своей экосистемы и лояльность клиентов. Это предоставляет платформу для демонстрации производительности и простоты использования полного стека Nvidia (аппаратное обеспечение плюс программное обеспечение).
5. Исследование новых бизнес-моделей: Неустанный спрос на вычисления для AI может побуждать Nvidia исследовать модели повторяющегося дохода помимо продаж оборудования. Хотя доход от услуг, вероятно, изначально останется небольшим по сравнению с продажами чипов, он представляет собой диверсификацию и вход в сегмент, переживающий взрывной рост.
Однако выход на рынок аренды серверов не лишен рисков. Это ставит Nvidia в потенциальную ‘кооперацию-конкуренцию’ (‘co-opetition’) со своими крупнейшими клиентами, облачными провайдерами, которые закупают ее GPUs на миллиарды долларов. Nvidia пришлось бы тщательно выстраивать эти отношения, чтобы не оттолкнуть этих критически важных партнеров. Кроме того, управление сервисным бизнесом требует иных операционных возможностей, чем разработка и продажа оборудования — сосредоточение на времени безотказной работы, поддержке клиентов и управлении инфраструктурой.
Бурно развивающийся рынок аренды мощностей для AI
Контекстом потенциального интереса Nvidia к Lepton AI является беспрецедентная золотая лихорадка за вычислительными ресурсами для AI. Обучение больших языковых моделей (LLMs), подобных тем, что лежат в основе ChatGPT, или разработка сложных приложений AI в таких областях, как открытие лекарств, автономное вождение и финансовое моделирование, требует огромной вычислительной мощности, преимущественно предоставляемой GPUs.
Ключевые факторы, стимулирующие рынок аренды:
- Запретительные затраты на оборудование: Приобретение передовых серверов AI напрямую представляет собой огромные капитальные затраты, часто недоступные для стартапов и даже многих устоявшихся предприятий. Топовые GPUs Nvidia, такие как H100, могут стоить десятки тысяч долларов каждый, а полностью оборудованный сервер может обойтись в сотни тысяч.
- Дефицит оборудования: Спрос на передовые GPUs Nvidia постоянно превышает предложение. Даже крупные облачные провайдеры сталкиваются с проблемами обеспечения достаточного инвентаря, что приводит к спискам ожидания и ограничениям мощностей. Этот дефицит создает возможности для посредников, которым удается обеспечить квоты.
- Потребность в гибкости и масштабируемости: Разработка AI часто связана с непредсказуемыми вычислительными потребностями. Командам могут потребоваться огромные ресурсы для обучающих прогонов, длящихся недели, за которыми следуют периоды более низкой утилизации. Модели аренды предлагают эластичность для масштабирования ресурсов вверх или вниз по мере необходимости, превращая капитальные затраты в операционные.
- Быстрое технологическое устаревание: Темпы инноваций в оборудовании для AI головокружительны. Аренда позволяет компаниям получать доступ к новейшим технологиям без риска владения быстро обесценивающимися активами.
Стартапы, такие как Lepton AI и его более крупный, немного старший конкурент, Together AI, появились, чтобы извлечь выгоду из этой динамики. Together AI, привлекший более полумиллиарда долларов венчурного капитала, работает по схожему принципу, но потенциально в большем масштабе, что подчеркивает уверенность инвесторов в модели аренды GPU и специализированного облака AI. Эти компании отличают себя от гиперскейлеров, фокусируясь исключительно на рабочих нагрузках AI/ML, потенциально предлагая оптимизированные программные стеки, специализированную поддержку или более предсказуемые структуры ценообразования для определенных случаев использования. Они представляют собой растущий слой специализации на более широком рынке облачной инфраструктуры.
Навигация по конкурентной арене: Стартапы против гигантов
Конкурентный ландшафт аренды вычислений для AI сложен и включает в себя смесь устоявшихся гигантов и проворных стартапов.
- Гиперскейлеры (AWS, Azure, GCP): Это доминирующие игроки, предлагающие широкий спектр услуг, включая инстансы GPU. Они выигрывают от экономии на масштабе, глобального охвата и интегрированных экосистем. Они также являются крупнейшими клиентами Nvidia. Однако их масштаб иногда может приводить к сложности, менее персонализированной поддержке для мелких клиентов и интенсивной конкуренции за ограниченные мощности GPU в периоды пикового спроса.
- Специализированные облачные провайдеры AI (например, CoreWeave, Lambda Labs): Эти компании специализируются на предоставлении высокопроизводительных вычислений для AI/ML, часто располагая большими парками GPUs и экспертизой, адаптированной к этим рабочим нагрузкам. Они напрямую конкурируют как с гиперскейлерами, так и с мелкими арендными стартапами.
- Арендные стартапы (например, Lepton AI, Together AI): Эти игроки часто фокусируются на конкретных нишах, гибкости или простоте использования. Их модель часто включает аренду мощностей у гиперскейлеров или специализированных провайдеров и их перепродажу, добавляя слой управления, оптимизации или специфических инструментов. Их существование подчеркивает неэффективность рынка и неудовлетворенные потребности в адаптированном доступе.
Приобретение Lepton AI поставило бы Nvidia непосредственно в эту конкурентную борьбу, хотя, возможно, начиная с малого. Она будет конкурировать, в некотором смысле, с другими специализированными провайдерами и косвенно с собственными предложениями аренды GPU от гиперскейлеров. Критический вопрос заключается в том, как Nvidia позиционировала бы такую услугу. Будет ли она нацелена на массовый рынок или сосредоточится на стратегических нишах, возможно, поддерживая стартапы AI в рамках своей собственной программы Inception или способствуя исследовательским инициативам?
Отношения с гиперскейлерами будут иметь первостепенное значение. Nvidia может позиционировать приобретенную Lepton AI как дополнительную услугу, нацеленную на сегменты, недостаточно обслуживаемые гигантами, или предлагающую уникальные программные оптимизации, построенные на собственном стеке Nvidia (CUDA, cuDNN, TensorRT и т.д.). Это даже можно было бы представить как способ косвенно стимулировать большее потребление облачных ресурсов, позволяя мелким игрокам масштабироваться до точки, когда они в конечном итоге перенесут более крупные рабочие нагрузки на AWS, Azure или GCP. Тем не менее, потенциал для конфликта каналов реален и потребует тщательного управления.
Слухи о сделке и сигналы оценки
Сообщаемая оценка Lepton AI в ‘несколько сотен миллионов долларов’ заслуживает внимания. Для двухлетней компании с раскрытым начальным финансированием всего в $11 миллионов это представляет собой значительную наценку. Несколько факторов могут способствовать этой потенциальной цене:
- Стратегическая премия: Nvidia может быть готова заплатить премию не только за текущий бизнес Lepton AI, но и за стратегическое преимущество выхода на рынок аренды, получения рыночной информации и обеспечения прямого канала к пользователям.
- Команда и технология: Приобретение может быть частично ‘аквихайрингом’ (‘acqui-hire’), оценивающим экспертизу команды Lepton AI в управлении инфраструктурой GPU и обслуживании клиентов AI. Они также могут обладать проприетарным программным обеспечением или операционной эффективностью, считающимися ценными.
- Рыночное подтверждение: Успех и высокая оценка конкурента Together AI могут служить ориентиром, предполагая значительный рыночный потенциал и оправдывая более высокую цену для Lepton AI, даже на более ранней стадии.
- Контроль над доступом к оборудованию: В условиях крайнего дефицита GPU любая организация, обеспечившая доступ к оборудованию Nvidia — даже через аренду — обладает значительной ценностью. Nvidia может платить, отчасти, чтобы контролировать или перенаправить эти мощности.
Если сделка состоится при такой оценке, это пошлет сильный сигнал о воспринимаемой ценности, заключенной в слое услуг инфраструктуры AI, помимо самого оборудования. Это предполагает, что содействие доступу и эффективное управление ресурсами GPU является весьма ценным предложением в текущем рыночном климате.
Волны по экосистеме: Облачные провайдеры и не только
Приобретение Lepton AI компанией Nvidia, даже если оно будет тщательно позиционировано, неизбежно вызовет волнения по всей технологической экосистеме.
- Поставщики облачных услуг: AWS, Azure и GCP будут внимательно следить. Хотя Lepton AI в настоящее время является их клиентом (арендуя у них серверы), Lepton, принадлежащий Nvidia, может стать более прямым конкурентом, особенно если Nvidia вложит значительные средства в масштабирование его операций. Это может побудить облачных провайдеров пересмотреть свои собственные предложения GPU, стратегии ценообразования и партнерские отношения с Nvidia. Они могут ускорить усилия по разработке собственных специализированных ускорителей AI, чтобы уменьшить зависимость от Nvidia.
- Другие производители оборудования: Конкуренты, такие как AMD и Intel, пытающиеся бросить вызов доминированию Nvidia, могут рассматривать это как попытку Nvidia еще больше закрепить свою экосистему, контролируя не только оборудование, но и платформы доступа. Это может усилить для них необходимость создания собственных программных стеков и поддержки альтернативных инфраструктурных платформ.
- Другие инфраструктурные стартапы: Для компаний вроде Together AI, CoreWeave или Lambda Labs конкурент, поддерживаемый Nvidia, меняет ландшафт. С одной стороны, это подтверждает их рынок; с другой стороны, это вводит потенциально грозного соперника с глубокими карманами и беспрецедентным влиянием на основную технологию.
- Конечные пользователи: Для разработчиков AI и компаний, ищущих ресурсы GPU, этот шаг может быть положительным, если он приведет к большему выбору, потенциально лучше оптимизированным услугам или более легкому доступу, особенно для мелких игроков. Однако это также может вызвать опасения по поводу концентрации рынка, если Nvidia будет несправедливо использовать свое положение.
Общим эффектом может стать ускорение тенденций вертикальной интеграции в стеке AI, поскольку крупные игроки стремятся контролировать больше частей головоломки, от проектирования кремния до облачных сервисов и программных платформ.
Шаблон приобретения? Соединяя точки
Потенциальный шаг Nvidia в отношении Lepton AI не происходит в вакууме. Он следует вскоре за сообщениями о том, что Nvidia также недавно приобрела Gretel AI, стартап, специализирующийся на генерации синтетических данных. Синтетические данные имеют решающее значение для обучения моделей AI, особенно когда реальные данные дефицитны, чувствительны или предвзяты.
Сопоставление этих двух потенциальных приобретений предполагает более широкое стратегическое направление для Nvidia:
- Gretel (Данные): Решает проблему входных данных для разработки моделей AI — предоставление высококачественных данных, необходимых для обучения.
- Lepton AI (Вычисления): Решает проблему обработки — предоставление инфраструктуры, на которой модели обучаются и запускаются.
Эта комбинация может указывать на амбиции Nvidia предложить более интегрированную платформу или набор инструментов, поддерживающих весь жизненный цикл разработки AI. Контролируя ключевые элементы как генерации/управления данными, так и доступа к вычислительной инфраструктуре, Nvidia могла бы значительно укрепить свою экосистему, сделав ее еще более незаменимой для разработчиков AI. Это намекает на будущее, в котором Nvidia предоставляет не только ‘кирки и лопаты’ (GPUs) для золотой лихорадки AI, но и некоторые ‘заявки на добычу’ (арендные вычисления) и ‘услуги по пробирному анализу’ (инструменты для данных).
Эта стратегия согласуется с крупными инвестициями Nvidia в ее программный стек (CUDA, библиотеки, фреймворки), которые призваны сделать ее оборудование незаменимым. Добавление услуг, связанных с данными и доступом к вычислениям, было бы логичным продолжением этой платформенной стратегии.
Эволюционирующий ландшафт доступа к вычислениям для AI
Способы, которыми организации получают доступ к вычислительной мощности, необходимой для искусственного интеллекта, постоянно меняются. Потенциальное приобретение Lepton AI компанией Nvidia вписывается в несколько более широких тенденций, формирующих этот ландшафт.
Изначально доступ осуществлялся в основном через покупку и управление локальным оборудованием. Рост облачных вычислений сместил парадигму в сторону IaaS, где гиперскейлеры предлагают инстансы GPU по требованию. Теперь мы наблюдаем дальнейшую специализацию и диверсификацию:
- Специализированные облака AI: Предлагающие оптимизированные среды специально для рабочих нагрузок AI/ML.
- Арендные посредники: Предоставляющие гибкий доступ, часто используя мощности более крупных провайдеров.
- Бессерверные GPUs: Платформы, стремящиеся полностью абстрагировать управление серверами, позволяя пользователям платить исключительно за вычисление или за инференс.
- Граничные вычисления (Edge Computing): Развертывание возможностей инференса AI ближе к месту генерации данных с использованием меньшего, энергоэффективного оборудования.
Потенциальный выход Nvidia на рынок аренды через Lepton AI означает признание того, что необходимы разнообразные модели доступа. Хотя гиперскейлеры останутся доминирующими для крупномасштабных, интегрированных облачных потребностей, существует явный рынок для более специализированных, гибких или ориентированных на разработчиков предложений по вычислениям. Nvidia, похоже, готова обеспечить себе долю в этой развивающейся экосистеме, не позволяя своей роли ограничиваться исключительно ролью поставщика компонентов, каким бы критически важным этот компонент ни был.
Этот шаг, если он материализуется, подчеркивает решимость Nvidia оставаться в эпицентре революции AI, не только предоставляя фундаментальное оборудование, но и активно формируя то, как это оборудование доступно и используется во всей отрасли. Он представляет собой рассчитанную ставку на непреходящую потребность в гибких, доступных вычислениях для AI и амбиции Nvidia захватить стоимость в более широком спектре рынка инфраструктуры AI. Ближайшие месяцы покажут, превратятся ли эти переговоры в сделку и как Nvidia намерена интегрировать такую услугу в свою обширную технологическую империю.