جهش جسورانه Nvidia به اجاره سرور هوش مصنوعی با خرید Lepton AI

در عرصه پرمخاطره هوش مصنوعی، جایی که قدرت محاسباتی حرف اول را می‌زند، Nvidia پادشاه بی‌چون‌وچرا است و واحدهای پردازش گرافیکی (GPU) آن سنگ بنای بخش عمده‌ای از انقلاب کنونی هوش مصنوعی محسوب می‌شوند. با این حال، زمزمه‌هایی که از راهروهای فناوری به گوش می‌رسد، حاکی از آن است که این غول نیمه‌هادی ممکن است به دنبال گسترش استراتژیک فراتر از کسب‌وکار اصلی سیلیکونی خود باشد. گزارش‌ها نشان می‌دهد که Nvidia در حال مذاکرات عمیق برای خرید احتمالی Lepton AI است، استارتاپی نوپا که در بازار حیاتی و رو به رشد اجاره سرورهای هوش مصنوعی فعالیت می‌کند. این اقدام، در صورت نهایی شدن، می‌تواند نشان‌دهنده تحولی قابل توجه در استراتژی Nvidia باشد، آن را در زنجیره ارزش بالاتر برده و به طور بالقوه پویایی دسترسی به زیرساخت‌های هوش مصنوعی را تغییر دهد.

این معامله بالقوه که منابع ذکر شده در The Information ارزش آن را در محدوده چند صد میلیون دلار تخمین زده‌اند، حول شرکتی متمرکز است که به سختی دو سال از عمرش می‌گذرد. Lepton AI جایگاه ویژه‌ای برای خود ایجاد کرده است: این شرکت سرورهای مملو از تراشه‌های هوش مصنوعی پرطرفدار Nvidia را اجاره می‌دهد، که عمدتاً این ظرفیت را از ارائه‌دهندگان بزرگ ابری تأمین می‌کند، و سپس این قدرت محاسباتی را به شرکت‌های دیگر، اغلب بازیگران کوچک‌تر یا آن‌هایی که نیاز به دسترسی انعطاف‌پذیر بدون تعهدات بلندمدت به غول‌های ابری دارند، اجاره می‌دهد. این مدل کسب‌وکار، Lepton AI را به عنوان یک واسطه، یک تسهیل‌گر در اکوسیستم پیچیده تأمین قدرت پردازش خام که توسعه و استقرار هوش مصنوعی را تغذیه می‌کند، قرار می‌دهد.

رمزگشایی Lepton AI: واسطه در تب GPU

Lepton AI که تنها دو سال پیش تأسیس شد، نمایانگر شور و شوق کارآفرینی پیرامون رونق زیرساخت هوش مصنوعی است. پیشنهاد اصلی آن حول محور دسترسی و انعطاف‌پذیری می‌چرخد. در حالی که ارائه‌دهندگان ابر مقیاس‌پذیر مانند Amazon Web Services (AWS)، Microsoft Azure و Google Cloud Platform (GCP) دسترسی مستقیم به نمونه‌های Nvidia GPU را ارائه می‌دهند، پیمایش پیشنهادات آن‌ها، تأمین ظرفیت و مدیریت زیرساخت می‌تواند پیچیده و پرهزینه باشد، به ویژه برای استارتاپ‌ها یا تیم‌هایی با نیازهای متغیر.

Lepton AI وارد این شکاف می‌شود. با تجمیع ظرفیت سرور - اساساً خرید عمده از ارائه‌دهندگان ابری - و سپس ارائه آن با شرایط بالقوه انعطاف‌پذیرتر یا با خدمات ارزش افزوده متناسب با بارهای کاری هوش مصنوعی، قصد دارد دسترسی به محاسبات با کارایی بالا را ساده کند. این مدل بر کمبود مداوم و تقاضای طاقت‌فرسا برای GPUهای پیشرفته Nvidia، مانند H100 و پیشینیان آن، رونق می‌گیرد. شرکت‌هایی که قادر به تأمین مستقیم تخصیص از Nvidia نیستند یا با لیست‌های انتظار طولانی در ارائه‌دهندگان ابری مواجه هستند، ممکن است برای دسترسی سریع‌تر یا متناسب‌تر به واسطه‌هایی مانند Lepton AI روی آورند.

این استارتاپ در ماه مه 2023، ۱۱ میلیون دلار بودجه اولیه (seed funding) به رهبری CRV و Fusion Fund تأمین کرد. این تزریق سرمایه اولیه احتمالاً تلاش‌های آن را برای ساخت پلتفرم خود، ایجاد روابط با ارائه‌دهندگان ابری و جذب پایگاه مشتری اولیه خود تقویت کرده است. فعالیت در این فضا مستلزم سرمایه قابل توجهی است، نه تنها برای هزینه‌های عملیاتی بلکه به طور بالقوه برای پیش‌تعهد به اجاره سرورها برای اطمینان از در دسترس بودن ظرفیت برای مشتریان خود. بنابراین، قیمت خرید گزارش شده، یا نشان‌دهنده رشد سریع و کشش امیدوارکننده Lepton AI در عمر کوتاه خود است یا، شاید مهم‌تر از آن، ارزش استراتژیک عظیمی است که Nvidia برای کنترل یا تأثیرگذاری بر دسترسی پایین‌دستی به سخت‌افزار خود قائل است.

Lepton AI اساساً به عنوان یک فروشنده تخصصی و لایه خدماتی عمل می‌کند و برخی از پیچیدگی‌های برخورد مستقیم با زیرساخت‌های ابری بزرگ را از بین می‌برد. مشتریان هدف آن ممکن است شامل موارد زیر باشند:

  • استارتاپ‌های هوش مصنوعی: شرکت‌هایی که برای آموزش مدل یا استنتاج به محاسبات قدرتمند نیاز دارند اما فاقد مقیاس یا منابع لازم برای قراردادهای بزرگ ابری هستند.
  • آزمایشگاه‌های تحقیقاتی: گروه‌های تحقیقاتی دانشگاهی یا شرکتی که برای آزمایش‌ها به انفجارهای محاسباتی با کارایی بالا نیاز دارند.
  • شرکت‌های بزرگ: شرکت‌های بزرگ‌تری که پروژه‌های هوش مصنوعی خاصی را بررسی می‌کنند و به ظرفیت تکمیلی خارج از ترتیبات ابری موجود خود نیاز دارند.

ماندگاری این مدل به توانایی Lepton AI در تأمین ظرفیت GPU به طور قابل اعتماد و مقرون به صرفه، مدیریت کارآمد زیرساخت‌های خود و ارائه قیمت‌گذاری یا خدمات قانع‌کننده در مقایسه با مراجعه مستقیم به منبع بستگی دارد. این یک عمل موازنه ظریف در بازاری است که تحت سلطه غول‌ها قرار دارد.

محاسبات استراتژیک Nvidia: فراتر از سیلیکون

چرا Nvidia، شرکتی که موفقیت خارق‌العاده‌اش ناشی از طراحی و فروش پرطرفدارترین تراشه‌های هوش مصنوعی صنعت است، وارد کسب‌وکار اجاره سرور می‌شود و به طور مؤثر، هرچند غیرمستقیم، با بزرگترین مشتریان خود - ارائه‌دهندگان خدمات ابری - رقابت می‌کند؟ انگیزه‌های بالقوه چندوجهی هستند و گویای چشم‌انداز در حال تحول هوش مصنوعی هستند.

۱. یکپارچه‌سازی عمودی و کسب ارزش: زنجیره ارزش هوش مصنوعی از طراحی و ساخت تراشه تا یکپارچه‌سازی سرور، عملیات مرکز داده، پلتفرم‌های ابری و در نهایت، به خود برنامه‌های کاربردی هوش مصنوعی گسترش می‌یابد. در حال حاضر، Nvidia ارزش عظیمی را در سطح تراشه به دست می‌آورد. با این حال، ارزش قابل توجهی نیز در لایه زیرساخت به عنوان سرویس (IaaS) ایجاد می‌شود، جایی که شرکت‌ها برای دسترسی به محاسبات شتاب‌دهی شده با GPU، مبالغ بالایی پرداخت می‌کنند. با خرید یک بازیگر مانند Lepton AI، Nvidia به طور بالقوه می‌تواند بخش بزرگ‌تری از کل هزینه‌های زیرساخت هوش مصنوعی را به دست آورد و از فروش قطعات فراتر رفته و وارد ارائه خدمات شود.

۲. هوش بازار و بازخورد مستقیم مشتری: راه‌اندازی یک سرویس اجاره، حتی از راه دور، بینش‌های ارزشمند و بی‌درنگی را در مورد نحوه استفاده از GPUهایش، رایج‌ترین بارهای کاری، پشته‌های نرم‌افزاری ترجیحی و گلوگاه‌هایی که مشتریان با آن مواجه هستند، در اختیار Nvidia قرار می‌دهد. این حلقه بازخورد مستقیم می‌تواند طراحی تراشه‌های آینده، توسعه نرم‌افزار (مانند پلتفرم CUDA) و استراتژی کلی بازار را بسیار مؤثرتر از اتکای صرف به بازخوردهای فیلتر شده از طریق شرکای بزرگ ابری، آگاه سازد.

۳. شکل‌دهی به بازار و تضمین دسترسی: در حالی که ابرمقیاس‌پذیرها شرکای حیاتی هستند، Nvidia ممکن است تمایل بیشتری به تأثیرگذاری مستقیم بر نحوه رسیدن فناوری خود به بازار گسترده‌تر، به ویژه نوآوران کوچک‌تر، داشته باشد. یک بازوی اجاره می‌تواند به عنوان کانالی برای اطمینان از دسترسی تضمین شده بخش‌های خاص مشتری یا ابتکارات استراتژیک به آخرین سخت‌افزار Nvidia عمل کند و به طور بالقوه نوآوری را تقویت کند که در نهایت تقاضای بیشتری برای تراشه‌هایش ایجاد می‌کند. همچنین می‌تواند به عنوان بستری آزمایشی برای سخت‌افزار یا نرم‌افزارهای جدید قبل از عرضه گسترده‌تر از طریق شرکای بزرگ ابری عمل کند.

۴. پویایی رقابتی: این اقدام همچنین می‌تواند به صورت تدافعی تفسیر شود. همانطور که رقبا (مانند AMD و Intel) در تلاش برای به دست آوردن جایگاه در بازار تراشه‌های هوش مصنوعی هستند و ابرمقیاس‌پذیرها سیلیکون هوش مصنوعی سفارشی خود را توسعه می‌دهند، Nvidia ممکن است داشتن یک کانال مستقیم به کاربران نهایی را راهی برای تحکیم تسلط اکوسیستم و وفاداری مشتری خود ببیند. این یک پلتفرم برای نمایش عملکرد و سهولت استفاده از پشته کامل Nvidia (سخت‌افزار به علاوه نرم‌افزار) فراهم می‌کند.

۵. کاوش مدل‌های کسب‌وکار جدید: تقاضای بی‌وقفه برای محاسبات هوش مصنوعی ممکن است Nvidia را به کاوش مدل‌های درآمد مکرر فراتر از فروش سخت‌افزار سوق دهد. در حالی که درآمد خدمات در ابتدا احتمالاً نسبت به فروش تراشه کوچک باقی می‌ماند، اما نشان‌دهنده یک بازی متنوع‌سازی و ورود به بخشی است که رشد انفجاری را تجربه می‌کند.

با این حال، ورود به بازار اجاره سرور بدون خطر نیست. این امر Nvidia را در رقابت بالقوه (‘co-opetition’) با بزرگترین مشتریانش، یعنی ارائه‌دهندگان ابری، قرار می‌دهد که میلیاردها دلار از GPUهای آن را خریداری می‌کنند. Nvidia باید این روابط را با دقت مدیریت کند تا از بیگانه کردن این شرکای حیاتی جلوگیری کند. علاوه بر این، اداره یک کسب‌وکار خدماتی به قابلیت‌های عملیاتی متفاوتی نسبت به طراحی و فروش سخت‌افزار نیاز دارد - تمرکز بر زمان کارکرد، پشتیبانی مشتری و مدیریت زیرساخت.

بازار پررونق برای قدرت هوش مصنوعی اجاره‌ای

زمینه علاقه بالقوه Nvidia به Lepton AI، تب طلای بی‌سابقه برای منابع محاسباتی هوش مصنوعی است. آموزش مدل‌های زبان بزرگ (LLM) مانند آن‌هایی که ChatGPT را قدرت می‌بخشند یا توسعه برنامه‌های کاربردی هوش مصنوعی پیچیده در زمینه‌هایی مانند کشف دارو، رانندگی خودران و مدل‌سازی مالی، به قدرت پردازش عظیمی نیاز دارد که عمدتاً توسط GPUها تأمین می‌شود.

عوامل کلیدی محرک بازار اجاره عبارتند از:

  • هزینه‌های سرسام‌آور سخت‌افزار: خرید مستقیم سرورهای پیشرفته هوش مصنوعی، هزینه سرمایه‌ای هنگفتی را نشان می‌دهد که اغلب فراتر از توان استارتاپ‌ها و حتی بسیاری از شرکت‌های معتبر است. GPUهای سطح بالای Nvidia، مانند H100، می‌توانند ده‌ها هزار دلار قیمت داشته باشند و یک سرور کاملاً مجهز می‌تواند صدها هزار دلار هزینه داشته باشد.
  • کمبود سخت‌افزار: تقاضا برای GPUهای پیشرفته Nvidia به طور مداوم از عرضه پیشی می‌گیرد. حتی ارائه‌دهندگان بزرگ ابری نیز در تأمین موجودی کافی با چالش‌هایی روبرو هستند که منجر به لیست‌های انتظار و محدودیت ظرفیت می‌شود. این کمبود فرصتی را برای واسطه‌هایی ایجاد می‌کند که موفق به تأمین تخصیص می‌شوند.
  • نیاز به انعطاف‌پذیری و مقیاس‌پذیری: توسعه هوش مصنوعی اغلب شامل نیازهای محاسباتی غیرقابل پیش‌بینی است. تیم‌ها ممکن است برای دوره‌های آموزشی که هفته‌ها طول می‌کشد به منابع عظیمی نیاز داشته باشند و پس از آن دوره‌هایی با استفاده کمتر داشته باشند. مدل‌های اجاره، قابلیت ارتجاعی برای افزایش یا کاهش منابع در صورت نیاز را ارائه می‌دهند و هزینه سرمایه‌ای را به هزینه عملیاتی تبدیل می‌کنند.
  • منسوخ شدن سریع فناوری: سرعت نوآوری در سخت‌افزار هوش مصنوعی سرسام‌آور است. اجاره به شرکت‌ها امکان می‌دهد بدون خطر داشتن دارایی‌هایی که به سرعت مستهلک می‌شوند، به آخرین فناوری دسترسی داشته باشند.

استارتاپ‌هایی مانند Lepton AI و رقیب بزرگ‌تر و کمی قدیمی‌تر آن، Together AI، برای بهره‌برداری از این پویایی‌ها ظهور کرده‌اند. Together AI، که بیش از نیم میلیارد دلار سرمایه خطرپذیر جمع‌آوری کرده است، بر اساس فرضیه مشابهی اما به طور بالقوه در مقیاس بزرگ‌تر عمل می‌کند و اعتماد سرمایه‌گذاران را به مدل اجاره GPU و ابر تخصصی هوش مصنوعی برجسته می‌کند. این شرکت‌ها با تمرکز انحصاری بر بارهای کاری هوش مصنوعی/یادگیری ماشین، ارائه بالقوه پشته‌های نرم‌افزاری بهینه‌سازی شده، پشتیبانی تخصصی یا ساختارهای قیمت‌گذاری قابل پیش‌بینی‌تر برای موارد استفاده خاص، خود را از ابرمقیاس‌پذیرها متمایز می‌کنند. آن‌ها نمایانگر لایه رو به رشد تخصص در بازار گسترده‌تر زیرساخت ابری هستند.

پیمایش در عرصه رقابتی: استارتاپ‌ها در مقابل غول‌ها

چشم‌انداز رقابتی برای اجاره محاسبات هوش مصنوعی پیچیده است و ترکیبی از غول‌های مستقر و استارتاپ‌های چابک را در بر می‌گیرد.

  • ابر مقیاس‌پذیرها (AWS, Azure, GCP): این‌ها بازیگران غالب هستند که طیف گسترده‌ای از خدمات، از جمله نمونه‌های GPU را ارائه می‌دهند. آن‌ها از صرفه‌جویی در مقیاس، دسترسی جهانی و اکوسیستم‌های یکپارچه بهره می‌برند. آن‌ها همچنین بزرگترین مشتریان Nvidia هستند. با این حال، مقیاس آن‌ها گاهی اوقات می‌تواند به پیچیدگی، پشتیبانی کمتر شخصی‌سازی شده برای مشتریان کوچک‌تر و رقابت شدید برای ظرفیت محدود GPU در زمان اوج تقاضا تبدیل شود.
  • ارائه‌دهندگان ابر تخصصی هوش مصنوعی (مانند CoreWeave, Lambda Labs): این شرکت‌ها به طور خاص بر ارائه محاسبات با کارایی بالا برای هوش مصنوعی/یادگیری ماشین تمرکز می‌کنند و اغلب دارای ناوگان بزرگی از GPUها و تخصص متناسب با این بارهای کاری هستند. آن‌ها مستقیماً با ابرمقیاس‌پذیرها و استارتاپ‌های اجاره‌ای کوچک‌تر رقابت می‌کنند.
  • استارتاپ‌های اجاره‌ای (مانند Lepton AI, Together AI): این بازیگران اغلب بر روی جایگاه‌های خاص، انعطاف‌پذیری یا سهولت استفاده تمرکز می‌کنند. مدل آن‌ها غالباً شامل اجاره ظرفیت از ابرمقیاس‌پذیرها یا ارائه‌دهندگان تخصصی و فروش مجدد آن، با افزودن لایه‌ای از مدیریت، بهینه‌سازی یا ابزارهای خاص است. وجود آن‌ها بر ناکارآمدی‌های بازار و نیازهای برآورده نشده برای دسترسی متناسب تأکید می‌کند.

خرید Lepton AI توسط Nvidia، این شرکت را مستقیماً وارد این نزاع رقابتی می‌کند، هرچند به طور بالقوه در مقیاس کوچک شروع می‌شود. این به نوعی با سایر ارائه‌دهندگان تخصصی و به طور غیرمستقیم با پیشنهادات اجاره GPU خود ابرمقیاس‌پذیرها رقابت خواهد کرد. سوال حیاتی این است که Nvidia چگونه چنین سرویسی را موقعیت‌یابی می‌کند. آیا هدف آن جذابیت بازار انبوه خواهد بود یا بر روی جایگاه‌های استراتژیک تمرکز خواهد کرد، شاید از استارتاپ‌های هوش مصنوعی در برنامه Inception خود پشتیبانی کند یا ابتکارات تحقیقاتی را تسهیل کند؟

رابطه با ابرمقیاس‌پذیرها از اهمیت بالایی برخوردار خواهد بود. Nvidia ممکن است Lepton AI خریداری شده را به عنوان یک سرویس مکمل معرفی کند، بخش‌هایی را هدف قرار دهد که توسط غول‌ها کمتر خدمات‌رسانی می‌شوند یا بهینه‌سازی‌های نرم‌افزاری منحصر به فردی را ارائه دهد که بر روی پشته خود Nvidia (CUDA, cuDNN, TensorRT و غیره) ساخته شده‌اند. حتی می‌توان آن را به عنوان راهی برای افزایش مصرف ابر به طور غیرمستقیم، با توانمندسازی بازیگران کوچک‌تر برای رسیدن به مقیاسی که در نهایت بارهای کاری بزرگ‌تر را به AWS، Azure یا GCP منتقل کنند، چارچوب‌بندی کرد. با این وجود، پتانسیل تضاد کانال واقعی است و نیاز به مدیریت دقیق دارد.

زمزمه‌های معامله و سیگنال‌های ارزش‌گذاری

ارزش‌گذاری گزارش شده “چند صد میلیون دلاری” برای Lepton AI قابل توجه است. برای یک شرکت دو ساله با تنها ۱۱ میلیون دلار بودجه اولیه (seed funding) افشا شده، این نشان‌دهنده افزایش قابل توجهی است. چندین عامل می‌توانند به این برچسب قیمت بالقوه کمک کنند:

  • پرمیوم استراتژیک: Nvidia ممکن است مایل باشد نه تنها برای کسب‌وکار فعلی Lepton AI، بلکه برای مزیت استراتژیک ورود به بازار اجاره، کسب هوش بازار و تأمین یک کانال مستقیم به کاربران، پرمیوم پرداخت کند.
  • تیم و فناوری: این خرید ممکن است تا حدی یک “acqui-hire” باشد و تخصص تیم Lepton AI در مدیریت زیرساخت GPU و خدمت‌رسانی به مشتریان هوش مصنوعی را ارزش‌گذاری کند. آن‌ها همچنین ممکن است دارای نرم‌افزار اختصاصی یا کارایی‌های عملیاتی باشند که ارزشمند تلقی می‌شوند.
  • اعتبارسنجی بازار: موفقیت و ارزش‌گذاری بالای رقیب Together AI ممکن است یک معیار ارائه دهد، که پتانسیل قابل توجه بازار را نشان می‌دهد و قیمت بالاتر برای Lepton AI را، حتی در مرحله اولیه، توجیه می‌کند.
  • کنترل بر دسترسی به سخت‌افزار: در محیطی با کمبود شدید GPU، هر نهادی که دسترسی به سخت‌افزار Nvidia را - حتی از طریق اجاره - تأمین کرده باشد، ارزش قابل توجهی دارد. Nvidia ممکن است تا حدی برای کنترل یا هدایت مجدد آن ظرفیت، هزینه پرداخت کند.

اگر معامله با چنین ارزش‌گذاری پیش برود، سیگنال قوی در مورد ارزش درک شده قفل شده در لایه خدمات زیرساخت هوش مصنوعی، فراتر از خود سخت‌افزار، ارسال می‌کند. این نشان می‌دهد که تسهیل دسترسی و مدیریت کارآمد منابع GPU یک پیشنهاد بسیار ارزشمند در فضای فعلی بازار است.

امواج در سراسر اکوسیستم: ارائه‌دهندگان ابری و فراتر از آن

خرید Lepton AI توسط Nvidia، حتی اگر با دقت موقعیت‌یابی شود، ناگزیر امواجی را در سراسر اکوسیستم فناوری ایجاد خواهد کرد.

  • ارائه‌دهندگان خدمات ابری: AWS، Azure و GCP از نزدیک نظاره‌گر خواهند بود. در حالی که Lepton AI در حال حاضر یک مشتری است (اجاره سرورها از آن‌ها)، Lepton تحت مالکیت Nvidia می‌تواند به یک رقیب مستقیم‌تر تبدیل شود، به خصوص اگر Nvidia به شدت در مقیاس‌بندی عملیات خود سرمایه‌گذاری کند. این ممکن است ارائه‌دهندگان ابری را وادار کند تا پیشنهادات GPU، استراتژی‌های قیمت‌گذاری و مشارکت‌های خود با Nvidia را دوباره ارزیابی کنند. آن‌ها ممکن است تلاش‌ها برای توسعه شتاب‌دهنده‌های هوش مصنوعی سفارشی خود را برای کاهش وابستگی به Nvidia تسریع کنند.
  • سایر تولیدکنندگان سخت‌افزار: رقبایی مانند AMD و Intel که در تلاش برای به چالش کشیدن تسلط Nvidia هستند، ممکن است این را به عنوان تلاش Nvidia برای قفل کردن بیشتر اکوسیستم خود با کنترل نه تنها سخت‌افزار بلکه پلتفرم‌های دسترسی ببینند. این می‌تواند فوریت را برای آن‌ها برای ساخت پشته‌های نرم‌افزاری خود و پرورش پلتفرم‌های زیرساختی جایگزین افزایش دهد.
  • سایر استارتاپ‌های زیرساختی: برای شرکت‌هایی مانند Together AI، CoreWeave یا Lambda Labs، یک رقیب تحت حمایت Nvidia چشم‌انداز را تغییر می‌دهد. از یک سو، بازار آن‌ها را تأیید می‌کند؛ از سوی دیگر، یک رقیب بالقوه قدرتمند با جیب‌های پر و نفوذ بی‌نظیر بر فناوری اصلی را معرفی می‌کند.
  • کاربران نهایی: برای توسعه‌دهندگان هوش مصنوعی و شرکت‌هایی که به دنبال منابع GPU هستند، این اقدام می‌تواند مثبت باشد اگر منجر به انتخاب بیشتر، خدمات بالقوه بهتر بهینه‌سازی شده یا دسترسی آسان‌تر، به ویژه برای بازیگران کوچک‌تر شود. با این حال، اگر Nvidia از موقعیت خود به طور ناعادلانه استفاده کند، می‌تواند منجر به نگرانی در مورد تمرکز بازار شود.

تأثیر کلی ممکن است تسریع روندهای یکپارچه‌سازی عمودی در پشته هوش مصنوعی باشد، زیرا بازیگران اصلی به دنبال کنترل قطعات بیشتری از پازل، از طراحی سیلیکون گرفته تا خدمات ابری و پلتفرم‌های نرم‌افزاری هستند.

الگوی خرید؟ اتصال نقاط

اقدام بالقوه Nvidia در مورد Lepton AI در خلاء رخ نمی‌دهد. این به دنبال گزارش‌هایی است که Nvidia اخیراً Gretel AI را نیز خریداری کرده است، استارتاپی متخصص در تولید داده‌های مصنوعی. داده‌های مصنوعی برای آموزش مدل‌های هوش مصنوعی حیاتی هستند، به ویژه زمانی که داده‌های دنیای واقعی کمیاب، حساس یا مغرضانه باشند.

کنار هم قرار دادن این دو خرید بالقوه، جهت‌گیری استراتژیک گسترده‌تری را برای Nvidia نشان می‌دهد:

  • Gretel (داده): به سمت ورودی توسعه مدل هوش مصنوعی می‌پردازد - تأمین داده‌های با کیفیت بالا مورد نیاز برای آموزش.
  • Lepton AI (محاسبات): به سمت پردازش می‌پردازد - تأمین زیرساختی که مدل‌ها بر روی آن آموزش داده شده و اجرا می‌شوند.

این ترکیب می‌تواند نشان‌دهنده جاه‌طلبی Nvidia برای ارائه یک پلتفرم یا مجموعه‌ای از ابزارهای یکپارچه‌تر باشد که از کل چرخه عمر توسعه هوش مصنوعی پشتیبانی می‌کند. با کنترل عناصر کلیدی تولید/مدیریت داده و دسترسی به زیرساخت محاسباتی، Nvidia می‌تواند اکوسیستم خود را به طور قابل توجهی تقویت کند و آن را برای توسعه‌دهندگان هوش مصنوعی ضروری‌تر سازد. این به آینده‌ای اشاره دارد که در آن Nvidia نه تنها “کلنگ و بیل” (GPUها) را برای تب طلای هوش مصنوعی فراهم می‌کند، بلکه برخی از “ادعاهای معدن” (محاسبات اجاره‌ای) و “خدمات سنجش” (ابزارهای داده) را نیز ارائه می‌دهد.

این استراتژی با سرمایه‌گذاری‌های سنگین Nvidia در پشته نرم‌افزاری خود (CUDA، کتابخانه‌ها، چارچوب‌ها) که برای ضروری ساختن سخت‌افزار آن طراحی شده‌اند، همسو است. افزودن خدمات مربوط به داده و دسترسی به محاسبات، گسترش منطقی این استراتژی پلتفرم خواهد بود.

چشم‌انداز در حال تحول دسترسی به محاسبات هوش مصنوعی

روشی که سازمان‌ها به قدرت محاسباتی مورد نیاز برای هوش مصنوعی دسترسی پیدا می‌کنند، در نوسان دائمی است. خرید بالقوه Lepton AI توسط Nvidia در چندین روند گسترده‌تر که این چشم‌انداز را شکل می‌دهند، جای می‌گیرد.

در ابتدا، دسترسی عمدتاً از طریق خرید و مدیریت سخت‌افزار داخلی (on-premises) بود. ظهور رایانش ابری پارادایم را به سمت IaaS تغییر داد و ابرمقیاس‌پذیرها نمونه‌های GPU را بر حسب تقاضا ارائه کردند. اکنون، شاهد تخصص و تنوع بیشتری هستیم:

  • ابرهای تخصصی هوش مصنوعی: ارائه محیط‌های بهینه‌سازی شده به طور خاص برای بارهای کاری هوش مصنوعی/یادگیری ماشین.
  • واسطه‌های اجاره‌ای: ارائه دسترسی انعطاف‌پذیر، اغلب با استفاده از ظرفیت ارائه‌دهندگان بزرگ‌تر.
  • GPUهای بدون سرور (Serverless): پلتفرم‌هایی با هدف حذف کامل مدیریت سرور، که به کاربران امکان می‌دهد صرفاً به ازای هر محاسبه یا هر استنتاج پرداخت کنند.
  • محاسبات لبه (Edge Computing): استقرار قابلیت‌های استنتاج هوش مصنوعی نزدیک‌تر به محل تولید داده، با استفاده از سخت‌افزار کوچک‌تر و کم‌مصرف‌تر.

ورود بالقوه Nvidia به بازار اجاره از طریق Lepton AI نشان‌دهنده شناخت این موضوع است که مدل‌های دسترسی متنوعی مورد نیاز است. در حالی که ابرمقیاس‌پذیرها برای نیازهای ابری یکپارچه و در مقیاس بزرگ غالب باقی خواهند ماند، بازار مشخصی برای پیشنهادات محاسباتی تخصصی‌تر، انعطاف‌پذیرتر یا متمرکز بر توسعه‌دهنده وجود دارد. به نظر می‌رسد Nvidia آماده است تا اطمینان حاصل کند که در این اکوسیستم در حال تحول سهمی دارد و از محدود شدن نقش خود صرفاً به عنوان تأمین‌کننده قطعات، هرچند آن قطعه حیاتی باشد، جلوگیری کند.

این اقدام، در صورت تحقق، بر عزم Nvidia برای باقی ماندن در مرکز انقلاب هوش مصنوعی تأکید می‌کند، نه تنها با ارائه سخت‌افزار بنیادی، بلکه با شکل‌دهی فعالانه به نحوه دسترسی و استفاده از آن سخت‌افزار در سراسر صنعت. این نشان‌دهنده یک شرط‌بندی حساب‌شده بر نیاز پایدار به محاسبات هوش مصنوعی انعطاف‌پذیر و در دسترس و جاه‌طلبی Nvidia برای کسب ارزش در طیف وسیع‌تری از بازار زیرساخت هوش مصنوعی است. ماه‌های آینده نشان خواهد داد که آیا این مذاکرات به یک معامله تبدیل می‌شود و Nvidia چگونه قصد دارد چنین سرویسی را در امپراتوری فناوری گسترده خود ادغام کند.