Nvidia تدرس الاستحواذ على Lepton AI لتأجير خوادم AI

في ساحة الذكاء الاصطناعي عالية المخاطر، حيث تسود القوة الحاسوبية، تقف Nvidia كالملك بلا منازع، فوحدات معالجة الرسومات (GPUs) الخاصة بها هي الأساس الذي بنيت عليه الكثير من ثورة الذكاء الاصطناعي الحالية. ومع ذلك، تشير الهمسات الصادرة من أروقة التكنولوجيا إلى أن عملاق أشباه الموصلات قد يتطلع إلى توسع استراتيجي يتجاوز أعماله الأساسية في مجال السيليكون. تشير التقارير إلى أن Nvidia تجري مناقشات عميقة للاستحواذ المحتمل على Lepton AI، وهي شركة ناشئة تعمل في السوق المتزايد الأهمية لتأجير خوادم الذكاء الاصطناعي. هذه الخطوة، إذا تمت، يمكن أن تشير إلى تطور كبير في استراتيجية Nvidia، مما يدفعها إلى أعلى سلسلة القيمة وربما يغير ديناميكيات الوصول إلى البنية التحتية للذكاء الاصطناعي.

الصفقة المحتملة، التي قدرتها مصادر نقلتها The Information بتقييم يصل إلى عدة مئات من ملايين الدولارات، تتمحور حول شركة لا يتجاوز عمرها عامين. لقد نحتت Lepton AI لنفسها مكانة محددة: فهي تؤجر خوادم مليئة بشرائح الذكاء الاصطناعي المرغوبة من Nvidia، وتستمد هذه السعة بشكل أساسي من كبار مزودي الخدمات السحابية، ثم تؤجر هذه القوة الحاسوبية من الباطن لشركات أخرى، غالبًا ما تكون لاعبين أصغر أو أولئك الذين يحتاجون إلى وصول مرن دون التزامات طويلة الأجل تجاه عمالقة السحابة. يضع نموذج العمل هذا Lepton AI كوسيط، وميسر في النظام البيئي المعقد الذي يوفر القوة الحاسوبية الخام التي تغذي تطوير ونشر الذكاء الاصطناعي.

فك شفرة Lepton AI: الوسيط في حمى وحدات معالجة الرسومات

تأسست Lepton AI قبل عامين فقط، وهي تمثل الحماس الريادي المحيط بازدهار البنية التحتية للذكاء الاصطناعي. يدور عرضها الأساسي حول إمكانية الوصول والمرونة. بينما يقدم مزودو الخدمات السحابية واسعة النطاق مثل Amazon Web Services (AWS) و Microsoft Azure و Google Cloud Platform (GCP) وصولاً مباشرًا إلى مثيلات Nvidia GPU، فإن التنقل في عروضهم وتأمين السعة وإدارة البنية التحتية يمكن أن يكون معقدًا ومكلفًا، لا سيما للشركات الناشئة أو الفرق ذات الاحتياجات المتقلبة.

تتدخل Lepton AI لسد هذه الفجوة. من خلال تجميع سعة الخادم - الشراء بالجملة بشكل أساسي من مزودي الخدمات السحابية - ثم عرضها بشروط يحتمل أن تكون أكثر مرونة أو مع خدمات ذات قيمة مضافة مصممة خصيصًا لأعباء عمل الذكاء الاصطناعي، تهدف إلى تبسيط الوصول إلى الحوسبة عالية الأداء. يزدهر هذا النموذج على الندرة المستمرة والطلب الهائل على وحدات معالجة الرسومات المتقدمة من Nvidia، مثل H100 وسابقاتها. قد تلجأ الشركات غير القادرة على تأمين المخصصات مباشرة من Nvidia أو التي تواجه قوائم انتظار طويلة مع مزودي الخدمات السحابية إلى وسطاء مثل Lepton AI للحصول على وصول أسرع أو أكثر تخصيصًا.

حصلت الشركة الناشئة على تمويل أولي متواضع بقيمة 11 مليون دولار في مايو 2023، بقيادة CRV و Fusion Fund. من المحتمل أن يكون هذا الضخ الأولي لرأس المال قد غذى جهودها لبناء منصتها، وإقامة علاقات مع مزودي الخدمات السحابية، واكتساب قاعدة عملائها الأولية. يتطلب العمل في هذا المجال رأس مال كبير، ليس فقط للنفقات التشغيلية ولكن ربما للالتزام المسبق بعقود إيجار الخوادم لضمان توفر السعة لعملائها. وبالتالي، فإن سعر الاستحواذ المبلغ عنه يشير إما إلى نمو سريع وجاذبية واعدة حققتها Lepton AI في وجودها القصير أو، ربما الأهم من ذلك، القيمة الاستراتيجية الهائلة التي توليها Nvidia للتحكم أو التأثير على الوصول النهائي إلى أجهزتها الخاصة.

تعمل Lepton AI بشكل أساسي كبائع تجزئة متخصص وطبقة خدمة، مما يبسط بعض تعقيدات التعامل المباشر مع البنية التحتية السحابية الكبيرة. قد يشمل عملاؤها المستهدفون:

  • الشركات الناشئة في مجال الذكاء الاصطناعي: الشركات التي تحتاج إلى حوسبة قوية لتدريب النماذج أو الاستدلال ولكنها تفتقر إلى الحجم أو الموارد لعقود سحابية كبيرة.
  • مختبرات الأبحاث: المجموعات البحثية الأكاديمية أو المؤسسية التي تتطلب دفعات من الحوسبة عالية الأداء للتجارب.
  • المؤسسات: الشركات الكبرى التي تستكشف مشاريع ذكاء اصطناعي محددة وتحتاج إلى سعة إضافية خارج ترتيباتها السحابية الحالية.

تعتمد جدوى هذا النموذج على قدرة Lepton AI على تأمين سعة GPU بشكل موثوق وفعال من حيث التكلفة، وإدارة بنيتها التحتية بكفاءة، وتقديم أسعار أو خدمات مقنعة مقارنة بالذهاب مباشرة إلى المصدر. إنها عملية موازنة دقيقة في سوق يهيمن عليه العمالقة.

حسابات Nvidia الاستراتيجية: ما وراء السيليكون

لماذا قد تغامر Nvidia، الشركة التي ينبع نجاحها الهائل من تصميم وبيع شرائح الذكاء الاصطناعي الأكثر طلبًا في الصناعة، في أعمال تأجير الخوادم، وتتنافس بشكل فعال، وإن كان بشكل غير مباشر، مع أكبر عملائها - مزودي الخدمات السحابية؟ الدوافع المحتملة متعددة الأوجه وتكشف الكثير عن المشهد المتطور للذكاء الاصطناعي.

1. التكامل الرأسي والاستحواذ على القيمة: تمتد سلسلة قيمة الذكاء الاصطناعي من تصميم وتصنيع الشرائح مرورًا بتكامل الخوادم وعمليات مراكز البيانات والمنصات السحابية، وصولًا أخيرًا إلى تطبيقات الذكاء الاصطناعي نفسها. حاليًا، تستحوذ Nvidia على قيمة هائلة على مستوى الشريحة. ومع ذلك، يتم أيضًا إنشاء قيمة كبيرة في المراحل النهائية في طبقة البنية التحتية كخدمة (IaaS) حيث تدفع الشركات أقساطًا للوصول إلى الحوسبة المسرعة بواسطة GPU. من خلال الاستحواذ على لاعب مثل Lepton AI، يمكن لـ Nvidia أن تستحوذ على شريحة أكبر من الإنفاق الإجمالي على البنية التحتية للذكاء الاصطناعي، متجاوزة مبيعات المكونات إلى توفير الخدمات.

2. استخبارات السوق وردود الفعل المباشرة من العملاء: إن تشغيل خدمة تأجير، حتى عن بعد، سيوفر لـ Nvidia رؤى لا تقدر بثمن وفي الوقت الفعلي حول كيفية استخدام وحدات معالجة الرسومات الخاصة بها، وما هي أعباء العمل الأكثر شيوعًا، وما هي حزم البرامج المفضلة، وما هي الاختناقات التي يواجهها العملاء. يمكن لحلقة التغذية الراجعة المباشرة هذه أن تفيد تصميم الشرائح المستقبلية وتطوير البرامج (مثل منصة CUDA الخاصة بها) واستراتيجية السوق الشاملة بشكل أكثر فعالية بكثير من الاعتماد فقط على التعليقات التي يتم تصفيتها من خلال شركاء السحابة الكبار.

3. تشكيل السوق وضمان الوصول: بينما يعد مقدمو الخدمات السحابية واسعة النطاق شركاء مهمين، قد ترغب Nvidia في مزيد من التأثير المباشر على كيفية وصول تقنيتها إلى سوق أوسع، لا سيما المبتكرين الأصغر. يمكن أن يكون ذراع التأجير بمثابة قناة لضمان حصول شرائح عملاء محددة أو مبادرات استراتيجية على وصول مضمون لأحدث أجهزة Nvidia، مما قد يعزز الابتكار الذي يدفع في النهاية إلى زيادة الطلب على شرائحها. يمكن أن يكون أيضًا بمثابة اختبار للأجهزة أو عروض البرامج الجديدة قبل الإصدار الأوسع من خلال شركاء السحابة الرئيسيين.

4. الديناميكيات التنافسية: يمكن أيضًا تفسير هذه الخطوة على أنها دفاعية. بينما يسعى المنافسون (مثل AMD و Intel) جاهدين لكسب الأرض في سوق شرائح الذكاء الاصطناعي، وبينما يطور مقدمو الخدمات السحابية واسعة النطاق سيليكون الذكاء الاصطناعي المخصص الخاص بهم، قد ترى Nvidia امتلاك قناة مباشرة للمستخدمين النهائيين كوسيلة لترسيخ هيمنة نظامها البيئي وولاء العملاء. يوفر منصة لعرض أداء وسهولة استخدام حزمة Nvidia الكاملة (الأجهزة بالإضافة إلى البرامج).

5. استكشاف نماذج أعمال جديدة: قد يدفع الطلب المتواصل على حوسبة الذكاء الاصطناعي Nvidia إلى استكشاف نماذج إيرادات متكررة تتجاوز مبيعات الأجهزة. في حين أن إيرادات الخدمة من المرجح أن تظل صغيرة مقارنة بمبيعات الشرائح في البداية، إلا أنها تمثل لعبة تنويع ودخولًا إلى قطاع يشهد نموًا هائلاً.

ومع ذلك، فإن الدخول إلى سوق تأجير الخوادم لا يخلو من المخاطر. إنه يضع Nvidia في “منافسة تعاونية” محتملة مع أكبر عملائها، مزودي الخدمات السحابية، الذين يشترون ما قيمته مليارات الدولارات من وحدات معالجة الرسومات الخاصة بها. ستحتاج Nvidia إلى التنقل في هذه العلاقات بعناية لتجنب تنفير هؤلاء الشركاء المهمين. علاوة على ذلك، يتطلب تشغيل أعمال الخدمات قدرات تشغيلية مختلفة عن تصميم وبيع الأجهزة - مع التركيز على وقت التشغيل ودعم العملاء وإدارة البنية التحتية.

السوق المزدهر لطاقة الذكاء الاصطناعي المستأجرة

إن سياق اهتمام Nvidia المحتمل بـ Lepton AI هو الاندفاع غير المسبوق نحو موارد الحوسبة الخاصة بالذكاء الاصطناعي. يتطلب تدريب نماذج اللغة الكبيرة (LLMs) مثل تلك التي تشغل ChatGPT أو تطوير تطبيقات الذكاء الاصطناعي المتطورة في مجالات مثل اكتشاف الأدوية والقيادة الذاتية والنمذجة المالية قوة معالجة هائلة، توفرها في الغالب وحدات معالجة الرسومات (GPUs).

تشمل العوامل الرئيسية التي تدفع سوق التأجير ما يلي:

  • تكاليف الأجهزة الباهظة: يمثل الحصول على خوادم الذكاء الاصطناعي المتطورة بشكل مباشر نفقات رأسمالية ضخمة، غالبًا ما تكون بعيدة عن متناول الشركات الناشئة وحتى العديد من المؤسسات القائمة. يمكن أن تكلف وحدات معالجة الرسومات من الدرجة الأولى من Nvidia، مثل H100، عشرات الآلاف من الدولارات لكل منها، ويمكن أن يصل سعر الخادم المجهز بالكامل إلى مئات الآلاف.
  • ندرة الأجهزة: يتجاوز الطلب على وحدات معالجة الرسومات المتقدمة من Nvidia العرض باستمرار. حتى كبار مزودي الخدمات السحابية يواجهون تحديات في تأمين مخزون كافٍ، مما يؤدي إلى قوائم انتظار وقيود على السعة. تخلق هذه الندرة فرصة للوسطاء الذين يتمكنون من تأمين المخصصات.
  • الحاجة إلى المرونة وقابلية التوسع: غالبًا ما يتضمن تطوير الذكاء الاصطناعي احتياجات حسابية غير متوقعة. قد تتطلب الفرق موارد ضخمة لتشغيل التدريب الذي يستمر لأسابيع، تليها فترات استخدام أقل. توفر نماذج التأجير المرونة لتوسيع نطاق الموارد لأعلى أو لأسفل حسب الحاجة، وتحويل النفقات الرأسمالية إلى نفقات تشغيلية.
  • التقادم التكنولوجي السريع: وتيرة الابتكار في أجهزة الذكاء الاصطناعي سريعة للغاية. يتيح التأجير للشركات الوصول إلى أحدث التقنيات دون المخاطرة بامتلاك أصول تنخفض قيمتها بسرعة.

ظهرت الشركات الناشئة مثل Lepton AI ومنافستها الأكبر والأقدم قليلاً، Together AI، للاستفادة من هذه الديناميكيات. تعمل Together AI، بعد أن جمعت أكثر من نصف مليار دولار من رأس المال الاستثماري، على فرضية مماثلة ولكن ربما على نطاق أوسع، مما يسلط الضوء على ثقة المستثمرين في نموذج تأجير GPU والسحابة المتخصصة للذكاء الاصطناعي. تميز هذه الشركات نفسها عن مقدمي الخدمات السحابية واسعة النطاق من خلال التركيز حصريًا على أعباء عمل الذكاء الاصطناعي / التعلم الآلي، وربما تقدم حزم برامج محسّنة، أو دعمًا متخصصًا، أو هياكل تسعير أكثر قابلية للتنبؤ لحالات استخدام معينة. إنها تمثل طبقة متنامية من التخصص داخل سوق البنية التحتية السحابية الأوسع.

التنقل في الساحة التنافسية: الشركات الناشئة مقابل العمالقة

المشهد التنافسي لتأجير حوسبة الذكاء الاصطناعي معقد، ويضم مزيجًا من العمالقة الراسخين والشركات الناشئة الذكية.

  • مقدمو الخدمات السحابية واسعة النطاق (AWS, Azure, GCP): هؤلاء هم اللاعبون المهيمنون، ويقدمون مجموعة واسعة من الخدمات، بما في ذلك مثيلات GPU. يستفيدون من وفورات الحجم والوصول العالمي والأنظمة البيئية المتكاملة. هم أيضًا أكبر عملاء Nvidia. ومع ذلك، يمكن أن يترجم حجمهم أحيانًا إلى تعقيد، ودعم أقل تخصيصًا للعملاء الأصغر، ومنافسة شديدة على سعة GPU المحدودة خلال ذروة الطلب.
  • مزودو السحابة المتخصصون في الذكاء الاصطناعي (مثل CoreWeave, Lambda Labs): تركز هذه الشركات بشكل خاص على توفير حوسبة عالية الأداء للذكاء الاصطناعي / التعلم الآلي، وغالبًا ما تتباهى بأساطيل كبيرة من وحدات معالجة الرسومات والخبرة المصممة خصيصًا لهذه الأعباء. يتنافسون بشكل مباشر مع كل من مقدمي الخدمات السحابية واسعة النطاق وشركات التأجير الناشئة الأصغر.
  • شركات التأجير الناشئة (مثل Lepton AI, Together AI): غالبًا ما يركز هؤلاء اللاعبون على مجالات محددة أو المرونة أو سهولة الاستخدام. يتضمن نموذجهم بشكل متكرر استئجار السعة من مقدمي الخدمات السحابية واسعة النطاق أو المزودين المتخصصين وإعادة بيعها، مع إضافة طبقة من الإدارة أو التحسين أو الأدوات المحددة. يؤكد وجودهم على أوجه القصور في السوق والاحتياجات غير الملباة للوصول المخصص.

سيضع استحواذ Nvidia على Lepton AI الشركة مباشرة في هذه المعركة التنافسية، وإن كان من المحتمل أن يبدأ صغيرًا. ستتنافس، بمعنى ما، مع مقدمي الخدمات المتخصصين الآخرين وبشكل غير مباشر مع عروض تأجير GPU الخاصة بمقدمي الخدمات السحابية واسعة النطاق. السؤال الحاسم هو كيف ستضع Nvidia مثل هذه الخدمة. هل ستهدف إلى جذب السوق الشامل، أم ستركز على مجالات استراتيجية، ربما تدعم الشركات الناشئة في مجال الذكاء الاصطناعي ضمن برنامج Inception الخاص بها أو تسهل المبادرات البحثية؟

ستكون العلاقة مع مقدمي الخدمات السحابية واسعة النطاق ذات أهمية قصوى. قد تضع Nvidia شركة Lepton AI المستحوذ عليها كخدمة تكميلية، تستهدف الشرائح التي لا يخدمها العمالقة بشكل كافٍ أو تقدم تحسينات برمجية فريدة مبنية على حزمة Nvidia الخاصة (CUDA, cuDNN, TensorRT, إلخ). يمكن حتى تأطيرها كوسيلة لزيادة استهلاك السحابة بشكل غير مباشر، من خلال تمكين اللاعبين الأصغر من التوسع إلى درجة ينتقلون فيها في النهاية بأعباء عمل أكبر إلى AWS أو Azure أو GCP. ومع ذلك، فإن احتمال تضارب القنوات حقيقي وسيتطلب إدارة دقيقة.

همسات الصفقة وإشارات التقييم

التقييم المبلغ عنه بـ “عدة مئات من ملايين الدولارات” لـ Lepton AI جدير بالملاحظة. بالنسبة لشركة عمرها عامان ولديها 11 مليون دولار فقط من التمويل الأولي المعلن، يمثل هذا زيادة كبيرة. يمكن أن تساهم عدة عوامل في هذا السعر المحتمل:

  • العلاوة الاستراتيجية: قد تكون Nvidia مستعدة لدفع علاوة ليس فقط لأعمال Lepton AI الحالية، ولكن للميزة الاستراتيجية المتمثلة في دخول سوق التأجير، واكتساب استخبارات السوق، وتأمين قناة مباشرة للمستخدمين.
  • الفريق والتكنولوجيا: قد يكون الاستحواذ جزئيًا “استحواذًا توظيفيًا”، يقدر خبرة فريق Lepton AI في إدارة البنية التحتية لـ GPU وخدمة عملاء الذكاء الاصطناعي. قد يمتلكون أيضًا برامج احتكارية أو كفاءات تشغيلية تعتبر ذات قيمة.
  • التحقق من صحة السوق: قد يوفر نجاح وتقييم المنافس Together AI المرتفع معيارًا، مما يشير إلى إمكانات سوقية كبيرة ويبرر سعرًا أعلى لـ Lepton AI، حتى في مرحلة مبكرة.
  • التحكم في الوصول إلى الأجهزة: في بيئة ندرة شديدة لوحدات معالجة الرسومات، فإن أي كيان قام بتأمين الوصول إلى أجهزة Nvidia - حتى من خلال عقود الإيجار - يحمل قيمة كبيرة. قد تدفع Nvidia، جزئيًا، للتحكم في هذه السعة أو إعادة توجيهها.

إذا تمت الصفقة بهذا التقييم، فإنها ترسل إشارة قوية حول القيمة المتصورة المحتجزة داخل طبقة خدمات البنية التحتية للذكاء الاصطناعي، بما يتجاوز الأجهزة نفسها. يشير ذلك إلى أن تسهيل الوصول وإدارة موارد GPU بكفاءة يمثل عرضًا ذا قيمة عالية في مناخ السوق الحالي.

تموجات عبر النظام البيئي: مزودو الخدمات السحابية وما بعدها

إن استحواذ Nvidia على Lepton AI، حتى لو تم وضعه بعناية، سيرسل حتماً تموجات عبر النظام البيئي التكنولوجي.

  • مزودو الخدمات السحابية: ستراقب AWS و Azure و GCP عن كثب. بينما تعد Lepton AI حاليًا عميلاً (تستأجر خوادم منهم)، يمكن أن تصبح Lepton المملوكة لـ Nvidia منافسًا مباشرًا أكثر، خاصة إذا استثمرت Nvidia بكثافة في توسيع نطاق عملياتها. قد يدفع ذلك مزودي الخدمات السحابية إلى إعادة تقييم عروض GPU الخاصة بهم واستراتيجيات التسعير والشراكات مع Nvidia. قد يسرعون الجهود لتطوير مسرعات الذكاء الاصطناعي المخصصة الخاصة بهم لتقليل الاعتماد على Nvidia.
  • مصنعو الأجهزة الآخرون: قد يرى المنافسون مثل AMD و Intel، الذين يحاولون تحدي هيمنة Nvidia، هذا على أنه محاولة من Nvidia لزيادة تأمين نظامها البيئي من خلال التحكم ليس فقط في الأجهزة ولكن أيضًا في منصات الوصول. قد يزيد ذلك من إلحاحهم لبناء حزم البرامج الخاصة بهم وتعزيز منصات البنية التحتية البديلة.
  • الشركات الناشئة الأخرى في مجال البنية التحتية: بالنسبة لشركات مثل Together AI أو CoreWeave أو Lambda Labs، فإن وجود منافس مدعوم من Nvidia يغير المشهد. من ناحية، فإنه يؤكد صحة سوقهم؛ ومن ناحية أخرى، فإنه يقدم منافسًا هائلاً محتملاً يتمتع بإمكانيات مالية عميقة وتأثير لا مثيل له على التكنولوجيا الأساسية.
  • المستخدمون النهائيون: بالنسبة لمطوري الذكاء الاصطناعي والشركات التي تبحث عن موارد GPU، يمكن أن تكون هذه الخطوة إيجابية إذا أدت إلى مزيد من الخيارات، وربما خدمات محسنة بشكل أفضل، أو وصول أسهل، خاصة للاعبين الأصغر. ومع ذلك، يمكن أن يؤدي أيضًا إلى مخاوف بشأن تركيز السوق إذا استغلت Nvidia موقعها بشكل غير عادل.

قد يكون التأثير الشامل هو تسريع اتجاهات التكامل الرأسي داخل حزمة الذكاء الاصطناعي، حيث يسعى اللاعبون الرئيسيون للسيطرة على المزيد من قطع اللغز، من تصميم السيليكون إلى الخدمات السحابية ومنصات البرامج.

نمط من الاستحواذ؟ ربط النقاط

لا تحدث خطوة Nvidia المحتملة بشأن Lepton AI في فراغ. تأتي بعد فترة وجيزة من التقارير التي تفيد بأن Nvidia استحوذت مؤخرًا أيضًا على Gretel AI، وهي شركة ناشئة متخصصة في توليد البيانات الاصطناعية. تعد البيانات الاصطناعية ضرورية لتدريب نماذج الذكاء الاصطناعي، لا سيما عندما تكون البيانات الواقعية نادرة أو حساسة أو متحيزة.

يشير وضع هذين الاستحواذين المحتملين معًا إلى اتجاه استراتيجي أوسع لـ Nvidia:

  • Gretel (البيانات): يعالج جانب الإدخال في تطوير نموذج الذكاء الاصطناعي - توفير البيانات عالية الجودة اللازمة للتدريب.
  • Lepton AI (الحوسبة): يعالج جانب المعالجة - توفير البنية التحتية التي يتم عليها تدريب النماذج وتشغيلها.

قد يشير هذا المزيج إلى طموح Nvidia لتقديم منصة أو مجموعة أدوات أكثر تكاملاً تدعم دورة حياة تطوير الذكاء الاصطناعي بأكملها. من خلال التحكم في العناصر الرئيسية لكل من توليد / إدارة البيانات والوصول إلى البنية التحتية للحوسبة، يمكن لـ Nvidia تعزيز نظامها البيئي بشكل كبير، مما يجعلها أكثر أهمية لمطوري الذكاء الاصطناعي. يلمح إلى مستقبل لا توفر فيه Nvidia فقط “المعاول والمجارف” (GPUs) لحمى الذهب في الذكاء الاصطناعي، ولكن أيضًا بعض “مطالبات التعدين” (الحوسبة الإيجارية) و “خدمات الفحص” (أدوات البيانات).

تتوافق هذه الاستراتيجية مع استثمارات Nvidia الضخمة في حزمة برامجها (CUDA، والمكتبات، والأطر) المصممة لجعل أجهزتها لا غنى عنها. ستكون إضافة الخدمات المتعلقة بالبيانات والوصول إلى الحوسبة امتدادًا منطقيًا لاستراتيجية المنصة هذه.

المشهد المتطور للوصول إلى حوسبة الذكاء الاصطناعي

الطريقة التي تصل بها المنظمات إلى القوة الحاسوبية اللازمة للذكاء الاصطناعي في تغير مستمر. يتناسب الاستحواذ المحتمل لـ Lepton AI بواسطة Nvidia مع العديد من الاتجاهات الأوسع التي تشكل هذا المشهد.

في البداية، كان الوصول يتم بشكل أساسي من خلال شراء وإدارة الأجهزة المحلية. أدى ظهور الحوسبة السحابية إلى تحويل النموذج نحو IaaS، حيث يقدم مقدمو الخدمات السحابية واسعة النطاق مثيلات GPU عند الطلب. الآن، نشهد مزيدًا من التخصص والتنويع:

  • السحابات المتخصصة للذكاء الاصطناعي: تقدم بيئات محسنة خصيصًا لأعباء عمل الذكاء الاصطناعي / التعلم الآلي.
  • وسطاء التأجير: يوفرون وصولاً مرنًا، غالبًا عن طريق الاستفادة من السعة من مقدمي الخدمات الأكبر.
  • وحدات معالجة الرسومات بدون خادم: منصات تهدف إلى تجريد إدارة الخادم تمامًا، مما يسمح للمستخدمين بالدفع فقط لكل عملية حسابية أو لكل استدلال.
  • الحوسبة الطرفية: نشر قدرات استدلال الذكاء الاصطناعي بالقرب من مكان إنشاء البيانات، باستخدام أجهزة أصغر حجمًا وموفرة للطاقة.

يشير دخول Nvidia المحتمل إلى سوق التأجير عبر Lepton AI إلى الاعتراف بالحاجة إلى نماذج وصول متنوعة. بينما سيظل مقدمو الخدمات السحابية واسعة النطاق مهيمنين على احتياجات السحابة المتكاملة واسعة النطاق، هناك سوق واضح لعروض الحوسبة الأكثر تخصصًا أو مرونة أو التي تركز على المطورين. يبدو أن Nvidia مستعدة لضمان أن يكون لها حصة في هذا النظام البيئي المتطور، مما يمنع دورها من أن يقتصر فقط على دور مورد المكونات، مهما كان هذا المكون حاسمًا.

تؤكد هذه الخطوة، إذا تحققت، تصميم Nvidia على البقاء في مركز ثورة الذكاء الاصطناعي، ليس فقط من خلال توفير الأجهزة الأساسية ولكن من خلال التشكيل النشط لكيفية الوصول إلى هذه الأجهزة واستخدامها في جميع أنحاء الصناعة. إنها تمثل رهانًا محسوبًا على الحاجة الدائمة لحوسبة الذكاء الاصطناعي المرنة والتي يمكن الوصول إليها وطموح Nvidia للاستحواذ على القيمة عبر طيف أوسع من سوق البنية التحتية للذكاء الاصطناعي. ستكشف الأشهر المقبلة ما إذا كانت هذه المحادثات ستتحول إلى صفقة وكيف تنوي Nvidia دمج مثل هذه الخدمة في إمبراطوريتها التكنولوجية المترامية الأطراف.