نبرد غول‌ها: Amazon و Nvidia در مرز هوش مصنوعی

ظهور عصر هوش مصنوعی در حال تغییر شکل صنایع، اقتصادها و تار و پود پیشرفت فناوری است. همزمان با شتاب گرفتن این موج تحول‌آفرین، دو غول شرکتی برجسته شده‌اند که مسیرهای متمایز اما متقاطعی را به سوی برتری در هوش مصنوعی ترسیم می‌کنند: Amazon و Nvidia. در حالی که هر دو عمیقاً در بهره‌برداری از قدرت هوش مصنوعی سرمایه‌گذاری کرده‌اند، استراتژی‌های آن‌ها به طور قابل توجهی متفاوت است. Nvidia خود را به عنوان تأمین‌کننده اصلی قدرت پردازش تخصصی ضروری برای توسعه هوش مصنوعی تثبیت کرده است، در حالی که Amazon از زیرساخت ابری عظیم خود، Amazon Web Services (AWS)، برای ساخت یک اکوسیستم جامع هوش مصنوعی و ادغام هوشمندی در سراسر عملیات گسترده خود استفاده می‌کند. درک رویکردهای منحصر به فرد، نقاط قوت و چشم‌انداز رقابتی آن‌ها برای پیمایش آینده این انقلاب فناوری حیاتی است. این صرفاً رقابتی بین دو شرکت نیست؛ بلکه مطالعه‌ای جذاب در استراتژی‌های متضاد است که برای تسلط در شاید مهم‌ترین تغییر فناوری از زمان خود اینترنت رقابت می‌کنند. یکی ابزارهای بنیادی، کلنگ‌ها و بیل‌های دیجیتال را فراهم می‌کند؛ دیگری پلتفرم‌ها و خدماتی را می‌سازد که پتانسیل واقعی هوش مصنوعی به طور فزاینده‌ای در آن‌ها تحقق می‌یابد.

سلطنت Nvidia در برتری سیلیکونی

در قلمرو سخت‌افزارهای تخصصی که انقلاب هوش مصنوعی را قدرت می‌بخشند، Nvidia موقعیت بی‌نظیری از سلطه را برای خود ایجاد کرده است. سفر این شرکت از یک تولیدکننده کارت گرافیک که عمدتاً به جامعه گیمرها خدمت می‌کرد تا رهبر بی‌چون و چرای واحدهای پردازش هوش مصنوعی (GPU) گواهی بر آینده‌نگری استراتژیک و نوآوری بی‌وقفه است. نیازهای محاسباتی آموزش مدل‌های پیچیده هوش مصنوعی، به ویژه الگوریتم‌های یادگیری عمیق، تطابق کاملی با قابلیت‌های پردازش موازی که در اصل برای رندر گرافیک‌های پیچیده طراحی شده بودند، پیدا کرد. Nvidia از این فرصت استفاده کرد، سخت‌افزار خود را بهینه کرد و یک اکوسیستم نرم‌افزاری توسعه داد که به استاندارد صنعتی تبدیل شده است.

سنگ بنای امپراتوری هوش مصنوعی Nvidia فناوری GPU آن است. این تراشه‌ها فقط قطعات نیستند؛ آن‌ها موتورهایی هستند که پیشرفته‌ترین تحقیقات و استقرار هوش مصنوعی را در سراسر جهان به پیش می‌برند. از مراکز داده‌ای که مدل‌های زبان بزرگ (LLM) را آموزش می‌دهند تا ایستگاه‌های کاری که شبیه‌سازی‌های پیچیده را انجام می‌دهند و دستگاه‌های لبه‌ای که وظایف استنتاج (inference) را اجرا می‌کنند، GPUهای Nvidia همه‌جا حاضر هستند. این فراگیری به ارقام خیره‌کننده سهم بازار ترجمه می‌شود که اغلب بیش از ۸۰٪ در بخش حیاتی تراشه‌های آموزش هوش مصنوعی ذکر می‌شود. این سلطه فقط به فروش سخت‌افزار مربوط نمی‌شود؛ بلکه یک اثر شبکه‌ای قدرتمند ایجاد می‌کند. توسعه‌دهندگان، محققان و دانشمندان داده به طور گسترده از پلتفرم CUDA (Compute Unified Device Architecture) Nvidia - یک پلتفرم محاسبات موازی و مدل برنامه‌نویسی - استفاده می‌کنند. این اکوسیستم نرم‌افزاری گسترده که طی سال‌ها ساخته شده است، مانع ورود قابل توجهی برای رقبا محسوب می‌شود. تغییر از Nvidia اغلب به معنای بازنویسی کد و آموزش مجدد پرسنل است، تلاشی پرهزینه و زمان‌بر.

تغذیه کننده این رهبری، سرمایه‌گذاری عظیم و پایدار در تحقیق و توسعه (R&D) است. Nvidia به طور مداوم میلیاردها دلار برای طراحی تراشه‌های نسل بعدی، تقویت پشته نرم‌افزاری خود و کاوش در مرزهای جدید هوش مصنوعی هزینه می‌کند. این تعهد تضمین می‌کند که سخت‌افزار آن در لبه پیشرو عملکرد باقی بماند و اغلب معیارهایی را تعیین می‌کند که رقبا برای رسیدن به آن‌ها تلاش می‌کنند. این شرکت فقط در حال تکرار نیست؛ بلکه مسیر قابلیت‌های سخت‌افزاری هوش مصنوعی را تعریف می‌کند و معماری‌های جدیدی مانند Hopper و Blackwell را معرفی می‌کند که نویدبخش بهبودهای چند برابری در عملکرد و کارایی برای بارهای کاری هوش مصنوعی هستند.

پیامدهای مالی این موقعیت‌یابی استراتژیک چیزی کمتر از نفس‌گیر نبوده است. Nvidia رشد درآمد تصاعدی را تجربه کرده است که عمدتاً ناشی از تقاضای ارائه‌دهندگان ابر و شرکت‌هایی است که زیرساخت هوش مصنوعی خود را ایجاد می‌کنند. بخش مرکز داده آن به موتور اصلی درآمد شرکت تبدیل شده و از کسب و کار سنتی بازی آن پیشی گرفته است. حاشیه سود بالا، مشخصه شرکتی با تمایز فناوری قابل توجه و کنترل بازار، وضعیت مالی آن را بیشتر تقویت کرده و آن را به یکی از با ارزش‌ترین شرکت‌های جهان تبدیل کرده است. با این حال، اتکا به چرخه سخت‌افزار و ظهور رقبای مصمم، از جمله ارائه‌دهندگان ابر که سیلیکون سفارشی خود را توسعه می‌دهند، چالش‌های مداومی را نشان می‌دهد که Nvidia باید برای حفظ تاج و تخت سیلیکونی خود از آن‌ها عبور کند.

اکوسیستم گسترده هوش مصنوعی Amazon از طریق AWS

در حالی که Nvidia در هنر تراشه هوش مصنوعی استاد است، Amazon سمفونی گسترده‌تر و پلتفرم‌محور را از طریق بخش ابری غالب خود، Amazon Web Services (AWS)، و نیازهای عملیاتی گسترده خود رهبری می‌کند. Amazon یکی از پیشگامان و پذیرندگان اولیه هوش مصنوعی کاربردی بود، مدت‌ها قبل از شور و شوق فعلی هوش مصنوعی مولد. الگوریتم‌های یادگیری ماشین سال‌هاست که عمیقاً در عملیات تجارت الکترونیک آن تعبیه شده‌اند و همه چیز را از لجستیک زنجیره تأمین و مدیریت موجودی گرفته تا توصیه‌های محصول شخصی‌سازی شده و تشخیص تقلب بهینه می‌کنند. دستیار صوتی Alexa نشان‌دهنده ورود بزرگ دیگری به هوش مصنوعی رو به مصرف‌کننده بود. این تجربه داخلی، پایه و اساس محکم و درک عملی از استقرار هوش مصنوعی در مقیاس بزرگ را فراهم کرد.

با این حال، موتور واقعی استراتژی هوش مصنوعی Amazon، AWS است. به عنوان ارائه‌دهنده پیشرو زیرساخت ابری در جهان، AWS خدمات محاسباتی، ذخیره‌سازی و شبکه‌ای بنیادی را ارائه می‌دهد که برنامه‌های کاربردی مدرن هوش مصنوعی بر روی آن‌ها ساخته می‌شوند. Amazon با تشخیص نیاز فزاینده به ابزارهای تخصصی هوش مصنوعی، مجموعه غنی از خدمات هوش مصنوعی و یادگیری ماشین را بر روی زیرساخت اصلی خود لایه‌بندی کرده است. این استراتژی با هدف دموکراتیزه کردن هوش مصنوعی انجام می‌شود و قابلیت‌های پیچیده را برای کسب‌وکارهای با هر اندازه‌ای قابل دسترس می‌کند، بدون نیاز به تخصص عمیق در مدیریت سخت‌افزار یا توسعه مدل‌های پیچیده.

پیشنهادات کلیدی عبارتند از:

  • Amazon SageMaker: یک سرویس کاملاً مدیریت شده که به توسعه‌دهندگان و دانشمندان داده امکان می‌دهد مدل‌های یادگیری ماشین را به سرعت و به راحتی بسازند، آموزش دهند و مستقر کنند. این سرویس کل گردش کار ML را ساده می‌کند.
  • Amazon Bedrock: سرویسی که دسترسی به طیف وسیعی از مدل‌های پایه قدرتمند (از جمله مدل‌های Titan خود Amazon و مدل‌های محبوب از آزمایشگاه‌های هوش مصنوعی شخص ثالث) را از طریق یک API واحد ارائه می‌دهد. این به کسب‌وکارها اجازه می‌دهد تا قابلیت‌های هوش مصنوعی مولد را بدون مدیریت زیرساخت اصلی، آزمایش و پیاده‌سازی کنند.
  • زیرساخت ویژه هوش مصنوعی: AWS دسترسی به نمونه‌های محاسباتی مختلف بهینه‌سازی شده برای هوش مصنوعی را فراهم می‌کند، از جمله آن‌هایی که توسط GPUهای Nvidia قدرت می‌گیرند، اما همچنین شامل سیلیکون سفارشی طراحی شده خود Amazon مانند AWS Trainium (برای آموزش) و AWS Inferentia (برای استنتاج) می‌شود. توسعه تراشه‌های سفارشی به Amazon اجازه می‌دهد تا عملکرد و هزینه را برای بارهای کاری خاص در محیط ابری خود بهینه کند و اتکای خود را به تأمین‌کنندگان شخص ثالث مانند Nvidia کاهش دهد، اگرچه همچنان یکی از بزرگترین مشتریان Nvidia باقی می‌ماند.

مقیاس و گستره محض پایگاه مشتریان AWS یک مزیت فوق‌العاده را نشان می‌دهد. میلیون‌ها مشتری فعال، از استارت‌آپ‌ها گرفته تا شرکت‌های جهانی و سازمان‌های دولتی، در حال حاضر برای نیازهای محاسباتی خود به AWS متکی هستند. Amazon می‌تواند به طور یکپارچه خدمات هوش مصنوعی خود را به این مخاطبان اسیر ارائه دهد و قابلیت‌های هوش مصنوعی را در محیط‌های ابری که داده‌های آن‌ها در حال حاضر در آنجا قرار دارد، ادغام کند. این رابطه موجود و ردپای زیرساختی به طور قابل توجهی مانع پذیرش راه‌حل‌های هوش مصنوعی Amazon توسط مشتریان در مقایسه با شروع از صفر با یک ارائه‌دهنده متفاوت کاهش می‌دهد. Amazon فقط ابزارهای هوش مصنوعی را نمی‌فروشد؛ بلکه هوش مصنوعی را از طریق پلتفرم ابری خود در تار و پود عملیاتی اقتصاد دیجیتال تعبیه می‌کند و اکوسیستمی را پرورش می‌دهد که در آن نوآوری می‌تواند در صنایع بی‌شماری شکوفا شود.

میدان نبرد استراتژیک: پلتفرم‌های ابری در مقابل قطعات سیلیکونی

رقابت بین Amazon و Nvidia در فضای هوش مصنوعی در لایه‌های مختلف پشته فناوری آشکار می‌شود و یک پویایی جذاب ایجاد می‌کند. این کمتر یک برخورد رودررو برای قلمرو دقیقاً یکسان است و بیشتر یک رقابت استراتژیک بین ارائه بلوک‌های ساختمانی بنیادی در مقابل سازماندهی کل سایت ساخت‌وساز و ارائه سازه‌های تمام شده است. Nvidia در تولید “کلنگ‌ها و بیل‌های” با کارایی بالا - GPUهای ضروری برای کاوش در محاسبات پیچیده هوش مصنوعی - برتری دارد. Amazon، از طریق AWS، به عنوان معمار و پیمانکار اصلی عمل می‌کند و زمین (زیرساخت ابری)، ابزارها (SageMaker، Bedrock)، نقشه‌ها (مدل‌های پایه) و نیروی کار ماهر (خدمات مدیریت شده) را برای ساخت برنامه‌های کاربردی پیچیده هوش مصنوعی فراهم می‌کند.

یکی از مزایای استراتژیک کلیدی Amazon در قابلیت‌های ادغام و بسته‌بندی ذاتی پلتفرم AWS نهفته است. مشتریانی که از AWS برای ذخیره‌سازی، پایگاه‌های داده و محاسبات عمومی استفاده می‌کنند، می‌توانند به راحتی خدمات هوش مصنوعی را به گردش کار موجود خود اضافه کنند. این یک اکوسیستم “چسبنده” ایجاد می‌کند؛ راحتی تأمین خدمات متعدد از یک ارائه‌دهنده واحد، همراه با صورتحساب و مدیریت یکپارچه، باعث می‌شود کسب‌وکارها برای تعمیق تعامل خود با AWS برای نیازهای هوش مصنوعی خود ترغیب شوند. Amazon مستقیماً از موفقیت سازندگان تراشه مانند Nvidia سود می‌برد، زیرا به مقادیر زیادی GPU با کارایی بالا برای تأمین انرژی نمونه‌های ابری خود نیاز دارد. با این حال، توسعه سیلیکون سفارشی آن (Trainium، Inferentia) نشان‌دهنده یک حرکت استراتژیک برای بهینه‌سازی هزینه‌ها، تنظیم عملکرد و کاهش وابستگی در بلندمدت است که به طور بالقوه بخش بیشتری از زنجیره ارزش را در اکوسیستم خود جذب می‌کند.

این را با موقعیت Nvidia مقایسه کنید. در حالی که در حال حاضر غالب و بسیار سودآور است، ثروت آن به طور مستقیم‌تری به چرخه ارتقاء سخت‌افزار و حفظ برتری فناوری خود در عملکرد تراشه گره خورده است. شرکت‌ها و ارائه‌دهندگان ابر GPU می‌خرند، اما ارزشی که از آن GPUها به دست می‌آید در نهایت از طریق نرم‌افزار و خدمات، که اغلب بر روی پلتفرم‌هایی مانند AWS اجرا می‌شوند، تحقق می‌یابد. Nvidia به خوبی از این موضوع آگاه است و فعالانه برای ساخت اکوسیستم نرم‌افزاری خود (CUDA، مجموعه نرم‌افزاری AI Enterprise) تلاش می‌کند تا درآمد مکرر بیشتری کسب کند و ادغام خود را در گردش کار سازمانی عمیق‌تر کند. با این حال، کسب‌وکار اصلی آن همچنان بر فروش قطعات سخت‌افزاری مجزا متمرکز است.

ارزش پیشنهادی بلندمدت به طور قابل توجهی متفاوت است. Nvidia ارزش عظیمی را در سطح سخت‌افزار به دست می‌آورد و از حاشیه سود بالای مرتبط با فناوری پیشرفته سود می‌برد. Amazon قصد دارد ارزش را در سطح پلتفرم و خدمات به دست آورد. در حالی که به طور بالقوه حاشیه سود کمتری برای هر سرویس فردی در مقایسه با GPUهای پیشرفته Nvidia ارائه می‌دهد، مدل ابری Amazon بر جریان‌های درآمد مکرر و کسب سهم گسترده‌تری از کل هزینه‌های IT و هوش مصنوعی مشتری تأکید دارد. چسبندگی پلتفرم ابری، همراه با توانایی عرضه مداوم ویژگی‌ها و خدمات جدید هوش مصنوعی، Amazon را در موقعیتی قرار می‌دهد که به طور بالقوه یک پایگاه درآمد هوش مصنوعی متنوع‌تر و انعطاف‌پذیرتر در طول زمان ایجاد کند که کمتر در معرض ماهیت چرخه‌ای تقاضای سخت‌افزار باشد.

ارزیابی چشم‌انداز سرمایه‌گذاری

از منظر سرمایه‌گذاری، Amazon و Nvidia پروفایل‌های متمایزی را ارائه می‌دهند که توسط نقش‌های متفاوت آن‌ها در اکوسیستم هوش مصنوعی شکل گرفته است. روایت Nvidia یکی از رشد انفجاری بوده است که مستقیماً توسط تقاضای سیری‌ناپذیر برای سخت‌افزار آموزش هوش مصنوعی تغذیه می‌شود. عملکرد سهام آن این موضوع را منعکس کرده و به سرمایه‌گذارانی که نقش محوری آن را زود تشخیص دادند، پاداش داده است. ارزش‌گذاری این شرکت اغلب دارای حق بیمه قابل توجهی است که انتظارات از تداوم سلطه و گسترش سریع در بازار تراشه‌های هوش مصنوعی را قیمت‌گذاری می‌کند. سرمایه‌گذاری در Nvidia عمدتاً شرط‌بندی بر تقاضای پایدار و با حاشیه سود بالا برای سخت‌افزار تخصصی هوش مصنوعی و توانایی آن در دفع رقابت فزاینده است. ریسک‌ها شامل اشباع بالقوه بازار، ماهیت چرخه‌ای تقاضای نیمه‌هادی‌ها و تهدید ناشی از بازیگران تثبیت شده و تلاش‌های سیلیکون سفارشی توسط مشتریان بزرگ است.

از سوی دیگر، Amazon یک مورد سرمایه‌گذاری متنوع‌تر را ارائه می‌دهد. در حالی که هوش مصنوعی یک بردار رشد حیاتی است، ارزش‌گذاری Amazon منعکس‌کننده کسب‌وکار گسترده‌تر آن شامل تجارت الکترونیک، تبلیغات و پلتفرم عظیم ابری AWS است. فرصت هوش مصنوعی برای Amazon کمتر مربوط به فروش واحدهای پردازش اصلی و بیشتر مربوط به تعبیه قابلیت‌های هوش مصنوعی در سراسر خدمات موجود و کسب سهم قابل توجهی از بازار رو به رشد پلتفرم‌ها و برنامه‌های کاربردی هوش مصنوعی است. مسیر رشد درآمد هوش مصنوعی Amazon ممکن است در کوتاه‌مدت کمتر از فروش سخت‌افزار Nvidia انفجاری به نظر برسد، اما به طور بالقوه مسیر طولانی‌تری را ارائه می‌دهد که بر درآمدهای مکرر خدمات ابری و ادغام در مجموعه وسیع‌تری از گردش کار سازمانی بنا شده است. موفقیت خدماتی مانند Bedrock، جذب مشتریانی که به دنبال دسترسی به مدل‌های پایه مختلف هستند، و پذیرش SageMaker برای توسعه ML، شاخص‌های کلیدی پیشرفت آن هستند. سرمایه‌گذاری در Amazon شرط‌بندی بر توانایی آن در استفاده از مقیاس و گستره AWS برای تبدیل شدن به پلتفرم ضروری برای استقرار هوش مصنوعی سازمانی است که درآمد خدمات قابل توجه و مداوم ایجاد می‌کند.

ظهور هوش مصنوعی مولد لایه دیگری به این ارزیابی اضافه می‌کند. Nvidia به شدت سود می‌برد زیرا آموزش و اجرای مدل‌های زبان بزرگ به سطوح بی‌سابقه‌ای از قدرت محاسباتی GPU نیاز دارد. هر پیشرفتی در پیچیدگی مدل به تقاضای بالقوه برای سخت‌افزار قدرتمندتر Nvidia تبدیل می‌شود. Amazon به طور متفاوتی سرمایه‌گذاری می‌کند. این شرکت زیرساخت لازم برای آموزش و اجرای این مدل‌ها را فراهم می‌کند (اغلب با استفاده از GPUهای Nvidia)، اما به طور استراتژیک‌تر، دسترسی مدیریت شده به این مدل‌ها را از طریق خدماتی مانند Bedrock ارائه می‌دهد. این امر AWS را به عنوان یک واسطه حیاتی قرار می‌دهد و به کسب‌وکارها امکان می‌دهد از هوش مصنوعی مولد بدون نیاز به مدیریت زیرساخت پیچیده زیربنایی یا توسعه مدل‌ها از ابتدا استفاده کنند. Amazon همچنین مدل‌های خود (Titan) را توسعه می‌دهد، در حالی که همزمان با سایر آزمایشگاه‌های هوش مصنوعی همکاری می‌کند و در چندین جبهه از میدان هوش مصنوعی مولد بازی می‌کند.

در نهایت، انتخاب بین Amazon یا Nvidia به عنوان سرمایه‌گذاری برتر هوش مصنوعی به افق زمانی سرمایه‌گذار، تحمل ریسک و باور به اینکه آیا ارزش بلندمدت بیشتر در سخت‌افزار بنیادی نهفته است یا پلتفرم خدمات فراگیر، بستگی دارد. Nvidia نماینده رهبر سخت‌افزار خالص است که بر موج فعلی سوار است، در حالی که Amazon نماینده بازی پلتفرم یکپارچه است که یک کسب‌وکار هوش مصنوعی بالقوه بادوام‌تر و مبتنی بر خدمات را برای بلندمدت ایجاد می‌کند.

مسیرهای آینده و روایت‌های در حال آشکار شدن

با نگاه به آینده، چشم‌انداز برای هر دو Amazon و Nvidia پویا و در معرض تحول قابل توجهی باقی می‌ماند. سرعت بی‌وقفه نوآوری در هوش مصنوعی تضمین می‌کند که رهبری بازار هرگز تضمین شده نیست. برای Nvidia، چالش اصلی حفظ برتری فناوری خود در برابر میدان رو به رشد رقبا است. سازندگان تراشه تثبیت شده مانند AMD در حال تشدید تلاش‌های خود در فضای هوش مصنوعی هستند، در حالی که استارت‌آپ‌های مملو از سرمایه خطرپذیر در حال کاوش معماری‌های جدید هستند. شاید مهم‌تر از آن، ارائه‌دهندگان بزرگ ابر مانند Amazon (با Trainium/Inferentia)، Google (با TPU) و Microsoft به شدت در سیلیکون سفارشی متناسب با نیازهای خاص خود سرمایه‌گذاری می‌کنند. در حالی که بعید است در کوتاه‌مدت Nvidia را به طور کامل جابجا کنند، این تلاش‌ها می‌توانند به تدریج سهم بازار آن را کاهش دهند، به ویژه برای انواع خاصی از بارهای کاری یا در مراکز داده مقیاس‌پذیر خاص، که به طور بالقوه در طول زمان بر حاشیه سود فشار می‌آورد. موفقیت مستمر Nvidia به توانایی آن در نوآوری مداوم نسبت به رقبا و تعمیق خندق پیرامون اکوسیستم نرم‌افزاری CUDA بستگی دارد.

مسیر Amazon شامل سرمایه‌گذاری بر تسلط پلتفرم AWS برای تبدیل شدن به ارائه‌دهنده اصلی راه‌حل‌های هوش مصنوعی سازمانی است. موفقیت به بهبود مستمر مجموعه خدمات هوش مصنوعی آن (SageMaker، Bedrock و غیره)، تضمین ادغام یکپارچه و ارائه دسترسی مقرون به صرفه به مدل‌های هوش مصنوعی اختصاصی و شخص ثالث بستگی دارد. نبرد برای پلتفرم‌های هوش مصنوعی مبتنی بر ابر شدید است و Microsoft Azure (با استفاده از مشارکت OpenAI خود) و Google Cloud Platform رقابت سرسختی را ارائه می‌دهند. Amazon باید نشان دهد که AWS جامع‌ترین، قابل اعتمادترین و سازگارترین محیط برای توسعه‌دهندگان برای ساخت، استقرار و مدیریت برنامه‌های کاربردی هوش مصنوعی در مقیاس بزرگ را ارائه می‌دهد. علاوه بر این، پیمایش پیچیدگی‌های حریم خصوصی داده‌ها، سوگیری مدل و استقرار مسئولانه هوش مصنوعی برای حفظ اعتماد مشتری و تضمین پذیرش بلندمدت خدمات هوش مصنوعی آن حیاتی خواهد بود. تعامل بین ارائه دسترسی به مدل‌های شخص ثالث از طریق Bedrock و ترویج مدل‌های Titan خود نیز یک عمل موازنه ظریف خواهد بود.

منحنی پذیرش گسترده‌تر هوش مصنوعی در شرکت‌ها به طور عمیقی تقاضا را برای هر دو شرکت شکل خواهد داد. همانطور که کسب‌وکارهای بیشتری از آزمایش فراتر رفته و به استقرار هوش مصنوعی در مقیاس کامل در عملیات اصلی خود روی می‌آورند، نیاز به سخت‌افزار قدرتمند (به نفع Nvidia) و پلتفرم‌ها و خدمات ابری قوی (به نفع Amazon) احتمالاً به طور قابل توجهی رشد خواهد کرد. معماری‌ها و مدل‌های استقرار خاصی که غالب می‌شوند (به عنوان مثال، آموزش ابری متمرکز در مقابل استنتاج لبه غیرمتمرکز) بر تقاضای نسبی برای پیشنهادات هر شرکت تأثیر خواهد گذاشت. رقابت مداوم برای استعدادهای برتر هوش مصنوعی، پیشرفت‌ها در کارایی الگوریتمی که ممکن است وابستگی به سخت‌افزار را کاهش دهد، و چشم‌انداز نظارتی در حال تحول پیرامون هوش مصنوعی، همگی عواملی هستند که به روایت‌های در حال آشکار شدن این دو غول هوش مصنوعی کمک خواهند کرد. مسیرهای آن‌ها، اگرچه متمایز هستند، اما همچنان به طور جدایی‌ناپذیری به هم مرتبط خواهند بود زیرا انقلاب هوش مصنوعی به تغییر شکل مرز فناوری ادامه می‌دهد.