ظهور استنتاج: چالشی برای برتری تراشه هوش مصنوعی انویدیا

آموزش در مقابل استنتاج: دو روی سکه هوش مصنوعی

برای درک اهمیت استنتاج، ضروری است که آن را از همتای خود، یعنی آموزش، متمایز کنیم. مدل‌های هوش مصنوعی، موتورهای محرک برنامه‌های هوشمند، دو مرحله مجزا را طی می‌کنند:

  • آموزش (Training): این مرحله فشرده محاسباتی است که در آن مدل هوش مصنوعی از مجموعه داده‌های عظیم یاد می‌گیرد. آن را مانند حضور مدل در مدرسه در نظر بگیرید، که حجم وسیعی از اطلاعات را برای توسعه هوش خود جذب می‌کند. این مرحله به قدرت پردازش عظیمی نیاز دارد و GPU های (واحدهای پردازش گرافیکی) Nvidia از لحاظ تاریخی در اینجا برتری داشته‌اند و قابلیت‌های پردازش موازی مورد نیاز برای مدیریت محاسبات پیچیده درگیر در آموزش را ارائه می‌دهند.

  • استنتاج (Inference): هنگامی که مدل آموزش داده شد، آماده استقرار و به کارگیری است. اینجاست که استنتاج وارد می‌شود. استنتاج فرآیند استفاده از مدل آموزش‌دیده برای پیش‌بینی یا تصمیم‌گیری بر اساس داده‌های جدید است. این مانند فارغ التحصیلی مدل و به کارگیری دانش آن در دنیای واقعی است. در حالی که استنتاج از نظر محاسباتی کمتر از آموزش سخت است، به سرعت، کارایی و اغلب مصرف کم انرژی نیاز دارد.

این تمایز بسیار مهم است زیرا الزامات سخت افزاری برای آموزش و استنتاج به طور قابل توجهی متفاوت است. در حالی که GPU های Nvidia بر بازار آموزش تسلط دارند، بازار استنتاج چشم انداز متنوع تر و رقابتی تری را ارائه می دهد.

چرا استنتاج در حال شتاب گرفتن است

عوامل متعددی در افزایش اهمیت استنتاج در بازار تراشه های هوش مصنوعی نقش دارند:

  1. گسترش برنامه های کاربردی هوش مصنوعی: هوش مصنوعی دیگر محدود به آزمایشگاه های تحقیقاتی و غول های فناوری نیست. این فناوری به سرعت در حال نفوذ به تمام جنبه های زندگی ما است، از تلفن های هوشمند و خانه های هوشمند گرفته تا وسایل نقلیه خودران و تشخیص های پزشکی. این استقرار گسترده به این معنی است که استنتاج، فرآیند استفاده واقعی از مدل‌های هوش مصنوعی، در مقیاسی بی‌سابقه در حال وقوع است.

  2. محاسبات لبه‌ای (Edge Computing): ظهور محاسبات لبه‌ای یکی دیگر از محرک های اصلی است. محاسبات لبه‌ای شامل پردازش داده‌ها در نزدیکی منبع، به جای ارسال آن‌ها به سرورهای ابری متمرکز است. این امر برای برنامه هایی که نیاز به پاسخ های بلادرنگ دارند، مانند اتومبیل های خودران یا اتوماسیون صنعتی، بسیار مهم است. دستگاه‌های لبه‌ای، که اغلب در محیط‌های محدود از نظر توان کار می‌کنند، به تراشه‌هایی نیاز دارند که برای استنتاج کم‌مصرف و کارآمد بهینه‌شده باشند.

  3. بهینه سازی هزینه: در حالی که آموزش یک مدل هوش مصنوعی یک هزینه یکباره (یا غیرمکرر) است، استنتاج یک هزینه عملیاتی مداوم است. با افزایش مقیاس استقرار هوش مصنوعی، هزینه استنتاج می تواند قابل توجه باشد. این امر تقاضا برای تراشه هایی را افزایش می دهد که می توانند استنتاج را با کارایی بیشتری انجام دهند و مصرف انرژی و هزینه های عملیاتی کلی را کاهش دهند.

  4. الزامات تأخیر: بسیاری از برنامه های کاربردی هوش مصنوعی، به ویژه آنهایی که شامل تعاملات بلادرنگ هستند، نیاز به تأخیر کم دارند. این بدان معناست که زمان لازم برای پردازش داده ها و تولید پاسخ توسط مدل هوش مصنوعی باید حداقل باشد. تراشه های بهینه شده برای استنتاج برای به حداقل رساندن این تأخیر طراحی شده اند و تجربیات هوش مصنوعی سریعتر و پاسخگوتر را امکان پذیر می کنند.

  5. بلوغ مدل های هوش مصنوعی: با پیچیده تر و تخصصی تر شدن مدل های هوش مصنوعی، نیاز به سخت افزار استنتاج بهینه شده افزایش می یابد. GPU های همه منظوره، در حالی که برای آموزش عالی هستند، ممکن است کارآمدترین راه حل برای اجرای مدل های هوش مصنوعی خاص و بسیار تنظیم شده نباشند.

ظهور رقبا: چشم اندازی متنوع

اهمیت روزافزون استنتاج، موجی از رقبا را به خود جلب می کند که مشتاق به چالش کشیدن سلطه Nvidia هستند. این شرکت ها از استراتژی ها و فناوری های مختلفی برای به دست آوردن جای پایی در این بازار رو به رشد استفاده می کنند:

  1. استارت آپ ها با معماری های تخصصی: استارت آپ های متعددی در حال توسعه تراشه هایی هستند که به طور خاص برای استنتاج طراحی شده اند. این تراشه ها اغلب دارای معماری های جدیدی هستند که برای بارهای کاری خاص هوش مصنوعی، مانند پردازش زبان طبیعی یا بینایی کامپیوتر بهینه شده اند. نمونه هایی از این شرکت ها عبارتند از Graphcore، Cerebras Systems و SambaNova Systems. این شرکت ها بر این ایده شرط بندی می کنند که سخت افزار تخصصی می تواند در وظایف استنتاج خاص از GPU های همه منظوره بهتر عمل کند.

  2. راه حل های مبتنی بر FPGA: آرایه های گیت قابل برنامه ریزی میدانی (FPGA) جایگزین انعطاف پذیری برای GPU ها و ASIC های (مدارهای مجتمع با کاربرد خاص) سنتی ارائه می دهند. FPGA ها را می توان پس از ساخت دوباره برنامه ریزی کرد و به آنها اجازه داد تا با مدل ها و الگوریتم های مختلف هوش مصنوعی سازگار شوند. شرکت هایی مانند Xilinx (که اکنون بخشی از AMD است) و Intel از FPGA ها برای ارائه راه حل های استنتاج سازگار و کارآمد استفاده می کنند.

  3. توسعه ASIC: ASIC ها تراشه های طراحی شده سفارشی هستند که برای یک هدف خاص ساخته شده اند. در زمینه هوش مصنوعی، ASIC ها را می توان برای ارائه حداکثر کارایی و بازده برای بارهای کاری استنتاج خاص طراحی کرد. واحد پردازش تنسور (TPU) گوگل، که به طور گسترده در مراکز داده خود استفاده می شود، نمونه ای بارز از ASIC طراحی شده برای آموزش و استنتاج است. شرکت های دیگر نیز در حال پیگیری توسعه ASIC هستند تا در بازار استنتاج مزیت رقابتی کسب کنند.

  4. توسعه دهندگان تراشه های مستقر که پیشنهادات هوش مصنوعی خود را گسترش می دهند: سازندگان تراشه های سنتی، مانند Intel، AMD و Qualcomm، بیکار ننشسته اند. آنها فعالانه در حال گسترش مجموعه محصولات خود هستند تا تراشه های بهینه شده برای استنتاج هوش مصنوعی را شامل شوند. به عنوان مثال، اینتل از تخصص CPU خود استفاده می کند و شرکت های متخصص در شتاب دهنده های هوش مصنوعی را خریداری می کند تا موقعیت خود را تقویت کند. خرید Xilinx توسط AMD، یک پلتفرم قوی مبتنی بر FPGA برای استنتاج را برای آن فراهم می کند. Qualcomm، پیشرو در پردازنده های موبایل، قابلیت های شتاب دهنده هوش مصنوعی را در تراشه های خود ادغام می کند تا برنامه های کاربردی هوش مصنوعی را در تلفن های هوشمند و سایر دستگاه های لبه‌ای تقویت کند.

  5. ارائه دهندگان ابر که تراشه های خود را طراحی می کنند: ارائه دهندگان اصلی ابر، مانند Amazon Web Services (AWS) و Google Cloud، به طور فزاینده ای تراشه های سفارشی خود را برای بارهای کاری هوش مصنوعی، از جمله استنتاج، طراحی می کنند. به عنوان مثال، تراشه Inferentia AWS به طور خاص برای تسریع استنتاج در ابر طراحی شده است. این روند به ارائه دهندگان ابر اجازه می دهد تا زیرساخت های خود را برای نیازهای خاص خود بهینه کنند و وابستگی خود را به فروشندگان تراشه خارجی کاهش دهند.

نبرد برای تسلط بر استنتاج: ملاحظات کلیدی

رقابت در بازار استنتاج هوش مصنوعی فقط در مورد قدرت پردازش خام نیست. چندین عامل دیگر در تعیین موفقیت بسیار مهم هستند:

  1. اکوسیستم نرم افزاری: یک اکوسیستم نرم افزاری قوی برای جذب توسعه دهندگان و آسان کردن استقرار مدل های هوش مصنوعی بر روی یک تراشه خاص ضروری است. پلتفرم CUDA Nvidia، یک پلتفرم محاسباتی موازی و مدل برنامه نویسی، یک مزیت بزرگ در بازار آموزش بوده است. رقبا سخت در تلاش هستند تا ابزارها و کتابخانه های نرم افزاری قوی برای پشتیبانی از سخت افزار خود توسعه دهند.

  2. بهره وری انرژی: همانطور که قبلا ذکر شد، بهره وری انرژی برای بسیاری از برنامه های کاربردی استنتاج، به ویژه آنهایی که در لبه هستند، بسیار مهم است. تراشه هایی که می توانند عملکرد بالایی در هر وات ارائه دهند، مزیت قابل توجهی خواهند داشت.

  3. هزینه: هزینه تراشه های استنتاج یک نکته مهم است، به ویژه برای استقرارهای در مقیاس بزرگ. شرکت هایی که می توانند قیمت رقابتی را با حفظ عملکرد ارائه دهند، موقعیت خوبی خواهند داشت.

  4. مقیاس پذیری: توانایی مقیاس بندی استقرارهای استنتاج به طور موثر بسیار مهم است. این نه تنها شامل عملکرد تراشه های منفرد، بلکه توانایی اتصال و مدیریت چندین تراشه در یک خوشه است.

  5. انعطاف پذیری و قابلیت برنامه ریزی: در حالی که ASIC ها عملکرد بالایی را برای بارهای کاری خاص ارائه می دهند، فاقد انعطاف پذیری GPU ها و FPGA ها هستند. توانایی انطباق با مدل ها و الگوریتم های در حال تکامل هوش مصنوعی یک نکته کلیدی برای بسیاری از کاربران است.

  6. امنیت: با افزایش استفاده از هوش مصنوعی در برنامه های کاربردی حساس، مانند مراقبت های بهداشتی و مالی، امنیت در حال تبدیل شدن به یک امر مهم است.

آینده استنتاج: چشم اندازی چند وجهی

بازار استنتاج آماده رشد و تنوع قابل توجهی است. بعید است که یک شرکت واحد به شکلی که Nvidia در فضای آموزش تسلط داشته است، تسلط یابد. در عوض، احتمالاً شاهد چشم‌اندازی چندوجهی با معماری‌های تراشه و فروشندگان مختلف خواهیم بود که نیازها و برنامه‌های کاربردی خاص را برآورده می‌کنند.

رقابت شدید خواهد بود و باعث نوآوری و پیشبرد مرزهای آنچه با هوش مصنوعی ممکن است، می شود. این در نهایت به نفع کاربران خواهد بود و منجر به راه حل های هوش مصنوعی سریعتر، کارآمدتر و مقرون به صرفه تر می شود. ظهور استنتاج فقط به چالش کشیدن سلطه Nvidia نیست. بلکه در مورد باز کردن پتانسیل کامل هوش مصنوعی و در دسترس قرار دادن آن برای طیف وسیع تری از برنامه ها و صنایع است. سال های آینده دوره ای تعیین کننده برای این بخش حیاتی از بازار تراشه های هوش مصنوعی خواهد بود و آینده نحوه استقرار و استفاده از هوش مصنوعی در سراسر جهان را شکل می دهد.