هزینه‌های هوش مصنوعی: تقاضا بر کارایی غلبه می‌کند

لرزه اولیه: DeepSeek و سراب کارایی

ظهور هوش مصنوعی DeepSeek چین در اوایل امسال، شوک‌هایی را در چشم‌انداز سرمایه‌گذاری فناوری ایجاد کرد. رویکرد به ظاهر پیشگامانه آن، که نوید هوش مصنوعی قدرتمند با سربار محاسباتی (computational overhead) به طور قابل توجهی پایین‌تر را می‌داد، بلافاصله گمانه‌زنی‌ها را برانگیخت. روایتی به سرعت شکل گرفت: شاید توسعه بی‌وقفه و پرهزینه زیرساخت هوش مصنوعی، که با خریدهای عظیم تراشه‌ها و سیستم‌های تخصصی مشخص می‌شود، در شرف کند شدن بود. بازار واکنش نشان داد و بازتاب‌دهنده این باور بود که دوره جدیدی از هوش مصنوعی مقرون‌به‌صرفه ممکن است به طور چشمگیری رونق پیش‌بینی‌شده هزینه‌ها را کاهش دهد.

با این حال، بینش‌های حاصل از گردهمایی سطح بالای اخیر ذهن‌های صنعت، تصویری کاملاً متفاوت را ترسیم می‌کند. کنفرانس هوش مصنوعی مولد (generative AI) که توسط Bloomberg Intelligence در نیویورک برگزار شد، نشان داد که تفسیر اولیه، که صرفاً بر صرفه‌جویی بالقوه در هزینه متمرکز بود، داستان بزرگتر را نادیده گرفته است. این رویداد به جای اینکه نشانه‌ای از کاهش هزینه‌ها باشد، بر عطش تقریباً سیری‌ناپذیر برای ظرفیت بیشتر هوش مصنوعی تأکید کرد. اجماع بر سر کاهش هزینه‌ها نبود؛ بلکه بر سر یافتن راهی برای تغذیه اشتهای فزاینده برای سیستم‌های هوشمند بود، حتی در حالی که به شدت آرزو می‌شد که این منو ارزان‌تر باشد.

صداهایی از خط مقدم: تشنگی سیری‌ناپذیر برای ظرفیت

بحث‌های طول روز این رویداد، که توسعه‌دهندگان، استراتژیست‌ها و سرمایه‌گذاران را گرد هم آورد، به طور مداوم حول محور تشدید تقاضا به عنوان محرک سرمایه‌گذاری عظیم می‌چرخید. Mandeep Singh، تحلیلگر ارشد فناوری در Bloomberg Intelligence و یکی از برگزارکنندگان رویداد، احساسات غالب را به طور خلاصه بیان کرد. او با تأمل در پنل‌های متعدد و بحث‌های تخصصی، به یک ترجیع‌بند جهانی اشاره کرد: هیچ‌کس از افراد درگیر احساس نمی‌کرد که ظرفیت کافی هوش مصنوعی در اختیار دارد. احساس غالب، نیاز به بیشتر بود، نه داشتن بیش از حد.

نکته مهم این بود که Singh افزود، شبح ‘حباب زیرساخت’ (infrastructure bubble)، یک ترس رایج در بخش‌های فناوری با رشد سریع، به طور قابل توجهی در گفتگوها غایب بود. تمرکز کاملاً بر چالش بنیادینی بود که کل صنعت با آن روبرو است. Anurag Rana، همکار Singh و تحلیلگر ارشد Bloomberg Intelligence برای خدمات فناوری اطلاعات و نرم‌افزار، آن را به عنوان سؤال اصلی مطرح کرد: ‘ما در کجای آن چرخه [ساخت زیرساخت هوش مصنوعی] هستیم؟’

در حالی که اذعان داشت که تعیین دقیق مرحله این ساخت‌وساز عظیم همچنان دشوار است (‘هیچ‌کس به طور قطع نمی‌داند’، Rana اعتراف کرد)، پدیده DeepSeek بدون شک دیدگاه‌ها را تغییر داد. این پدیده دوز قوی امیدی را تزریق کرد که حجم کاری قابل توجه هوش مصنوعی به طور بالقوه می‌تواند اقتصادی‌تر مدیریت شود. Rana مشاهده کرد: ‘DeepSeek بسیاری از مردم را تکان داد’. مفهوم روشن بود: اگر مدل‌های پیچیده هوش مصنوعی واقعاً بتوانند به طور کارآمد بر روی سخت‌افزارهای کم‌تقاضاتر اجرا شوند، شاید پروژه‌های غول‌پیکر، مانند طرح‌های چند صد میلیارد دلاری که شایعه شده توسط کنسرسیوم‌هایی با حضور بازیگران اصلی فناوری برنامه‌ریزی شده‌اند، ممکن است دوباره ارزیابی شوند یا به شکل متفاوتی مقیاس‌بندی شوند.

به گفته Rana، رؤیایی که در سراسر صنعت تکرار می‌شود، این است که هزینه‌های عملیاتی هوش مصنوعی، به ویژه برای استنتاج (inference) (مرحله‌ای که در آن مدل‌های آموزش‌دیده پیش‌بینی‌ها یا محتوا تولید می‌کنند)، مسیر نزولی چشمگیری را که در ذخیره‌سازی رایانش ابری (cloud computing) طی دهه گذشته مشاهده شد، دنبال کند. او به یاد آورد که چگونه اقتصاد ذخیره‌سازی حجم عظیمی از داده‌ها در پلتفرم‌هایی مانند Amazon Web Services (AWS) طی تقریباً هشت سال به طور چشمگیری بهبود یافت. او اظهار داشت: ‘آن کاهش در منحنی هزینه… اقتصاد خوب بود’. ‘و این همان چیزی است که همه امیدوارند، که در سمت استنتاج… اگر منحنی به آن سطح سقوط کند، خدای من، نرخ پذیرش هوش مصنوعی… دیدنی خواهد بود.’ Singh موافقت کرد و خاطرنشان کرد که ظهور DeepSeek اساساً ‘ذهنیت همه را در مورد دستیابی به کارایی تغییر داده است.’

این اشتیاق برای کارایی در طول جلسات کنفرانس محسوس بود. در حالی که پنل‌های متعددی به جنبه‌های عملی انتقال پروژه‌های هوش مصنوعی سازمانی از مراحل مفهومی به تولید زنده پرداختند، بحث موازی دائماً بر نیاز حیاتی به کاهش هزینه‌های مرتبط با استقرار و اجرای این مدل‌های هوش مصنوعی تأکید می‌کرد. هدف روشن است: دموکراتیک کردن دسترسی با مقرون‌به‌صرفه کردن هوش مصنوعی برای طیف وسیع‌تری از برنامه‌ها و کاربران. Shawn Edwards، مدیر ارشد فناوری خود Bloomberg، پیشنهاد کرد که DeepSeek لزوماً یک شگفتی کامل نبود، بلکه تصویری قدرتمند از یک آرزوی جهانی بود. او اظهار داشت: ‘چیزی که باعث شد من فکر کنم این است که عالی می‌شد اگر می‌توانستید عصایی را تکان دهید و این مدل‌ها به طور باورنکردنی کارآمد اجرا شوند’، و این آرزو را به کل طیف مدل‌های هوش مصنوعی، نه فقط یک پیشرفت خاص، تعمیم داد.

اصل تکثیر: دامن زدن به تقاضای محاسباتی

یکی از دلایل اصلی که کارشناسان سرمایه‌گذاری مداوم و قابل توجه در زیرساخت هوش مصنوعی را پیش‌بینی می‌کنند، علی‌رغم تلاش برای کارایی، تکثیر محض مدل‌های هوش مصنوعی است. یک موضوع تکراری در طول کنفرانس نیویورک، حرکت قاطعانه از ایده یک مدل هوش مصنوعی واحد و یکپارچه بود که قادر به انجام همه وظایف باشد.

  • یک خانواده از مدل‌ها: همانطور که Edwards از Bloomberg بیان کرد، ‘ما از خانواده‌ای از مدل‌ها استفاده می‌کنیم. چیزی به نام بهترین مدل وجود ندارد.’ این نشان‌دهنده درک فزاینده‌ای است که معماری‌های مختلف هوش مصنوعی در وظایف مختلف برتری دارند - تولید زبان، تجزیه و تحلیل داده‌ها، تشخیص تصویر، تکمیل کد و غیره.
  • سفارشی‌سازی سازمانی: اعضای پنل به طور گسترده موافق بودند که در حالی که مدل‌های بزرگ و همه‌منظوره ‘پایه’ (foundation models) یا ‘پیشگام’ (frontier models) همچنان توسط آزمایشگاه‌های بزرگ هوش مصنوعی توسعه و اصلاح خواهند شد، اقدام واقعی در کسب‌وکارها شامل استقرار بالقوه صدها یا حتی هزاران مدل هوش مصنوعی تخصصی است.
  • تنظیم دقیق و داده‌های اختصاصی: بسیاری از این مدل‌های سازمانی از مدل‌های پایه از طریق فرآیندی به نام تنظیم دقیق (fine-tuning) اقتباس خواهند شد. این شامل آموزش مجدد یک شبکه عصبی از پیش آموزش‌دیده بر روی داده‌های خاص و اغلب اختصاصی (proprietary data) یک شرکت است. این به هوش مصنوعی اجازه می‌دهد تا زمینه‌های تجاری منحصر به فرد، اصطلاحات و تعاملات مشتری را درک کند و نتایج بسیار مرتبط‌تر و ارزشمندتری نسبت به یک مدل عمومی ارائه دهد.
  • دموکراتیک کردن توسعه: Jed Dougherty، نماینده پلتفرم علم داده Dataiku، بر نیاز به ‘اختیار در میان مدل‌ها’ برای عوامل هوش مصنوعی سازمانی تأکید کرد. او بر اهمیت دادن کنترل، قابلیت‌های ایجاد و قابلیت حسابرسی (auditability) ابزارهای هوش مصنوعی به شرکت‌ها تأکید کرد. Dougherty تأکید کرد: ‘ما می‌خواهیم ابزارهای ساخت این چیزها را در اختیار مردم قرار دهیم’. ‘ما نمی‌خواهیم ده دکترای تخصصی همه عوامل را بسازند.’ این حرکت به سمت دسترسی گسترده‌تر در خود توسعه، به معنای نیاز به زیرساخت‌های اساسی بیشتر برای پشتیبانی از این تلاش‌های توزیع‌شده برای ایجاد است.
  • هوش مصنوعی ویژه برند: صنایع خلاق نمونه بارزی را ارائه می‌دهند. Hannah Elsakr، که رهبری سرمایه‌گذاری‌های تجاری جدید در Adobe را بر عهده دارد، استراتژی آنها را که بر روی مدل‌های سفارشی به عنوان یک تمایز کلیدی شرط‌بندی می‌کند، توضیح داد. او با نشان دادن اینکه چگونه هوش مصنوعی می‌تواند برای حفظ زیبایی‌شناسی و پیام‌رسانی برند خاص طراحی شود، توضیح داد: ‘ما می‌توانیم افزونه‌های مدل سفارشی را برای برند شما آموزش دهیم که می‌تواند به یک کمپین تبلیغاتی جدید کمک کند’.

فراتر از تنوع مدل‌ها، استقرار فزاینده عوامل هوش مصنوعی (AI agents) در جریان‌های کاری شرکت‌ها، یکی دیگر از محرک‌های مهم تقاضای پردازش است. این عوامل نه تنها به عنوان ابزارهای منفعل، بلکه به عنوان شرکت‌کنندگان فعال قادر به اجرای وظایف چند مرحله‌ای تصور می‌شوند.

Ray Smith، که سرپرستی عوامل و اتوماسیون Copilot Studio مایکروسافت را بر عهده دارد، آینده‌ای را پیش‌بینی کرد که در آن کاربران از طریق یک رابط یکپارچه مانند Copilot با صدها عامل تخصصی بالقوه تعامل خواهند داشت. او توضیح داد: ‘شما کل فرآیند را در یک عامل فشرده نخواهید کرد، آن را به بخش‌هایی تقسیم خواهید کرد’. او پیشنهاد کرد که این عوامل اساساً ‘برنامه‌های کاربردی در دنیای جدید’ برنامه‌نویسی هستند. چشم‌انداز این است که کاربران به سادگی هدف خود را بیان کنند - ‘به آن بگویید چه می‌خواهیم انجام دهیم’ - و عامل مراحل لازم را هماهنگ کند. Smith اظهار داشت: ‘برنامه‌های عامل‌محور فقط یک روش جدید برای گردش کار هستند’، و تأکید کرد که تحقق این چشم‌انداز کمتر به امکان‌سنجی فناوری (‘همه اینها از نظر فناوری امکان‌پذیر است’) و بیشتر به ‘سرعتی که ما آن را می‌سازیم’ بستگی دارد.

این فشار برای تعبیه عمیق‌تر عوامل هوش مصنوعی در فرآیندهای سازمانی روزمره، فشار برای کاهش هزینه و استقرار کارآمد را بیشتر می‌کند. James McNiven، رئیس مدیریت محصول در غول ریزپردازنده ARM Holdings، چالش را از نظر دسترسی مطرح کرد. او تأمل کرد: ‘چگونه دسترسی را در دستگاه‌های بیشتر و بیشتری فراهم کنیم؟’ با مشاهده مدل‌هایی که به قابلیت‌های نزدیک به ‘سطح دکترا’ در وظایف خاص دست می‌یابند، او تشابهی با تأثیر تحول‌آفرین آوردن سیستم‌های پرداخت موبایلی به کشورهای در حال توسعه در سال‌های پیش ترسیم کرد. سؤال اصلی باقی می‌ماند: ‘چگونه آن [قابلیت هوش مصنوعی] را به افرادی که می‌توانند از آن توانایی استفاده کنند، برسانیم؟’ در دسترس قرار دادن عوامل هوش مصنوعی پیچیده به عنوان دستیار برای بخش وسیعی از نیروی کار، نه تنها به نرم‌افزار هوشمند، بلکه به سخت‌افزار کارآمد و ناگزیر، سرمایه‌گذاری بیشتر در زیرساخت‌های اساسی نیاز دارد، حتی با بهبود کارایی در هر محاسبه.

موانع مقیاس‌پذیری: سیلیکون، انرژی و غول‌های ابری

حتی پرکاربردترین مدل‌های پایه عمومی نیز با سرعت سرسام‌آوری در حال تکثیر هستند و فشار زیادی بر زیرساخت‌های موجود وارد می‌کنند. Dave Brown، که بر محاسبات و شبکه برای Amazon Web Services (AWS) نظارت دارد، فاش کرد که پلتفرم آنها به تنهایی به مشتریان امکان دسترسی به حدود ۱۸۰۰ مدل مختلف هوش مصنوعی را می‌دهد. او بر تمرکز شدید AWS بر ‘انجام کارهای زیاد برای کاهش هزینه’ اجرای این ابزارهای قدرتمند تأکید کرد.

یک استراتژی کلیدی برای ارائه‌دهندگان ابر مانند AWS شامل توسعه سیلیکون سفارشی (custom silicon) خودشان است. Brown استفاده فزاینده از تراشه‌های طراحی شده توسط AWS، مانند پردازنده‌های Trainium آنها که برای آموزش هوش مصنوعی بهینه شده‌اند، را برجسته کرد و اظهار داشت: ‘AWS بیشتر از پردازنده‌های شرکت‌های دیگر از پردازنده‌های خود استفاده می‌کند.’ این حرکت به سمت سخت‌افزار تخصصی و داخلی با هدف به دست گرفتن کنترل بر عملکرد و هزینه، کاهش وابستگی به تأمین‌کنندگان تراشه‌های همه‌منظوره مانند Nvidia، AMD و Intel است. علی‌رغم این تلاش‌ها، Brown صراحتاً واقعیت اساسی را تصدیق کرد: ‘مشتریان اگر هزینه کمتر بود، کارهای بیشتری انجام می‌دادند.’ سقف تقاضا در حال حاضر بیشتر توسط محدودیت‌های بودجه تعریف می‌شود تا فقدان برنامه‌های کاربردی بالقوه.

مقیاس منابع مورد نیاز توسعه‌دهندگان پیشرو هوش مصنوعی بسیار زیاد است. Brown به همکاری روزانه AWS با Anthropic، سازندگان خانواده پیچیده مدل‌های زبانی Claude، اشاره کرد. Michael Gerstenhaber، رئیس رابط‌های برنامه‌نویسی کاربردی Anthropic، که در کنار Brown صحبت می‌کرد، به شدت محاسباتی هوش مصنوعی مدرن، به ویژه مدل‌های طراحی شده برای استدلال پیچیده یا ‘تفکر’ اشاره کرد. این مدل‌ها اغلب توضیحات گام به گام دقیقی برای پاسخ‌های خود تولید می‌کنند که قدرت پردازش قابل توجهی را مصرف می‌کند. Gerstenhaber اظهار داشت: ‘مدل‌های متفکر باعث می‌شوند ظرفیت زیادی مورد استفاده قرار گیرد’.

در حالی که Anthropic فعالانه با AWS بر روی تکنیک‌های بهینه‌سازی مانند ‘ذخیره‌سازی موقت پرامپت’ (prompt caching) (ذخیره و استفاده مجدد از محاسبات تعاملات قبلی برای صرفه‌جویی در منابع) کار می‌کند، نیاز اساسی به سخت‌افزار همچنان بسیار زیاد است. Gerstenhaber به صراحت اظهار داشت که Anthropic به ‘صدها هزار شتاب‌دهنده’ (accelerators) - تراشه‌های تخصصی هوش مصنوعی - نیاز دارد که ‘در بسیاری از مراکز داده’ توزیع شده باشند، صرفاً برای اجرای مجموعه فعلی مدل‌های خود. این یک حس ملموس از مقیاس عظیم منابع محاسباتی را ارائه می‌دهد که تنها زیربنای یک بازیگر اصلی هوش مصنوعی است.

علاوه بر چالش تهیه و مدیریت ناوگان گسترده سیلیکون، مصرف انرژی مارپیچی مرتبط با هوش مصنوعی نیز وجود دارد. Brown این را به عنوان یک نگرانی حیاتی و به سرعت در حال تشدید برجسته کرد. مراکز داده فعلی که از حجم کاری فشرده هوش مصنوعی پشتیبانی می‌کنند، در حال حاضر انرژی را در مقیاس صدها مگاوات (megawatts) مصرف می‌کنند. پیش‌بینی‌ها حاکی از آن است که نیازهای آینده به ناچار به محدوده گیگاوات (gigawatt) - خروجی نیروگاه‌های بزرگ - صعود خواهد کرد. Brown هشدار داد: ‘انرژی که مصرف می‌کند’، با اشاره به هوش مصنوعی، ‘زیاد است و ردپای آن در بسیاری از مراکز داده بزرگ است.’ این تقاضای فزاینده انرژی نه تنها هزینه‌های عملیاتی هنگفتی را به همراه دارد، بلکه چالش‌های زیست‌محیطی و لجستیکی قابل توجهی را برای مکان‌یابی و تأمین انرژی نسل بعدی زیرساخت هوش مصنوعی ایجاد می‌کند.

کارت ناشناخته اقتصادی: سایه‌ای بر برنامه‌های رشد

علی‌رغم چشم‌انداز صعودی ناشی از پیشرفت‌های فناوری و موارد استفاده رو به رشد، یک متغیر مهم بر تمام پیش‌بینی‌های سرمایه‌گذاری در هوش مصنوعی سایه افکنده است: فضای اقتصادی (economic climate) گسترده‌تر. با پایان یافتن کنفرانس Bloomberg Intelligence، شرکت‌کنندگان از قبل شاهد تلاطم بازار ناشی از بسته‌های تعرفه‌ای (tariff packages) جهانی تازه اعلام شده بودند که گسترده‌تر از حد انتظار تلقی می‌شدند.

این به عنوان یادآوری قدرتمندی عمل می‌کند که نقشه‌های راه بلندپروازانه فناوری می‌توانند به سرعت توسط بادهای مخالف اقتصاد کلان (macroeconomic headwinds) مختل شوند. Rana از Bloomberg هشدار داد که در حالی که هزینه‌های هوش مصنوعی ممکن است در ابتدا تا حدودی مصون باشد، حوزه‌های سنتی سرمایه‌گذاری فناوری اطلاعات شرکت‌ها، مانند سرورها و ذخیره‌سازی غیرمرتبط با هوش مصنوعی، می‌توانند اولین قربانیان در یک انقباض اقتصادی باشند. او خاطرنشان کرد: ‘موضوع بزرگ دیگری که ما بر آن متمرکز هستیم، هزینه‌های فناوری غیر هوش مصنوعی است’، و نگرانی خود را در مورد تأثیر بالقوه بر ارائه‌دهندگان خدمات فناوری بزرگ در آستانه فصل درآمد، حتی قبل از در نظر گرفتن بودجه‌های خاص هوش مصنوعی، ابراز کرد.

با این حال، یک نظریه غالب وجود دارد که هوش مصنوعی ممکن است به طور منحصر به فردی مقاوم باشد. Rana پیشنهاد کرد که مدیران ارشد مالی (CFOs) در شرکت‌های بزرگ، که با محدودیت‌های بودجه به دلیل عدم قطعیت اقتصادی یا حتی رکود مواجه هستند، ممکن است تصمیم بگیرند ابتکارات هوش مصنوعی را در اولویت قرار دهند. آنها به طور بالقوه می‌توانند بودجه را از حوزه‌های کمتر حیاتی برای محافظت از سرمایه‌گذاری‌های استراتژیک هوش مصنوعی که برای رقابت‌پذیری آینده حیاتی تلقی می‌شوند، منتقل کنند.

با این حال، این دیدگاه خوش‌بینانه به هیچ وجه تضمین شده نیست. به گفته Rana، آزمون نهایی این خواهد بود که آیا شرکت‌های بزرگ اهداف هزینه‌های سرمایه‌ای (capital expenditure) تهاجمی خود را، به ویژه برای ساخت مراکز داده هوش مصنوعی، در مواجهه با عدم قطعیت اقتصادی فزاینده حفظ خواهند کرد یا خیر. سؤال حیاتی باقی می‌ماند: ‘آیا آنها خواهند گفت، ‘می‌دانید چیست؟ خیلی نامشخص است.’’ پاسخ تعیین خواهد کرد که آیا شتاب به ظاهر غیرقابل توقف پشت هزینه‌های زیرساخت هوش مصنوعی به صعود بی‌وقفه خود ادامه می‌دهد یا با یک توقف غیرمنتظره ناشی از واقعیت‌های اقتصادی جهانی روبرو می‌شود.