لرزه اولیه: DeepSeek و سراب کارایی
ظهور هوش مصنوعی DeepSeek چین در اوایل امسال، شوکهایی را در چشمانداز سرمایهگذاری فناوری ایجاد کرد. رویکرد به ظاهر پیشگامانه آن، که نوید هوش مصنوعی قدرتمند با سربار محاسباتی (computational overhead) به طور قابل توجهی پایینتر را میداد، بلافاصله گمانهزنیها را برانگیخت. روایتی به سرعت شکل گرفت: شاید توسعه بیوقفه و پرهزینه زیرساخت هوش مصنوعی، که با خریدهای عظیم تراشهها و سیستمهای تخصصی مشخص میشود، در شرف کند شدن بود. بازار واکنش نشان داد و بازتابدهنده این باور بود که دوره جدیدی از هوش مصنوعی مقرونبهصرفه ممکن است به طور چشمگیری رونق پیشبینیشده هزینهها را کاهش دهد.
با این حال، بینشهای حاصل از گردهمایی سطح بالای اخیر ذهنهای صنعت، تصویری کاملاً متفاوت را ترسیم میکند. کنفرانس هوش مصنوعی مولد (generative AI) که توسط Bloomberg Intelligence در نیویورک برگزار شد، نشان داد که تفسیر اولیه، که صرفاً بر صرفهجویی بالقوه در هزینه متمرکز بود، داستان بزرگتر را نادیده گرفته است. این رویداد به جای اینکه نشانهای از کاهش هزینهها باشد، بر عطش تقریباً سیریناپذیر برای ظرفیت بیشتر هوش مصنوعی تأکید کرد. اجماع بر سر کاهش هزینهها نبود؛ بلکه بر سر یافتن راهی برای تغذیه اشتهای فزاینده برای سیستمهای هوشمند بود، حتی در حالی که به شدت آرزو میشد که این منو ارزانتر باشد.
صداهایی از خط مقدم: تشنگی سیریناپذیر برای ظرفیت
بحثهای طول روز این رویداد، که توسعهدهندگان، استراتژیستها و سرمایهگذاران را گرد هم آورد، به طور مداوم حول محور تشدید تقاضا به عنوان محرک سرمایهگذاری عظیم میچرخید. Mandeep Singh، تحلیلگر ارشد فناوری در Bloomberg Intelligence و یکی از برگزارکنندگان رویداد، احساسات غالب را به طور خلاصه بیان کرد. او با تأمل در پنلهای متعدد و بحثهای تخصصی، به یک ترجیعبند جهانی اشاره کرد: هیچکس از افراد درگیر احساس نمیکرد که ظرفیت کافی هوش مصنوعی در اختیار دارد. احساس غالب، نیاز به بیشتر بود، نه داشتن بیش از حد.
نکته مهم این بود که Singh افزود، شبح ‘حباب زیرساخت’ (infrastructure bubble)، یک ترس رایج در بخشهای فناوری با رشد سریع، به طور قابل توجهی در گفتگوها غایب بود. تمرکز کاملاً بر چالش بنیادینی بود که کل صنعت با آن روبرو است. Anurag Rana، همکار Singh و تحلیلگر ارشد Bloomberg Intelligence برای خدمات فناوری اطلاعات و نرمافزار، آن را به عنوان سؤال اصلی مطرح کرد: ‘ما در کجای آن چرخه [ساخت زیرساخت هوش مصنوعی] هستیم؟’
در حالی که اذعان داشت که تعیین دقیق مرحله این ساختوساز عظیم همچنان دشوار است (‘هیچکس به طور قطع نمیداند’، Rana اعتراف کرد)، پدیده DeepSeek بدون شک دیدگاهها را تغییر داد. این پدیده دوز قوی امیدی را تزریق کرد که حجم کاری قابل توجه هوش مصنوعی به طور بالقوه میتواند اقتصادیتر مدیریت شود. Rana مشاهده کرد: ‘DeepSeek بسیاری از مردم را تکان داد’. مفهوم روشن بود: اگر مدلهای پیچیده هوش مصنوعی واقعاً بتوانند به طور کارآمد بر روی سختافزارهای کمتقاضاتر اجرا شوند، شاید پروژههای غولپیکر، مانند طرحهای چند صد میلیارد دلاری که شایعه شده توسط کنسرسیومهایی با حضور بازیگران اصلی فناوری برنامهریزی شدهاند، ممکن است دوباره ارزیابی شوند یا به شکل متفاوتی مقیاسبندی شوند.
به گفته Rana، رؤیایی که در سراسر صنعت تکرار میشود، این است که هزینههای عملیاتی هوش مصنوعی، به ویژه برای استنتاج (inference) (مرحلهای که در آن مدلهای آموزشدیده پیشبینیها یا محتوا تولید میکنند)، مسیر نزولی چشمگیری را که در ذخیرهسازی رایانش ابری (cloud computing) طی دهه گذشته مشاهده شد، دنبال کند. او به یاد آورد که چگونه اقتصاد ذخیرهسازی حجم عظیمی از دادهها در پلتفرمهایی مانند Amazon Web Services (AWS) طی تقریباً هشت سال به طور چشمگیری بهبود یافت. او اظهار داشت: ‘آن کاهش در منحنی هزینه… اقتصاد خوب بود’. ‘و این همان چیزی است که همه امیدوارند، که در سمت استنتاج… اگر منحنی به آن سطح سقوط کند، خدای من، نرخ پذیرش هوش مصنوعی… دیدنی خواهد بود.’ Singh موافقت کرد و خاطرنشان کرد که ظهور DeepSeek اساساً ‘ذهنیت همه را در مورد دستیابی به کارایی تغییر داده است.’
این اشتیاق برای کارایی در طول جلسات کنفرانس محسوس بود. در حالی که پنلهای متعددی به جنبههای عملی انتقال پروژههای هوش مصنوعی سازمانی از مراحل مفهومی به تولید زنده پرداختند، بحث موازی دائماً بر نیاز حیاتی به کاهش هزینههای مرتبط با استقرار و اجرای این مدلهای هوش مصنوعی تأکید میکرد. هدف روشن است: دموکراتیک کردن دسترسی با مقرونبهصرفه کردن هوش مصنوعی برای طیف وسیعتری از برنامهها و کاربران. Shawn Edwards، مدیر ارشد فناوری خود Bloomberg، پیشنهاد کرد که DeepSeek لزوماً یک شگفتی کامل نبود، بلکه تصویری قدرتمند از یک آرزوی جهانی بود. او اظهار داشت: ‘چیزی که باعث شد من فکر کنم این است که عالی میشد اگر میتوانستید عصایی را تکان دهید و این مدلها به طور باورنکردنی کارآمد اجرا شوند’، و این آرزو را به کل طیف مدلهای هوش مصنوعی، نه فقط یک پیشرفت خاص، تعمیم داد.
اصل تکثیر: دامن زدن به تقاضای محاسباتی
یکی از دلایل اصلی که کارشناسان سرمایهگذاری مداوم و قابل توجه در زیرساخت هوش مصنوعی را پیشبینی میکنند، علیرغم تلاش برای کارایی، تکثیر محض مدلهای هوش مصنوعی است. یک موضوع تکراری در طول کنفرانس نیویورک، حرکت قاطعانه از ایده یک مدل هوش مصنوعی واحد و یکپارچه بود که قادر به انجام همه وظایف باشد.
- یک خانواده از مدلها: همانطور که Edwards از Bloomberg بیان کرد، ‘ما از خانوادهای از مدلها استفاده میکنیم. چیزی به نام بهترین مدل وجود ندارد.’ این نشاندهنده درک فزایندهای است که معماریهای مختلف هوش مصنوعی در وظایف مختلف برتری دارند - تولید زبان، تجزیه و تحلیل دادهها، تشخیص تصویر، تکمیل کد و غیره.
- سفارشیسازی سازمانی: اعضای پنل به طور گسترده موافق بودند که در حالی که مدلهای بزرگ و همهمنظوره ‘پایه’ (foundation models) یا ‘پیشگام’ (frontier models) همچنان توسط آزمایشگاههای بزرگ هوش مصنوعی توسعه و اصلاح خواهند شد، اقدام واقعی در کسبوکارها شامل استقرار بالقوه صدها یا حتی هزاران مدل هوش مصنوعی تخصصی است.
- تنظیم دقیق و دادههای اختصاصی: بسیاری از این مدلهای سازمانی از مدلهای پایه از طریق فرآیندی به نام تنظیم دقیق (fine-tuning) اقتباس خواهند شد. این شامل آموزش مجدد یک شبکه عصبی از پیش آموزشدیده بر روی دادههای خاص و اغلب اختصاصی (proprietary data) یک شرکت است. این به هوش مصنوعی اجازه میدهد تا زمینههای تجاری منحصر به فرد، اصطلاحات و تعاملات مشتری را درک کند و نتایج بسیار مرتبطتر و ارزشمندتری نسبت به یک مدل عمومی ارائه دهد.
- دموکراتیک کردن توسعه: Jed Dougherty، نماینده پلتفرم علم داده Dataiku، بر نیاز به ‘اختیار در میان مدلها’ برای عوامل هوش مصنوعی سازمانی تأکید کرد. او بر اهمیت دادن کنترل، قابلیتهای ایجاد و قابلیت حسابرسی (auditability) ابزارهای هوش مصنوعی به شرکتها تأکید کرد. Dougherty تأکید کرد: ‘ما میخواهیم ابزارهای ساخت این چیزها را در اختیار مردم قرار دهیم’. ‘ما نمیخواهیم ده دکترای تخصصی همه عوامل را بسازند.’ این حرکت به سمت دسترسی گستردهتر در خود توسعه، به معنای نیاز به زیرساختهای اساسی بیشتر برای پشتیبانی از این تلاشهای توزیعشده برای ایجاد است.
- هوش مصنوعی ویژه برند: صنایع خلاق نمونه بارزی را ارائه میدهند. Hannah Elsakr، که رهبری سرمایهگذاریهای تجاری جدید در Adobe را بر عهده دارد، استراتژی آنها را که بر روی مدلهای سفارشی به عنوان یک تمایز کلیدی شرطبندی میکند، توضیح داد. او با نشان دادن اینکه چگونه هوش مصنوعی میتواند برای حفظ زیباییشناسی و پیامرسانی برند خاص طراحی شود، توضیح داد: ‘ما میتوانیم افزونههای مدل سفارشی را برای برند شما آموزش دهیم که میتواند به یک کمپین تبلیغاتی جدید کمک کند’.
فراتر از تنوع مدلها، استقرار فزاینده عوامل هوش مصنوعی (AI agents) در جریانهای کاری شرکتها، یکی دیگر از محرکهای مهم تقاضای پردازش است. این عوامل نه تنها به عنوان ابزارهای منفعل، بلکه به عنوان شرکتکنندگان فعال قادر به اجرای وظایف چند مرحلهای تصور میشوند.
Ray Smith، که سرپرستی عوامل و اتوماسیون Copilot Studio مایکروسافت را بر عهده دارد، آیندهای را پیشبینی کرد که در آن کاربران از طریق یک رابط یکپارچه مانند Copilot با صدها عامل تخصصی بالقوه تعامل خواهند داشت. او توضیح داد: ‘شما کل فرآیند را در یک عامل فشرده نخواهید کرد، آن را به بخشهایی تقسیم خواهید کرد’. او پیشنهاد کرد که این عوامل اساساً ‘برنامههای کاربردی در دنیای جدید’ برنامهنویسی هستند. چشمانداز این است که کاربران به سادگی هدف خود را بیان کنند - ‘به آن بگویید چه میخواهیم انجام دهیم’ - و عامل مراحل لازم را هماهنگ کند. Smith اظهار داشت: ‘برنامههای عاملمحور فقط یک روش جدید برای گردش کار هستند’، و تأکید کرد که تحقق این چشمانداز کمتر به امکانسنجی فناوری (‘همه اینها از نظر فناوری امکانپذیر است’) و بیشتر به ‘سرعتی که ما آن را میسازیم’ بستگی دارد.
این فشار برای تعبیه عمیقتر عوامل هوش مصنوعی در فرآیندهای سازمانی روزمره، فشار برای کاهش هزینه و استقرار کارآمد را بیشتر میکند. James McNiven، رئیس مدیریت محصول در غول ریزپردازنده ARM Holdings، چالش را از نظر دسترسی مطرح کرد. او تأمل کرد: ‘چگونه دسترسی را در دستگاههای بیشتر و بیشتری فراهم کنیم؟’ با مشاهده مدلهایی که به قابلیتهای نزدیک به ‘سطح دکترا’ در وظایف خاص دست مییابند، او تشابهی با تأثیر تحولآفرین آوردن سیستمهای پرداخت موبایلی به کشورهای در حال توسعه در سالهای پیش ترسیم کرد. سؤال اصلی باقی میماند: ‘چگونه آن [قابلیت هوش مصنوعی] را به افرادی که میتوانند از آن توانایی استفاده کنند، برسانیم؟’ در دسترس قرار دادن عوامل هوش مصنوعی پیچیده به عنوان دستیار برای بخش وسیعی از نیروی کار، نه تنها به نرمافزار هوشمند، بلکه به سختافزار کارآمد و ناگزیر، سرمایهگذاری بیشتر در زیرساختهای اساسی نیاز دارد، حتی با بهبود کارایی در هر محاسبه.
موانع مقیاسپذیری: سیلیکون، انرژی و غولهای ابری
حتی پرکاربردترین مدلهای پایه عمومی نیز با سرعت سرسامآوری در حال تکثیر هستند و فشار زیادی بر زیرساختهای موجود وارد میکنند. Dave Brown، که بر محاسبات و شبکه برای Amazon Web Services (AWS) نظارت دارد، فاش کرد که پلتفرم آنها به تنهایی به مشتریان امکان دسترسی به حدود ۱۸۰۰ مدل مختلف هوش مصنوعی را میدهد. او بر تمرکز شدید AWS بر ‘انجام کارهای زیاد برای کاهش هزینه’ اجرای این ابزارهای قدرتمند تأکید کرد.
یک استراتژی کلیدی برای ارائهدهندگان ابر مانند AWS شامل توسعه سیلیکون سفارشی (custom silicon) خودشان است. Brown استفاده فزاینده از تراشههای طراحی شده توسط AWS، مانند پردازندههای Trainium آنها که برای آموزش هوش مصنوعی بهینه شدهاند، را برجسته کرد و اظهار داشت: ‘AWS بیشتر از پردازندههای شرکتهای دیگر از پردازندههای خود استفاده میکند.’ این حرکت به سمت سختافزار تخصصی و داخلی با هدف به دست گرفتن کنترل بر عملکرد و هزینه، کاهش وابستگی به تأمینکنندگان تراشههای همهمنظوره مانند Nvidia، AMD و Intel است. علیرغم این تلاشها، Brown صراحتاً واقعیت اساسی را تصدیق کرد: ‘مشتریان اگر هزینه کمتر بود، کارهای بیشتری انجام میدادند.’ سقف تقاضا در حال حاضر بیشتر توسط محدودیتهای بودجه تعریف میشود تا فقدان برنامههای کاربردی بالقوه.
مقیاس منابع مورد نیاز توسعهدهندگان پیشرو هوش مصنوعی بسیار زیاد است. Brown به همکاری روزانه AWS با Anthropic، سازندگان خانواده پیچیده مدلهای زبانی Claude، اشاره کرد. Michael Gerstenhaber، رئیس رابطهای برنامهنویسی کاربردی Anthropic، که در کنار Brown صحبت میکرد، به شدت محاسباتی هوش مصنوعی مدرن، به ویژه مدلهای طراحی شده برای استدلال پیچیده یا ‘تفکر’ اشاره کرد. این مدلها اغلب توضیحات گام به گام دقیقی برای پاسخهای خود تولید میکنند که قدرت پردازش قابل توجهی را مصرف میکند. Gerstenhaber اظهار داشت: ‘مدلهای متفکر باعث میشوند ظرفیت زیادی مورد استفاده قرار گیرد’.
در حالی که Anthropic فعالانه با AWS بر روی تکنیکهای بهینهسازی مانند ‘ذخیرهسازی موقت پرامپت’ (prompt caching) (ذخیره و استفاده مجدد از محاسبات تعاملات قبلی برای صرفهجویی در منابع) کار میکند، نیاز اساسی به سختافزار همچنان بسیار زیاد است. Gerstenhaber به صراحت اظهار داشت که Anthropic به ‘صدها هزار شتابدهنده’ (accelerators) - تراشههای تخصصی هوش مصنوعی - نیاز دارد که ‘در بسیاری از مراکز داده’ توزیع شده باشند، صرفاً برای اجرای مجموعه فعلی مدلهای خود. این یک حس ملموس از مقیاس عظیم منابع محاسباتی را ارائه میدهد که تنها زیربنای یک بازیگر اصلی هوش مصنوعی است.
علاوه بر چالش تهیه و مدیریت ناوگان گسترده سیلیکون، مصرف انرژی مارپیچی مرتبط با هوش مصنوعی نیز وجود دارد. Brown این را به عنوان یک نگرانی حیاتی و به سرعت در حال تشدید برجسته کرد. مراکز داده فعلی که از حجم کاری فشرده هوش مصنوعی پشتیبانی میکنند، در حال حاضر انرژی را در مقیاس صدها مگاوات (megawatts) مصرف میکنند. پیشبینیها حاکی از آن است که نیازهای آینده به ناچار به محدوده گیگاوات (gigawatt) - خروجی نیروگاههای بزرگ - صعود خواهد کرد. Brown هشدار داد: ‘انرژی که مصرف میکند’، با اشاره به هوش مصنوعی، ‘زیاد است و ردپای آن در بسیاری از مراکز داده بزرگ است.’ این تقاضای فزاینده انرژی نه تنها هزینههای عملیاتی هنگفتی را به همراه دارد، بلکه چالشهای زیستمحیطی و لجستیکی قابل توجهی را برای مکانیابی و تأمین انرژی نسل بعدی زیرساخت هوش مصنوعی ایجاد میکند.
کارت ناشناخته اقتصادی: سایهای بر برنامههای رشد
علیرغم چشمانداز صعودی ناشی از پیشرفتهای فناوری و موارد استفاده رو به رشد، یک متغیر مهم بر تمام پیشبینیهای سرمایهگذاری در هوش مصنوعی سایه افکنده است: فضای اقتصادی (economic climate) گستردهتر. با پایان یافتن کنفرانس Bloomberg Intelligence، شرکتکنندگان از قبل شاهد تلاطم بازار ناشی از بستههای تعرفهای (tariff packages) جهانی تازه اعلام شده بودند که گستردهتر از حد انتظار تلقی میشدند.
این به عنوان یادآوری قدرتمندی عمل میکند که نقشههای راه بلندپروازانه فناوری میتوانند به سرعت توسط بادهای مخالف اقتصاد کلان (macroeconomic headwinds) مختل شوند. Rana از Bloomberg هشدار داد که در حالی که هزینههای هوش مصنوعی ممکن است در ابتدا تا حدودی مصون باشد، حوزههای سنتی سرمایهگذاری فناوری اطلاعات شرکتها، مانند سرورها و ذخیرهسازی غیرمرتبط با هوش مصنوعی، میتوانند اولین قربانیان در یک انقباض اقتصادی باشند. او خاطرنشان کرد: ‘موضوع بزرگ دیگری که ما بر آن متمرکز هستیم، هزینههای فناوری غیر هوش مصنوعی است’، و نگرانی خود را در مورد تأثیر بالقوه بر ارائهدهندگان خدمات فناوری بزرگ در آستانه فصل درآمد، حتی قبل از در نظر گرفتن بودجههای خاص هوش مصنوعی، ابراز کرد.
با این حال، یک نظریه غالب وجود دارد که هوش مصنوعی ممکن است به طور منحصر به فردی مقاوم باشد. Rana پیشنهاد کرد که مدیران ارشد مالی (CFOs) در شرکتهای بزرگ، که با محدودیتهای بودجه به دلیل عدم قطعیت اقتصادی یا حتی رکود مواجه هستند، ممکن است تصمیم بگیرند ابتکارات هوش مصنوعی را در اولویت قرار دهند. آنها به طور بالقوه میتوانند بودجه را از حوزههای کمتر حیاتی برای محافظت از سرمایهگذاریهای استراتژیک هوش مصنوعی که برای رقابتپذیری آینده حیاتی تلقی میشوند، منتقل کنند.
با این حال، این دیدگاه خوشبینانه به هیچ وجه تضمین شده نیست. به گفته Rana، آزمون نهایی این خواهد بود که آیا شرکتهای بزرگ اهداف هزینههای سرمایهای (capital expenditure) تهاجمی خود را، به ویژه برای ساخت مراکز داده هوش مصنوعی، در مواجهه با عدم قطعیت اقتصادی فزاینده حفظ خواهند کرد یا خیر. سؤال حیاتی باقی میماند: ‘آیا آنها خواهند گفت، ‘میدانید چیست؟ خیلی نامشخص است.’’ پاسخ تعیین خواهد کرد که آیا شتاب به ظاهر غیرقابل توقف پشت هزینههای زیرساخت هوش مصنوعی به صعود بیوقفه خود ادامه میدهد یا با یک توقف غیرمنتظره ناشی از واقعیتهای اقتصادی جهانی روبرو میشود.