هوش مصنوعی Meta در ویندوز 98: پژواک آینده گذشته

در تلاقی شگفت‌انگیز دوران‌های فناوری، روایتی پدیدار شده که روزهای اولیه رایانه‌های خانگی فراگیر را با لبه تیز هوش مصنوعی پیوند می‌زند. Marc Andreessen، چهره برجسته دنیای فناوری و هم‌بنیان‌گذار شرکت تأثیرگذار سرمایه‌گذاری خطرپذیر Andreessen Horowitz، اخیراً شاهکار قابل‌توجهی را برجسته کرد: یک نسخه فشرده از مدل هوش مصنوعی Llama متعلق به Meta با موفقیت بر روی رایانه‌ای با سیستم‌عامل قدیمی Windows 98 و مجهز به تنها 128 مگابایت RAM اجرا شد. این افشاگری به عنوان یادآوری قدرتمندی از پتانسیل فناوری عمل می‌کند و پرسش‌های جذابی را در مورد مسیر تاریخی محاسبات مطرح می‌سازد.

خود ایده اجرای یک هوش مصنوعی پیچیده، حتی یک نسخه کوچک‌شده آن، بر روی سخت‌افزاری که قدمت آن به بیش از ربع قرن پیش بازمی‌گردد، تقریباً متناقض به نظر می‌رسد. هوش مصنوعی مولد مدرن، فناوری‌ای که ابزارهایی مانند ChatGPT و Copilot خود Microsoft را قدرت می‌بخشد، معمولاً با پردازنده‌های قدرتمند، تخصیص حافظه قابل‌توجه و اغلب، زیرساخت‌های مبتنی بر ابر مرتبط است. خود Microsoft سرمایه‌گذاری سنگینی در ادغام قابلیت‌های هوش مصنوعی، به‌ویژه دستیار Copilot خود، در جدیدترین سیستم‌عامل خود، Windows 11، و نسل جدیدی از سخت‌افزار موسوم به Copilot+ PCs که صراحتاً با در نظر گرفتن بارهای کاری هوش مصنوعی طراحی شده‌اند، انجام داده است. این تضاد، آزمایش Windows 98 را بیش از پیش چشمگیر می‌سازد. این امر مفروضات ما را در مورد منابع واقعاً ضروری برای برخی عملکردهای هوش مصنوعی به چالش می‌کشد و نگاهی اجمالی به یک جدول زمانی فناوری جایگزین ارائه می‌دهد.

احیای گذشته: تلاش طاقت‌فرسا در پس آزمایش

در حالی که Andreessen توجه گسترده‌تری را به این دستاورد جلب کرد، به نظر می‌رسد بخش سنگین فنی از کارهای قبلی، به‌ویژه توسط تیم Exo Labs، نشأت گرفته باشد. سفر آن‌ها برای وادار کردن یک هوش مصنوعی مدرن به کار بر روی چنین ماشین‌آلات قدیمی، به هیچ وجه ساده نبود؛ این تمرینی در باستان‌شناسی دیجیتال و حل خلاقانه مسئله بود که تفاوت‌های گسترده بین محاسبات آن زمان و اکنون را برجسته می‌کرد.

اولین مانع شامل لجستیک پایه و سازگاری سخت‌افزاری بود. یافتن سخت‌افزار کاربردی از دوران Windows 98 به خودی خود چالش‌برانگیز است. اما فراتر از راه‌اندازی دستگاه، تیم به لوازم جانبی نیاز داشت. رابط‌های مدرن USB که امروزه همه‌جا حاضر هستند، در دوران اوج Windows 98 استانداردنبودند. این امر مستلزم تهیه دستگاه‌های ورودی سازگار با استفاده از کانکتورهای قدیمی‌تر PS/2 بود – صفحه‌کلیدها و ماوس‌هایی که بسیاری از علاقه‌مندان جوان‌تر فناوری ممکن است هرگز با آن‌ها مواجه نشده باشند.

پس از رسیدگی به تنظیمات فیزیکی، مانع مهم بعدی انتقال داده بود. چگونه فایل‌های مدل هوش مصنوعی و ابزارهای توسعه لازم را به دستگاهی فاقد گزینه‌های اتصال مدرن مانند پورت‌های USB پرسرعت یا یکپارچه‌سازی شبکه بی‌نقص منتقل می‌کنید؟ این احتمالاً شامل توسل به روش‌های قدیمی‌تر و کندتر، شاید رایت فایل‌ها روی CD یا استفاده از پروتکل‌های شبکه محدود آن زمان بود، که یک کپی ساده فایل را به فرآیندی بالقوه زمان‌بر تبدیل می‌کرد.

با این حال، چالش اصلی فنی در کامپایل کردن کد مدرن برای یک محیط باستانی نهفته بود. مدل هوش مصنوعی، مبتنی بر معماری Llama شرکت Meta، با استفاده از شیوه‌ها و زبان‌های برنامه‌نویسی معاصر ساخته شده است. قابل فهم و اجرایی کردن این کد توسط Windows 98 نیازمند یک کامپایلر – برنامه‌ای که کد منبع را به زبان ماشین ترجمه می‌کند – بود که بتواند روی سیستم‌عامل قدیمی اجرا شود و پیچیدگی‌های کد هوش مصنوعی را مدیریت کند.

Exo Labs در ابتدا به Borland C++ 5.02 روی آورد، که خود قطعه‌ای از تاریخ نرم‌افزار است – یک محیط توسعه یکپارچه (IDE) و ترکیب کامپایلر 26 ساله که به صورت بومی روی Windows 98 اجرا می‌شد. این انتخاب یک پل بالقوه بین پایگاه کد مدرن و سیستم‌عامل قدیمی را نشان می‌داد. با این حال، مسیر مملو از پیچیدگی‌ها بود. ظرافت‌های استانداردهای مدرن C++ و کتابخانه‌ها ثابت کرد که با قابلیت‌ها و محدودیت‌های کامپایلر Borland و محیط Windows 98 به سختی سازگار می‌شوند. مشکلات سازگاری به وجود آمد و تیم را مجبور به تغییر مسیر کرد.

راه‌حل آن‌ها شامل بازگشت به نسخه قدیمی‌تر زبان برنامه‌نویسی C بود. در حالی که C یک زبان بنیادی و پیش‌درآمد C++ است، استفاده از استاندارد قدیمی‌تر C به معنای قربانی کردن برخی از انتزاعات سطح بالاتر و راحتی‌های C++ بود. این امر نیازمند فرآیند کدنویسی پرزحمت‌تری بود، مدیریت دستی عناصری مانند توابع و متغیرها که C++ آن‌ها را به شیوه‌ای ظریف‌تر مدیریت می‌کند. پیشرفت ناگزیر کندتر بود و نیازمند توجه دقیق به جزئیات برای جلوگیری از خطاهایی بود که ابزارهای توسعه قدیمی‌تر ممکن بود به راحتی تشخیص ندهند.

فشار حافظه: رام کردن Llama برای منابع محدود

شاید دلهره‌آورترین محدودیت، حافظه دسترسی تصادفی (RAM) بسیار محدود بود. دستگاه هدف تنها 128 مگابایت RAM داشت. برای درک این موضوع، گوشی‌های هوشمند مدرن به طور معمول با 8، 12 یا حتی 16 گیگابایت RAM عرضه می‌شوند (یک گیگابایت تقریباً 1000 مگابایت است). رایانه‌های شخصی پیشرفته که برای بازی یا کارهای حرفه‌ای طراحی شده‌اند، اغلب دارای 32 گیگابایت، 64 گیگابایت یا بیشتر هستند. اجرای یک برنامه پیچیده مانند مدل هوش مصنوعی در چنین ردپای حافظه ناچیزی، شبیه به انجام جراحی پیچیده در یک کمد جارو است.

خانواده مدل‌های Llama شرکت Meta، در حالی که به طور کلی کارآمدتر از غول‌هایی مانند GPT-4 شرکت OpenAI در نظر گرفته می‌شوند، هنوز شامل نسخه‌هایی با میلیاردها پارامتر هستند. به عنوان مثال، معماری Llama 2 شامل مدل‌هایی با مقیاس حداکثر 70 میلیارد پارامتر است. این مدل‌های بزرگتر به قدرت محاسباتی قابل توجهی و، به طور حیاتی، به مقادیر زیادی حافظه برای بارگذاری وزن‌های مدل و مدیریت محاسبات مربوط به پردازش اطلاعات و تولید پاسخ نیاز دارند. یک مدل استاندارد Llama 2 کاملاً قادر به اجرا در محدودیت 128 مگابایتی نخواهد بود.

بنابراین، موفقیت آزمایش به استفاده یا توسعه یک تکرار بسیار بهینه‌شده و به طور قابل توجهی کوچکتر از معماری Llama بستگی داشت. این نسخه تخصصی باید به طور خاص برای عملکرد تحت محدودیت‌های شدید سخت‌افزاری طراحی می‌شد. این احتمالاً شامل تکنیک‌هایی مانند کوانتیزاسیون مدل (کاهش دقت اعداد مورد استفاده در محاسبات مدل) و هرس کردن (حذف بخش‌های کم‌اهمیت‌تر شبکه عصبی) برای کوچک کردن شدید ردپای حافظه و محاسباتی آن بود. Exo Labs نسخه اقتباس‌شده خود را در GitHub در دسترس قرار داد و تغییرات خاص مورد نیاز را به نمایش گذاشت.

این هوش مصنوعی کوچک، که بر روی سخت‌افزار منسوخ اجرا می‌شود، دانش گسترده یا توانایی‌های مکالمه‌ای ظریف همتایان بزرگتر و اجرا شده در ابر خود را نخواهد داشت. قابلیت‌های آن محدود خواهد بود. با این حال، همین واقعیت که می‌توانست اجرا شود و وظایف مولد پایه را انجام دهد، نشان‌دهنده یک دستاورد فنی قابل توجه است. این نشان می‌دهد که مفاهیم اصلی مدل‌های زبان بزرگ می‌توانند، در اصل، به طور چشمگیری کوچک شوند، حتی اگر کاربرد عملی در چنین حدودی محدود باشد.

تحریک Andreessen: یک جدول زمانی گمشده برای محاسبات محاوره‌ای؟

Marc Andreessen از این نمایش فنی برای بیان نکته‌ای گسترده‌تر و تحریک‌آمیزتر در مورد تاریخ و آینده بالقوه محاسبات استفاده کرد. تأمل او صرفاً در مورد کنجکاوی فنی اجرای نرم‌افزار جدید بر روی سخت‌افزار قدیمی نبود؛ بلکه تفکری بود در مورد تاریخ جایگزین احتمالی تعامل انسان و رایانه.

او این موضوع را با بیان اینکه عملیات موفقیت‌آمیز Llama بر روی یک رایانه شخصی Dell 26 ساله، به معنای از دست دادن فرصتی است که دهه‌ها را در بر می‌گیرد، بیان کرد. Andreessen اظهار داشت: «همه آن رایانه‌های شخصی قدیمی می‌توانستند به معنای واقعی کلمه در تمام این مدت هوشمند باشند». «ما می‌توانستیم اکنون 30 سال با رایانه‌هایمان صحبت کنیم.»

این بیانیه ما را به تصور دنیایی دعوت می‌کند که در آن مسیر توسعه هوش مصنوعی به گونه‌ای متفاوت با ظهور رایانه‌های شخصی همگرا شده بود. به جای اینکه رایانه‌های شخصی عمدتاً ابزاری برای محاسبه، ایجاد سند و در نهایت دسترسی به اینترنت باشند، شاید می‌توانستند خیلی زودتر به شرکای محاوره‌ای تبدیل شوند. تصویری که تداعی می‌شود، تصویری از کاربرانی است که از طریق زبان طبیعی با ماشین‌های Windows 95، 98 یا حتی قدیمی‌تر خود تعامل دارند، سؤال می‌پرسند، کمک می‌گیرند و به شیوه‌ای وارد گفتگو می‌شوند که تنها با ظهور دستیاران دیجیتال مدرن و LLMهای پیچیده به واقعیت اصلی تبدیل شد.

البته، این یک جهش بزرگ خلاف واقع است. هوش مصنوعی مولد، همانطور که امروزه آن را می‌شناسیم، با اتکای خود به مجموعه داده‌های عظیم، معماری‌های شبکه عصبی پیچیده (مانند معماری Transformer که زیربنای مدل‌های Llama و GPT است) و قدرت محاسباتی عظیم برای آموزش، پدیده‌ای نسبتاً جدید است. تحقیقات هوش مصنوعی در دهه‌های 1980 و 1990، در حالی که بلندپروازانه بود، بر پارادایم‌های متفاوتی مانند سیستم‌های خبره و استدلال نمادین متمرکز بود. سخت‌افزار آن دوران، در حالی که قادر به اجرای Llama کوچک‌شده‌ای بود که توسط Exo Labs نشان داده شد، порядک‌ها کمتر از سیستم‌های امروزی قدرتمند بود و مجموعه داده‌های دیجیتال وسیعی که برای آموزش مدل‌های مولد توانمند مورد نیاز بود، به سادگی به شکل قابل دسترس وجود نداشت.

Andreessen این زمینه را تصدیق کرد و به خوش‌بینی رونق هوش مصنوعی در دهه 1980 اشاره کرد: «بسیاری از افراد باهوش در دهه 80 فکر می‌کردند همه اینها قرار است آن زمان اتفاق بیفتد.» آن دوران شاهد سرمایه‌گذاری و تحقیقات قابل توجهی در زمینه هوش مصنوعی بود، اما در نهایت به یک «زمستان هوش مصنوعی» منجر شد – دوره‌ای از کاهش بودجه و علاقه زمانی که فناوری نتوانست به بلندپروازانه‌ترین وعده‌های خود عمل کند. محدودیت‌ها در قدرت محاسباتی، در دسترس بودن داده‌ها و رویکردهای الگوریتمی عمیق بود.

بنابراین، اظهار نظر Andreessen شاید بهتر است نه به عنوان یک ادعای تحت‌اللفظی مبنی بر اینکه هوش مصنوعی پیچیده و شبیه انسان بر روی سخت‌افزار دهه 1990 به شیوه‌ای که اکنون تجربه می‌کنیم امکان‌پذیر بود، بلکه به عنوان یک آزمایش فکری درک شود. این امر پتانسیلی را برجسته می‌کند که ممکن بود اگر اولویت‌های تحقیقاتی، پیشرفت‌های الگوریتمی و توسعه سخت‌افزار مسیر متفاوتی را دنبال می‌کردند، باز می‌شد. این ایده را تأکید می‌کند که بلوک‌های سازنده برای نوعی تعامل هوشمند ممکن بود از نظر فنی قابل دستیابی بوده باشند، حتی اگر نتیجه بسیار ساده‌تر از هوش مصنوعی امروزی می‌بود.

تضاد دوران‌ها: از رویاهای Dial-Up تا واقعیت آغشته به هوش مصنوعی

آزمایش Windows 98 به عنوان نقطه تضاد آشکاری با چشم‌انداز فعلی ادغام هوش مصنوعی عمل می‌کند. امروزه، هوش مصنوعی به سرعت از یک سرویس متمرکز بر ابر به سمت تعبیه عمیق در سیستم‌عامل و حتی خود سخت‌افزار در حال حرکت است.

فشار Microsoft با Copilot و Copilot+ PCs نمونه‌ای از این روند است. Windows 11 دارای نقاط ورود متعددی برای Copilot است که کمک هوش مصنوعی را برای کارهایی از خلاصه‌سازی اسناد و پیش‌نویس ایمیل‌ها گرفته تا تولید تصاویر و تنظیم تنظیمات سیستم ارائه می‌دهد. مشخصات جدید Copilot+ PC مستلزم گنجاندن یک واحد پردازش عصبی (NPU) است – سیلیکون تخصصی که برای تسریع محاسبات هوش مصنوعی به طور کارآمد طراحی شده است. این نشان‌دهنده یک تغییر اساسی است که در آن پردازش هوش مصنوعی به یک عملکرد اصلی رایانه شخصی تبدیل می‌شود و به جای اتکای صرف به سرورهای راه دور، به صورت محلی انجام می‌شود.

این رویکرد مدرن، منابع فراوان را فرض می‌کند و از آن‌ها بهره می‌برد. Copilot+ PCs به حداقل 16 گیگابایت RAM و حافظه حالت جامد سریع نیاز دارند، مشخصاتی که بسیار فراتر از 128 مگابایت ناچیز دستگاه Windows 98 است. مدل‌های هوش مصنوعی به کار گرفته شده، در حالی که برای اجرای سمت کلاینت بهینه‌سازی شده‌اند، بسیار پیچیده‌تر و توانمندتر از نسخه مینیاتوری Llama مورد استفاده در آزمایش هستند. آن‌ها از دهه‌ها اصلاح الگوریتمی، مجموعه داده‌های آموزشی عظیم و سخت‌افزاری که به طور خاص برای نیازهایشان طراحی شده است، بهره می‌برند.

این تضاد چندین نکته را روشن می‌کند:

  1. بهینه‌سازی نرم‌افزار در مقابل حجیم شدن (Bloat): آزمایش Exo Labs گواهی بر بهینه‌سازی شدید است که الگوریتم‌های مدرن را مجبور به کار در یک محیط بسیار محدود می‌کند. این به طور ضمنی از تمایل نرم‌افزارهای مدرن به فرض منابع سخت‌افزاری روزافزون انتقاد می‌کند که گاهی منجر به ناکارآمدی یا «حجیم شدن» می‌شود.
  2. تکامل سخت‌افزار: تفاوت محض در قدرت محاسباتی و حافظه بین یک رایانه شخصی معمولی 1998 و یک Copilot+ PC 2024 سرسام‌آور است که نشان‌دهنده چندین نسل از قانون Moore و نوآوری معماری است.
  3. دسترسی به داده‌ها: آموزش LLMهای مدرن به مجموعه داده‌هایی در مقیاس اینترنت متکی است که در دوران Windows 98 غیرقابل تصور بود. جهان دیجیتال در آن زمان به سادگی بسیار کوچک و گسسته بود.
  4. پیشرفت‌های الگوریتمی: توسعه معماری‌هایی مانند مدل Transformer در سال 2017 یک لحظه محوری بود که مقیاس‌پذیری و عملکرد مشاهده شده در هوش مصنوعی مولد امروزی را امکان‌پذیر ساخت. رویکردهای قبلی هوش مصنوعی دارای محدودیت‌های اساسی بودند.

در حالی که Andreessen رویای رایانه‌های سخنگو در 30 سال پیش را در سر می‌پروراند، واقعیت این است که تلاقی قدرت سخت‌افزاری، در دسترس بودن داده‌ها و نوآوری الگوریتمی مورد نیاز برای تجربه هوش مصنوعی امروزی، بسیار اخیراً رخ داده است.

همه اینها به چه معناست؟ تأملاتی فراتر از نوستالژی

آیا استقرار موفقیت‌آمیز مدل Llama بر روی Windows 98 صرفاً یک هک هوشمندانه، یک شیرین‌کاری نوستالژیک برای علاقه‌مندان به فناوری است؟ یا اهمیت عمیق‌تری دارد؟ مسلماً چندین هدف را دنبال می‌کند:

  • نشان دادن مقیاس‌پذیری شدید: ثابت می‌کند که اصول بنیادی پشت مدل‌های زبان بزرگ را می‌توان برای کار تحت محدودیت‌های منابع فوق‌العاده شدید تطبیق داد. این پیامدهای بالقوه‌ای برای استقرار هوش مصنوعی در سیستم‌های تعبیه‌شده کم‌مصرف، دستگاه‌های IoT یا سخت‌افزارهای قدیمی‌تری دارد که هنوز در نقاط مختلف جهان مورد استفاده قرار می‌گیرند.
  • برجسته کردن قدرت محدودیت‌ها: کار در محدودیت‌های شدید اغلب باعث نوآوری و کارایی می‌شود. تیم Exo Labs مجبور بود راه‌حل‌های خلاقانه‌ای بیابد و بی‌رحمانه بهینه‌سازی کند، مهارت‌هایی که حتی در محیط‌های غنی از منابع نیز ارزشمند هستند.
  • به چالش کشیدن مفروضات: این امر باعث تأمل در این مورد می‌شود که آیا تمام قدرت محاسباتی و حافظه مورد استفاده توسط برنامه‌های مدرن برای ارزشی که ارائه می‌دهند، کاملاً ضروری است یا خیر. آیا برخی نرم‌افزارها می‌توانند کم‌حجم‌تر و کارآمدتر باشند؟
  • نشان دادن احتمالاتی بودن مسیرهای فناوری: تاریخ به ندرت یک خط مستقیم را دنبال می‌کند. این واقعیت که نوعی هوش مصنوعی ابتدایی ممکن بود بر روی سخت‌افزار قدیمی‌تر امکان‌پذیر بوده باشد، نشان می‌دهد که چگونه انتخاب‌های مختلف، جهت‌گیری‌های تحقیقاتی یا حتی اکتشافات تصادفی می‌توانستند ما را به مسیر فناوری متفاوتی هدایت کنند.

این آزمایش تاریخ را بازنویسی نمی‌کند، و همچنین به این معنا نیست که تجربیات پیچیده هوش مصنوعی سال 2024 به نوعی در سال 1998 قابل دستیابی بوده‌اند. شکاف در فناوری‌های توانمندساز – قدرت پردازش، حافظه، داده‌ها، الگوریتم‌ها – همچنان عظیم است. با این حال، این یک نقطه داده جذاب، گواهی بر نبوغ مهندسی، و کاتالیزوری برای تأمل در مسیر پر پیچ و خم پیشرفت فناوری فراهم می‌کند. این به ما یادآوری می‌کند که محدودیت‌های دیروز گاهی اوقات می‌توانند با دانش امروز برطرف شوند و نتایج شگفت‌انگیزی به بار آورند و ما را وادار به بازنگری در مورد آنچه ممکن است، هم اکنون و هم در آینده، بکنند. شبح در ماشین قدیمی نه تنها از آنچه بود، بلکه شاید از پتانسیل بکر نهفته در سادگی و کارایی نیز زمزمه می‌کند.