در تلاقی شگفتانگیز دورانهای فناوری، روایتی پدیدار شده که روزهای اولیه رایانههای خانگی فراگیر را با لبه تیز هوش مصنوعی پیوند میزند. Marc Andreessen، چهره برجسته دنیای فناوری و همبنیانگذار شرکت تأثیرگذار سرمایهگذاری خطرپذیر Andreessen Horowitz، اخیراً شاهکار قابلتوجهی را برجسته کرد: یک نسخه فشرده از مدل هوش مصنوعی Llama متعلق به Meta با موفقیت بر روی رایانهای با سیستمعامل قدیمی Windows 98 و مجهز به تنها 128 مگابایت RAM اجرا شد. این افشاگری به عنوان یادآوری قدرتمندی از پتانسیل فناوری عمل میکند و پرسشهای جذابی را در مورد مسیر تاریخی محاسبات مطرح میسازد.
خود ایده اجرای یک هوش مصنوعی پیچیده، حتی یک نسخه کوچکشده آن، بر روی سختافزاری که قدمت آن به بیش از ربع قرن پیش بازمیگردد، تقریباً متناقض به نظر میرسد. هوش مصنوعی مولد مدرن، فناوریای که ابزارهایی مانند ChatGPT و Copilot خود Microsoft را قدرت میبخشد، معمولاً با پردازندههای قدرتمند، تخصیص حافظه قابلتوجه و اغلب، زیرساختهای مبتنی بر ابر مرتبط است. خود Microsoft سرمایهگذاری سنگینی در ادغام قابلیتهای هوش مصنوعی، بهویژه دستیار Copilot خود، در جدیدترین سیستمعامل خود، Windows 11، و نسل جدیدی از سختافزار موسوم به Copilot+ PCs که صراحتاً با در نظر گرفتن بارهای کاری هوش مصنوعی طراحی شدهاند، انجام داده است. این تضاد، آزمایش Windows 98 را بیش از پیش چشمگیر میسازد. این امر مفروضات ما را در مورد منابع واقعاً ضروری برای برخی عملکردهای هوش مصنوعی به چالش میکشد و نگاهی اجمالی به یک جدول زمانی فناوری جایگزین ارائه میدهد.
احیای گذشته: تلاش طاقتفرسا در پس آزمایش
در حالی که Andreessen توجه گستردهتری را به این دستاورد جلب کرد، به نظر میرسد بخش سنگین فنی از کارهای قبلی، بهویژه توسط تیم Exo Labs، نشأت گرفته باشد. سفر آنها برای وادار کردن یک هوش مصنوعی مدرن به کار بر روی چنین ماشینآلات قدیمی، به هیچ وجه ساده نبود؛ این تمرینی در باستانشناسی دیجیتال و حل خلاقانه مسئله بود که تفاوتهای گسترده بین محاسبات آن زمان و اکنون را برجسته میکرد.
اولین مانع شامل لجستیک پایه و سازگاری سختافزاری بود. یافتن سختافزار کاربردی از دوران Windows 98 به خودی خود چالشبرانگیز است. اما فراتر از راهاندازی دستگاه، تیم به لوازم جانبی نیاز داشت. رابطهای مدرن USB که امروزه همهجا حاضر هستند، در دوران اوج Windows 98 استانداردنبودند. این امر مستلزم تهیه دستگاههای ورودی سازگار با استفاده از کانکتورهای قدیمیتر PS/2 بود – صفحهکلیدها و ماوسهایی که بسیاری از علاقهمندان جوانتر فناوری ممکن است هرگز با آنها مواجه نشده باشند.
پس از رسیدگی به تنظیمات فیزیکی، مانع مهم بعدی انتقال داده بود. چگونه فایلهای مدل هوش مصنوعی و ابزارهای توسعه لازم را به دستگاهی فاقد گزینههای اتصال مدرن مانند پورتهای USB پرسرعت یا یکپارچهسازی شبکه بینقص منتقل میکنید؟ این احتمالاً شامل توسل به روشهای قدیمیتر و کندتر، شاید رایت فایلها روی CD یا استفاده از پروتکلهای شبکه محدود آن زمان بود، که یک کپی ساده فایل را به فرآیندی بالقوه زمانبر تبدیل میکرد.
با این حال، چالش اصلی فنی در کامپایل کردن کد مدرن برای یک محیط باستانی نهفته بود. مدل هوش مصنوعی، مبتنی بر معماری Llama شرکت Meta، با استفاده از شیوهها و زبانهای برنامهنویسی معاصر ساخته شده است. قابل فهم و اجرایی کردن این کد توسط Windows 98 نیازمند یک کامپایلر – برنامهای که کد منبع را به زبان ماشین ترجمه میکند – بود که بتواند روی سیستمعامل قدیمی اجرا شود و پیچیدگیهای کد هوش مصنوعی را مدیریت کند.
Exo Labs در ابتدا به Borland C++ 5.02 روی آورد، که خود قطعهای از تاریخ نرمافزار است – یک محیط توسعه یکپارچه (IDE) و ترکیب کامپایلر 26 ساله که به صورت بومی روی Windows 98 اجرا میشد. این انتخاب یک پل بالقوه بین پایگاه کد مدرن و سیستمعامل قدیمی را نشان میداد. با این حال، مسیر مملو از پیچیدگیها بود. ظرافتهای استانداردهای مدرن C++ و کتابخانهها ثابت کرد که با قابلیتها و محدودیتهای کامپایلر Borland و محیط Windows 98 به سختی سازگار میشوند. مشکلات سازگاری به وجود آمد و تیم را مجبور به تغییر مسیر کرد.
راهحل آنها شامل بازگشت به نسخه قدیمیتر زبان برنامهنویسی C بود. در حالی که C یک زبان بنیادی و پیشدرآمد C++ است، استفاده از استاندارد قدیمیتر C به معنای قربانی کردن برخی از انتزاعات سطح بالاتر و راحتیهای C++ بود. این امر نیازمند فرآیند کدنویسی پرزحمتتری بود، مدیریت دستی عناصری مانند توابع و متغیرها که C++ آنها را به شیوهای ظریفتر مدیریت میکند. پیشرفت ناگزیر کندتر بود و نیازمند توجه دقیق به جزئیات برای جلوگیری از خطاهایی بود که ابزارهای توسعه قدیمیتر ممکن بود به راحتی تشخیص ندهند.
فشار حافظه: رام کردن Llama برای منابع محدود
شاید دلهرهآورترین محدودیت، حافظه دسترسی تصادفی (RAM) بسیار محدود بود. دستگاه هدف تنها 128 مگابایت RAM داشت. برای درک این موضوع، گوشیهای هوشمند مدرن به طور معمول با 8، 12 یا حتی 16 گیگابایت RAM عرضه میشوند (یک گیگابایت تقریباً 1000 مگابایت است). رایانههای شخصی پیشرفته که برای بازی یا کارهای حرفهای طراحی شدهاند، اغلب دارای 32 گیگابایت، 64 گیگابایت یا بیشتر هستند. اجرای یک برنامه پیچیده مانند مدل هوش مصنوعی در چنین ردپای حافظه ناچیزی، شبیه به انجام جراحی پیچیده در یک کمد جارو است.
خانواده مدلهای Llama شرکت Meta، در حالی که به طور کلی کارآمدتر از غولهایی مانند GPT-4 شرکت OpenAI در نظر گرفته میشوند، هنوز شامل نسخههایی با میلیاردها پارامتر هستند. به عنوان مثال، معماری Llama 2 شامل مدلهایی با مقیاس حداکثر 70 میلیارد پارامتر است. این مدلهای بزرگتر به قدرت محاسباتی قابل توجهی و، به طور حیاتی، به مقادیر زیادی حافظه برای بارگذاری وزنهای مدل و مدیریت محاسبات مربوط به پردازش اطلاعات و تولید پاسخ نیاز دارند. یک مدل استاندارد Llama 2 کاملاً قادر به اجرا در محدودیت 128 مگابایتی نخواهد بود.
بنابراین، موفقیت آزمایش به استفاده یا توسعه یک تکرار بسیار بهینهشده و به طور قابل توجهی کوچکتر از معماری Llama بستگی داشت. این نسخه تخصصی باید به طور خاص برای عملکرد تحت محدودیتهای شدید سختافزاری طراحی میشد. این احتمالاً شامل تکنیکهایی مانند کوانتیزاسیون مدل (کاهش دقت اعداد مورد استفاده در محاسبات مدل) و هرس کردن (حذف بخشهای کماهمیتتر شبکه عصبی) برای کوچک کردن شدید ردپای حافظه و محاسباتی آن بود. Exo Labs نسخه اقتباسشده خود را در GitHub در دسترس قرار داد و تغییرات خاص مورد نیاز را به نمایش گذاشت.
این هوش مصنوعی کوچک، که بر روی سختافزار منسوخ اجرا میشود، دانش گسترده یا تواناییهای مکالمهای ظریف همتایان بزرگتر و اجرا شده در ابر خود را نخواهد داشت. قابلیتهای آن محدود خواهد بود. با این حال، همین واقعیت که میتوانست اجرا شود و وظایف مولد پایه را انجام دهد، نشاندهنده یک دستاورد فنی قابل توجه است. این نشان میدهد که مفاهیم اصلی مدلهای زبان بزرگ میتوانند، در اصل، به طور چشمگیری کوچک شوند، حتی اگر کاربرد عملی در چنین حدودی محدود باشد.
تحریک Andreessen: یک جدول زمانی گمشده برای محاسبات محاورهای؟
Marc Andreessen از این نمایش فنی برای بیان نکتهای گستردهتر و تحریکآمیزتر در مورد تاریخ و آینده بالقوه محاسبات استفاده کرد. تأمل او صرفاً در مورد کنجکاوی فنی اجرای نرمافزار جدید بر روی سختافزار قدیمی نبود؛ بلکه تفکری بود در مورد تاریخ جایگزین احتمالی تعامل انسان و رایانه.
او این موضوع را با بیان اینکه عملیات موفقیتآمیز Llama بر روی یک رایانه شخصی Dell 26 ساله، به معنای از دست دادن فرصتی است که دههها را در بر میگیرد، بیان کرد. Andreessen اظهار داشت: «همه آن رایانههای شخصی قدیمی میتوانستند به معنای واقعی کلمه در تمام این مدت هوشمند باشند». «ما میتوانستیم اکنون 30 سال با رایانههایمان صحبت کنیم.»
این بیانیه ما را به تصور دنیایی دعوت میکند که در آن مسیر توسعه هوش مصنوعی به گونهای متفاوت با ظهور رایانههای شخصی همگرا شده بود. به جای اینکه رایانههای شخصی عمدتاً ابزاری برای محاسبه، ایجاد سند و در نهایت دسترسی به اینترنت باشند، شاید میتوانستند خیلی زودتر به شرکای محاورهای تبدیل شوند. تصویری که تداعی میشود، تصویری از کاربرانی است که از طریق زبان طبیعی با ماشینهای Windows 95، 98 یا حتی قدیمیتر خود تعامل دارند، سؤال میپرسند، کمک میگیرند و به شیوهای وارد گفتگو میشوند که تنها با ظهور دستیاران دیجیتال مدرن و LLMهای پیچیده به واقعیت اصلی تبدیل شد.
البته، این یک جهش بزرگ خلاف واقع است. هوش مصنوعی مولد، همانطور که امروزه آن را میشناسیم، با اتکای خود به مجموعه دادههای عظیم، معماریهای شبکه عصبی پیچیده (مانند معماری Transformer که زیربنای مدلهای Llama و GPT است) و قدرت محاسباتی عظیم برای آموزش، پدیدهای نسبتاً جدید است. تحقیقات هوش مصنوعی در دهههای 1980 و 1990، در حالی که بلندپروازانه بود، بر پارادایمهای متفاوتی مانند سیستمهای خبره و استدلال نمادین متمرکز بود. سختافزار آن دوران، در حالی که قادر به اجرای Llama کوچکشدهای بود که توسط Exo Labs نشان داده شد، порядکها کمتر از سیستمهای امروزی قدرتمند بود و مجموعه دادههای دیجیتال وسیعی که برای آموزش مدلهای مولد توانمند مورد نیاز بود، به سادگی به شکل قابل دسترس وجود نداشت.
Andreessen این زمینه را تصدیق کرد و به خوشبینی رونق هوش مصنوعی در دهه 1980 اشاره کرد: «بسیاری از افراد باهوش در دهه 80 فکر میکردند همه اینها قرار است آن زمان اتفاق بیفتد.» آن دوران شاهد سرمایهگذاری و تحقیقات قابل توجهی در زمینه هوش مصنوعی بود، اما در نهایت به یک «زمستان هوش مصنوعی» منجر شد – دورهای از کاهش بودجه و علاقه زمانی که فناوری نتوانست به بلندپروازانهترین وعدههای خود عمل کند. محدودیتها در قدرت محاسباتی، در دسترس بودن دادهها و رویکردهای الگوریتمی عمیق بود.
بنابراین، اظهار نظر Andreessen شاید بهتر است نه به عنوان یک ادعای تحتاللفظی مبنی بر اینکه هوش مصنوعی پیچیده و شبیه انسان بر روی سختافزار دهه 1990 به شیوهای که اکنون تجربه میکنیم امکانپذیر بود، بلکه به عنوان یک آزمایش فکری درک شود. این امر پتانسیلی را برجسته میکند که ممکن بود اگر اولویتهای تحقیقاتی، پیشرفتهای الگوریتمی و توسعه سختافزار مسیر متفاوتی را دنبال میکردند، باز میشد. این ایده را تأکید میکند که بلوکهای سازنده برای نوعی تعامل هوشمند ممکن بود از نظر فنی قابل دستیابی بوده باشند، حتی اگر نتیجه بسیار سادهتر از هوش مصنوعی امروزی میبود.
تضاد دورانها: از رویاهای Dial-Up تا واقعیت آغشته به هوش مصنوعی
آزمایش Windows 98 به عنوان نقطه تضاد آشکاری با چشمانداز فعلی ادغام هوش مصنوعی عمل میکند. امروزه، هوش مصنوعی به سرعت از یک سرویس متمرکز بر ابر به سمت تعبیه عمیق در سیستمعامل و حتی خود سختافزار در حال حرکت است.
فشار Microsoft با Copilot و Copilot+ PCs نمونهای از این روند است. Windows 11 دارای نقاط ورود متعددی برای Copilot است که کمک هوش مصنوعی را برای کارهایی از خلاصهسازی اسناد و پیشنویس ایمیلها گرفته تا تولید تصاویر و تنظیم تنظیمات سیستم ارائه میدهد. مشخصات جدید Copilot+ PC مستلزم گنجاندن یک واحد پردازش عصبی (NPU) است – سیلیکون تخصصی که برای تسریع محاسبات هوش مصنوعی به طور کارآمد طراحی شده است. این نشاندهنده یک تغییر اساسی است که در آن پردازش هوش مصنوعی به یک عملکرد اصلی رایانه شخصی تبدیل میشود و به جای اتکای صرف به سرورهای راه دور، به صورت محلی انجام میشود.
این رویکرد مدرن، منابع فراوان را فرض میکند و از آنها بهره میبرد. Copilot+ PCs به حداقل 16 گیگابایت RAM و حافظه حالت جامد سریع نیاز دارند، مشخصاتی که بسیار فراتر از 128 مگابایت ناچیز دستگاه Windows 98 است. مدلهای هوش مصنوعی به کار گرفته شده، در حالی که برای اجرای سمت کلاینت بهینهسازی شدهاند، بسیار پیچیدهتر و توانمندتر از نسخه مینیاتوری Llama مورد استفاده در آزمایش هستند. آنها از دههها اصلاح الگوریتمی، مجموعه دادههای آموزشی عظیم و سختافزاری که به طور خاص برای نیازهایشان طراحی شده است، بهره میبرند.
این تضاد چندین نکته را روشن میکند:
- بهینهسازی نرمافزار در مقابل حجیم شدن (Bloat): آزمایش Exo Labs گواهی بر بهینهسازی شدید است که الگوریتمهای مدرن را مجبور به کار در یک محیط بسیار محدود میکند. این به طور ضمنی از تمایل نرمافزارهای مدرن به فرض منابع سختافزاری روزافزون انتقاد میکند که گاهی منجر به ناکارآمدی یا «حجیم شدن» میشود.
- تکامل سختافزار: تفاوت محض در قدرت محاسباتی و حافظه بین یک رایانه شخصی معمولی 1998 و یک Copilot+ PC 2024 سرسامآور است که نشاندهنده چندین نسل از قانون Moore و نوآوری معماری است.
- دسترسی به دادهها: آموزش LLMهای مدرن به مجموعه دادههایی در مقیاس اینترنت متکی است که در دوران Windows 98 غیرقابل تصور بود. جهان دیجیتال در آن زمان به سادگی بسیار کوچک و گسسته بود.
- پیشرفتهای الگوریتمی: توسعه معماریهایی مانند مدل Transformer در سال 2017 یک لحظه محوری بود که مقیاسپذیری و عملکرد مشاهده شده در هوش مصنوعی مولد امروزی را امکانپذیر ساخت. رویکردهای قبلی هوش مصنوعی دارای محدودیتهای اساسی بودند.
در حالی که Andreessen رویای رایانههای سخنگو در 30 سال پیش را در سر میپروراند، واقعیت این است که تلاقی قدرت سختافزاری، در دسترس بودن دادهها و نوآوری الگوریتمی مورد نیاز برای تجربه هوش مصنوعی امروزی، بسیار اخیراً رخ داده است.
همه اینها به چه معناست؟ تأملاتی فراتر از نوستالژی
آیا استقرار موفقیتآمیز مدل Llama بر روی Windows 98 صرفاً یک هک هوشمندانه، یک شیرینکاری نوستالژیک برای علاقهمندان به فناوری است؟ یا اهمیت عمیقتری دارد؟ مسلماً چندین هدف را دنبال میکند:
- نشان دادن مقیاسپذیری شدید: ثابت میکند که اصول بنیادی پشت مدلهای زبان بزرگ را میتوان برای کار تحت محدودیتهای منابع فوقالعاده شدید تطبیق داد. این پیامدهای بالقوهای برای استقرار هوش مصنوعی در سیستمهای تعبیهشده کممصرف، دستگاههای IoT یا سختافزارهای قدیمیتری دارد که هنوز در نقاط مختلف جهان مورد استفاده قرار میگیرند.
- برجسته کردن قدرت محدودیتها: کار در محدودیتهای شدید اغلب باعث نوآوری و کارایی میشود. تیم Exo Labs مجبور بود راهحلهای خلاقانهای بیابد و بیرحمانه بهینهسازی کند، مهارتهایی که حتی در محیطهای غنی از منابع نیز ارزشمند هستند.
- به چالش کشیدن مفروضات: این امر باعث تأمل در این مورد میشود که آیا تمام قدرت محاسباتی و حافظه مورد استفاده توسط برنامههای مدرن برای ارزشی که ارائه میدهند، کاملاً ضروری است یا خیر. آیا برخی نرمافزارها میتوانند کمحجمتر و کارآمدتر باشند؟
- نشان دادن احتمالاتی بودن مسیرهای فناوری: تاریخ به ندرت یک خط مستقیم را دنبال میکند. این واقعیت که نوعی هوش مصنوعی ابتدایی ممکن بود بر روی سختافزار قدیمیتر امکانپذیر بوده باشد، نشان میدهد که چگونه انتخابهای مختلف، جهتگیریهای تحقیقاتی یا حتی اکتشافات تصادفی میتوانستند ما را به مسیر فناوری متفاوتی هدایت کنند.
این آزمایش تاریخ را بازنویسی نمیکند، و همچنین به این معنا نیست که تجربیات پیچیده هوش مصنوعی سال 2024 به نوعی در سال 1998 قابل دستیابی بودهاند. شکاف در فناوریهای توانمندساز – قدرت پردازش، حافظه، دادهها، الگوریتمها – همچنان عظیم است. با این حال، این یک نقطه داده جذاب، گواهی بر نبوغ مهندسی، و کاتالیزوری برای تأمل در مسیر پر پیچ و خم پیشرفت فناوری فراهم میکند. این به ما یادآوری میکند که محدودیتهای دیروز گاهی اوقات میتوانند با دانش امروز برطرف شوند و نتایج شگفتانگیزی به بار آورند و ما را وادار به بازنگری در مورد آنچه ممکن است، هم اکنون و هم در آینده، بکنند. شبح در ماشین قدیمی نه تنها از آنچه بود، بلکه شاید از پتانسیل بکر نهفته در سادگی و کارایی نیز زمزمه میکند.