तकनीकी युगों के एक आकर्षक टकराव में, एक ऐसी कहानी सामने आई है जो व्यापक घरेलू कंप्यूटिंग के शुरुआती दिनों को आर्टिफिशियल इंटेलिजेंस के अत्याधुनिक दौर से जोड़ती है। Marc Andreessen, टेक जगत की एक प्रमुख हस्ती और प्रभावशाली वेंचर कैपिटल फर्म Andreessen Horowitz के सह-संस्थापक, ने हाल ही में एक उल्लेखनीय उपलब्धि पर प्रकाश डाला: Meta के Llama आर्टिफिशियल इंटेलिजेंस मॉडल का एक कॉम्पैक्ट संस्करण एक ऐसे कंप्यूटर पर सफलतापूर्वक संचालित किया गया जो पुराने Windows 98 ऑपरेटिंग सिस्टम पर चल रहा था, और जिसमें मात्र 128 मेगाबाइट RAM थी। यह खुलासा तकनीकी क्षमता की एक शक्तिशाली याद दिलाता है और कंप्यूटिंग के ऐतिहासिक प्रक्षेपवक्र के बारे में दिलचस्प सवाल उठाता है।
एक परिष्कृत AI, भले ही वह छोटा संस्करण हो, को एक चौथाई सदी से भी पुराने हार्डवेयर पर चलाने का विचार लगभग विरोधाभासी लगता है। आधुनिक जनरेटिव AI, वह तकनीक जो ChatGPT और Microsoft के अपने Copilot जैसे उपकरणों को शक्ति प्रदान करती है, आमतौर पर शक्तिशाली प्रोसेसर, पर्याप्त मेमोरी आवंटन और अक्सर क्लाउड-आधारित बुनियादी ढांचे से जुड़ी होती है। Microsoft ने स्वयं AI क्षमताओं, विशेष रूप से अपने Copilot सहायक, को अपने नवीनतम ऑपरेटिंग सिस्टम, Windows 11, और Copilot+ PCs नामक हार्डवेयर की एक नई पीढ़ी में गहराई से एकीकृत करने में भारी निवेश किया है, जिन्हें विशेष रूप से AI वर्कलोड को ध्यान में रखकर डिज़ाइन किया गया है। यह विरोधाभास Windows 98 प्रयोग को और भी अधिक चौंकाने वाला बनाता है। यह कुछ AI कार्यों के लिए वास्तव में आवश्यक संसाधनों के बारे में हमारी धारणाओं को चुनौती देता है और एक वैकल्पिक तकनीकी समयरेखा की झलक प्रस्तुत करता है।
अतीत को पुनर्जीवित करना: प्रयोग के पीछे का कठिन प्रयास
जबकि Andreessen ने इस उपलब्धि पर व्यापक ध्यान आकर्षित किया, तकनीकी भारी-भरकम काम पहले के काम से उपजा प्रतीत होता है, विशेष रूप से Exo Labs की टीम द्वारा। ऐसी पुरानी मशीनरी पर एक आधुनिक AI को लाने की उनकी यात्रा सीधी नहीं थी; यह डिजिटल पुरातत्व और रचनात्मक समस्या-समाधान का एक अभ्यास था, जो तब और अब के कंप्यूटिंग के बीच विशाल अंतरों को उजागर करता है।
पहली बाधा बुनियादी लॉजिस्टिक्स और हार्डवेयर संगतता से संबंधित थी। Windows 98 युग से कार्यात्मक हार्डवेयर खोजना ही काफी चुनौतीपूर्ण है। लेकिन मशीन को बूट करने के अलावा, टीम को पेरिफेरल्स की आवश्यकता थी। आधुनिक USB इंटरफेस, जो आज सर्वव्यापी हैं, Windows 98 के प्रमुख समय में मानक किराया नहीं थे। इसके लिए पुराने PS/2 कनेक्टर का उपयोग करके संगत इनपुट डिवाइस - कीबोर्ड और माउस - सोर्सिंग की आवश्यकता थी, जिनसे कई युवा तकनीकी उत्साही शायद कभी परिचित नहीं हुए होंगे।
एक बार भौतिक सेटअप को संबोधित करने के बाद, अगली महत्वपूर्ण बाधा डेटा ट्रांसफर थी। आप आवश्यक AI मॉडल फ़ाइलों और विकास उपकरणों को ऐसी मशीन पर कैसे प्राप्त करते हैं जिसमें हाई-स्पीड USB पोर्ट या निर्बाध नेटवर्क एकीकरण जैसे आधुनिक कनेक्टिविटी विकल्पों की कमी है? इसमें संभवतः पुराने, धीमे तरीकों का सहारा लेना शामिल था, शायद फाइलों को CD पर बर्न करना या उस समय के सीमित नेटवर्क प्रोटोकॉल का उपयोग करना, एक साधारण फ़ाइल कॉपी को संभावित रूप से समय लेने वाली प्रक्रिया में बदलना।
हालांकि, मुख्य तकनीकी चुनौती एक प्राचीन वातावरण के लिए आधुनिक कोड संकलित करना थी। Meta के Llama आर्किटेक्चर पर आधारित AI मॉडल, समकालीन प्रोग्रामिंग प्रथाओं और भाषाओं का उपयोग करके बनाया गया है। इस कोड को Windows 98 द्वारा समझने योग्य और निष्पादन योग्य बनाने के लिए एक कंपाइलर की आवश्यकता थी - एक प्रोग्राम जो स्रोत कोड को मशीन भाषा में अनुवादित करता है - जो पुराने ऑपरेटिंग सिस्टम पर चल सकता था और AI कोड की जटिलताओं को संभाल सकता था।
Exo Labs ने शुरू में Borland C++ 5.02 की ओर रुख किया, जो स्वयं सॉफ्टवेयर इतिहास का एक टुकड़ा है - एक 26 वर्षीय एकीकृत विकास वातावरण (IDE) और कंपाइलर संयोजन जो Windows 98 पर मूल रूप से चलता था। यह विकल्प आधुनिक कोड बेस और पुराने ऑपरेटिंग सिस्टम के बीच एक संभावित पुल का प्रतिनिधित्व करता था। हालाँकि, रास्ता जटिलताओं से भरा था। आधुनिक C++ मानकों और पुस्तकालयों की पेचीदगियों को Borland कंपाइलर और Windows 98 वातावरण की क्षमताओं और सीमाओं के साथ मिलाना मुश्किल साबित हुआ। संगतता समस्याएँ उत्पन्न हुईं, जिससे टीम को धुरी बनाने के लिए मजबूर होना पड़ा।
उनके समाधान में C प्रोग्रामिंग भाषा के पुराने संस्करण में वापस जाना शामिल था। जबकि C एक मूलभूत भाषा है और C++ की पूर्ववर्ती है, एक पुराने C मानक का उपयोग करने का मतलब C++ के कुछ उच्च-स्तरीय अमूर्तता और सुविधाओं का त्याग करना था। इसके लिए अधिक श्रमसाध्य कोडिंग प्रक्रिया की आवश्यकता थी, मैन्युअल रूप से फ़ंक्शंस और वेरिएबल्स जैसे तत्वों का प्रबंधन करना जिन्हें C++ अधिक सुरुचिपूर्ण ढंग से संभालता है। प्रगति अनिवार्य रूप से धीमी थी, उन त्रुटियों से बचने के लिए विस्तार पर सावधानीपूर्वक ध्यान देने की मांग की गई जिन्हें पुराने विकास उपकरण आसानी से पकड़ नहीं सकते थे।
मेमोरी की कमी: सीमित संसाधनों के लिए Llama को वश में करना
शायद सबसे कठिन बाधा अत्यंत सीमित रैंडम एक्सेस मेमोरी (RAM) थी। लक्ष्य मशीन में केवल 128 मेगाबाइट RAM थी। इसे परिप्रेक्ष्य में रखने के लिए, आधुनिक स्मार्टफोन नियमित रूप से 8, 12, या 16 गीगाबाइट RAM के साथ आते हैं (एक गीगाबाइट लगभग 1000 मेगाबाइट होता है)। गेमिंग या पेशेवर काम के लिए डिज़ाइन किए गए हाई-एंड पीसी में अक्सर 32GB, 64GB, या अधिक होते हैं। AI मॉडल जैसे जटिल एप्लिकेशन को इतने छोटे मेमोरी फ़ुटप्रिंट के भीतर चलाना एक झाड़ू कोठरी में जटिल सर्जरी करने के समान है।
Meta के Llama मॉडल परिवार, जबकि आम तौर पर OpenAI के GPT-4 जैसे दिग्गजों की तुलना में अधिक संसाधन-कुशल माने जाते हैं, फिर भी इसमें अरबों मापदंडों वाले संस्करण शामिल हैं। उदाहरण के लिए, Llama 2 आर्किटेक्चर में 70 बिलियन मापदंडों तक के मॉडल शामिल हैं। इन बड़े मॉडलों को महत्वपूर्ण कम्प्यूटेशनल शक्ति और, महत्वपूर्ण रूप से, मॉडल वेट लोड करने और सूचना प्रसंस्करण और प्रतिक्रियाएँ उत्पन्न करने में शामिल गणनाओं का प्रबंधन करने के लिए भारी मात्रा में मेमोरी की आवश्यकता होती है। एक मानक Llama 2 मॉडल 128MB बाधा के भीतर चलने में पूरी तरह से असमर्थ होगा।
इसलिए, प्रयोग की सफलता Llama आर्किटेक्चर के अत्यधिक अनुकूलित, काफी छोटे पुनरावृत्ति का उपयोग करने या विकसित करने पर निर्भर करती है। इस विशेष संस्करण को गंभीर हार्डवेयर सीमाओं के तहत कार्य करने के लिए विशेष रूप से तैयार किया जाना था। इसमें संभवतः मॉडल क्वांटाइजेशन (मॉडल की गणना में उपयोग की जाने वाली संख्याओं की सटीकता को कम करना) और प्रूनिंग (तंत्रिका नेटवर्क के कम महत्वपूर्ण भागों को हटाना) जैसी तकनीकें शामिल थीं ताकि इसकी मेमोरी और कम्प्यूटेशनल फ़ुटप्रिंट को काफी कम किया जा सके। Exo Labs ने अपने अनुकूलित संस्करण को GitHub पर उपलब्ध कराया, जिसमें आवश्यक विशिष्ट संशोधनों का प्रदर्शन किया गया।
यह छोटा AI, पुराने हार्डवेयर पर चल रहा है, अपने बड़े, क्लाउड-रन चचेरे भाइयों के व्यापक ज्ञान या सूक्ष्म संवादी क्षमताओं के अधिकारी नहीं होगा। इसकी क्षमताएं प्रतिबंधित होंगी। फिर भी, यह तथ्य कि यह चल सकता है और बुनियादी जनरेटिव कार्य कर सकता है, एक महत्वपूर्ण तकनीकी उपलब्धि का प्रतिनिधित्व करता है। यह दर्शाता है कि बड़े भाषा मॉडल की मूल अवधारणाओं को, सिद्धांत रूप में, नाटकीय रूप से छोटा किया जा सकता है, भले ही ऐसे चरम पर व्यावहारिक उपयोगिता सीमित हो।
Andreessen की उत्तेजना: संवादी कंप्यूटिंग के लिए एक खोई हुई समयरेखा?
Marc Andreessen ने कंप्यूटिंग के इतिहास और संभावित भविष्य के बारे में एक व्यापक, अधिक उत्तेजक बिंदु बनाने के लिए इस तकनीकी प्रदर्शन का लाभ उठाया। उनका प्रतिबिंब केवल पुराने हार्डवेयर पर नया सॉफ्टवेयर चलाने की तकनीकी जिज्ञासा के बारे में नहीं था; यह मानव-कंप्यूटर संपर्क के एक संभावित वैकल्पिक इतिहास पर एक विचार था।
उन्होंने यह सुझाव देकर इसे स्पष्ट किया कि 26 साल पुराने Dell PC पर Llama का सफल संचालन दशकों तक फैले एक चूके हुए अवसर का तात्पर्य है। Andreessen ने कहा, “वे सभी पुराने पीसी सचमुच इस पूरे समय स्मार्ट हो सकते थे।” “हम अब 30 वर्षों से अपने कंप्यूटरों से बात कर रहे होते।”
यह कथन हमें एक ऐसी दुनिया की कल्पना करने के लिए आमंत्रित करता है जहाँ AI विकास का प्रक्षेपवक्र व्यक्तिगत कंप्यूटिंग के उदय के साथ अलग तरह से परिवर्तित हुआ। पीसी मुख्य रूप से गणना, दस्तावेज़ निर्माण और अंततः इंटरनेट तक पहुँचने के उपकरण होने के बजाय, शायद वे बहुत पहले संवादी भागीदार के रूप में विकसित हो सकते थे। जो छवि सामने आती है, वह उपयोगकर्ताओं की है जो अपने Windows 95, 98, या इससे भी पहले की मशीनों के साथ प्राकृतिक भाषा के माध्यम से बातचीत करते हैं, सवाल पूछते हैं, सहायता प्राप्त करते हैं, और इस तरह से संवाद में संलग्न होते हैं जो केवल आधुनिक डिजिटल सहायकों और परिष्कृत LLMs के आगमन के साथ मुख्यधारा की वास्तविकता बन गई।
बेशक, यह एक महत्वपूर्ण प्रति तथ्यात्मक छलांग है। जनरेटिव AI, जैसा कि हम आज इसे समझते हैं, बड़े पैमाने पर डेटासेट, परिष्कृत तंत्रिका नेटवर्क आर्किटेक्चर (जैसे Llama और GPT मॉडल के अंतर्निहित Transformer आर्किटेक्चर), और प्रशिक्षण के लिए अपार कम्प्यूटेशनल शक्ति पर अपनी निर्भरता के साथ, एक अपेक्षाकृत हालिया घटना है। 1980 और 1990 के दशक का AI अनुसंधान, महत्वाकांक्षी होते हुए भी, विशेषज्ञ प्रणालियों और प्रतीकात्मक तर्क जैसे विभिन्न प्रतिमानों पर केंद्रित था। उस युग का हार्डवेयर, Exo Labs द्वारा प्रदर्शित स्ट्रिप-डाउन Llama को चलाने में सक्षम होते हुए भी, आज के सिस्टम की तुलना में परिमाण के क्रम में कम शक्तिशाली था, और सक्षम जनरेटिव मॉडल को प्रशिक्षित करने के लिए आवश्यक विशाल डिजिटल डेटासेट बस एक सुलभ रूप में मौजूद नहीं थे।
Andreessen ने इस संदर्भ को स्वीकार किया, 1980 के दशक के AI बूम के आशावाद को ध्यान में रखते हुए: “80 के दशक में बहुत से स्मार्ट लोगों ने सोचा था कि यह सब तब होने वाला था।” उस युग में आर्टिफिशियल इंटेलिजेंस में महत्वपूर्ण निवेश और शोध देखा गया, लेकिन अंततः यह “AI विंटर” की ओर ले गया - कम फंडिंग और रुचि की अवधि जब तकनीक अपने सबसे महत्वाकांक्षी वादों को पूरा करने में विफल रही। कम्प्यूटेशनल शक्ति, डेटा उपलब्धता और एल्गोरिथम दृष्टिकोण में सीमाएँ गहरी थीं।
इसलिए, Andreessen की टिप्पणी को शायद शाब्दिक दावे के रूप में नहीं समझा जाना चाहिए कि 1990 के दशक के हार्डवेयर पर परिष्कृत, मानव-जैसा AI उस तरह से संभव था जैसा हम अब अनुभव करते हैं, बल्कि एक विचार प्रयोग के रूप में। यह उस क्षमता पर प्रकाश डालता है जिसे अनलॉक किया जा सकता था यदि अनुसंधान प्राथमिकताएँ, एल्गोरिथम सफलताएँ और हार्डवेयर विकास एक अलग पाठ्यक्रम का पालन करते। यह इस विचार को रेखांकित करता है कि किसी प्रकार की बुद्धिमान बातचीत के लिए बिल्डिंग ब्लॉक तकनीकी रूप से प्राप्त करने योग्य हो सकते थे, भले ही परिणाम आज के AI की तुलना में बहुत सरल होता।
युगों का कंट्रास्ट: डायल-अप सपनों से AI-संक्रमित वास्तविकता तक
Windows 98 प्रयोग AI एकीकरण के वर्तमान परिदृश्य के बिल्कुल विपरीत बिंदु के रूप में कार्य करता है। आज, AI तेजी से क्लाउड-केंद्रित सेवा से ऑपरेटिंग सिस्टम और यहां तक कि हार्डवेयर के भीतर गहराई से एम्बेडेड होने की ओर बढ़ रहा है।
Copilot और Copilot+ PCs के साथ Microsoft का जोर इस प्रवृत्ति का उदाहरण है। Windows 11 में Copilot के लिए कई प्रवेश बिंदु हैं, जो दस्तावेज़ों को सारांशित करने और ईमेल का मसौदा तैयार करने से लेकर चित्र बनाने और सिस्टम सेटिंग्स को समायोजित करने तक के कार्यों के लिए AI सहायता प्रदान करते हैं। नया Copilot+ PC विनिर्देशन एक न्यूरल प्रोसेसिंग यूनिट (NPU) को शामिल करना अनिवार्य करता है - विशेष सिलिकॉन जिसे AI संगणनाओं को कुशलतापूर्वक तेज करने के लिए डिज़ाइन किया गया है। यह एक मौलिक बदलाव का प्रतीक है जहां AI प्रसंस्करण व्यक्तिगत कंप्यूटर का एक मुख्य कार्य बन रहा है, जिसे केवल दूरस्थ सर्वर पर निर्भर रहने के बजाय स्थानीय रूप से नियंत्रित किया जाता है।
यह आधुनिक दृष्टिकोण प्रचुर संसाधनों को मानता है, और उनका लाभ उठाता है। Copilot+ PCs को न्यूनतम 16GB RAM और तेज़ सॉलिड-स्टेट स्टोरेज की आवश्यकता होती है, जो Windows 98 मशीन के मामूली 128MB से काफी अधिक है। नियोजित AI मॉडल, क्लाइंट-साइड निष्पादन के लिए अनुकूलित होते हुए भी, प्रयोग में उपयोग किए गए लघु Llama संस्करण की तुलना में कहीं अधिक जटिल और सक्षम हैं। वे दशकों के एल्गोरिथम शोधन, बड़े पैमाने पर प्रशिक्षण डेटासेट और विशेष रूप से उनकी जरूरतों के लिए तैयार किए गए हार्डवेयर से लाभान्वित होते हैं।
यह कंट्रास्ट कई बिंदुओं को उजागर करता है:
- सॉफ़्टवेयर ऑप्टिमाइज़ेशन बनाम ब्लोट: Exo Labs प्रयोग अत्यधिक ऑप्टिमाइज़ेशन का एक प्रमाण है, जो आधुनिक एल्गोरिदम को अत्यधिक बाधित वातावरण में मजबूर करता है। यह परोक्ष रूप से आधुनिक सॉफ़्टवेयर की लगातार बढ़ते हार्डवेयर संसाधनों को मानने की प्रवृत्ति की आलोचना करता है, जिससे कभी-कभी अक्षमता या “ब्लोट” होता है।
- हार्डवेयर का विकास: एक विशिष्ट 1998 पीसी और 2024 Copilot+ PC के बीच कम्प्यूटेशनल शक्ति और मेमोरी में भारी अंतर चौंका देने वाला है, जो Moore’s Law और वास्तुशिल्प नवाचार की कई पीढ़ियों का प्रतिनिधित्व करता है।
- डेटा की सुलभता: आधुनिक LLMs का प्रशिक्षण इंटरनेट-स्केल डेटासेट पर निर्भर करता है जो Windows 98 युग में अकल्पनीय थे। डिजिटल ब्रह्मांड तब बस बहुत छोटा और असंबद्ध था।
- एल्गोरिथम सफलताएँ: 2017 में Transformer मॉडल जैसे आर्किटेक्चर का विकास एक महत्वपूर्ण क्षण था, जिसने आज के जनरेटिव AI में देखे गए स्केलिंग और प्रदर्शन को सक्षम किया। पहले के AI दृष्टिकोणों की मौलिक सीमाएँ थीं।
जबकि Andreessen 30 साल पहले बात करने वाले कंप्यूटरों का सपना देखते हैं, वास्तविकता यह है कि आज के AI अनुभव के लिए आवश्यक हार्डवेयर शक्ति, डेटा उपलब्धता और एल्गोरिथम नवाचार का संगम बहुत हाल ही में हुआ है।
इसका क्या मतलब है? नॉस्टैल्जिया से परे विचार
क्या Windows 98 पर Llama मॉडल की सफल तैनाती केवल एक चतुर हैक है, तकनीकी उत्साही लोगों के लिए एक नॉस्टैल्जिक स्टंट? या इसका गहरा महत्व है? यह यकीनन कई उद्देश्यों को पूरा करता है:
- अत्यधिक स्केलेबिलिटी का प्रदर्शन: यह साबित करता है कि बड़े भाषा मॉडल के पीछे के मौलिक सिद्धांतों को अविश्वसनीय रूप से तंग संसाधन बाधाओं के तहत संचालित करने के लिए अनुकूलित किया जा सकता है। इसका कम-शक्ति वाले एम्बेडेड सिस्टम, IoT उपकरणों, या दुनिया के विभिन्न हिस्सों में उपयोग में रहने वाले पुराने हार्डवेयर पर AI को तैनात करने के लिए संभावित निहितार्थ हैं।
- बाधाओं की शक्ति को उजागर करना: गंभीर सीमाओं के भीतर काम करना अक्सर नवाचार और दक्षता को मजबूर करता है। Exo Labs टीम को रचनात्मक समाधान खोजने और बेरहमी से अनुकूलन करने की आवश्यकता थी, ऐसे कौशल जो संसाधन-समृद्ध वातावरण में भी मूल्यवान हैं।
- धारणाओं को चुनौती देना: यह इस बात पर विचार करने के लिए प्रेरित करता है कि क्या आधुनिक अनुप्रयोगों द्वारा उपयोग की जाने वाली सभी कम्प्यूटेशनल शक्ति और मेमोरी उनके द्वारा प्रदान किए जाने वाले मूल्य के लिए कड़ाई से आवश्यक हैं। क्या कुछ सॉफ्टवेयर अधिक दुबला और अधिक कुशल हो सकता है?
- तकनीकी पथों की आकस्मिकता का चित्रण: इतिहास शायद ही कभी एक सीधी रेखा का अनुसरण करता है। तथ्य यह है कि कुछ अल्पविकसित AI पुराने हार्डवेयर पर संभव हो सकता था, यह रेखांकित करता है कि कैसे विभिन्न विकल्प, अनुसंधान दिशाएँ, या यहाँ तक कि संयोग की खोजें हमें एक अलग तकनीकी पथ पर ले जा सकती थीं।
यह प्रयोग इतिहास को फिर से नहीं लिखता है, न ही इसका मतलब है कि 2024 के परिष्कृत AI अनुभव किसी तरह 1998 में प्राप्त करने योग्य थे। सक्षम करने वाली तकनीकों - प्रसंस्करण शक्ति, मेमोरी, डेटा, एल्गोरिदम - में अंतर बहुत बड़ा है। हालाँकि, यह एक आकर्षक डेटा बिंदु, इंजीनियरिंग सरलता का एक वसीयतनामा, और तकनीकी प्रगति की घुमावदार सड़क पर विचार करने के लिए एक उत्प्रेरक प्रदान करता है। यह हमें याद दिलाता है कि कल की सीमाओं को कभी-कभी आज के ज्ञान से दूर किया जा सकता है, आश्चर्यजनक परिणाम मिलते हैं और हमें यह पुनर्विचार करने के लिए प्रेरित करते हैं कि अब और भविष्य में क्या संभव हो सकता है। पुरानी मशीन में भूत न केवल जो था उसकी फुसफुसाता है, बल्कि शायद सादगी और दक्षता में रहने वाली अप्रयुक्त क्षमता की भी।