कृत्रिम बुद्धिमत्तेचे (Artificial Intelligence) जग सध्या तीव्र विरोधाभासांचे रंगमंच बनले आहे. एका बाजूला, प्रचंड मोठ्या टेक कंपन्यांमध्ये अफाट पैसा ओतला जात आहे, ज्यामुळे अभूतपूर्व संज्ञानात्मक शक्तीच्या (cognitive power) आकांक्षांना खतपाणी मिळत आहे आणि आगामी गुंतवणुकीच्या बुडबुड्याबद्दल (investment bubble) चर्चांना उधाण आले आहे. अब्जावधी डॉलर्सचे मूल्यांकन (multi-billion dollar valuations) सामान्य होत चालले आहे, आणि निधीच्या फेऱ्या (funding rounds) खगोलीय आकड्यांपर्यंत पोहोचण्याच्या चर्चा आहेत. तरीही, एका शांत, समांतर मंचावर, शैक्षणिक वर्तुळात आणि ओपन-सोर्स समुदायांमध्ये एक क्रांती घडत आहे. येथे, संशोधक उल्लेखनीय कल्पकता दाखवत आहेत, अब्जावधी डॉलर्सऐवजी कधीकधी अगदी किरकोळ खर्चात सक्षम जनरेटिव्ह AI मॉडेल्स तयार करत आहेत, ज्यामुळे कृत्रिम बुद्धिमत्तेच्या वर्चस्वाच्या शर्यतीत ‘मोठे तेच नेहमी चांगले असते’ या प्रचलित कल्पनेला मूलभूत आव्हान मिळत आहे.
ही भिन्नता अधिकाधिक स्पष्ट होत आहे. ChatGPT च्या मागे असलेली शक्ती OpenAI चा विचार करा, जी कथितरित्या पुढील गुंतवणुकीच्या शोधात आहे, ज्यामुळे तिचे मूल्यांकन तब्बल $300 अब्ज डॉलर्सपर्यंत पोहोचू शकते. असे आकडे, वेगाने वाढणाऱ्या महसुलाच्या अंदाजांसह, अमर्याद आशावाद आणि घातांकीय वाढीचे (exponential growth) चित्र रंगवतात. त्याच वेळी, तथापि, सावधगिरीचे हादरे या AI उत्साहाच्या पायांना हादरा देत आहेत. ‘Magnificent 7’ म्हणून ओळखले जाणारे तंत्रज्ञान स्टॉक्स, जे त्यांच्या AI क्षमतेमुळे बाजाराचे लाडके होते, त्यांनी लक्षणीय अंडरपरफॉर्मन्सचा (underperformance) अनुभव घेतला आहे, ज्यामुळे गुंतवणूकदारांची चिंता वाढत असल्याचे सूचित होते. Alibaba चे सह-संस्थापक Joe Tsai यांच्यासारख्या अनुभवी उद्योग तज्ञांच्या इशाऱ्यांमुळे ही अस्वस्थता वाढली आहे, ज्यांनी अलीकडेच विशेषतः US बाजारात संभाव्य AI बुडबुडा तयार होण्याच्या चिंताजनक चिन्हांकडे लक्ष वेधले. गुंतवणुकीची प्रचंड गरज, विशेषतः या जटिल मॉडेल्सना शक्ती देणाऱ्या मोठ्या डेटा सेंटर्ससाठी (data centers), तीव्र छाननीखाली येत आहे. सध्याची खर्चाची पातळी टिकाऊ आहे की ती नजीकच्या वास्तवापासून दूर असलेल्या अतार्किक उत्साहाचे (irrational exuberance) सूचक आहे?
AI बुडबुड्याचे सावट
AI बुडबुड्याबद्दलची चिंता केवळ अमूर्त आर्थिक चिंता नाही; ती AI विकासाची गती आणि दिशा याबद्दलच्या खोल प्रश्नांना प्रतिबिंबित करते. काही प्रमुख कंपन्यांनी अब्जावधींची गुंतवणूक करून अधिकाधिक मोठे लार्ज लँग्वेज मॉडेल्स (Large Language Models - LLMs) तयार करण्यावर लक्ष केंद्रित केले आहे, ज्यामुळे या कथेवर त्यांचे वर्चस्व राहिले आहे. यामुळे असे वातावरण तयार झाले आहे जिथे बाजारातील नेतृत्व सर्वात जास्त पैसा आणि सर्वात विस्तृत संगणकीय पायाभूत सुविधा (computing infrastructure) असण्यावर अवलंबून असल्याचे दिसते.
- मूल्यमापनाचा भोवळ (Valuation Vertigo): OpenAI चे संभाव्य $300 अब्ज डॉलर्सचे मूल्यांकन, जरी काही गुंतवणूकदारांकडून प्रचंड आत्मविश्वास दर्शवत असले तरी, ते भुवया उंचावण्यासही कारणीभूत ठरते. ही रक्कम सध्याच्या क्षमता आणि महसुलाच्या प्रवाहांद्वारे न्याय्य आहे की ती भविष्यातील, कदाचित अनिश्चित, प्रगतीवर जास्त अवलंबून आहे? डॉट-कॉम युगासारख्या (dot-com era) पूर्वीच्या टेक तेजी आणि मंदीच्या ऐतिहासिक समांतर गोष्टी अपरिहार्यपणे समोर येतात, ज्यामुळे सावधगिरी बाळगण्यास प्रवृत्त होते.
- पायाभूत सुविधा गुंतवणुकीची छाननी (Infrastructure Investment Scrutiny): AI-विशिष्ट डेटा सेंटर्स आणि हाय-एंड GPUs सारख्या विशेष हार्डवेअरमध्ये ओतले जाणारे अब्जावधी डॉलर्स प्रचंड भांडवली खर्चाचे (colossal capital expenditures) प्रतिनिधित्व करतात. Joe Tsai यांचा इशारा अशा मोठ्या आगाऊ गुंतवणुकीशी संबंधित धोका अधोरेखित करतो, विशेषतः जर कमाईचा मार्ग (path to monetization) अपेक्षेपेक्षा जास्त लांब किंवा अधिक गुंतागुंतीचा ठरला. या गुंतवणुकीची कार्यक्षमता आणि परतावा (return on investment) हे चर्चेचे महत्त्वाचे मुद्दे बनत आहेत.
- बाजाराचे संकेत (Market Signals): AI मध्ये मोठ्या प्रमाणावर गुंतवणूक केलेल्या टेक दिग्गजांची चढ-उतार असलेली कामगिरी बाजारातील काही प्रमाणात संशय दर्शवते. दीर्घकालीन क्षमता अजूनही एक मजबूत आकर्षण असले तरी, अल्पकालीन अस्थिरता (short-term volatility) दर्शवते की गुंतवणूकदार सक्रियपणे जोखमीचे पुनर्मूल्यांकन करत आहेत आणि सध्याच्या वाढीच्या मार्गांच्या टिकाऊपणावर प्रश्नचिन्ह निर्माण करत आहेत. AI चिप विशेषज्ञ CoreWeave च्या अपेक्षित ऑफरिंगसारख्या AI क्षेत्रातील आगामी IPOs चे भवितव्य बाजाराच्या भावनांचे मापक म्हणून बारकाईने पाहिले जात आहे. ते उत्साह पुन्हा जागृत करेल की अंतर्निहित भीतीची पुष्टी करेल?
- भू-राजकीय पैलू (Geopolitical Dimensions): AI शर्यतीला महत्त्वपूर्ण भू-राजकीय पैलू देखील आहेत, विशेषतः US आणि China यांच्यात. US मधील प्रचंड खर्च अंशतः स्पर्धात्मक धार (competitive edge) टिकवून ठेवण्याच्या इच्छेने प्रेरित आहे. यामुळे जटिल धोरणात्मक चर्चा सुरू झाल्या आहेत, ज्यात China ची प्रगती संभाव्यतः मंद करण्यासाठी प्रगत सेमीकंडक्टर तंत्रज्ञानावरील कठोर निर्यात नियंत्रणांच्या (export controls) मागण्यांचा समावेश आहे. याउलट, Chinese AI स्टार्टअप्समध्ये व्हेंचर कॅपिटलचा (venture capital) ओघ सुरूच आहे, जे एका जागतिक स्पर्धेकडे निर्देश करते जिथे तांत्रिक कौशल्य आणि आर्थिक धोरण घट्टपणे जोडलेले आहेत.
हे उच्च-जोखीम, उच्च-खर्च वातावरण प्रस्थापित व्यवस्थेला आव्हान देणाऱ्या विघटनकारी नवकल्पनांसाठी (disruptive innovations) मंच तयार करते. लक्षणीयरीत्या स्वस्त पर्यायांचा उदय, केवळ प्रचंड संगणकीय शक्ती आणि मोठा आकार हेच पुढे जाण्याचे एकमेव मार्ग आहेत का याचे पुनर्मूल्यांकन करण्यास भाग पाडते.
DeepSeek चा विघटनकारी दावा आणि त्याचे परिणाम
प्रचंड खर्च आणि वाढत्या चिंतेच्या या वातावरणात DeepSeek या China-आधारित संस्थेने प्रवेश केला, ज्याने एक धक्कादायक दावा केला: त्यांनी त्यांचे R1 जनरेटिव्ह AI लार्ज लँग्वेज मॉडेल केवळ $6 दशलक्षमध्ये विकसित केले होते. पाश्चात्य प्रतिस्पर्धकांच्या अंदाजित अब्जावधी डॉलर्सच्या गुंतवणुकीपेक्षा कित्येक पटीने कमी असलेला हा आकडा उद्योगात त्वरित चर्चेचा विषय बनला.
$6 दशलक्षच्या गणनेबद्दल साशंकता कायम असली तरी - कोणत्या खर्चांचा समावेश केला गेला आणि वगळला गेला यावर प्रश्नचिन्ह उपस्थित केले जात असले तरी - घोषणेचा परिणाम निर्विवाद होता. बाजारातील नेत्यांनी वापरलेल्या खर्च संरचना आणि विकास पद्धतींचे गंभीर परीक्षण करण्यास भाग पाडणारे हे एक शक्तिशाली उत्प्रेरक ठरले. जर खरोखरच एक सक्षम मॉडेल अब्जावधींऐवजी दशलक्षांमध्ये तयार केले जाऊ शकत असेल, तर सध्याच्या दृष्टिकोनांच्या कार्यक्षमतेबद्दल याचा काय अर्थ होतो?
- कथेला आव्हान (Challenging the Narrative): DeepSeek चा दावा, खरा असो वा नसो, त्याने अत्याधुनिक AI विकास केवळ अमर्याद संसाधने असलेल्या ट्रिलियन-डॉलर कंपन्यांचेच क्षेत्र आहे या प्रचलित कथेला छेद दिला. त्याने अधिक लोकशाहीकृत विकास लँडस्केपची शक्यता सादर केली.
- छाननीला चालना (Fueling Scrutiny): Microsoft-समर्थित OpenAI सारख्या कंपन्यांच्या मोठ्या खर्चावर आधीच पडत असलेल्या छाननीला यामुळे अधिक तीव्रता आली. गुंतवणूकदार, विश्लेषक आणि स्पर्धकांनी या भांडवल-केंद्रित प्रकल्पांसाठी संसाधनांचे वाटप आणि गुंतवणुकीवरील परतावा (return on investment) याबद्दल अधिक कठोर प्रश्न विचारण्यास सुरुवात केली.
- भू-राजकीय प्रतिध्वनी (Geopolitical Resonance): हा दावा US-China टेक स्पर्धेच्या संदर्भातही प्रतिध्वनित झाला. त्याने सूचित केले की AI सक्षमतेसाठी पर्यायी, संभाव्यतः अधिक संसाधन-कार्यक्षम मार्ग अस्तित्वात असू शकतात, ज्यामुळे तांत्रिक नेतृत्व आणि धोरणात्मक स्पर्धेबद्दलच्या चर्चांमध्ये आणखी एक गुंतागुंतीचा थर जोडला गेला. यामुळे चिप निर्बंधांसारख्या (chip embargos) धोरणांवर पुढील चर्चा सुरू झाली, त्याच वेळी व्हेंचर कॅपिटलिस्टना China मधील उदयोन्मुख कंपन्यांकडे बारकाईने पाहण्यास प्रोत्साहित केले ज्यांच्याकडे कदाचित अधिक कार्यक्षम विकास मॉडेल असू शकतात.
साशंकता असूनही, DeepSeek R1 चे प्रकाशन, विशेषतः त्याच्यासोबतचे खुले संशोधन घटक (open research components), यांनी इतरांना प्रेरणा देणारे महत्त्वपूर्ण अंतर्दृष्टी प्रदान केली. केवळ दावा केलेला खर्चच नाही, तर सूचित केलेल्या संभाव्य पद्धतींनीही इतरत्र कुतूहल आणि नवकल्पना जागृत केली, विशेषतः अत्यंत भिन्न आर्थिक मर्यादांखाली कार्यरत असलेल्या शैक्षणिक प्रयोगशाळांमध्ये.
अत्यंत कमी खर्चाच्या AI चा उदय: विद्यापीठातील क्रांती
कॉर्पोरेट दिग्गज अब्जावधी डॉलर्सच्या बजेट आणि बाजाराच्या दबावाखाली झगडत असताना, शैक्षणिक संस्थांच्या आवारात एका वेगळ्या प्रकारची AI क्रांती शांतपणे आकार घेत होती. तात्काळ व्यापारीकरणाच्या (commercialization) मागण्यांपासून मुक्त परंतु निधीमुळे गंभीरपणे मर्यादित असलेल्या संशोधकांनी, प्रगत AI च्या मागे असलेल्या तत्त्वांची प्रतिकृती, जरी त्याचा प्रचंड आकार नसला तरी, किमान संसाधने वापरून करण्याचे मार्ग शोधण्यास सुरुवात केली. याचे एक उत्तम उदाहरण युनिव्हर्सिटी ऑफ कॅलिफोर्निया, बर्कले (University of California, Berkeley) मधून समोर आले.
Berkeley मधील एका टीमने, अलीकडील प्रगतीमुळे उत्सुक असलेल्या परंतु उद्योग प्रयोगशाळांच्या प्रचंड भांडवलाचा अभाव असलेल्या, TinyZero नावाचा प्रकल्प सुरू केला. त्यांचे ध्येय धाडसी होते: ते अत्याधुनिक AI वर्तन, विशेषतः मॉडेलला उत्तर देण्यापूर्वी ‘विचार’ करण्याची परवानगी देणारे तर्क (reasoning), अत्यंत कमी केलेल्या मॉडेल आणि बजेटमध्ये प्रदर्शित करू शकतील का? याचे उत्तर होकारार्थी ठरले. त्यांनी OpenAI आणि DeepSeek या दोघांनी शोधलेल्या तर्क प्रतिमानाचे (reasoning paradigm) मुख्य पैलू आश्चर्यकारकपणे कमी खर्चात यशस्वीरित्या पुनरुत्पादित केले – सुमारे $30.
हे GPT-4 ला थेट प्रतिस्पर्धी तयार करून साधले गेले नाही, तर मॉडेल आणि कार्य (task) या दोन्हींची गुंतागुंत हुशारीने कमी करून साधले गेले.
- $30 चा प्रयोग (The $30 Experiment): हा आकडा प्रामुख्याने आवश्यक प्रशिक्षण वेळेसाठी सार्वजनिक क्लाउड प्लॅटफॉर्मवर (public cloud platform) दोन Nvidia H200 GPUs भाड्याने घेण्याच्या खर्चाचे प्रतिनिधित्व करतो. मोठ्या आगाऊ हार्डवेअर गुंतवणुकीशिवाय अत्याधुनिक संशोधनासाठी विद्यमान क्लाउड पायाभूत सुविधांचा फायदा घेण्याची क्षमता यातून दिसून आली.
- मॉडेल स्केलिंग (Model Scaling): TinyZero प्रकल्पाने ‘3B’ मॉडेल वापरले, जे अंदाजे तीन अब्ज पॅरामीटर्सना (parameters) संदर्भित करते. हे सर्वात मोठ्या LLMs पेक्षा लक्षणीयरीत्या लहान आहे, ज्यात शेकडो अब्ज किंवा अगदी ट्रिलियन पॅरामीटर्स असू शकतात. मुख्य अंतर्दृष्टी ही होती की जर कार्य योग्यरित्या डिझाइन केले असेल तर लहान मॉडेल्समध्येही जटिल वर्तन उदयास येऊ शकते.
- दिग्गज आणि आव्हानकर्त्यांकडून प्रेरणा (Inspiration from Giants and Challengers): TinyZero प्रकल्पाचे नेते Jiayi Pan यांनी नमूद केले की OpenAI कडून मिळालेली प्रगती, विशेषतः प्रतिसाद देण्यापूर्वी अधिक वेळ प्रक्रिया करणाऱ्या मॉडेल्सबद्दलच्या संकल्पना, एक प्रमुख प्रेरणा होती. तथापि, DeepSeek R1 च्या खुल्या संशोधनाने (open research) ही सुधारित तर्क क्षमता कशी प्राप्त करावी यासाठी संभाव्य ब्लू प्रिंट प्रदान केली, जरी DeepSeek चा कथित $6 दशलक्ष प्रशिक्षण खर्च अजूनही विद्यापीठ टीमच्या आवाक्याबाहेर होता.
Berkeley टीमने असा अंदाज लावला की मॉडेलचा आकार आणि त्याला सोडवाव्या लागणाऱ्या समस्येची गुंतागुंत दोन्ही कमी करून, ते अजूनही इच्छित ‘उदयोन्मुख तर्क वर्तन’ (emergent reasoning behavior) पाहू शकतील. हा कपातवादी दृष्टिकोन (reductionist approach) खर्चात नाट्यमय घट करताना मौल्यवान वैज्ञानिक निरीक्षणास सक्षम करण्यासाठी महत्त्वाचा होता.
‘आहा क्षण’ उलगडणे: बजेटमध्ये तर्क करणे
TinyZero प्रकल्प आणि तत्सम कमी-खर्चाच्या उपक्रमांचे मुख्य यश हे दर्शविण्यात आहे की ज्याला संशोधक अनेकदा ‘आहा क्षण’ (Aha moment) म्हणतात – तो क्षण जेव्हा AI मॉडेल केवळ पॅटर्न जुळवण्याऐवजी (pattern matching) किंवा संग्रहित माहिती पुनर्प्राप्त करण्याऐवजी (retrieving stored information) वास्तविक तर्क आणि समस्या सोडवण्याची क्षमता प्रदर्शित करण्यास सुरुवात करते. हे उदयोन्मुख वर्तन (emergent behavior) अगदी मोठ्या मॉडेल्सच्या विकासकांसाठीही एक महत्त्वाचे ध्येय आहे.
त्यांच्या गृहीतकाची चाचणी घेण्यासाठी आणि हे वर्तन लहान प्रमाणावर मिळवण्यासाठी, Berkeley टीमने एक विशिष्ट, मर्यादित कार्य वापरले: ‘Countdown’ नावाचा गणिताचा खेळ.
- Countdown खेळ (The Countdown Game): या खेळात AI ला दिलेल्या सुरुवातीच्या संख्यांचा संच आणि मूलभूत अंकगणित क्रिया (बेरीज, वजाबाकी, गुणाकार, भागाकार) वापरून लक्ष्य संख्येवर पोहोचणे आवश्यक आहे. महत्त्वाचे म्हणजे, Countdown मधील यश मोठ्या प्रमाणात पूर्व-अस्तित्वात असलेल्या गणितीय ज्ञानाची आठवण करण्याऐवजी धोरणात्मक तर्क आणि नियोजन (strategic reasoning and planning) – क्रियांचे भिन्न संयोजन आणि क्रम शोधणे – यावर अधिक अवलंबून असते.
- खेळातून शिकणे (Learning Through Play): सुरुवातीला, TinyZero मॉडेलने खेळाकडे यादृच्छिकपणे (randomly) पाहिले, जवळजवळ अंदाधुंदपणे संयोजन करण्याचा प्रयत्न केला. तथापि, मजबुतीकरण शिक्षणाच्या (reinforcement learning - प्रयत्न आणि त्रुटी आणि पुरस्कारांमधून शिकणे) प्रक्रियेद्वारे, ते नमुने आणि धोरणे ओळखू लागले. त्याने आपला दृष्टिकोन समायोजित करण्यास, अकार्यक्षम मार्ग टाकून देण्यास आणि योग्य उपायांवर अधिक वेगाने एकत्र येण्यास शिकले. त्याने मूलतः खेळाच्या परिभाषित नियमांमध्ये कसे तर्क करावे हे शिकले.
- स्व-पडताळणीचा उदय (Self-Verification Emerges): लक्षणीयरीत्या, प्रशिक्षित मॉडेलने स्व-पडताळणीची (self-verification) चिन्हे दर्शविण्यास सुरुवात केली – ते लक्ष्य संख्येकडे नेत आहेत की नाही हे निर्धारित करण्यासाठी स्वतःच्या मध्यवर्ती पायऱ्या आणि संभाव्य उपायांचे मूल्यांकन करणे. अंतर्गत मूल्यांकन करण्याची आणि मार्ग सुधारण्याची ही क्षमता अधिक प्रगत तर्काचे वैशिष्ट्य आहे.
Jiayi Pan यांनी स्पष्ट केल्याप्रमाणे, “आम्ही दाखवतो की 3B इतक्या लहान मॉडेलसह, ते साध्या समस्यांबद्दल तर्क करायला शिकू शकते आणि स्व-पडताळणी करायला आणि चांगल्या उपायांचा शोध घ्यायला शिकू शकते.” याने हे सिद्ध केले की तर्काच्या आणि ‘आहा क्षणा’च्या मागे असलेले मूलभूत यंत्रणा, जे पूर्वी प्रामुख्याने प्रचंड, महागड्या मॉडेल्सशी संबंधित होते, त्यांची प्रतिकृती अत्यंत संसाधन-मर्यादित वातावरणात केली जाऊ शकते आणि त्यांचा अभ्यास केला जाऊ शकतो. TinyZero च्या यशामुळे हे सिद्ध झाले की आघाडीच्या AI संकल्पना केवळ टेक दिग्गजांचेच क्षेत्र नव्हते तर मर्यादित बजेट असलेल्या संशोधक, अभियंते आणि अगदी हौशी लोकांसाठीही त्या उपलब्ध होऊ शकतात, ज्यामुळे AI अन्वेषणासाठी अधिक समावेशक परिसंस्था (ecosystem) तयार होते. टीमने त्यांचे निष्कर्ष खुलेपणाने सामायिक करण्याचा निर्णय, विशेषतः GitHub सारख्या प्लॅटफॉर्मद्वारे, इतरांना प्रयोग पुन्हा करण्याची आणि हा ‘आहा क्षण’ काही पिझ्झाच्या खर्चापेक्षा कमी खर्चात प्रत्यक्ष अनुभवण्याची परवानगी दिली.
Stanford स्पर्धेत सामील: कमी-खर्चाच्या शिक्षणाची पुष्टी
TinyZero ने निर्माण केलेले तरंग लवकरच शैक्षणिक AI समुदायात पसरले. Stanford University मधील संशोधक, जे आधीच समान संकल्पनांचा शोध घेत होते आणि त्यांनी Countdown खेळ यापूर्वी संशोधन कार्य म्हणून सादर केला होता, त्यांना Berkeley टीमचे कार्य अत्यंत संबंधित आणि पुष्टी करणारे वाटले.
Kanishk Gandhi यांच्या नेतृत्वाखाली, Stanford टीम एका संबंधित, मूलभूत प्रश्नाचा शोध घेत होती: काही LLMs प्रशिक्षणादरम्यान त्यांच्या तर्क क्षमतेत नाट्यमय, जवळजवळ अचानक सुधारणा का दर्शवतात, तर काही स्थिर (plateau) वाटतात? क्षमतेतील या उडींमागील मूलभूत यंत्रणा समजून घेणे अधिक प्रभावी आणि विश्वासार्ह AI तयार करण्यासाठी महत्त्वपूर्ण आहे.
- सामायिक जमिनीवर उभारणी (Building on Shared Ground): Gandhi यांनी TinyZero चे मूल्य मान्य केले, असे म्हटले की ते ‘उत्कृष्ट’ होते कारण त्याने Countdown कार्याचा यशस्वीरित्या वापर केला ज्याचा त्यांची स्वतःची टीम अभ्यास करत होती. या अभिसरणामुळे (convergence) भिन्न संशोधन गटांमध्ये कल्पनांची जलद प्रमाणीकरण (validation) आणि पुनरावृत्ती (iteration) शक्य झाली.
- अभियांत्रिकी अडथळ्यांवर मात (Overcoming Engineering Hurdles): Stanford संशोधकांनी हे देखील अधोरेखित केले की त्यांची प्रगती पूर्वी अभियांत्रिकी आव्हानांमुळे कशी बाधित झाली होती. ओपन-सोर्स साधनांची (open-source tools) उपलब्धता या अडथळ्यांवर मात करण्यासाठी महत्त्वपूर्ण ठरली.
- ओपन सोर्स साधनांची शक्ती (The Power of Open Source Tools): विशेषतः, Gandhi यांनी Volcano Engine Reinforcement Learning system (VERL), ByteDance (TikTok ची पालक कंपनी) द्वारे विकसित केलेला एक ओपन-सोर्स प्रकल्प, ‘आमचे प्रयोग चालवण्यासाठी आवश्यक’ असल्याचे श्रेय दिले. VERL च्या क्षमता आणि Stanford टीमच्या प्रायोगिक गरजा यांच्यातील जुळवणीमुळे त्यांच्या संशोधन चक्रांना (research cycles) लक्षणीय गती मिळाली.
ओपन-सोर्स घटकांवरील हे अवलंबित्व कमी-खर्चाच्या AI चळवळीचा एक महत्त्वपूर्ण पैलू अधोरेखित करते. प्रगती अनेकदा सहकार्याने केली जाते, समुदायामध्ये मुक्तपणे सामायिक केलेली साधने आणि अंतर्दृष्टी यांचा फायदा घेतला जातो. Gandhi यांनी पुढे मत मांडले की LLM तर्क आणि बुद्धिमत्तेच्या आकलनातील प्रमुख वैज्ञानिक प्रगती आता केवळ मोठ्या, चांगल्या-निधी असलेल्या औद्योगिक प्रयोगशाळांमधूनच उद्भवेल असे नाही. त्यांनी युक्तिवाद केला की “मोठ्या प्रयोगशाळांमध्येही सध्याच्या LLMs ची वैज्ञानिक समज गहाळ आहे,” ज्यामुळे “DIY AI, ओपन सोर्स आणि शिक्षण क्षेत्र” यांच्या योगदानासाठी महत्त्वपूर्ण जागा शिल्लक राहते. हे लहान, अधिक चपळ प्रकल्प विशिष्ट घटनांचा सखोल शोध घेऊ शकतात, ज्यामुळे संपूर्ण क्षेत्राला फायदा होईल अशा अंतर्दृष्टी निर्माण होतात.
दुर्लक्षित नायक: ओपन सोर्स पाया
TinyZero सारख्या प्रकल्पांची उल्लेखनीय कामगिरी, जी दहा डॉलर्समध्ये अत्याधुनिक AI वर्तन दर्शवते, ती एका महत्त्वपूर्ण, अनेकदा दुर्लक्षित घटकावर मोठ्या प्रमाणावर अवलंबून असते: ओपन-सोर्स आणि ओपन-वेट (open-weight) AI मॉडेल्स आणि साधनांची विशाल परिसंस्था. एखाद्या विशिष्ट प्रयोगाचा किरकोळ खर्च (marginal cost) कमी असला तरी, तो अशा पायांवर आधारित असतो ज्यामध्ये अनेकदा लाखो, किंबहुना अब्जावधी डॉलर्सची पूर्वीची गुंतवणूक असते.
AI सल्लागार कंपनी OneSix मधील वरिष्ठ लीड मशीन लर्निंग सायंटिस्ट Nina Singer यांनी महत्त्वपूर्ण संदर्भ दिला. त्यांनी निदर्शनास आणले की TinyZero चा $30 प्रशिक्षण खर्च, जरी Berkeley टीमने केलेल्या विशिष्ट कार्यासाठी अचूक असला तरी, त्याने वापरलेल्या मूलभूत मॉडेल्सच्या सुरुवातीच्या विकास खर्चाचा हिशोब देत नाही.
- दिग्गजांच्या खांद्यावर उभारणी (Building on Giants’ Shoulders): TinyZero च्या प्रशिक्षणात केवळ ByteDance च्या VERL प्रणालीचाच नव्हे तर Alibaba Cloud च्या Qwen, एका ओपन-सोर्स LLM चाही फायदा झाला. Alibaba ने Qwen विकसित करण्यासाठी भरीव संसाधने – संभाव्यतः लाखो – गुंतवली आणि नंतर त्याचे ‘वेट्स’ (weights - मॉडेलची क्षमता परिभाषित करणारे शिकलेले पॅरामीटर्स) जनतेसाठी प्रसिद्ध केले.
- ओपन वेट्सचे मूल्य (The Value of Open Weights): Singer यांनी जोर दिला की ही TinyZero वर टीका नाही तर ओपन-वेट मॉडेल्सचे प्रचंड मूल्य आणि महत्त्व अधोरेखित करते. मॉडेल पॅरामीटर्स प्रसिद्ध करून, जरी संपूर्ण डेटासेट आणि प्रशिक्षण आर्किटेक्चर मालकीचे (proprietary) राहिले तरी, Alibaba सारख्या कंपन्या संशोधक आणि लहान संस्थांना त्यांच्या कामावर आधारित प्रयोग करण्यास, नवकल्पना करण्यास सक्षम करतात, ज्यासाठी त्यांना सुरुवातीची महागडी प्रशिक्षण प्रक्रिया सुरवातीपासून पुन्हा करण्याची आवश्यकता नसते.
- फाइन-ट्यूनिंगचे लोकशाहीकरण (Democratizing Fine-Tuning): हा खुला दृष्टिकोन ‘फाइन-ट्यूनिंग’ (fine-tuning) च्या वाढत्या क्षेत्राला चालना देतो, जिथे लहान AI मॉडेल्स विशिष्ट कार्यांसाठी जुळवून घेतले जातात किंवा विशेष केले जातात. Singer यांनी नमूद केल्याप्रमाणे, हे फाइन-ट्यून केलेले मॉडेल्स त्यांच्या नियुक्त उद्देशासाठी अनेकदा “खूप मोठ्या मॉडेल्सना आकार आणि खर्चाच्या अंशात टक्कर देऊ शकतात”. याची अनेक उदाहरणे आहेत, जसे की Sky-T1, जे वापरकर्त्यांना सुमारे $450 मध्ये प्रगत मॉडेलची स्वतःची आवृत्ती प्रशिक्षित करण्याची क्षमता देते, किंवा Alibaba चे Qwen स्वतः, जे $6 इतक्या कमी खर्चात फाइन-ट्यूनिंग सक्षम करते.
ओपन फाऊंडेशन्सवरील हे अवलंबित्व एक गतिशील परिसंस्था तयार करते जिथे नवकल्पना अनेक स्तरांवर होऊ शकते. मोठ्या संस्था शक्तिशाली बेस मॉडेल्स तयार करण्यासाठी मोठ्या प्रमाणावर गुंतवणूक करतात, तर एक व्यापक समुदाय या मालमत्तांचा फायदा घेऊन नवीन अनुप्रयोग शोधतो, संशोधन करतो आणि अधिक आर्थिकदृष्ट्या विशेष उपाय विकसित करतो. हे सहजीवन (symbiotic relationship) क्षेत्रात जलद प्रगती आणि लोकशाहीकरण (democratization) घडवून आणत आहे.
‘मोठे तेच चांगले’ या प्रतिमानाला आव्हान
TinyZero सारख्या प्रकल्पांमधून समोर येणाऱ्या यशोगाथा आणि प्रभावी, कमी-खर्चाच्या फाइन-ट्यूनिंगचा व्यापक कल, AI मधील प्रगती केवळ प्रमाणावर अवलंबून असते – अधिक डेटा, अधिक पॅरामीटर्स, अधिक संगणकीय शक्ती – या उद्योगातील दीर्घकाळ चाललेल्या विश्वासाला महत्त्वपूर्ण आव्हान देत आहे.
Nina Singer यांनी अधोरेखित केल्याप्रमाणे, सर्वात गहन परिणामांपैकी एक म्हणजे डेटा गुणवत्ता (data quality) आणि कार्य-विशिष्ट प्रशिक्षण (task-specific training) हे अनेकदा केवळ मॉडेलच्या आकारापेक्षा अधिक महत्त्वाचे असू शकते. TinyZero प्रयोगाने दाखवून दिले की तुलनेने लहान मॉडेल (3 अब्ज पॅरामीटर्स) देखील स्व-सुधारणा (self-correction) आणि पुनरावृत्ती सुधारणा (iterative improvement) यांसारखे जटिल वर्तन शिकू शकते, जेव्हा ते एका चांगल्या-परिभाषित कार्यावर प्रभावीपणे प्रशिक्षित केले जाते.
- प्रमाणावरील घटता परतावा? (Diminishing Returns on Scale?): हा शोध थेट या गृहीतकावर प्रश्नचिन्ह निर्माण करतो की केवळ OpenAI च्या GPT मालिका किंवाAnthropic च्या Claude सारखे प्रचंड मॉडेल्स, ज्यांच्याकडे शेकडो अब्ज किंवा ट्रिलियन पॅरामीटर्स आहेत, तेच अशा अत्याधुनिक शिक्षणासाठी सक्षम आहेत. Singer यांनी सुचवले, “हा प्रकल्प सूचित करतो की आपण कदाचित आधीच ती मर्यादा ओलांडली आहे जिथे अतिरिक्त पॅरामीटर्स घटता परतावा देतात — किमान विशिष्ट कार्यांसाठी.” मोठे मॉडेल्स सामान्यता (generality) आणि ज्ञानाच्या व्यापकतेमध्ये (breadth of knowledge) फायदे टिकवून ठेवू शकतात, परंतु विशिष्ट अनुप्रयोगांसाठी, हायपर-स्केल केलेले (hyper-scaled) मॉडेल्स खर्च आणि संगणकीय आवश्यकता या दोन्ही बाबतीत अनावश्यक (overkill) ठरू शकतात.
- कार्यक्षमता आणि विशिष्टतेकडे वळण (Shift Towards Efficiency and Specificity): AI लँडस्केप कदाचित एका सूक्ष्म परंतु महत्त्वपूर्ण बदलातून जात आहे. केवळ अधिकाधिक मोठे पायाभूत मॉडेल्स तयार करण्यावर लक्ष केंद्रित करण्याऐवजी, कार्यक्षमता, सुलभता (accessibility) आणि लक्ष्यित बुद्धिमत्तेवर (targeted intelligence) वाढते लक्ष दिले जात आहे. विशिष्ट डोमेन किंवा कार्यांसाठी लहान, अत्यंत ऑप्टिमाइझ केलेले मॉडेल्स तयार करणे एक व्यवहार्य आणि आर्थिकदृष्ट्या आकर्षक पर्याय असल्याचे सिद्ध होत आहे.
- बंद मॉडेल्सवर दबाव (Pressure on Closed Models): ओपन-वेट मॉडेल्सची वाढती क्षमता आणि उपलब्धता आणि कमी-खर्चाच्या फाइन-ट्यूनिंग तंत्रांमुळे अशा कंपन्यांवर स्पर्धात्मक दबाव येतो जे प्रामुख्याने प्रतिबंधित APIs (Application Programming Interfaces) द्वारे त्यांची AI क्षमता देतात. Singer यांनी नमूद केल्याप्रमाणे, OpenAI आणि Anthropic सारख्या कंपन्यांना त्यांच्या बंद परिसंस्थांच्या मूल्याचे (value proposition) समर्थन करण्याची वाढती गरज भासेल, विशेषतः “जेव्हा खुले पर्याय विशिष्ट डोमेनमध्ये त्यांच्या क्षमतांशी जुळू लागतात किंवा त्याहून अधिक होतात.”
याचा अर्थ असा नाही की मोठ्या पायाभूत मॉडेल्सचा अंत होईल, जे संभाव्यतः महत्त्वपूर्ण प्रारंभ बिंदू म्हणून काम करत राहतील. तथापि, हे भविष्याकडे निर्देश करते जिथे AI परिसंस्था अधिक वैविध्यपूर्ण असेल, ज्यात प्रचंड सामान्य मॉडेल्स (generalist models) आणि विशिष्ट गरजांसाठी तयार केलेल्या लहान, विशेषीकृत आणि अत्यंत कार्यक्षम मॉडेल्सचा प्रसार असेल.
लोकशाहीकरणाची लाट: अधिक लोकांसाठी AI?
सुलभ क्लाउड कंप्युटिंग, शक्तिशाली ओपन-सोर्स साधने आणि लहान, फाइन-ट्यून केलेल्या मॉडेल्सची सिद्ध प्रभावीता यांचा संगम AI लँडस्केपमध्ये लोकशाहीकरणाची लाट आणत आहे. जे एकेकाळी अब्जावधी डॉलर्सच्या बजेट असलेल्या उच्चभ्रू संशोधन प्रयोगशाळा आणि टेक कॉर्पोरेशन्सचे खास क्षेत्र होते, ते आता व्यापक स्तरावरील कलाकारांसाठी अधिकाधिक सुलभ होत आहे.
व्यक्ती, शैक्षणिक संशोधक, स्टार्टअप्स आणि लहान कंपन्यांना असे आढळून येत आहे की ते प्रचंड पायाभूत सुविधा गुंतवणुकीची आवश्यकता नसताना प्रगत AI संकल्पना आणि विकासात अर्थपूर्णपणे सहभागी होऊ शकतात.
- प्रवेशातील अडथळे कमी करणे (Lowering Barriers to Entry): शेकडो किंवा अगदी दहा डॉलर्समध्ये सक्षम मॉडेल फाइन-ट्यून करण्याची क्षमता, ओपन-वेट फाऊंडेशन्सवर आधारित, प्रयोग आणि अनुप्रयोग विकासासाठी प्रवेशातील अडथळे नाटकीयरित्या कमी करते.
- नवकल्पनांना चालना (Fostering Innovation): ही सुलभता क्षेत्राला योगदान देण्यासाठी प्रतिभेच्या व्यापक गटाला प्रोत्साहित करते. संशोधक नवीन कल्पना अधिक सहजपणे तपासू शकतात, उद्योजक अधिक आर्थिकदृष्ट्या विशिष्ट AI उपाय विकसित करू शकतात आणि हौशी लोक अत्याधुनिक तंत्रज्ञानाचा प्रत्यक्ष शोध घेऊ शकतात.
- समुदाय-चालित सुधारणा (Community-Driven Improvement): ओपन-वेट मॉडेल्स सुधारण्यात आणि विशेषीकृत करण्यात समुदाय-चालित प्रयत्नांचे यश सहयोगी विकासाची शक्ती दर्शवते. ही सामूहिक बुद्धिमत्ता (collective intelligence) कधीकधी विशिष्ट कार्यांसाठी अधिक बंद कॉर्पोरेट वातावरणातील पुनरावृत्ती चक्रांना मागे टाकू शकते.
- एक संकरित भविष्य? (A Hybrid Future?): संभाव्य मार्ग एका संकरित परिसंस्थेकडे निर्देश करतो. प्रचंड पायाभूत मॉडेल्स AI क्षमतेच्या पूर्ण सीमांना पुढे ढकलत राहतील, प्लॅटफॉर्म म्हणून काम करतील. त्याच वेळी, एका वैविध्यपूर्ण समुदायाद्वारे फाइन-ट्यून केलेल्या विशेषीकृत मॉडेल्सची एक उत्साही परिसंस्था विशिष्ट अनुप्रयोग आणि उद्योगांमध्ये नवकल्पना चालवेल.
हे लोकशाहीकरण महत्त्वपूर्ण गुंतवणुकीची गरज दूर करत नाही, विशेषतः पुढील पिढीचे पायाभूत मॉडेल्स तयार करण्यासाठी. तथापि, ते नवकल्पना आणि स्पर्धेची गतिशीलता मूलभूतपणे बदलते. बजेटमध्ये उल्लेखनीय परिणाम साधण्याची क्षमता, जसे की TinyZero प्रकल्प आणि व्यापक फाइन-ट्यूनिंग चळवळीद्वारे उदाहरणादाखल, कृत्रिम बुद्धिमत्तेच्या विकासासाठी अधिक सुलभ, कार्यक्षम आणि संभाव्यतः अधिक वैविध्यपूर्ण भविष्याकडे वळण्याचे संकेत देते. तर्काचा ‘आहा क्षण’ आता केवळ सिलिकॉन किल्ल्यांपुरता मर्यादित नाही; तो रात्रीच्या जेवणाच्या खर्चापेक्षा कमी खर्चात उपलब्ध होणारा अनुभव बनत आहे, ज्यामुळे सर्जनशीलता जागृत होत आहे आणि तळागाळातून काय शक्य आहे याच्या सीमा विस्तारत आहेत.