कृत्रिम बुद्धिमत्तेच्या (Artificial Intelligence - AI) विकासाचा वेग अविरतपणे वाढत आहे, ज्यात प्रमुख तंत्रज्ञान कंपन्या अधिक शक्तिशाली, कार्यक्षम आणि बहुमुखी मॉडेल्स तयार करण्यामध्ये वर्चस्वासाठी स्पर्धा करत आहेत. या तीव्र स्पर्धेत, Meta ने आपल्या Llama 4 सिरीजची घोषणा करून एक नवीन आव्हान उभे केले आहे. ही मूलभूत AI मॉडेल्सची मालिका आहे, जी अत्याधुनिक तंत्रज्ञानाला लक्षणीयरीत्या पुढे नेण्यासाठी आणि डेव्हलपर टूल्सपासून ते ग्राहक-केंद्रित सहाय्यकांपर्यंत विविध ऍप्लिकेशन्सना शक्ती देण्यासाठी डिझाइन केली आहे. ही घोषणा Meta च्या AI महत्त्वाकांक्षेसाठी एक निर्णायक क्षण आहे, ज्यात केवळ एक नाही, तर दोन भिन्न मॉडेल्स त्वरित उपलब्ध करून दिली आहेत, तसेच तिसऱ्या, संभाव्यतः क्रांतिकारी आणि सध्या कठोर प्रशिक्षणातून जात असलेल्या मोठ्या मॉडेलची झलक दिली आहे. Llama 4 कुटुंब एक धोरणात्मक उत्क्रांती दर्शवते, ज्यात अत्याधुनिक आर्किटेक्चरल निवडींचा समावेश आहे आणि OpenAI, Google, आणि Anthropic सारख्या प्रतिस्पर्धकांनी स्थापित केलेले बेंचमार्क आव्हानित करण्याचे उद्दिष्ट आहे. हा उपक्रम Meta ची AI च्या भविष्याला आकार देण्याची वचनबद्धता अधोरेखित करतो, ज्यात मुक्त संशोधन समुदायामध्ये योगदान देणे (काही विशिष्ट अटींसह) आणि या प्रगत क्षमतांना थेट सोशल मीडिया आणि कम्युनिकेशन प्लॅटफॉर्मच्या विशाल इकोसिस्टममध्ये समाकलित करणे समाविष्ट आहे.
Llama 4 Scout: कॉम्पॅक्ट पॅकेजमध्ये शक्ती
या मालिकेत आघाडीवर आहे Llama 4 Scout, एक मॉडेल जे कार्यक्षमता आणि सुलभतेवर लक्ष केंद्रित करून तयार केले गेले आहे. Meta ने Scout च्या उल्लेखनीय क्षमतेवर प्रकाश टाकला आहे, जे प्रभावीपणे कार्य करते आणि इतके कॉम्पॅक्ट आहे की ते ‘एका Nvidia H100 GPU मध्ये बसू शकते’. हे एक महत्त्वपूर्ण तांत्रिक यश आणि धोरणात्मक फायदा आहे. अशा युगात जिथे संगणकीय संसाधने, विशेषतः H100 सारखे हाय-एंड GPUs, महाग आणि जास्त मागणीत आहेत, तिथे एकाच युनिटवर चालू शकणारे शक्तिशाली मॉडेल डेव्हलपर्स, संशोधक आणि लहान संस्थांसाठी प्रवेशाचा अडथळा लक्षणीयरीत्या कमी करते. हे संसाधनांची कमतरता असलेल्या वातावरणात अत्याधुनिक AI क्षमता तैनात करण्याची शक्यता उघडते, संभाव्यतः अधिक स्थानिक किंवा ऑन-डिव्हाइस AI प्रक्रिया सक्षम करते, लेटन्सी कमी करते आणि गोपनीयता वाढवते.
Meta आपल्या प्रतिस्पर्धकांशी Scout ची तुलना करण्यास कचरत नाही. कंपनीचा दावा आहे की Scout त्याच्या वजनाच्या वर्गातील अनेक उल्लेखनीय मॉडेल्सना मागे टाकते, ज्यात Google चे Gemma 3 आणि Gemini 2.0 Flash-Lite, तसेच व्यापकपणे प्रतिष्ठित ओपन-सोर्स Mistral 3.1 मॉडेल समाविष्ट आहेत. हे दावे ‘व्यापकपणे नोंदवलेल्या बेंचमार्कच्या विस्तृत श्रेणीतील’ कामगिरीवर आधारित आहेत. बेंचमार्क परिणाम नेहमी काळजीपूर्वक तपासणीस पात्र असले तरी - कारण ते वास्तविक-जगातील कामगिरीचे सर्व पैलू कदाचित कॅप्चर करत नाहीत - स्थापित मॉडेल्सना सातत्याने मागे टाकणे सूचित करते की Scout मध्ये शक्ती आणि कार्यक्षमतेचा आकर्षक समतोल आहे. हे बेंचमार्क सामान्यतः भाषा समजणे, तर्क करणे, गणितीय समस्या सोडवणे आणि कोड जनरेशन यासारख्या क्षमतांचे मूल्यांकन करतात. विविध प्रकारच्या कामांमध्ये उत्कृष्ट कामगिरी करणे सूचित करते की Scout केवळ एक विशिष्ट मॉडेल नाही तर विविध कार्ये प्रभावीपणे हाताळण्यास सक्षम असलेले एक बहुमुखी साधन आहे.
शिवाय, Llama 4 Scout मध्ये प्रभावी 10-दशलक्ष-टोकन कॉन्टेक्स्ट विंडो आहे. कॉन्टेक्स्ट विंडो मूलतः माहितीची ती मात्रा परिभाषित करते जी AI मॉडेल संभाषण किंवा कार्यादरम्यान कोणत्याही वेळी ‘लक्षात ठेवू’ शकते किंवा विचारात घेऊ शकते. मोठी कॉन्टेक्स्ट विंडो मॉडेलला दीर्घ संवादांमध्ये सुसंगतता राखण्यास, जटिल दस्तऐवज समजून घेण्यास, गुंतागुंतीच्या सूचनांचे पालन करण्यास आणि इनपुटमधील पूर्वीच्या तपशीलांची आठवण ठेवण्यास अनुमती देते. 10-दशलक्ष-टोकन क्षमता लक्षणीय आहे, जी लांबलचक अहवालांचा सारांश काढणे, विस्तृत कोडबेसचे विश्लेषण करणे किंवा कथानकाचा धागा न गमावता दीर्घ, मल्टी-टर्न संवादांमध्ये गुंतणे यासारख्या ऍप्लिकेशन्सना सक्षम करते. हे वैशिष्ट्य Scout ची जटिल, माहिती-केंद्रित कार्यांसाठी उपयुक्तता लक्षणीयरीत्या वाढवते, ज्यामुळे ते केवळ एका हलक्या पर्यायापेक्षा बरेच काही बनते. सिंगल-GPU सुसंगतता आणि मोठ्या कॉन्टेक्स्ट विंडोचे संयोजन Scout ला मोठ्या पायाभूत गुंतवणुकीची आवश्यकता नसताना शक्तिशाली AI शोधणाऱ्या डेव्हलपर्ससाठी विशेषतः आकर्षक ऑफर बनवते.
Maverick: मुख्य प्रवाहातील स्पर्धक
सुरुवातीच्या Llama 4 रिलीझमध्ये अधिक शक्तिशाली भाऊ म्हणून स्थान दिलेले मॉडेल म्हणजे Llama 4 Maverick. हे मॉडेल AI जगातील दिग्गजांशी थेट स्पर्धा करण्यासाठी डिझाइन केले आहे, OpenAI च्या GPT-4o आणि Google च्या Gemini 2.0 Flash सारख्या जबरदस्त मॉडेल्सशी तुलना केली जात आहे. Maverick मोठ्या प्रमाणावरील, उच्च-कार्यक्षमतेच्या AI क्षेत्रात नेतृत्वासाठी Meta ची बोली दर्शवते, ज्याचा उद्देश सर्वात मागणी असलेल्या जनरेटिव्ह AI कार्यांना हाताळू शकणाऱ्या क्षमता प्रदान करणे आहे. हे Meta AI असिस्टंटमधील सर्वात अत्याधुनिक वैशिष्ट्यांना शक्ती देणारे इंजिन आहे, जे आता वेबवर उपलब्ध आहे आणि कंपनीच्या मुख्य कम्युनिकेशन ऍप्समध्ये समाकलित केले आहे: WhatsApp, Messenger, आणि Instagram Direct.
Meta आपल्या मुख्य प्रतिस्पर्धकांच्या तुलनेत Maverick च्या पराक्रमावर जोर देते. कंपनीचा दावा आहे की Maverick GPT-4o आणि Gemini 2.0 Flash च्या क्षमतांशी बरोबरी करते आणि काही परिस्थितीत संभाव्यतः त्यांना मागे टाकते. या तुलना महत्त्वपूर्ण आहेत, कारण GPT-4o आणि Gemini कुटुंब व्यापकपणे उपलब्ध असलेल्या AI मॉडेल्सच्या अत्याधुनिकतेचे प्रतिनिधित्व करतात. येथे यश सूचित करते की Maverick सूक्ष्म भाषा निर्मिती, जटिल तर्क, अत्याधुनिक समस्या-निवारण आणि संभाव्यतः मल्टी-मोडल इंटरॅक्शन (जरी सुरुवातीच्या रिलीझमध्ये टेक्स्ट-आधारित बेंचमार्कवर जास्त लक्ष केंद्रित केले असले तरी) करण्यास सक्षम आहे.
विशेष म्हणजे, Meta इतर उच्च-कार्यक्षम मॉडेल्सच्या तुलनेत Maverick च्या कार्यक्षमतेवर देखील प्रकाश टाकते, विशेषतः कोडिंग आणि रिझनिंग टास्कच्या डोमेनमध्ये DeepSeek-V3 चा उल्लेख करते. Meta सांगते की Maverick ‘अर्ध्याहून कमी सक्रिय पॅरामीटर्स’ वापरून तुलनात्मक परिणाम साधते. हा दावा मॉडेल आर्किटेक्चर आणि प्रशिक्षण तंत्रांमधील महत्त्वपूर्ण प्रगतीकडे निर्देश करतो. पॅरामीटर्स, ढोबळमानाने सांगायचे तर, मॉडेल प्रशिक्षणादरम्यान शिकणारे व्हेरिएबल्स आहेत जे त्याचे ज्ञान संग्रहित करतात. ‘ऍक्टिव्ह पॅरामीटर्स’ अनेकदा Mixture of Experts (MoE) सारख्या आर्किटेक्चरशी संबंधित असतात, जिथे कोणत्याही दिलेल्या इनपुटसाठी एकूण पॅरामीटर्सपैकी फक्त एक उपसंच वापरला जातो. कमी सक्रिय पॅरामीटर्ससह समान कार्यप्रदर्शन प्राप्त करणे सूचित करते की Maverick चालवण्यासाठी संगणकीयदृष्ट्या स्वस्त (इन्फरन्स कॉस्ट) आणि संभाव्यतः मोठ्या सक्रिय पॅरामीटर संख्या असलेल्या मॉडेल्सपेक्षा वेगवान असू शकते, ज्यामुळे प्रति-वॅट किंवा प्रति-डॉलर चांगले कार्यप्रदर्शन गुणोत्तर मिळते. ही कार्यक्षमता Meta ज्या प्रमाणात कार्यरत आहे त्या प्रमाणात AI तैनात करण्यासाठी महत्त्वपूर्ण आहे, जिथे किरकोळ सुधारणा देखील मोठ्या खर्चात बचत आणि सुधारित वापरकर्ता अनुभवात रूपांतरित होऊ शकतात. Maverick, म्हणून, उच्च-स्तरीय कार्यप्रदर्शन आणि ऑपरेशनल कार्यक्षमतेमध्ये संतुलन साधण्याचे उद्दिष्ट ठेवते, ज्यामुळे ते मागणी असलेल्या डेव्हलपर ऍप्लिकेशन्स आणि अब्जावधी वापरकर्त्यांना सेवा देणाऱ्या उत्पादनांमध्ये एकत्रीकरणासाठी योग्य ठरते.
Behemoth: अपेक्षित राक्षस
Scout आणि Maverick आता उपलब्ध असले तरी, Meta ने आणखी मोठ्या आणि संभाव्यतः अधिक शक्तिशाली मॉडेलच्या विकासाची पूर्व-घोषणा केली आहे: Llama 4 Behemoth. नावाप्रमाणेच, Behemoth ला AI लँडस्केपमधील एक राक्षस म्हणून पाहिले जाते. Meta चे CEO Mark Zuckerberg यांनी या मॉडेलसाठीची महत्त्वाकांक्षा सार्वजनिकपणे व्यक्त केली आहे, त्याचे वर्णन प्रशिक्षणाच्या समाप्तीनंतर संभाव्यतः ‘जगातील सर्वोच्च कार्यक्षम बेस मॉडेल’ असे केले आहे. हे Meta चा AI क्षमतेच्या सीमांना पूर्णपणे पुढे ढकलण्याचा इरादा दर्शवते.
Behemoth चा आवाका थक्क करणारा आहे. Meta ने उघड केले आहे की त्यात 288 अब्ज सक्रिय पॅरामीटर्स आहेत, जे 2 ट्रिलियन एकूण पॅरामीटर्स च्या विशाल पूलमधून काढलेले आहेत. हे अभूतपूर्व प्रमाणात अत्याधुनिक Mixture of Experts (MoE) आर्किटेक्चरच्या वापराकडे जोरदारपणे सूचित करते. मॉडेलचा निव्वळ आकार सूचित करतो की ते प्रचंड डेटासेटवर प्रशिक्षित केले जात आहे आणि अविश्वसनीयपणे जटिल नमुने आणि ज्ञान कॅप्चर करण्यासाठी डिझाइन केलेले आहे. अशा मॉडेलचे प्रशिक्षण घेणे हे एक प्रचंड मोठे काम असले तरी, ज्यासाठी प्रचंड संगणकीय संसाधने आणि वेळ आवश्यक आहे, संभाव्य परतावा तितकाच महत्त्वपूर्ण आहे.
जरी Behemoth अद्याप रिलीज झाले नसले तरी, Meta त्याच्या कामगिरीसाठी आधीच उच्च अपेक्षा ठेवत आहे. कंपनीचा दावा आहे की, चालू असलेल्या प्रशिक्षण आणि मूल्यांकनावर आधारित, Behemoth OpenAI च्या अपेक्षित GPT-4.5 आणि Anthropic च्या Claude Sonnet 3.7 सारख्या आघाडीच्या प्रतिस्पर्धकांना मागे टाकण्याची क्षमता दर्शवत आहे, विशेषतः ‘अनेक STEM बेंचमार्कवर’. विज्ञान, तंत्रज्ञान, अभियांत्रिकी आणि गणित (Science, Technology, Engineering, and Mathematics - STEM) बेंचमार्कमधील यश अनेकदा प्रगत तर्क आणि समस्या सोडवण्याच्या क्षमतेचा मुख्य सूचक म्हणून पाहिले जाते. या क्षेत्रांमध्ये उत्कृष्ट कामगिरी करणारे मॉडेल्स वैज्ञानिक संशोधनात प्रगती करू शकतात, अभियांत्रिकी डिझाइन प्रक्रिया वेगवान करू शकतात आणि सध्या AI च्या आवाक्याबाहेर असलेल्या जटिल विश्लेषणात्मक आव्हानांना सामोरे जाऊ शकतात. STEM वरील लक्ष केंद्रित करणे सूचित करते की Meta Behemoth ला केवळ भाषा मॉडेल म्हणून नाही, तर नवोपक्रम आणि शोधासाठी एक शक्तिशाली इंजिन म्हणून पाहते. Behemoth चा विकास Meta ची दीर्घकालीन रणनीती अधोरेखित करतो: केवळ सर्वोच्च स्तरावर स्पर्धा करणे नव्हे तर मूलभूत AI मॉडेल्ससाठी कार्यक्षमतेची मर्यादा संभाव्यतः पुन्हा परिभाषित करणे. त्याचे अंतिम प्रकाशन संपूर्ण AI समुदायाद्वारे बारकाईने पाहिले जाईल.
पडद्यामागे: Mixture of Experts चा फायदा
Llama 4 सिरीजला आधार देणारा एक महत्त्वाचा तांत्रिक बदल म्हणजे Meta ने ‘mixture of experts’ (MoE) आर्किटेक्चर स्वीकारणे. हे मोनोलिथिक मॉडेल डिझाइनमधून एक महत्त्वपूर्ण उत्क्रांती दर्शवते, जिथे संपूर्ण मॉडेल प्रत्येक इनपुटवर प्रक्रिया करते. MoE इन्फरन्स (मॉडेल वापरून आउटपुट तयार करण्याची प्रक्रिया) दरम्यान संगणकीय खर्चात प्रमाणात वाढ न करता खूप मोठे आणि अधिक सक्षम मॉडेल्स तयार करण्याचा मार्ग प्रदान करते.
MoE मॉडेलमध्ये, प्रणाली अनेक लहान, विशेष ‘तज्ञ’ नेटवर्क्सनी बनलेली असते. जेव्हा एखादे इनपुट (जसे की टेक्स्ट प्रॉम्प्ट) प्राप्त होते, तेव्हा गेटिंग नेटवर्क किंवा राउटर मेकॅनिझम इनपुटचे विश्लेषण करते आणि ठरवते की त्या विशिष्ट कार्यासाठी किंवा माहितीच्या प्रकारासाठी तज्ञांचा कोणता उपसंच सर्वोत्तम अनुकूल आहे. केवळ हे निवडलेले तज्ञ इनपुटवर प्रक्रिया करण्यासाठी सक्रिय केले जातात, तर उर्वरित निष्क्रिय राहतात. ही सशर्त गणना (conditional computation) MoE चा मुख्य फायदा आहे.
याचे दोन फायदे आहेत:
- स्केलेबिलिटी (Scalability): हे डेव्हलपर्सना मॉडेलमधील एकूण पॅरामीटर्सची संख्या (जसे Behemoth मधील 2 ट्रिलियन) नाटकीयरित्या वाढवण्यास अनुमती देते कारण कोणत्याही एका इन्फरन्ससाठी त्यापैकी फक्त एक अंश (सक्रिय पॅरामीटर्स, उदा. Behemoth साठी 288 अब्ज) गुंतलेले असतात. हे मॉडेलला मोठ्या प्रमाणात ज्ञान संग्रहित करण्यास आणि त्याच्या तज्ञ नेटवर्क्समध्ये अधिक विशेष कार्ये शिकण्यास सक्षम करते.
- कार्यक्षमता (Efficiency): कारण कोणत्याही वेळी मॉडेलचा फक्त एक भाग सक्रिय असतो, इन्फरन्ससाठी आवश्यक असलेला संगणकीय खर्च आणि ऊर्जा वापर समान एकूण पॅरामीटर आकाराच्या डेन्स मॉडेलच्या तुलनेत लक्षणीयरीत्या कमी असू शकतो. यामुळे खूप मोठी मॉडेल्स चालवणे अधिक व्यावहारिक आणि किफायतशीर बनते, विशेषतः मोठ्या प्रमाणात.
Meta ने Llama 4 साठी MoE मध्ये स्विच केल्याचा स्पष्ट उल्लेख दर्शवितो की हे आर्किटेक्चर Scout, Maverick आणि विशेषतः प्रचंड Behemoth साठी निर्धारित कार्यप्रदर्शन आणि कार्यक्षमतेची उद्दिष्ट्ये साध्य करण्यासाठी केंद्रस्थानी आहे. MoE आर्किटेक्चर स्वतःच्या गुंतागुंत निर्माण करत असले तरी, विशेषतः गेटिंग नेटवर्कला प्रभावीपणे प्रशिक्षित करणे आणि तज्ञांमधील संवाद व्यवस्थापित करणे, Meta सारख्या प्रमुख कंपन्यांनी त्यांचा अवलंब करणे AI विकासाच्या सीमांना पुढे ढकलण्यात त्यांचे वाढते महत्त्व दर्शवते. ही आर्किटेक्चरल निवड Maverick च्या DeepSeek-V3 विरुद्ध दावा केलेल्या कार्यक्षमतेमागे आणि Behemoth साठी परिकल्पित केलेल्या निव्वळ प्रमाणामागे एक महत्त्वाचा घटक असण्याची शक्यता आहे.
वितरण धोरण: मुक्त प्रवेश आणि एकात्मिक अनुभव
Meta आपल्या Llama 4 मॉडेल्सच्या प्रसारासाठी आणि वापरासाठी दुहेरी-आयामी धोरण अवलंबत आहे, जे व्यापक डेव्हलपर इकोसिस्टमला चालना देण्याची आणि स्वतःच्या प्रचंड वापरकर्ता बेसचा फायदा घेण्याची इच्छा दर्शवते.
प्रथम, Llama 4 Scout आणि Llama 4 Maverick डाउनलोडसाठी उपलब्ध केले जात आहेत. डेव्हलपर्स आणि संशोधक थेट Meta कडून किंवा Hugging Face सारख्या लोकप्रिय प्लॅटफॉर्मवरून मॉडेल्स मिळवू शकतात, जे मशीन लर्निंग समुदायासाठी एक केंद्रीय केंद्र आहे. हा दृष्टिकोन प्रयोगांना प्रोत्साहन देतो, बाह्य पक्षांना Llama 4 वर ऍप्लिकेशन्स तयार करण्यास अनुमती देतो आणि मॉडेल्सच्या क्षमतांची स्वतंत्र छाननी आणि प्रमाणीकरण सुलभ करतो. मॉडेल्स डाउनलोडसाठी ऑफर करून, Meta व्यापक AI लँडस्केपमध्ये योगदान देते, ज्यामुळे त्याच्या स्वतःच्या उत्पादन संघांपलीकडे नवोपक्रमाला चालना मिळते. हे, किमान अंशतः, मुक्त संशोधन आणि विकासाच्या तत्त्वांशी जुळते ज्याने ऐतिहासिकदृष्ट्या या क्षेत्रात प्रगतीला गती दिली आहे.
दुसरे म्हणजे, आणि त्याच वेळी, Meta Llama 4 च्या क्षमतांना आपल्या स्वतःच्या उत्पादनांमध्ये खोलवर समाकलित करत आहे. या नवीन मॉडेल्सद्वारे समर्थित Meta AI असिस्टंट, कंपनीच्या वेब उपस्थितीवर आणि कदाचित अधिक महत्त्वाचे म्हणजे, तिच्या व्यापकपणे वापरल्या जाणाऱ्या कम्युनिकेशन ऍप्समध्ये: WhatsApp, Messenger, आणि Instagram Direct मध्ये आणले जात आहे. हे त्वरित प्रगत AI साधने जगभरातील संभाव्य अब्जावधी वापरकर्त्यांच्या हातात देते. हे एकत्रीकरण अनेक धोरणात्मक उद्देश पूर्ण करते: ते Meta च्या प्लॅटफॉर्मच्या वापरकर्त्यांना त्वरित मूल्य प्रदान करते, मोठ्या प्रमाणात वास्तविक-जगातील परस्परसंवादाचा डेटा तयार करते (जो पुढील मॉडेल सुधारणेसाठी अमूल्य असू शकतो, गोपनीयतेच्या विचारांच्या अधीन राहून), आणि Meta च्या ऍप्सना AI बुद्धिमत्तेने परिपूर्ण अत्याधुनिक प्लॅटफॉर्म म्हणून स्थान देते. हे एक शक्तिशाली फीडबॅक लूप तयार करते आणि Meta ला त्याच्या स्वतःच्या AI प्रगतीचा थेट फायदा त्याच्या मुख्य सेवा वाढवून मिळतो याची खात्री करते.
हे दुहेरी धोरण काही प्रतिस्पर्धकांनी घेतलेल्या दृष्टिकोनांपेक्षा वेगळे आहे. OpenAI प्रामुख्याने APIs द्वारे प्रवेश प्रदान करते (जसे की GPT-4 साठी) आणि Google Gemini ला आपल्या सेवांमध्ये खोलवर समाकलित करते तसेच API प्रवेश देखील देते, तर Meta चा मॉडेल्स स्वतः डाउनलोड करण्यायोग्य बनवण्यावर भर (परवाना अटींसह) डेव्हलपर समुदाय आणि अंतिम-वापरकर्ता बाजार या दोन्हींमध्ये मन जिंकण्याचे उद्दिष्ट असलेला एक वेगळा दृष्टिकोन दर्शवतो.
ओपन सोर्स प्रश्न: परवाना गोंधळ
Meta सातत्याने आपल्या Llama मॉडेल रिलीझचा, ज्यात Llama 4 समाविष्ट आहे, ‘ओपन-सोर्स’ म्हणून उल्लेख करते. तथापि, हे पदनाम तंत्रज्ञान समुदायामध्ये वादाचा एक आवर्ती मुद्दा बनला आहे, मुख्यत्वे Llama परवान्याच्या विशिष्ट अटींमुळे. जरी मॉडेल्स इतरांना वापरण्यासाठी आणि सुधारित करण्यासाठी उपलब्ध करून दिली असली तरी, परवाना काही निर्बंध लादतो जे Open Source Initiative (OSI) सारख्या संस्थांनी पुरस्कृत केलेल्या ओपन सोर्सच्या मानक व्याख्यांपासून विचलित होतात.
सर्वात महत्त्वपूर्ण निर्बंध मोठ्या प्रमाणावरील व्यावसायिक वापराशी संबंधित आहे. Llama 4 परवाना नमूद करतो की 700 दशलक्षाहून अधिक मासिक सक्रिय वापरकर्ते (MAU) असलेल्या व्यावसायिक संस्थांनी Llama 4 मॉडेल्स तैनात करण्यापूर्वी किंवा वापरण्यापूर्वी Meta कडून स्पष्ट परवानगी घेणे आवश्यक आहे. ही मर्यादा प्रभावीपणे सर्वात मोठ्या तंत्रज्ञान कंपन्यांना – Meta चे संभाव्य थेट स्पर्धक – Meta च्या संमतीशिवाय त्यांच्या स्वतःच्या सेवा वाढवण्यासाठी Llama 4 चा मुक्तपणे वापर करण्यापासून प्रतिबंधित करते.
या निर्बंधामुळे Open Source Initiative, ओपन-सोर्स तत्त्वांचा व्यापकपणे मान्यताप्राप्त कारभारी, ने पूर्वी (Llama 2 बाबत, ज्यात समान अटी होत्या) असे म्हटले होते की अशा अटी परवान्याला ‘ओपन सोर्स’ श्रेणीतून बाहेर काढतात. OSI व्याख्येनुसार, खऱ्या ओपन-सोर्स परवान्यांनी प्रयत्नांच्या क्षेत्रांविरुद्ध किंवा विशिष्ट व्यक्ती किंवा गटांविरुद्ध भेदभाव करू नये आणि ते सामान्यतः वापरकर्त्याच्या आकारावर किंवा बाजारातील स्थितीवर आधारित विशेष परवानगीची आवश्यकता न ठेवता व्यापक व्यावसायिक वापरास परवानगी देतात.
Meta चा दृष्टिकोन पूर्णपणे ओपन सोर्स ऐवजी ‘सोर्स-अव्हेलेबल’ किंवा ‘कम्युनिटी’ परवान्याचा एक प्रकार म्हणून पाहिला जाऊ शकतो. या परवाना धोरणामागील तर्क बहुआयामी असण्याची शक्यता आहे. हे Meta ला शक्तिशाली मॉडेल्समध्ये प्रवेश प्रदान करून व्यापक डेव्हलपर आणि संशोधन समुदायांमध्ये सद्भावना मिळवण्यास आणि नवोपक्रमाला चालना देण्यास अनुमती देते. त्याच वेळी, ते Meta च्या सर्वात मोठ्या प्रतिस्पर्धकांना त्याच्या महत्त्वपूर्ण AI गुंतवणुकीचा थेट त्याच्या विरोधात फायदा घेण्यापासून प्रतिबंधित करून Meta च्या धोरणात्मक हितांचे संरक्षण करते. हा व्यावहारिक दृष्टिकोन Meta च्या व्यावसायिक उद्दिष्टांची पूर्तता करू शकत असला तरी, ‘ओपन-सोर्स’ या शब्दाचा वापर विवादास्पद राहतो, कारण तो गोंधळ निर्माण करू शकतो आणि सॉफ्टवेअर डेव्हलपमेंट जगात स्वातंत्र्य आणि अनिर्बंध प्रवेशाचे विशिष्ट अर्थ असलेल्या शब्दाचा अर्थ संभाव्यतः कमी करू शकतो. हा चालू असलेला वाद कृत्रिम बुद्धिमत्तेच्या वेगाने विकसित होत असलेल्या क्षेत्रात मुक्त सहकार्य, कॉर्पोरेट धोरण आणि बौद्धिक संपदा यांच्यातील जटिल छेदनबिंदूवर प्रकाश टाकतो.
Meta आपल्या आगामी LlamaCon परिषदेत, जी 29 एप्रिल रोजी नियोजित आहे, आपल्या AI रोडमॅपबद्दल अधिक तपशील सामायिक करण्याची आणि समुदायाशी संवाद साधण्याची योजना आखत आहे. हा कार्यक्रम Llama 4 च्या तांत्रिक आधारांवर, संभाव्य भविष्यातील आवृत्त्यांवर आणि कंपनीच्या इकोसिस्टममध्ये आणि त्यापलीकडे AI च्या भूमिकेबद्दलच्या व्यापक दृष्टिकोनावर अधिक अंतर्दृष्टी प्रदान करेल. Llama 4 Scout आणि Maverick चे प्रकाशन, Behemoth च्या आश्वासनासह, Meta चा AI क्रांतीमध्ये एक अग्रगण्य शक्ती बनण्याचा दृढनिश्चय स्पष्टपणे दर्शवते, तांत्रिक नवोपक्रम आणि धोरणात्मक प्रसार या दोन्हींद्वारे त्याचा मार्ग आकारत आहे.