मेटा ने हाल ही में अपने लामा (Llama) आर्टिफिशियल इंटेलिजेंस (AI) मॉडल के नवीनतम संस्करण का अनावरण किया है, जो AI नवाचार के लिए कंपनी की चल रही प्रतिबद्धता में एक महत्वपूर्ण कदम का संकेत देता है। नई पेशकशों में लामा 4 स्काउट (Llama 4 Scout) और लामा 4 मेवरिक (Llama 4 Maverick) शामिल हैं, जिन्हें मेटा ने “मल्टीमॉडल मॉडल (multimodal models)” करार दिया है, जो पाठ से परे विभिन्न प्रकार के मीडिया को संसाधित करने और उनके साथ बातचीत करने की उनकी क्षमता को उजागर करता है।
इसके अलावा, मेटा ने लामा 4 बेहेमोथ (Llama 4 Behemoth) को भी टीज़ किया, जिसे विश्व स्तर पर सबसे बुद्धिमान LLM में से एक के रूप में स्थान दिया गया है और इसका उद्देश्य नए जारी किए गए मॉडल्स के लिए एक शिक्षक के रूप में काम करना है।
यह घोषणा पिछले दो वर्षों में AI में मेटा के पर्याप्त निवेश को रेखांकित करती है। CEO मार्क जुकरबर्ग (Mark Zuckerberg) ने सार्वजनिक रूप से 2025 में कंपनी की AI क्षमताओं को और बढ़ाने के लिए $65 बिलियन तक आवंटित करने के अपने इरादे को व्यक्त किया है। मेटा की महत्वाकांक्षाएं अपने सोशल मीडिया डोमेन से परे फैली हुई हैं, और यह अपनी AI सहायक, मेटा AI, के लिए प्रीमियम सब्सक्रिप्शन की खोज कर रही है ताकि आरक्षण बुकिंग और वीडियो बनाने जैसे कार्यों को संभाला जा सके।
OpenAI का ओपन-सोर्स प्रयास
समानांतर विकास में, OpenAI कथित तौर पर अपने LLM के एक ओपन-सोर्स संस्करण को जारी करने पर विचार कर रहा है, जो इसकी हाल की प्रथाओं से एक विचलन है। यह कदम उपयोगकर्ताओं को बिना लाइसेंस शुल्क के मॉडल का उपयोग, संशोधन और वितरण करने की स्वतंत्रता प्रदान करेगा। OpenAI मॉडल की उपयोगिता को अनुकूलित करने के लिए डेवलपर्स, शोधकर्ताओं और व्यापक जनता से सामुदायिक इनपुट चाहता है।
ओपन-सोर्स मॉडल के कुछ महीनों के भीतर लॉन्च होने की उम्मीद है। आखिरी बार OpenAI ने ओपन-सोर्स सिद्धांतों को 2019 में GPT-2 LLM के साथ अपनाया था। इसका सबसे हालिया LLM जीपीटी-4.5 (GPT-4.5) है। Microsoft से एक अरब डॉलर का निवेश हासिल करने के बाद OpenAI मालिकाना मॉडल की ओर स्थानांतरित हो गया, जिससे AI मॉडल विकास को आगे बढ़ाने के लिए एक करीबी गठबंधन बना। तब से Microsoft ने OpenAI में 13 बिलियन डॉलर से अधिक का निवेश किया है, जिसमें OpenAI के मॉडल Microsoft के एज़्योर क्लाउड सेवाओं (Azure cloud services) के ग्राहकों के लिए विशेष हैं।
मेटा का लामा, मिस्ट्रल का LLM (Mistral’s LLM), और डीपसीक (DeepSeek) कुछ ओपन-सोर्स मॉडल हैं जो हाल ही में लोकप्रियता प्राप्त कर रहे हैं। जुकरबर्ग ने थ्रेड्स (Threads) पर उल्लेख किया कि लामा को 1 बिलियन बार डाउनलोड किया गया है। लामा को 2023 में लॉन्च किया गया था।
मेटा के “बेहेमोथ” AI मॉडल में देरी
हालांकि, मेटा कथित तौर पर “बेहेमोथ” की रिलीज में देरी कर रहा है, जिसे मूल रूप से गर्मियों में लॉन्च किया जाना था, अब संभावित रूप से इसे गिरने तक के लिए पेश किया जाएगा। सूत्रों का सुझाव है कि मॉडल की प्रगति जून में रिलीज़ को सही ठहराने के लिए पर्याप्त “महत्वपूर्ण” नहीं रही है, और यह मेटा के डेवलपर सम्मेलन के बाद से देरी का प्रतिनिधित्व करता है।
देरी मेटा के बड़े भाषा मॉडल के लामा प्रमुख परिवार की रिलीज़ पर एक छाया डालती है। द वॉल स्ट्रीट जर्नल (The Wall Street Journal) का कहना है कि उनकी रिलीज़ की गति के लिए उनकी प्रशंसा की गई है। लामा छोटे कंपनियों, गैर-लाभकारी संगठनों और शैक्षणिक संस्थानों के भीतर डेवलपर्स को सशक्त बनाने में सहायक रहा है। यह OpenAI, गूगल और अमेज़ॅन (Amazon) जैसी कंपनियों द्वारा पेश किए गए बंद, मालिकाना मॉडल का एक विकल्प है।
बेहेमोथ की देरी का बड़े कंपनियों पर प्रभाव कम होता है, क्योंकि वे अक्सर क्लाउड-आधारित मालिकाना मॉडल पर निर्भर करते हैं। भले ही छोटी कंपनियां ओपन-सोर्स लामा मॉडल को अनुकूलित कर सकती हैं, लेकिन उन्हें अतिरिक्त परिनियोजन सेवाओं की आवश्यकता होती है जो मेटा प्रदान नहीं करता है। लामा का मेटा का उपयोग अपने सोशल मीडिया टूल को बढ़ाने के लिए तैयार है, जो जुकरबर्ग को अपनी AI प्रक्षेपवक्र पर नियंत्रण बनाए रखने की अनुमति देता है।
देरी के पीछे एक महत्वपूर्ण कारक यह है कि क्या मॉडल सार्वजनिक लॉन्च को सही ठहराने के लिए पर्याप्त सुधार दिखाता है।
नवाचार के लिए अनिवार्यता
टेक उद्योग की तेजी से चलने वाली दुनिया में, नए रिलीज़ को अपनी शुरुआत को सही ठहराने के लिए मूर्त प्रगति दिखानी चाहिए। लामाकॉन (LlamaCon) में, मेटा ने दो छोटे लामा 4 मॉडल प्रदर्शित किए, जिनमें से प्रत्येक में प्रभावशाली क्षमताएं हैं:
- मेवरिक में 400 बिलियन कुल पैरामीटर (parameters) हैं, जिसमें 1 मिलियन टोकन संदर्भ विंडो (token context window) (750,000 शब्द) हैं।
- स्काउट में 109 बिलियन पैरामीटर और 10 मिलियन टोकन संदर्भ विंडो (7.5 मिलियन शब्द) हैं।
बेहेमोथ को शुरू में एक साथ रिलीज़ के लिए स्लेट किया गया था, जिसमें 2 ट्रिलियन पैरामीटर शामिल थे।
द वॉल स्ट्रीट जर्नल के अनुसार, मेटा अपनी लामा 4 टीम के साथ धैर्य खो रहा है क्योंकि इसके AI निवेश जारी हैं। 2024 में, कंपनी ने पूंजीगत व्यय में $72 बिलियन तक आवंटित किए हैं, जिसका अधिकांश भाग AI विकास की ओर निर्देशित है।
बढ़ती चिंताएँ
जुकरबर्ग और अन्य वरिष्ठ अधिकारियों ने अभी तक बेहेमोथ के लिए एक निश्चित रिलीज़ तिथि की घोषणा नहीं की है। अंदरूनी सूत्रों को डर है कि इसका प्रदर्शन मेटा के सार्वजनिक बयानों द्वारा निर्धारित अपेक्षाओं को पूरा नहीं कर सकता है।
सूत्रों का संकेत है कि लामा 4 मॉडल विकसित करने वाली टीम द्वारा की गई प्रगति से मेटा के नेतृत्व में असंतोष बढ़ रहा है। इससे AI उत्पाद समूह के भीतर संभावित नेतृत्व परिवर्तनों के बारे में चर्चा हुई है।
मेटा ने बेहेमोथ को एक अत्यधिक सक्षम प्रणाली के रूप में पेश किया है, जो विशिष्ट बेंचमार्क (benchmarks) पर OpenAI, Google और एंथ्रोपिक (Anthropic) जैसे प्रतिस्पर्धियों से बेहतर प्रदर्शन करता है। इसकी विकास से परिचित लोगों के अनुसार, आंतरिक चुनौतियों ने इसकी दक्षता में बाधा डाली है।
OpenAI को भी देरी का सामना करना पड़ा है। उनका अगला प्रमुख मॉडल, GPT-5, मूल रूप से 2024 के मध्य में रिलीज़ होने वाला था। द वॉल स्ट्रीट जर्नल ने दिसंबर में बताया कि विकास कार्यक्रम से पीछे हो गया था।
फरवरी में, OpenAI के CEO सैम ऑल्टमैन (Sam Altman) ने कहा कि अंतरिम मॉडल जीपीटी-4.5 (GPT-4.5) होगा, जबकि GPT-5 में महीनों बाकी हैं।
रुकी हुई प्रगति के संभावित कारण
AI मॉडल विकास में मंदी में कई कारक योगदान कर सकते हैं, जिनमें शामिल हैं:
घटता उच्च-गुणवत्ता वाला डेटा
बड़े भाषा मॉडल को प्रशिक्षण के लिए डेटा की भारी मात्रा की आवश्यकता होती है, जो इंटरनेट के विशाल विस्तार को दर्शाता है। वे कॉपीराइट से संबंधित कानूनी देनदारियों का सामना करते हुए सार्वजनिक रूप से उपलब्ध डेटा स्रोतों को समाप्त कर सकते हैं।
इसने OpenAI, Google और Microsoft को कॉपीराइट सामग्री पर प्रशिक्षित करने के अपने अधिकार के संरक्षण की वकालत करने के लिए प्रेरित किया है।
OpenAI ने उल्लेख किया कि सरकार अमेरिकियों को AI से सीखने की स्वतंत्रता को सुरक्षित कर सकती है, और अमेरिकी AI मॉडलों की कॉपीराइट सामग्री से सीखने की क्षमता को संरक्षित करके AI लीड को PRC [पीपुल्स रिपब्लिक ऑफ चाइना] को जब्त करने से बचा सकती है।
एल्गोरिथम बाधाएँ
यह विश्वास कि मॉडल के आकार को बढ़ाने, अधिक कंप्यूट का उपयोग करने और अधिक डेटा पर प्रशिक्षण देने से उल्लेखनीय प्रगति होगी, गलत साबित हुई है। ब्लूमबर्ग का कहना है कि घटते रिटर्न हुए हैं जिससे कुछ लोगों को यह कहना पड़ा है कि स्केलिंग कानून धीमे हो रहे हैं।