कृत्रिम बुद्धिमत्ता समुदाय के भीतर मेटा के लामा बड़े भाषा मॉडल (LLM) की यात्रा गहन जांच और बहस का विषय रही है। लामा 3 और लामा 4 की रिलीज़ के बीच लगभग एक वर्ष का अंतर था, जो AI के तेजी से विकसित हो रहे परिदृश्य में एक अनंत काल है। जबकि शुरू में OpenAI की पेशकशों जैसे स्वामित्व मॉडल के लिए एक अभूतपूर्व ओपन-सोर्स विकल्प के रूप में सराहा गया, हाल के घटनाक्रमों से धारणा में बदलाव का पता चलता है, कुछ लोग AI नवाचार के कटिंग एज पर लामा की निरंतर प्रासंगिकता पर सवाल उठाते हैं।
लामाकॉन निराशाएं और बदलती अपेक्षाएं
लामाकॉन में, मेटा का अपने ओपन-सोर्स एलएलएम को समर्पित उद्घाटन सम्मेलन, एक अधूरी अपेक्षाओं का अहसास वातावरण में व्याप्त था। भाग लेने वाले कई डेवलपर्स ने विश्वास जताया कि उन्होंने एक परिष्कृत तर्क मॉडल के अनावरण की उम्मीद की थी, या कम से कम एक पारंपरिक मॉडल जो डीपसीक के वी3 और किवेन जैसे प्रतिस्पर्धियों को मात देने में सक्षम हो, बाद वाला अलीबाबा के क्लाउड कंप्यूटिंग डिवीजन द्वारा विकसित मॉडल का एक सूट है।
ऐसी घोषणाओं के अभाव ने चिंताओं को हवा दी कि लामा AI सर्वोच्चता की दौड़ में जमीन खो रहा है। सम्मेलन से ठीक एक महीने पहले, मेटा ने अपने लामा परिवार की चौथी पीढ़ी लॉन्च की थी, जिसमें ओपन-वेट मॉडल लामा 4 स्काउट और लामा 4 मैवरिक शामिल हैं। स्काउट को एक एकल GPU पर कुशल प्रदर्शन के लिए इंजीनियर किया गया था, जबकि मैवरिक को अन्य फाउंडेशन मॉडल को टक्कर देने के लिए एक बड़े मॉडल के रूप में डिज़ाइन किया गया था।
स्काउट और मैवरिक के अलावा, मेटा ने लामा 4 बेहेमोथ पर एक चुपके से नज़र डाली, एक काफी बड़ा “शिक्षक मॉडल” जो अभी भी प्रशिक्षण से गुजर रहा है। बेहेमोथ का उद्देश्य डिस्टिलेशन को सुविधाजनक बनाना है, जो एक बड़े, अधिक सामान्य मॉडल से छोटे, विशेष मॉडल बनाने की एक तकनीक है।
हालांकि, रिपोर्टें सामने आईं जिनमें बेहेमोथ की रिलीज़ में देरी और लामा 4 सूट के साथ प्रतिस्पर्धी प्रदर्शन प्राप्त करने में चुनौतियों का संकेत दिया गया था। अत्याधुनिक क्षमताओं के मेटा के दावों के बावजूद, कुछ डेवलपर्स के बीच धारणा यह थी कि लामा अब पैक का नेतृत्व नहीं कर रहा था।
प्रतिस्पर्धियों का उदय: किवेन और डीपसीक
लामाकॉन और लामा 4 मॉडल को लेकर निराशा एक व्यापक भावना को दर्शाती है कि मेटा के ओपन-सोर्स एलएलएम तकनीकी प्रदर्शन और डेवलपर उत्साह दोनों के मामले में गति खो रहे हैं। जबकि मेटा ओपन-सोर्स सिद्धांतों, पारिस्थितिकी तंत्र के निर्माण और नवाचार के प्रति अपनी प्रतिबद्धता पर जोर देता है, डीपसीक, किवेन और OpenAI जैसे प्रतिस्पर्धी तर्क, टूल उपयोग और वास्तविक दुनिया की तैनाती जैसे महत्वपूर्ण क्षेत्रों में तेजी से आगे बढ़ रहे हैं।
एक डेवलपर, विनीत साई वरिकुंटला ने अपनी निराशा व्यक्त करते हुए कहा कि उन्हें उम्मीद थी कि लामा सामान्य उपयोग के मामलों और तर्क में किवेन और डीपसीक को पार कर जाएगा, लेकिन किवेन को काफी आगे पाया।
यह भावना मेटा को एक अग्रणी ओपन-सोर्स एलएलएम के रूप में लामा की स्थिति को बनाए रखने में आने वाली चुनौतियों को रेखांकित करती है। जबकि लामा की प्रारंभिक रिलीज़ ने महत्वपूर्ण ध्यान और प्रशंसा आकर्षित की, तेजी से सक्षम विकल्पों के उदय ने प्रतिस्पर्धी परिदृश्य को तेज कर दिया है।
एक आशाजनक शुरुआत: लामा 2 का प्रभाव
लामा के आसपास वर्तमान कथा की पूरी तरह से सराहना करने के लिए, इसकी उत्पत्ति और प्रारंभिक उत्साह को याद रखना आवश्यक है। 2023 में, Nvidia के CEO जेनसेन हुआंग ने लामा 2 के लॉन्च को उस वर्ष का “शायद AI में सबसे बड़ी घटना” बताया। जुलाई 2024 तक, लामा 3 की रिलीज़ को एक सफलता माना गया, जो OpenAI के प्रभुत्व को चुनौती देने में सक्षम पहला ओपन LLM था।
SemiAnalysis के मुख्य विश्लेषक डायलन पटेल के अनुसार, लामा 3 के आगमन ने कंप्यूटिंग शक्ति की मांग में तत्काल वृद्धि को जन्म दिया, जिससे GPU किराए की कीमतें बढ़ गईं। इस अवधि के दौरान “मेटा” और “लामा” के लिए Google खोजें भी चरम पर रहीं, जो नए मॉडल में व्यापक रुचि का संकेत देती हैं।
लामा 3 को एक अमेरिकी-निर्मित, खुला और शीर्ष-स्तरीय LLM के रूप में मनाया गया। जबकि इसने लगातार उद्योग बेंचमार्क में शीर्ष स्थान हासिल नहीं किया, इसने AI समुदाय के भीतर काफी प्रभाव और प्रासंगिकता डाली। हालांकि, यह गतिशीलता धीरे-धीरे बदल गई है।
वास्तु परिवर्तन और आलोचनाएं
लामा 4 मॉडल ने एक “विशेषज्ञों का मिश्रण” वास्तुकला पेश की, एक डिज़ाइन जिसे डीपसीक द्वारा लोकप्रिय किया गया था। यह वास्तुकला मॉडल को एक विशिष्ट कार्य के लिए केवल सबसे प्रासंगिक विशेषज्ञता को सक्रिय करने में सक्षम बनाती है, जिससे दक्षता में सुधार होता है।
हालांकि, लामा 4 की रिलीज़ को आलोचनाओं का सामना करना पड़ा जब डेवलपर्स ने पाया कि सार्वजनिक बेंचमार्किंग के लिए उपयोग किया जाने वाला संस्करण डाउनलोड और तैनाती के लिए उपलब्ध संस्करण से अलग था। इस विसंगति से "लीडरबोर्ड गेमिंग" के आरोप लगे, जिसे मेटा ने खारिज कर दिया, यह कहते हुए कि प्रश्न में मौजूद संस्करण प्रायोगिक था और यह कि मॉडल के कई संस्करणों का मूल्यांकन करना मानक अभ्यास है।
मेटा के स्पष्टीकरण के बावजूद, इस विवाद ने इस धारणा में योगदान दिया कि लामा अपनी प्रतिस्पर्धी बढ़त बनाए रखने के लिए संघर्ष कर रहा था। जैसे-जैसे प्रतिस्पर्धी मॉडल आगे बढ़ते रहे, ऐसा लग रहा था कि मेटा में एक स्पष्ट दिशा का अभाव है।
डेवलपर अपनाने का मापन: एक जटिल कार्य
यह निर्धारित करना कि कौन सा LLM परिवार डेवलपर्स के बीच सबसे लोकप्रिय है, एक चुनौतीपूर्ण कार्य है। हालांकि, उपलब्ध डेटा से पता चलता है कि लामा के नवीनतम मॉडल नेताओं में शामिल नहीं हैं।
विशेष रूप से किवेन, लगातार इंटरनेट पर विभिन्न लीडरबोर्ड में उच्च स्थान पर है। आर्टिफिशियल एनालिसिस के अनुसार, एक साइट जो प्रदर्शन के आधार पर मॉडल को रैंक करती है, लामा 4 मैवरिक और स्काउट को OpenAI के GPT-4 मॉडल (पिछले वर्ष के अंत में जारी) के ठीक ऊपर और xAI के Grok और Anthropic के Claude से नीचे बुद्धि के मामले में रखा गया है।
OpenRouter, एक ऐसा प्लेटफ़ॉर्म जो डेवलपर्स को विभिन्न मॉडलों तक पहुंच प्रदान करता है और API उपयोग के आधार पर लीडरबोर्ड प्रकाशित करता है, मई की शुरुआत तक शीर्ष 20 मॉडलों में लामा 3.3 दिखाता है, लेकिन लामा 4 नहीं।
ये डेटा बिंदु, हालांकि निश्चित नहीं हैं, सुझाव देते हैं कि लामा के नवीनतम पुनरावृत्तियों ने अपने पूर्ववर्तियों की तरह डेवलपर्स के साथ इतनी दृढ़ता से प्रतिध्वनित नहीं किया है।
बेंचमार्क से परे: टूल उपयोग और तर्क
जबकि लामा 4 के मानक मूल्यांकन कमतर रहे होंगे, विशेषज्ञों का तर्क है कि शांत उत्साह कच्ची प्रदर्शन मैट्रिक्स से परे के कारकों से उत्पन्न होता है।
SemiAnalysis के एक विश्लेषक एजे कौराबी, "टूल कॉलिंग" के महत्व पर जोर देते हैं और मॉडल की सरल चैटबॉट कार्यक्षमता से परे विस्तार करने की क्षमता पर जोर देते हैं। टूल कॉलिंग से तात्पर्य इंटरनेट या उपयोगकर्ता के डिवाइस पर अन्य अनुप्रयोगों तक पहुंचने और उन्हें निर्देशित करने के लिए मॉडल की क्षमता से है, एजेंटिक AI के लिए एक महत्वपूर्ण विशेषता है, जो यात्रा बुक करने और खर्चों के प्रबंधन जैसे कार्यों को स्वचालित करने का वादा करता है।
मेटा ने कहा है कि लामा मॉडल अपने API के माध्यम से टूल कॉलिंग का समर्थन करते हैं। हालांकि, एक डेवलपर और यूट्यूबर थियो ब्राउन का तर्क है कि एजेंटिक टूल के प्रमुखता प्राप्त करने के साथ ही टूल कॉलिंग अत्याधुनिक प्रासंगिकता के लिए एक आवश्यकता बन गई है।
एंथ्रोपिक टूल उपयोग में एक शुरुआती नेता के रूप में उभरा है, और OpenAI जैसे स्वामित्व मॉडल तेजी से पकड़ रहे हैं। सही प्रतिक्रिया उत्पन्न करने के लिए सही टूल को मज़बूती से कॉल करने की क्षमता अत्यधिक मूल्यवान है, और OpenAI ने अपनी प्राथमिकता इस क्षमता को बढ़ाने पर केंद्रित कर दी है।
कौराबी का तर्क है कि एक मजबूत तर्क मॉडल की अनुपस्थिति एक महत्वपूर्ण संकेतक है जो इंगित करता है कि मेटा पिछड़ गया है। तर्क को एजेंटिक AI समीकरण में एक मूलभूत तत्व माना जाता है, जिससे मॉडल कार्यों का विश्लेषण करने और कार्रवाई के उचित पाठ्यक्रम को निर्धारित करने में सक्षम होते हैं।
लामा का आला: व्यावहारिक अनुप्रयोग और उद्यमों द्वारा अपनाना
AI अनुसंधान के मोर्चे पर अपनी स्थिति के बारे में चिंताओं के बावजूद, लामा कई डेवलपर्स और संगठनों के लिए एक मूल्यवान उपकरण बना हुआ है।
RockerBox में उत्पाद के प्रमुख नेट जोन्स, डेवलपर्स को अपने बायोडाटा में लामा को शामिल करने की सलाह देते हैं, क्योंकि भविष्य में मॉडल के साथ परिचितता की मांग किए जाने की संभावना है।
GAI Insights के CEO और प्रमुख विश्लेषक पॉल बायर का मानना है कि लामा कई कंपनियों के लिए AI रणनीतियों का एक प्रमुख घटक बना रहेगा, खासकर उन कंपनियों के लिए जो तकनीक उद्योग से बाहर हैं।
उद्यम कम जटिल कार्यों को संभालने और लागतों को नियंत्रित करने के लिए ओपन-सोर्स मॉडल के महत्व को पहचानते हैं, जिसमें लामा एक प्रमुख उदाहरण है। कई संगठन अपनी विविध आवश्यकताओं को पूरा करने के लिए बंद और खुले मॉडल के संयोजन को पसंद करते हैं।
स्नोफ्लेक में AI के प्रमुख बैरीस गुल्टेकिन का कहना है कि ग्राहक अक्सर बेंचमार्क पर पूरी तरह से निर्भर रहने के बजाय अपने विशिष्ट उपयोग के मामलों के आधार पर मॉडल का मूल्यांकन करते हैं। अपनी कम लागत को देखते हुए, लामा अक्सर कई अनुप्रयोगों के लिए पर्याप्त साबित होता है।
स्नोफ्लेक में, लामा का उपयोग बिक्री कॉल ट्रांसक्रिप्ट को संक्षेप में प्रस्तुत करने और ग्राहक समीक्षाओं से संरचित जानकारी निकालने जैसे कार्यों के लिए किया जाता है। Dremio में, लामा SQL कोड उत्पन्न करता है और मार्केटिंग ईमेल लिखता है।
Dremio के सह-संस्थापक और मुख्य उत्पाद अधिकारी टोमर शिरान का सुझाव है कि 80% अनुप्रयोगों के लिए विशिष्ट मॉडल महत्वपूर्ण नहीं हो सकता है, क्योंकि अधिकांश मॉडल अब बुनियादी जरूरतों को पूरा करने के लिए "पर्याप्त अच्छे" हैं।
एक विविधीकरणशील परिदृश्य: लामा की दृढ़ भूमिका
हालांकि लामा कुछ क्षेत्रों में स्वामित्व मॉडलों के साथ सीधे प्रतिस्पर्धा से दूर जा सकता है, लेकिन समग्र AI परिदृश्य अधिक विविध होता जा रहा है, और लामा की भूमिका विशिष्ट स्थानों के भीतर दृढ़ हो रही है।
शिरान इस बात पर जोर देते हैं कि बेंचमार्क मॉडल पसंद के प्राथमिक चालक नहीं हैं, क्योंकि उपयोगकर्ता अपने स्वयं के उपयोग के मामलों पर मॉडल का परीक्षण करने को प्राथमिकता देते हैं। ग्राहक के डेटा पर मॉडल का प्रदर्शन सर्वोपरि है, और यह प्रदर्शन समय के साथ बदल सकता है।
गुल्टेकिन का कहना है कि मॉडल का चयन अक्सर एक बार की घटना के बजाय एक उपयोग-केस-विशिष्ट निर्णय होता है।
लामा उन डेवलपर्स को खो सकता है जो लगातार नवीनतम प्रगति की तलाश में हैं, लेकिन यह व्यावहारिक AI-संचालित टूल के निर्माण पर केंद्रित कई डेवलपर्स का समर्थन बनाए रखता है।
यह गतिशील मेटा की व्यापक ओपन-सोर्स रणनीति के साथ संरेखित है, जिसका उदाहरण 2013 में React का लॉन्च और 2016 में पाइच का निर्माण है। सफल पारिस्थितिकी तंत्र को बढ़ावा देकर, मेटा ओपन-सोर्स समुदाय के योगदान से लाभान्वित होता है।
जैसा कि नेट जोन्स ने देखा, मेटा की ओपन-सोर्स पहलों से ज़करबर्ग को महत्वपूर्ण टेलविंड्स मिलते हैं।