AI वर्चस्व की बदलती रेत
2025 की शुरुआत में आर्टिफिशियल इंटेलिजेंस परिदृश्य में एक भूकंपीय कंपन हुआ। DeepSeek R1, एक शक्तिशाली ओपन-सोर्स भाषा तर्क मॉडल, के सार्वजनिक रिलीज ने न केवल एक नए खिलाड़ी को पेश किया; इसने स्थापित पदानुक्रम को मौलिक रूप से चुनौती दी। रिपोर्टों से पता चला कि DeepSeek R1 के प्रदर्शन मेट्रिक्स अमेरिकी तकनीकी दिग्गजों, जिनमें Meta Platforms भी शामिल है, की भारी वित्त पोषित अनुसंधान प्रयोगशालाओं द्वारा उत्पादित मेट्रिक्स के प्रतिद्वंद्वी थे, और कुछ पहलुओं में उनसे बेहतर थे। यह रहस्योद्घाटन कि यह दुर्जेय क्षमता काफी कम प्रशिक्षण लागत पर हासिल की गई थी, ने Silicon Valley में, विशेष रूप से Meta के गलियारों में, चिंता की लहरें भेज दीं।
Meta के लिए, इतने शक्तिशाली और लागत-कुशल ओपन-सोर्स प्रतियोगी का उदय उसकी जनरेटिव AI रणनीति के केंद्र पर आघात था। कंपनी ने Llama ब्रांड के तहत तेजी से सक्षम मॉडल जारी करते हुए, ओपन-सोर्स आंदोलन का नेतृत्व करने का दावा किया था। मूल आधार वैश्विक अनुसंधान और विकास समुदाय को अत्याधुनिक उपकरण प्रदान करना, नवाचार को बढ़ावा देना और Llama को ओपन AI विकास के लिए वास्तविक मानक के रूप में स्थापित करने की उम्मीद करना था। DeepSeek R1 के आगमन ने स्पष्ट रूप से बार बढ़ा दिया, जिससे Meta को गहन रणनीतिक पुनर्मूल्यांकन और त्वरित विकास की अवधि में मजबूर होना पड़ा।
Meta का जवाब: Llama 4 परिवार का पदार्पण
Meta की प्रतिक्रिया का समापन संस्थापक और CEO Mark Zuckerberg की एक महत्वपूर्ण घोषणा के साथ हुआ। कंपनी ने अपनी अगली पीढ़ी की Llama 4 श्रृंखला का अनावरण किया, जो मॉडलों का एक परिवार है जिसे न केवल पकड़ने के लिए, बल्कि ओपन-सोर्स AI क्षमताओं की सीमाओं को आगे बढ़ाने के लिए डिज़ाइन किया गया है। तत्काल प्रभाव से, इस नए परिवार के दो सदस्य दुनिया भर के डेवलपर्स के लिए उपलब्ध कराए गए:
- Llama 4 Maverick: एक पर्याप्त 400-बिलियन पैरामीटर मॉडल।
- Llama 4 Scout: एक अधिक फुर्तीला, फिर भी शक्तिशाली, 109-बिलियन पैरामीटर मॉडल।
इन मॉडलों को सीधे डाउनलोड के लिए जारी किया गया था, जिससे शोधकर्ताओं और कंपनियों को बिना किसी देरी के अपने स्वयं के अनुप्रयोगों में उनका उपयोग, फाइन-ट्यूनिंग और एकीकरण शुरू करने का अधिकार मिला।
इन आसानी से उपलब्ध मॉडलों के साथ, Meta ने Llama 4 Behemoth के प्रीव्यू के साथ भविष्य की एक आकर्षक झलक पेश की। जैसा कि इसके नाम से पता चलता है, यह मॉडल पैमाने में एक स्मारकीय छलांग का प्रतिनिधित्व करता है, जिसमें आश्चर्यजनक 2-ट्रिलियन पैरामीटर हैं। हालाँकि, Meta के आधिकारिक संचार ने स्पष्ट किया कि Behemoth अभी भी अपनी गहन प्रशिक्षण प्रक्रिया से गुजर रहा है, और इसकी सार्वजनिक रिलीज के लिए कोई विशिष्ट समयरेखा प्रदान नहीं की गई है। इसकी वर्तमान भूमिका एक आंतरिक बेंचमार्क सेटर और संभावित रूप से छोटी आर्किटेक्चर को परिष्कृत करने के लिए एक ‘शिक्षक’ मॉडल की प्रतीत होती है।
परिभाषित विशेषताएं: मल्टीमॉडल क्षमता और विस्तृत कॉन्टेक्स्ट
Llama 4 श्रृंखला कई अभूतपूर्व विशेषताओं का परिचय देती है जो इसे अलग करती हैं। इनमें सबसे प्रमुख है अंतर्निहित मल्टीमॉडल क्षमता। पिछली पीढ़ियों के विपरीत, जिनमें मल्टीमॉडल क्षमताएं जोड़ी गई हो सकती हैं, Llama 4 मॉडल को टेक्स्ट, वीडियो और छवियों वाले विविध डेटासेट पर शुरू से प्रशिक्षित किया गया था। नतीजतन, उनके पास इन विभिन्न डेटा प्रकारों वाले प्रॉम्प्ट को समझने और प्रतिक्रियाएं उत्पन्न करने की मूल क्षमता है जो टेक्स्ट, वीडियो और इमेजरी तक भी फैल सकती हैं। विशेष रूप से, प्रारंभिक घोषणाओं में ऑडियो प्रसंस्करण क्षमताओं का उल्लेख नहीं किया गया था।
एक और मुख्य क्षमता नए मॉडलों द्वारा प्रदान की जाने वाली नाटकीय रूप से विस्तारित कॉन्टेक्स्ट विंडो है। कॉन्टेक्स्ट विंडो उस जानकारी की मात्रा को संदर्भित करती है जिसे एक मॉडल एकल इंटरैक्शन (इनपुट और आउटपुट दोनों) में संसाधित कर सकता है। Llama 4 इन सीमाओं को महत्वपूर्ण रूप से आगे बढ़ाता है:
- Llama 4 Maverick: इसमें 1 मिलियन टोकन कॉन्टेक्स्ट विंडो है। यह लगभग 1,500 मानक पृष्ठों की टेक्स्ट सामग्री को एक साथ संसाधित करने के बराबर है।
- Llama 4 Scout: इसमें और भी प्रभावशाली 10 मिलियन टोकन कॉन्टेक्स्ट विंडो है, जो एक बार में लगभग 15,000 पृष्ठों के टेक्स्ट के बराबर जानकारी को संभालने में सक्षम है।
ये विशाल कॉन्टेक्स्ट विंडो लंबे दस्तावेज़ों, व्यापक कोडबेस, लंबी बातचीत, या विस्तृत मल्टी-टर्न विश्लेषण से जुड़े जटिल कार्यों के लिए नई संभावनाएं खोलती हैं, ऐसे क्षेत्र जहां पिछले मॉडल अक्सर मेमोरी सीमाओं के कारण संघर्ष करते थे।
आर्किटेक्चरल आधार: मिक्सचर-ऑफ-एक्सपर्ट्स दृष्टिकोण
तीनों Llama 4 मॉडलों को शक्ति प्रदान करने वाला परिष्कृत ‘मिक्सचर-ऑफ-एक्सपर्ट्स’ (MoE) आर्किटेक्चर है। बड़े पैमाने पर AI मॉडल के विकास में इस डिज़ाइन प्रतिमान ने महत्वपूर्ण कर्षण प्राप्त किया है। एक एकल, मोनोलिथिक न्यूरल नेटवर्क बनाने के बजाय, MoE एक बड़े ढांचे के भीतर कई छोटे, विशेष नेटवर्क - ‘विशेषज्ञों’ - को जोड़ता है। प्रत्येक विशेषज्ञ को विशिष्ट कार्यों, विषयों, या यहां तक कि विभिन्न डेटा तौर-तरीकों (जैसे टेक्स्ट विश्लेषण बनाम छवि पहचान) में उत्कृष्टता प्राप्त करने के लिए प्रशिक्षित किया जाता है।
MoE आर्किटेक्चर के भीतर एक रूटिंग तंत्र आने वाले डेटा या प्रश्नों को प्रसंस्करण के लिए सबसे प्रासंगिक विशेषज्ञ (विशेषज्ञों) को निर्देशित करता है। यह दृष्टिकोण कई फायदे प्रदान करता है:
- दक्षता: किसी दिए गए कार्य के लिए केवल आवश्यक विशेषज्ञ ही सक्रिय होते हैं, जिससे अनुमान (प्रतिक्रिया उत्पन्न करने की प्रक्रिया) संभावित रूप से तेज और पूरे विशाल मॉडल को सक्रिय करने की तुलना में कम कम्प्यूटेशनल रूप से महंगा हो जाता है।
- स्केलेबिलिटी: सैद्धांतिक रूप से अधिक विशेषज्ञों को जोड़कर या मौजूदा लोगों को आगे प्रशिक्षित करके मॉडल की क्षमताओं को मापना आसान है, जरूरी नहीं कि पूरे सिस्टम को खरोंच से फिर से प्रशिक्षित किया जाए।
- विशेषज्ञता: विभिन्न डोमेन में गहरी विशेषज्ञता की अनुमति देता है, संभावित रूप से विशिष्ट प्रकार के कार्यों के लिए उच्च गुणवत्ता वाले आउटपुट की ओर ले जाता है।
Llama 4 परिवार के लिए Meta द्वारा MoE को अपनाना उद्योग के रुझानों के अनुरूप है और विशेष रूप से व्यापक ओपन-सोर्स वितरण के लिए अभिप्रेत मॉडलों के लिए कम्प्यूटेशनल दक्षता के साथ अत्याधुनिक प्रदर्शन को संतुलित करने पर ध्यान केंद्रित करता है।
वितरण रणनीति और विकास फोकस
Meta Llama 4 रिलीज के साथ ओपन एक्सेस के प्रति अपनी प्रतिबद्धता को मजबूत कर रहा है। Llama 4 Scout और Llama 4 Maverick दोनों सेल्फ-होस्टिंग के लिए तुरंत उपलब्ध हैं, जिससे अपेक्षित कम्प्यूटेशनल संसाधनों वाले संगठनों को अपने स्वयं के बुनियादी ढांचे पर मॉडल चलाने की अनुमति मिलती है। यह दृष्टिकोण अधिकतम नियंत्रण, अनुकूलन और डेटा गोपनीयता प्रदान करता है।
दिलचस्प बात यह है कि Meta ने इन मॉडलों को अपने स्वयं के बुनियादी ढांचे पर चलाने के लिए आधिकारिक होस्टेड API एक्सेस या संबंधित मूल्य निर्धारण स्तरों की घोषणा नहीं की है, जो OpenAI और Anthropic जैसे प्रतिस्पर्धियों द्वारा नियोजित एक सामान्य मुद्रीकरण रणनीति है। इसके बजाय, प्रारंभिक ध्यान पूरी तरह से इस पर है:
- ओपन डाउनलोड: मॉडल वेट को स्वतंत्र रूप से उपलब्ध कराना।
- प्लेटफ़ॉर्म एकीकरण: WhatsApp, Messenger, Instagram और इसके वेब इंटरफेस के भीतर Meta AI कार्यात्मकताओं सहित Meta के स्वयं के उपभोक्ता-सामना वाले उत्पादों में नई Llama 4 क्षमताओं को निर्बाध रूप से शामिल करना।
यह रणनीति बताती है कि Meta का लक्ष्य ओपन-सोर्स समुदाय के भीतर अपनाने और नवाचार को चलाना है, साथ ही साथ अपने विशाल उपयोगकर्ता पारिस्थितिकी तंत्र को बढ़ाने के लिए अपने अत्याधुनिक AI का लाभ उठाना है।
तीनों Llama 4 मॉडलों, विशेष रूप से बड़े Maverick और Behemoth के लिए विकास का जोर स्पष्ट रूप से तर्क, कोडिंग और चरण-दर-चरण समस्या-समाधान पर है। Meta ने विशेष रूप से इन तार्किक क्षमताओं को बढ़ाने के लिए डिज़ाइन किए गए कस्टम पोस्ट-ट्रेनिंग रिफाइनमेंट पाइपलाइनों के कार्यान्वयन पर प्रकाश डाला। तर्क में शक्तिशाली होते हुए भी, प्रारंभिक विवरण बताते हैं कि वे स्वाभाविक रूप से स्पष्ट ‘चेन-ऑफ-थॉट’ प्रक्रियाओं को प्रदर्शित नहीं कर सकते हैं जो विशेष रूप से जटिल तर्क कार्यों के लिए डिज़ाइन किए गए मॉडल की विशेषता है, जैसे कि कुछ OpenAI मॉडल या DeepSeek R1।
एक विशेष रूप से उल्लेखनीय नवाचार जिसका उल्लेख किया गया है वह है MetaP, Llama 4 परियोजना के दौरान विकसित एक तकनीक। यह उपकरण भविष्य के मॉडल विकास को सुव्यवस्थित करने का वादा करता है, जिससे इंजीनियरों को एक कोर मॉडल पर हाइपरपैरामीटर सेट करने और फिर कुशलतापूर्वक इससे विभिन्न अन्य मॉडल प्रकार प्राप्त करने की अनुमति मिलती है, जिससे संभावित रूप से प्रशिक्षण दक्षता और लागत बचत में महत्वपूर्ण लाभ होता है।
टाइटन का बेंचमार्किंग: Llama 4 प्रदर्शन मेट्रिक्स
प्रतिस्पर्धी AI परिदृश्य में, प्रदर्शन बेंचमार्क प्रगति की लिंगुआ फ़्रैंका हैं। Meta यह दिखाने के लिए उत्सुक था कि उसका नया Llama 4 परिवार स्थापित उद्योग के नेताओं और पिछली Llama पीढ़ियों के मुकाबले कैसा प्रदर्शन करता है।
Llama 4 Behemoth (2T पैरामीटर्स - प्रीव्यू)
अभी भी प्रशिक्षण में रहते हुए, Meta ने प्रारंभिक बेंचमार्क परिणाम साझा किए जो Behemoth को एक शीर्ष दावेदार के रूप में स्थापित करते हैं, यह दावा करते हुए कि यह GPT-4.5, Google के Gemini 2.0 Pro, और Anthropic के Claude Sonnet 3.7 जैसे प्रमुख मॉडलों से बेहतर प्रदर्शन करता है कई प्रमुख तर्क और मात्रात्मक बेंचमार्क पर:
- MATH-500: गणितीय समस्या-समाधान क्षमताओं का परीक्षण करने वाला एक चुनौतीपूर्ण बेंचमार्क। Behemoth 95.0 का स्कोर प्राप्त करता है।
- GPQA Diamond: स्नातक-स्तर की प्रश्न-उत्तर क्षमताओं को मापता है। Behemoth 73.7 स्कोर करता है।
- MMLU Pro (Massive Multitask Language Understanding): विषयों की एक विस्तृत श्रृंखला में ज्ञान का मूल्यांकन करने वाला एक व्यापक बेंचमार्क। Behemoth 82.2 तक पहुँचता है।
Llama 4 Maverick (400B पैरामीटर्स - अब उपलब्ध)
एक उच्च-प्रदर्शन मल्टीमॉडल मॉडल के रूप में स्थित, Maverick मजबूत परिणाम प्रदर्शित करता है, विशेष रूप से उन मॉडलों के खिलाफ जो अपनी मल्टीमॉडल शक्ति के लिए जाने जाते हैं:
- GPT-4o और Gemini 2.0 Flash को पीछे छोड़ता है कई मल्टीमॉडल तर्क बेंचमार्क पर, जिनमें शामिल हैं:
- ChartQA: चार्ट में प्रस्तुत डेटा को समझना और उस पर तर्क करना (90.0 बनाम GPT-4o का 85.7)।
- DocVQA: दस्तावेज़ छवियों पर आधारित प्रश्न उत्तर (94.4 बनाम GPT-4o का 92.8)।
- MathVista: दृश्य रूप से प्रस्तुत गणितीय समस्याओं से निपटना।
- MMMU: बड़े पैमाने पर मल्टीमॉडल समझ का मूल्यांकन करने वाला एक बेंचमार्क।
- DeepSeek v3.1 (एक 45.8B पैरामीटर मॉडल) के साथ प्रतिस्पर्धात्मकता प्रदर्शित करता है, जबकि आधे से कम सक्रिय पैरामीटर (MoE आर्किटेक्चर के कारण अनुमानित 17B सक्रिय पैरामीटर) का उपयोग करता है, इसकी दक्षता को उजागर करता है।
- 80.5 का मजबूत MMLU Pro स्कोर प्राप्त करता है।
- Meta ने इसकी संभावित लागत-प्रभावशीलता पर भी प्रकाश डाला, अनुमानित अनुमान लागत $0.19–$0.49 प्रति 1 मिलियन टोकन की सीमा में है, जिससे शक्तिशाली AI अधिक सुलभ हो जाता है।
Llama 4 Scout (109B पैरामीटर्स - अब उपलब्ध)
दक्षता और व्यापक प्रयोज्यता के लिए डिज़ाइन किया गया, Scout तुलनीय मॉडलों के मुकाबले अपनी पकड़ बनाए रखता है:
- Mistral 3.1, Gemini 2.0 Flash-Lite, और Gemma 3 जैसे मॉडलों से मेल खाता है या बेहतर प्रदर्शन करता है कई बेंचमार्क पर:
- DocVQA: 94.4 का उच्च स्कोर प्राप्त करता है।
- MMLU Pro: 74.3 का सम्मानजनक स्कोर प्राप्त करता है।
- MathVista: 70.7 तक पहुँचता है।
- इसकी असाधारण विशेषता बेजोड़ 10 मिलियन टोकन कॉन्टेक्स्ट लंबाई है, जो इसे अत्यंत लंबे दस्तावेज़ों, जटिल कोडबेस, या विस्तारित मल्टी-टर्न इंटरैक्शन के गहरे विश्लेषण की आवश्यकता वाले कार्यों के लिए विशिष्ट रूप से उपयुक्त बनाती है।
- महत्वपूर्ण रूप से, Scout को कुशल परिनियोजन के लिए इंजीनियर किया गया है, जो एकल NVIDIA H100 GPU पर प्रभावी ढंग से चलने में सक्षम है, जो सीमित हार्डवेयर संसाधनों वाले संगठनों के लिए एक महत्वपूर्ण विचार है।
तुलनात्मक विश्लेषण: Behemoth बनाम तर्क विशेषज्ञ
और संदर्भ प्रदान करने के लिए, प्रीव्यू किए गए Llama 4 Behemoth की उन मॉडलों से तुलना करना जिन्होंने शुरू में Meta के त्वरित विकास को प्रेरित किया - DeepSeek R1 और OpenAI की तर्क-केंद्रित ‘o’ श्रृंखला - एक सूक्ष्म तस्वीर सामने लाती है। DeepSeek R1 (विशेष रूप से अक्सर उद्धृत R1-32B संस्करण) और OpenAI o1 (विशेष रूप से o1-1217) की प्रारंभिक रिलीज से उपलब्ध बेंचमार्क डेटा बिंदुओं का उपयोग करना:
बेंचमार्क | Llama 4 Behemoth | DeepSeek R1 (32B संस्करण उद्धृत) | OpenAI o1-1217 |
---|---|---|---|
MATH-500 | 95.0 | 97.3 | 96.4 |
GPQA Diamond | 73.7 | 71.5 | 75.7 |
MMLU Pro | 82.2 | 90.8 (नोट: MMLU स्कोर, Pro नहीं) | 91.8 (नोट: MMLU स्कोर, Pro नहीं) |
(नोट: MMLU Pro पर सीधी तुलना मुश्किल है क्योंकि पहले के चार्ट अक्सर R1/o1 के लिए मानक MMLU स्कोर उद्धृत करते थे, जो आमतौर पर अधिक चुनौतीपूर्ण MMLU Pro संस्करण की तुलना में अधिक संख्याएँ उत्पन्न करते हैं। MMLU Pro पर Behemoth का 82.2 अभी भी अपनी श्रेणी के सापेक्ष बहुत मजबूत है, GPT-4.5 और Gemini 2.0 Pro से अधिक है)।
इन विशिष्ट तुलनाओं की व्याख्या:
- MATH-500 बेंचमार्क पर, Llama 4 Behemoth DeepSeek R1 और OpenAI o1 के लिए रिपोर्ट किए गए स्कोर से थोड़ा पीछे है।
- GPQA Diamond के लिए, Behemoth उद्धृत DeepSeek R1 स्कोर पर बढ़त दिखाता है लेकिन OpenAI o1 से थोड़ा पीछे रह जाता है।
- MMLU पर (Behemoth के MMLU Pro की तुलना दूसरों के लिए मानक MMLU से करते हुए, अंतर को स्वीकार करते हुए), Behemoth का स्कोर कम है, हालांकि Gemini 2.0 Pro और GPT-4.5 जैसे अन्य बड़े मॉडलों के सापेक्ष इसका प्रदर्शन अत्यधिक प्रतिस्पर्धी बना हुआ है।
मुख्य बात यह है कि जबकि DeepSeek R1 और OpenAI o1 जैसे विशेष तर्क मॉडल कुछ विशिष्ट तर्क-गहन बेंचमार्क पर बढ़त बनाए रख सकते हैं, Llama 4 Behemoth खुद को एक दुर्जेय, अत्याधुनिक मॉडल के रूप में स्थापित करता है, जो अपनी श्रेणी के शिखर पर या उसके पास प्रदर्शन करता है, खासकर जब इसकी व्यापक क्षमताओं और पैमाने पर विचार किया जाता है। यह जटिल तर्क के क्षेत्र में Llama परिवार के लिए एक महत्वपूर्ण छलांग का प्रतिनिधित्व करता है।
सुरक्षा और जिम्मेदार परिनियोजन पर जोर
प्रदर्शन संवर्द्धन के साथ, Meta ने मॉडल संरेखण और सुरक्षा के प्रति अपनी प्रतिबद्धता पर जोर दिया। रिलीज के साथ उपकरणों का एक सूट है जिसे डेवलपर्स को Llama 4 को जिम्मेदारी से तैनात करने में मदद करने के लिए डिज़ाइन किया गया है:
- Llama Guard: संभावित रूप से असुरक्षित इनपुट या आउटपुट को फ़िल्टर करने में मदद करता है।
- Prompt Guard: हानिकारक प्रतिक्रियाओं को प्राप्त करने के लिए डिज़ाइन किए गए प्रतिकूल संकेतों का पता लगाने और उन्हें कम करने का लक्ष्य रखता है।
- CyberSecEval: मॉडल परिनियोजन से जुड़े साइबर सुरक्षा जोखिमों के मूल्यांकन के लिए एक उपकरण।
- Generative Offensive Agent Testing (GOAT): मॉडलों की ‘रेड-टीमिंग’ के लिए एक स्वचालित प्रणाली - कमजोरियों और संभावित दुरुपयोग परिदृश्यों के लिए सक्रिय रूप से उनका परीक्षण करना।
ये उपाय बढ़ती उद्योग-व्यापी मान्यता को दर्शाते हैं कि जैसे-जैसे AI मॉडल अधिक शक्तिशाली होते जाते हैं, मजबूत सुरक्षा प्रोटोकॉल और संरेखण तकनीकें न केवल वांछनीय हैं, बल्कि आवश्यक भी हैं।
Llama पारिस्थितिकी तंत्र: प्रभाव के लिए तैयार
Llama 4 परिवार का परिचय Meta और व्यापक AI परिदृश्य के लिए एक महत्वपूर्ण क्षण है। उन्नत मल्टीमॉडल क्षमताओं, असाधारण रूप से लंबी कॉन्टेक्स्ट विंडो, कुशल MoE आर्किटेक्चर और तर्क पर एक मजबूत फोकस को मिलाकर, Meta ने ओपन-सोर्स टूल का एक सम्मोहक सूट दिया है।
Scout और Maverick अब डेवलपर्स के हाथों में हैं और विशाल Behemoth भविष्य की क्षमताओं के लिए एक उच्च बार स्थापित कर रहा है, Llama पारिस्थितिकी तंत्र OpenAI, Anthropic, DeepSeek और Google के प्रमुख मालिकाना मॉडलों के लिए एक व्यवहार्य, शक्तिशाली खुले विकल्प के रूप में दृढ़ता से स्थित है। एंटरप्राइज़-ग्रेड AI सहायकों का निर्माण करने वाले डेवलपर्स, AI विज्ञान की सीमाओं को आगे बढ़ाने वाले शोधकर्ताओं, या विशाल डेटासेट के गहरे विश्लेषण के लिए उपकरण बनाने वाले इंजीनियरों के लिए, Llama 4 एक ओपन-सोर्स दर्शन में आधारित और परिष्कृत तर्क कार्यों की ओर तेजी से उन्मुख लचीले, उच्च-प्रदर्शन विकल्प प्रदान करता है। AI विकास का अगला चरण काफी अधिक दिलचस्प हो गया है।