जेम्मा 3n: AI का नया युग

गूगल का जेम्मा 3n जेनरेटिव AI के एक नए युग की शुरुआत करता है। यह मॉडल छोटा और तेज़ है, और सबसे महत्वपूर्ण बात यह है कि यह हमारे द्वारा उपयोग किए जाने वाले उपकरणों पर ऑफ़लाइन काम कर सकता है, जिससे उन्नत आर्टिफिशियल इंटेलिजेंस तकनीक हमारे दैनिक जीवन का हिस्सा बन जाती है। जेम्मा 3n न केवल ऑडियो, छवियों और टेक्स्ट को समझ सकता है, बल्कि इसकी सटीकता भी उत्कृष्ट है, और Chatbot Arena पर इसका प्रदर्शन GPT-4.1 Nano से भी बेहतर है।

जेम्मा 3n का नवीन आर्किटेक्चर

डिवाइस-एंड AI के भविष्य का स्वागत करने के लिए, Google DeepMind ने क्वालकॉम टेक्नोलॉजीज, मीडियाटेक और सैमसंग सिस्टम LSI जैसी मोबाइल हार्डवेयर कंपनियों के साथ मिलकर एक नया आर्किटेक्चर विकसित किया है।

इस आर्किटेक्चर का उद्देश्य उन उपकरणों पर जेनरेटिव AI के प्रदर्शन को अनुकूलित करना है जो संसाधनों से सीमित हैं, जैसे कि फ़ोन, टैबलेट और लैपटॉप। इस उद्देश्य को प्राप्त करने के लिए, आर्किटेक्चर तीन महत्वपूर्ण नवाचारों को अपनाता है: पीएलई (PLE) कैशिंग, मैटफॉर्मर (MatFormer) आर्किटेक्चर और सशर्त पैरामीटर लोडिंग

पीएलई कैशिंग: मेमोरी सीमाओं को तोड़ना

पीएलई कैशिंग एक शानदार तंत्र है जो मॉडल को अपनी लेयर-वाइज एम्बेडेड पैरामीटर को तेज़ बाहरी मेमोरी में अनलोड करने की अनुमति देता है, जिससे प्रदर्शन से समझौता किए बिना मेमोरी उपयोग में उल्लेखनीय कमी आती है। ये पैरामीटर मॉडल की ऑपरेटिंग मेमोरी के बाहर उत्पन्न होते हैं और आवश्यकतानुसार निष्पादन के दौरान पुनः प्राप्त किए जाते हैं, जिससे संसाधन-सीमित उपकरणों पर भी कुशल संचालन सुनिश्चित होता है।

कल्पना कीजिए कि आप एक जटिल AI मॉडल चला रहे हैं, लेकिन आपके डिवाइस में सीमित मेमोरी है। पीएलई कैशिंग एक बुद्धिमान लाइब्रेरियन की तरह है, जो कम उपयोग की जाने वाली पुस्तकों (पैरामीटर) को पास के गोदाम (बाहरी मेमोरी) में संग्रहीत करता है। जब मॉडल को इन पैरामीटर की आवश्यकता होती है, तो लाइब्रेरियन उन्हें तुरंत पुनः प्राप्त कर लेता है, यह सुनिश्चित करते हुए कि मॉडल बिना किसी मूल्यवान मेमोरी स्थान पर कब्जा किए सुचारू रूप से चल सकता है।

विशेष रूप से, पीएलई कैशिंग निम्नलिखित तरीकों से मेमोरी उपयोग और प्रदर्शन को अनुकूलित करता है:

  • मेमोरी फ़ुटप्रिंट को कम करना: बाहरी मेमोरी में कम उपयोग किए जाने वाले पैरामीटर को संग्रहीत करके, पीएलई कैशिंग रनटाइम के दौरान मॉडल के लिए आवश्यक मेमोरी की मात्रा को कम कर सकता है। इससे संसाधन-सीमित उपकरणों पर बड़े AI मॉडल चलाना संभव हो जाता है।

  • प्रदर्शन में सुधार: हालाँकि बाहरी मेमोरी से पैरामीटर को पुनः प्राप्त करने में कुछ समय लगता है, लेकिन पीएलई कैशिंग बुद्धिमानी से यह अनुमान लगाकर देरी को कम करता है कि किन पैरामीटर का भविष्य में उपयोग किया जाएगा और उन्हें पहले से ही कैश में लोड कर दिया जाएगा। यह सुनिश्चित करता है कि मॉडल लगभग वास्तविक समय की गति से चल सके।

  • बड़े मॉडल का समर्थन करना: मेमोरी आवश्यकताओं को कम करके, पीएलई कैशिंग हमें बड़े, अधिक जटिल AI मॉडल बनाने की अनुमति देता है। इन मॉडलों में अधिक अभिव्यंजक क्षमताएं हैं और वे अधिक जटिल कार्यों को पूरा करने में सक्षम हैं।

मैटफॉर्मर आर्किटेक्चर: रूसी गुड़िया जैसा उत्कृष्ट डिज़ाइन

मैट्रिओशका ट्रांसफॉर्मर (MatFormer) आर्किटेक्चर एक नेस्टेड ट्रांसफॉर्मर डिज़ाइन पेश करता है, जिसमें छोटे सबमॉडल बड़े मॉडल में एम्बेडेड होते हैं, जो रूसी गुड़िया के समान होते हैं। यह संरचना सबमॉडल को चुनिंदा रूप से सक्रिय करने की अनुमति देती है, जिससे मॉडल को कार्य के आधार पर गतिशील रूप से अपने आकार और गणना आवश्यकताओं को समायोजित करने की क्षमता मिलती है। यह लचीलापन गणना लागत, प्रतिक्रिया समय और बिजली की खपत को कम करता है, जिससे यह किनारे और क्लाउड परिनियोजन के लिए आदर्श बन जाता है।

मैटफॉर्मर आर्किटेक्चर का मूल विचार यह है कि सभी कार्यों के लिए पूर्ण AI मॉडल की आवश्यकता नहीं होती है। सरल कार्यों के लिए, गणना संसाधनों को बचाने के लिए केवल छोटे सबमॉडल को सक्रिय करने की आवश्यकता होती है। जटिल कार्यों के लिए, उच्च सटीकता प्राप्त करने के लिए बड़े सबमॉडल को सक्रिय किया जा सकता है।

आइए एक उदाहरण के माध्यम से मैटफॉर्मर आर्किटेक्चर के लाभ को स्पष्ट करें। मान लीजिए कि आप छवियों में वस्तुओं की पहचान करने के लिए एक AI मॉडल का उपयोग कर रहे हैं। सरल छवियों के लिए, जैसे कि केवल एक वस्तु वाली छवि, एक छोटे सबमॉडल को सक्रिय किया जा सकता है, जिसे विशेष रूप से उस विशिष्ट प्रकार की वस्तु की पहचान करने के लिए डिज़ाइन किया गया है। जटिल छवियों के लिए, जैसे कि कई वस्तुओं वाली छवि, एक बड़े सबमॉडल को सक्रिय किया जा सकता है, जो विभिन्न प्रकार की वस्तुओं की पहचान करने में सक्षम है।

मैटफॉर्मर आर्किटेक्चर के लाभ में शामिल हैं:

  • गणना लागत में कमी: केवल आवश्यक सबमॉडल को सक्रिय करके, मैटफॉर्मर आर्किटेक्चर गणना लागत को काफी कम कर सकता है। यह संसाधन-सीमित उपकरणों पर AI मॉडल चलाने के लिए महत्वपूर्ण है।

  • प्रतिक्रिया समय में कमी: चूंकि मैटफॉर्मर आर्किटेक्चर कार्य के आधार पर मॉडल आकार को गतिशील रूप से समायोजित कर सकता है, इसलिए प्रतिक्रिया समय को कम किया जा सकता है। इससे AI मॉडल उपयोगकर्ता के अनुरोधों का तेजी से जवाब दे सकता है।

  • बिजली की खपत में कमी: गणना लागत को कम करके, मैटफॉर्मर आर्किटेक्चर बिजली की खपत को भी कम कर सकता है। यह बैटरी जीवन को बढ़ाने के लिए महत्वपूर्ण है।

सशर्त पैरामीटर लोडिंग: ऑन-डिमांड लोडिंग, ऑप्टिमाइजिंग संसाधन

सशर्त पैरामीटर लोडिंग डेवलपर्स को अप्रयुक्त पैरामीटर (जैसे ऑडियो या विज़ुअल प्रोसेसिंग के लिए पैरामीटर) को मेमोरी में लोड करने से बचने की अनुमति देता है। यदि आवश्यक हो, तो इन पैरामीटर को रनटाइम के दौरान गतिशील रूप से लोड किया जा सकता है, जिससे मेमोरी उपयोग को और अनुकूलित किया जा सकता है और मॉडल को विभिन्न उपकरणों और कार्यों के अनुकूल बनाया जा सकता है।

कल्पना कीजिए कि आप टेक्स्ट को संसाधित करने के लिए एक AI मॉडल का उपयोग कर रहे हैं। यदि आपके कार्य के लिए किसी ऑडियो या विज़ुअल प्रोसेसिंग की आवश्यकता नहीं है, तो ऑडियो या विज़ुअल प्रोसेसिंग के लिए पैरामीटर लोड करना संसाधनों की बर्बादी होगी। सशर्त पैरामीटर लोडिंग मॉडल को केवल आवश्यक पैरामीटर को लोड करने की अनुमति देता है, जिससे मेमोरी उपयोग को कम किया जा सकता है और प्रदर्शन में सुधार किया जा सकता है।

सशर्त पैरामीटर लोडिंग इस प्रकार काम करता है:

  1. मॉडल वर्तमान कार्य का विश्लेषण करता है और यह निर्धारित करता है कि किन पैरामीटर की आवश्यकता है।
  2. मॉडल केवल आवश्यक पैरामीटर को मेमोरी में लोड करता है।
  3. जब कार्य पूरा हो जाता है, तो मॉडल उन पैरामीटर को जारी करता है जिनकी अब आवश्यकता नहीं है।

सशर्त पैरामीटर लोडिंग के लाभ में शामिल हैं:

  • मेमोरी उपयोग को अनुकूलित करना: केवल आवश्यक पैरामीटर को लोड करके, सशर्त पैरामीटर लोडिंग मेमोरी उपयोग को काफी अनुकूलित कर सकता है। यह संसाधन-सीमित उपकरणों पर AI मॉडल चलाने के लिए महत्वपूर्ण है।

  • प्रदर्शन में सुधार: लोड किए गए पैरामीटर की संख्या को कम करके, सशर्त पैरामीटर लोडिंग प्रदर्शन में सुधार कर सकता है। इससे AI मॉडल उपयोगकर्ता के अनुरोधों का तेजी से जवाब दे सकता है।

  • उपकरणों की विस्तृत श्रृंखला का समर्थन करना: मेमोरी उपयोग को अनुकूलित करके, सशर्त पैरामीटर लोडिंग AI मॉडल को उपकरणों की विस्तृत श्रृंखला पर चलाने की अनुमति देता है, जिसमें सीमित मेमोरी वाले उपकरण भी शामिल हैं।

जेम्मा 3n की उत्कृष्ट विशेषताएं

जेम्मा 3n कई नवीन तकनीकों और विशेषताओं को पेश करता है, जो डिवाइस-एंड AI की संभावनाओं को फिर से परिभाषित करते हैं।

आइए इसकी प्रमुख विशेषताओं में गहराई से उतरें:

  1. अनुकूलित डिवाइस-एंड प्रदर्शन और दक्षता: जेम्मा 3n अपने पूर्ववर्ती (जेम्मा 3 4B) की तुलना में लगभग 1.5 गुना तेज है, जबकि आउटपुट गुणवत्ता को काफी अधिक बनाए रखता है। इसका मतलब है कि आप क्लाउड कनेक्शन पर निर्भर हुए बिना अपने डिवाइस पर तेजी से और सटीक परिणाम प्राप्त कर सकते हैं।

  2. पीएलई कैशिंग: पीएलई कैशिंग सिस्टम जेम्मा 3n को तेज स्थानीय मेमोरी में पैरामीटर स्टोर करने की अनुमति देता है, जिससे मेमोरी पदचिह्न कम होता है और प्रदर्शन में सुधार होता है।

  3. मैटफॉर्मर आर्किटेक्चर: जेम्मा 3n मैटफॉर्मर आर्किटेक्चर को अपनाता है, जो विशिष्ट अनुरोधों के अनुसार मॉडल पैरामीटर को चुनिंदा रूप से सक्रिय करता है। यह मॉडल को अपने आकार और गणना आवश्यकताओं को गतिशील रूप से समायोजित करने की अनुमति देता है, जिससे संसाधन उपयोग का अनुकूलन होता है।

  4. सशर्त पैरामीटर लोडिंग: मेमोरी संसाधनों को बचाने के लिए, जेम्मा 3n अनावश्यक पैरामीटर को लोड करना छोड़ सकता है, उदाहरण के लिए विज़ुअल या ऑडियो की आवश्यकता न होने पर संबंधित पैरामीटर को लोड नहीं किया जा सकता है। यह दक्षता को और बढ़ाता है और बिजली की खपत को कम करता है।

  5. गोपनीयता-पहली और ऑफ़लाइन-तैयार: इंटरनेट कनेक्शन की आवश्यकता के बिना स्थानीय रूप से AI कार्यों को चलाएं, जिससे उपयोगकर्ता की गोपनीयता सुनिश्चित हो सके। इसका मतलब है कि आपका डेटा आपके डिवाइस को नहीं छोड़ता है, और आप नेटवर्क कनेक्शन के बिना AI कार्यों का उपयोग कर सकते हैं।

  6. मल्टीमोडल समझ: जेम्मा 3n ऑडियो, टेक्स्ट, छवियों और वीडियो इनपुट के लिए उन्नत समर्थन प्रदान करता है, जिससे जटिल वास्तविक समय मल्टीमोडल इंटरैक्शन को सक्षम किया जा सकता है। यह AI मॉडल को विभिन्न प्रकार के इनपुट को समझने और प्रतिक्रिया देने की अनुमति देता है, जिससे अधिक प्राकृतिक और सहज उपयोगकर्ता अनुभव प्रदान किया जा सकता है।

  7. ऑडियो कार्यक्षमता: यह स्वचालित भाषण पहचान (ASR) और भाषण से टेक्स्ट अनुवाद प्रदान करता है, जिसमें उच्च गुणवत्ता वाली ट्रांसक्रिप्शन और बहुभाषी समर्थन होता है। इसका मतलब है कि आप जेम्मा 3n का उपयोग बोली जाने वाली भाषा को टेक्स्ट में बदलने और एक भाषा में भाषण को दूसरी भाषा में अनुवाद करने के लिए कर सकते हैं।

  8. उन्नत बहुभाषी क्षमताएं: जापानी, जर्मन, कोरियाई, स्पेनिश और फ्रेंच जैसी भाषाओं में प्रदर्शन में उल्लेखनीय सुधार हुआ है। यह जेम्मा 3n को विभिन्न भाषाओं में टेक्स्ट को अधिक सटीक रूप से समझने और उत्पन्न करने की अनुमति देता है।

  9. 32K टोकन संदर्भ: यह एकल अनुरोध में बड़ी मात्रा में डेटा को संसाधित कर सकता है, जिससे लंबी बातचीत और अधिक जटिल कार्य सक्षम होते हैं। इसका मतलब है कि आप जेम्मा 3n को लंबी टेक्स्ट इनपुट प्रदान कर सकते हैं, बिना इसकी संदर्भ विंडो को पार करने की चिंता किए।

जेम्मा 3n के साथ जल्दी शुरुआत करें

जेम्मा 3n का उपयोग शुरू करना बहुत आसान है, और डेवलपर्स के लिए इस शक्तिशाली मॉडल का पता लगाने और एकीकृत करने के दो मुख्य तरीके हैं।

1. Google AI Studio: त्वरित प्रोटोटाइप डिज़ाइन

बस Google AI Studio में लॉग इन करें, स्टूडियो पर जाएं, Gemma 3n E4B मॉडल चुनें, और फिर जेम्मा 3n की सुविधाओं का पता लगाना शुरू करें। यह स्टूडियो उन डेवलपर्स के लिए एकदम सही है जो पूर्ण कार्यान्वयन से पहले विचारों को त्वरित रूप से प्रोटोटाइप और परीक्षण करना चाहते हैं।

आप एक API कुंजी प्राप्त कर सकते हैं और अपने स्थानीय AI चैटबॉट में मॉडल को एकीकृत कर सकते हैं, खासकर Msty एप्लिकेशन के माध्यम से।

इसके अतिरिक्त, आप Google GenAI Python SDK का उपयोग कर सकते हैं, और कुछ पंक्तियों के कोड के साथ मॉडल को अपने एप्लिकेशन में एकीकृत कर सकते हैं। इससे जेम्मा 3n को आपकी परियोजनाओं में एकीकृत करना बहुत आसान हो जाता है।

2. Google AI Edge के साथ डिवाइस-एंड विकास: स्थानीय एप्लिकेशन बनाएं

उन डेवलपर्स के लिए जो Gemma 3n को सीधे अपने एप्लिकेशन में एकीकृत करना चाहते हैं, Google AI Edge Android और Chrome डिवाइस पर डिवाइस-एंड विकास के लिए आवश्यक उपकरण और लाइब्रेरी प्रदान करता है। यह विधि उन एप्लिकेशन के निर्माण के लिए एकदम सही है जो स्थानीय रूप से Gemma 3n सुविधाओं का लाभ उठाते हैं।

Google AI Edge उपकरणों और लाइब्रेरी की एक श्रृंखला प्रदान करता है, जिससे डेवलपर्स के लिए जेम्मा 3n को अपने एप्लिकेशन में एकीकृत करना आसान हो जाता है। इन उपकरणों में शामिल हैं:

  • TensorFlow Lite: मोबाइल उपकरणों पर AI मॉडल चलाने के लिए एक लाइटवेट फ्रेमवर्क।
  • ML Kit: मोबाइल एप्लिकेशन में मशीन लर्निंग सुविधाओं को जोड़ने के लिए API का संग्रह।
  • Android Neural Networks API (NNAPI): डिवाइस पर हार्डवेयर एक्सीलरेटर का उपयोग करके AI मॉडल चलाने के लिए API।

Google AI Edge का उपयोग करके, डेवलपर्स विभिन्न प्रकार के नवीन एप्लिकेशन बना सकते हैं, जिनमें शामिल हैं:

  • ऑफ़लाइन भाषण पहचान: उपयोगकर्ताओं को इंटरनेट कनेक्शन के बिना वॉयस कमांड का उपयोग करके अपने उपकरणों को नियंत्रित करने की अनुमति देता है।
  • वास्तविक समय की छवि पहचान: उपयोगकर्ताओं को छवियों को क्लाउड पर अपलोड किए बिना छवियों में वस्तुओं की पहचान करने की अनुमति देता है।
  • बुद्धिमान पाठ पीढ़ी: उपयोगकर्ताओं को विभिन्न प्रकार के टेक्स्ट उत्पन्न करने की अनुमति देता है, जैसे कि ईमेल, लेख और कोड।