Microsoft का Phi-4-Reasoning: SLM भी दिग्गजों की तरह तर्क कर सकते हैं!
Microsoft का Phi-4 Reasoning कॉम्पैक्ट, ओपन-वेट (MIT लाइसेंस प्राप्त), तेज़, कुशल SLM प्रस्तुत करता है जो उन्नत तर्क में सक्षम हैं।
Microsoft, OpenAI का एक विशेषाधिकार प्राप्त भागीदार होने और अपने AI मॉडल को Azure AI Foundry में एकीकृत करने के लिए अधिकांश खिलाड़ियों के साथ काम करने के बावजूद, अपने स्वयं के तकनीकी मार्गों को आगे बढ़ाने से नहीं कतराता है। इसमें तंत्रिका नेटवर्क के मूल में नवाचारों पर काम करना शामिल है, जैसे कि ट्रिट पर आधारित दिलचस्प बिटनेट बी1.58 मॉडल, इसके अपने ओपन-सोर्स SLM, और यहां तक कि फ्रंटियर मॉडल जिन्हें गुप्त रखा गया है (प्रोजेक्ट MAI-1)।
छोटे AI मॉडल (SLM) Phi-3 की अपनी श्रृंखला पेश करने के एक साल बाद और एक मल्टीमॉडल SLM (Phi-4-Multimodal) और एक छोटे मॉडल (Phi-4-mini) के साथ चौथी पीढ़ी की शुरुआत करने के दो महीने बाद, Microsoft अपने नवीनतम पीढ़ी के SLM के तीन नए वेरिएंट की घोषणा करता है: Phi-4-reasoning, Phi-4-reasoning-plus, और Phi-4-mini-reasoning।
30 अप्रैल, 2025 को जारी किए गए, ये "तर्क-एकीकृत" संस्करण उन डेवलपर्स के लिए कॉम्पैक्ट मॉडल की ओपन-वेट पेशकश का विस्तार करते हैं जिन्हें जटिल तर्क की आवश्यकता होने पर कम विलंबता बनाए रखने की आवश्यकता होती है।
Microsoft के इंजीनियरों द्वारा अपने SLM को "तर्क" बनाने के लिए अपनाए गए दृष्टिकोण के केंद्र में: OpenAI के तर्क श्रृंखलाओं o3-mini से बारीक पर्यवेक्षण (SFT) पर निर्भर रहना, और "प्लस" संस्करण के लिए सुदृढीकरण सीखने (RL) का लाभ उठाना। Microsoft का कहना है, "डिस्टिलेशन, रीइन्फोर्समेंट लर्निंग और उच्च गुणवत्ता वाले डेटा के माध्यम से, ये मॉडल आकार और प्रदर्शन का सामंजस्य स्थापित करते हैं।"
छोटे लेकिन प्रतिभाशाली
बाजार के विभिन्न प्रमुख बेंचमार्क पर परिणाम प्रतियोगिता को फीका करने के लिए पर्याप्त हैं: आमतौर पर केवल 14 बिलियन मापदंडों के साथ, Phi-4-reasoning AIME 2025, MMLU-Pro या HumanEval-Plus श्रृंखला पर DeepSeek-R1-Distill-Llama-70B (70 बिलियन मापदंडों) से बेहतर प्रदर्शन करता है, और पूर्ण DeepSeek-R1 मॉडल (671 बिलियन मापदंडों) तक पहुंचता है! Phi-4-reasoning-plus संस्करण, समान 14 बिलियन मापदंडों पर संरेखित है, लेकिन 1.5 गुना अधिक टोकन के साथ प्रशिक्षित है, OmniMath पर लगभग OpenAI के o3-mini स्कोर से मेल खाता है! जानकारी के लिए, Phi-4-reasoning को एक क्लासिक 128,000 टोकन संदर्भ विंडो से लाभ होता है जिसे Phi-4-reasoning-plus संस्करण के लिए 256,000 टोकन तक बढ़ाया गया है।
एम्बेडेड सिस्टम के लिए डिज़ाइन किया गया, Phi-4-mini-reasoning 3.8 बिलियन पैरामीटर, DeepSeek-R1 द्वारा उत्पन्न एक मिलियन गणितीय समस्याओं का एक सिंथेटिक सेट प्रदर्शित करता है, और Math-500 पर o1-mini प्रदर्शन प्राप्त करता है जबकि 7 से 8 बिलियन पैरामीटर वाले कई मॉडलों को पीछे छोड़ देता है। अपने अति-छोटे आकार के साथ, यह मॉडल स्थानीय निष्पादन के लिए आदर्श है, जिसमें मोबाइल डिवाइस पर भी शामिल है, और लगभग-तत्काल प्रतिक्रियाओं की आवश्यकता को पूरा करने के लिए। यह विशेष रूप से शैक्षिक उपयोगों और स्थानीय चैटबॉट के लिए उपयुक्त है।
विभिन्न उपयोगों के लिए खुले मॉडल
तैनाती पक्ष पर, CISOs को ये मॉडल पहले से ही Copilot+ PCs के लिए अनुकूलित मिलेंगे: NPU संस्करण "Phi Silica" मेमोरी में पहले से लोड होता है और लगभग-तत्काल प्रतिक्रिया समय प्रदान करता है, जो व्यावसायिक अनुप्रयोगों के साथ ऊर्जा-कुशल सहवास की गारंटी देता है। विंडोज API आउटलुक या आंतरिक उपकरणों में ऑफ़लाइन पीढ़ी को एकीकृत करने की अनुमति देते हैं।
सुरक्षा के संदर्भ में, Microsoft अपनी जिम्मेदारी के सिद्धांतों के अनुरूप एक पाइपलाइन का दावा करता है - जवाबदेही, निष्पक्षता, विश्वसनीयता, सुरक्षा और समावेश। मॉडल सार्वजनिक और आंतरिक "सहायक/हानिरहित" उन्मुख सेटों से SFT, डायरेक्ट प्रेफरेंस ऑप्टिमाइज़ेशन और RLHF को मिलाकर पोस्ट-ट्रेनिंग से गुजरते हैं। Microsoft अपने मॉडलों के "कार्ड" भी प्रकाशित करता है, जो अवशिष्ट सीमाओं और शमन उपायों का विवरण देते हैं।
Azure AI Foundry, Hugging Face और GitHub Models पर अब उपलब्ध, तीनों मॉडल बहुत ही अनुमेय MIT लाइसेंस के तहत प्रकाशित किए गए हैं, जो स्थानीय अनुमान के साथ-साथ हाइब्रिड क्लाउड तैनाती का मार्ग प्रशस्त करते हैं। सुरक्षा और आर्किटेक्चर टीमों के लिए, SLM की यह नई पीढ़ी बड़े पैमाने पर LLM का एक विश्वसनीय विकल्प प्रदान करती है, जिसमें TCO कम होता है, स्थानीय रूप से और साथ ही Edge पर निष्पादन होता है, और डेटा का अधिक नियंत्रण होता है। ये मॉडल एक वर्ष में SLM द्वारा की गई अविश्वसनीय प्रगति और कम खर्चीले और अधिक ऊर्जा और संसाधन मितव्ययी AI की खोज में एक ब्रह्मांड में उनकी अद्भुत क्षमता का प्रमाण हैं।
Phi-4 की तर्क क्षमताओं में गहराई से उतरना
Phi-4 मॉडल परिवार का आगमन छोटे भाषा मॉडल (SLM) के विकास में एक महत्वपूर्ण कदम का प्रतिनिधित्व करता है। इन मॉडलों को अलग करने वाली चीज उनकी उन्नत तर्क क्षमताएं हैं, जो नवीन प्रशिक्षण तकनीकों और उच्च गुणवत्ता वाले डेटा पर ध्यान केंद्रित करके प्राप्त की जाती हैं। Microsoft की ओपन-सोर्स सिद्धांतों के प्रति प्रतिबद्धता इन शक्तिशाली उपकरणों तक पहुंच को और अधिक लोकतांत्रिक बनाती है, जिससे डेवलपर्स को उन्नत AI क्षमताओं को अनुप्रयोगों की एक विस्तृत श्रृंखला में एकीकृत करने का अधिकार मिलता है।
आर्किटेक्चर को समझना
Phi-4 मॉडल एक ट्रांसफार्मर आर्किटेक्चर पर बनाए गए हैं, जो प्राकृतिक भाषा प्रसंस्करण के लिए एक सिद्ध ढांचा है। हालांकि, Microsoft ने तर्क कार्यों के लिए मॉडल को अनुकूलित करने के लिए कई प्रमुख नवाचारों को लागू किया है।
- बारीक पर्यवेक्षण (SFT): मॉडल को बारीक पर्यवेक्षण (SFT) नामक एक तकनीक का उपयोग करके प्रशिक्षित किया जाता है, जिसमें OpenAI के o3-mini मॉडल द्वारा उत्पन्न विस्तृत तर्क श्रृंखलाओं से सीखना शामिल है। यह Phi-4 मॉडल को जटिल तर्क प्रक्रियाओं में शामिल चरणों को सीखने की अनुमति देता है।
- सुदृढीकरण सीखना (RL): Phi-4 मॉडल का "प्लस" संस्करण, Phi-4-reasoning-plus, अपनी तर्क क्षमताओं को और बढ़ाने के लिए सुदृढीकरण सीखने (RL) का उपयोग करता है। RL में एक इनाम संकेत को अधिकतम करने के लिए मॉडल को प्रशिक्षित करना शामिल है, जो इस मामले में इसके तर्क की सटीकता और दक्षता पर आधारित है।
- डिस्टिलेशन: डिस्टिलेशन का उपयोग बड़े, अधिक जटिल मॉडल से छोटे Phi-4 मॉडल में ज्ञान स्थानांतरित करने के लिए किया जाता है। यह SLM को अपने कॉम्पैक्ट आकार और दक्षता को बनाए रखते हुए, बहुत बड़े मॉडल के तुलनीय प्रदर्शन स्तरों को प्राप्त करने की अनुमति देता है।
बेंचमार्किंग प्रदर्शन
Phi-4 मॉडल ने विभिन्न तर्क बेंचमार्क पर प्रभावशाली प्रदर्शन का प्रदर्शन किया है, कुछ मामलों में बड़े मॉडल को भी पीछे छोड़ दिया है। उदाहरण के लिए, Phi-4-reasoning, केवल 14 बिलियन मापदंडों के साथ, कई चुनौतीपूर्ण डेटासेट पर DeepSeek-R1-Distill-Llama-70B (70 बिलियन मापदंडों) से बेहतर प्रदर्शन करता है, जिसमें AIME 2025, MMLU-Pro और HumanEval-Plus शामिल हैं। यह Phi-4 के आर्किटेक्चर और प्रशिक्षण तकनीकों की दक्षता और प्रभावशीलता पर प्रकाश डालता है।
Phi-4-reasoning-plus संस्करण, 1.5 गुना अधिक टोकन के साथ प्रशिक्षित, ओमनीमैथ बेंचमार्क पर OpenAI के o3-mini के करीब स्कोर प्राप्त करता है, जो जटिल गणितीय तर्क समस्याओं को हल करने की अपनी क्षमता का प्रदर्शन करता है।
अनुप्रयोग और उपयोग के मामले
Phi-4 मॉडल विभिन्न प्रकार के अनुप्रयोगों के लिए अच्छी तरह से अनुकूल हैं जिनके लिए उन्नत तर्क क्षमताओं की आवश्यकता होती है।
- शैक्षिक उपकरण: Phi-4-mini-reasoning मॉडल, अपने छोटे आकार और उच्च प्रदर्शन के साथ, शैक्षिक अनुप्रयोगों के लिए आदर्श है। इसका उपयोग इंटरैक्टिव शिक्षण उपकरण बनाने के लिए किया जा सकता है जो छात्रों को व्यक्तिगत प्रतिक्रिया और सहायता प्रदान करते हैं।
- स्थानीय चैटबॉट: Phi-4 मॉडल का उपयोग स्थानीय चैटबॉट बनाने के लिए किया जा सकता है जो उपयोगकर्ताओं को जानकारी और सहायता तक तत्काल पहुंच प्रदान करते हैं। उनका छोटा आकार उन्हें मोबाइल उपकरणों और अन्य संसाधन-बाधित वातावरणों पर तैनात करने की अनुमति देता है।
- Copilot+ PCs: Phi-4 मॉडल Copilot+ PCs के लिए अनुकूलित हैं, जो उपयोगकर्ताओं को एक सहज AI अनुभव प्रदान करते हैं। "Phi Silica" संस्करण मेमोरी में पहले से लोड होता है और लगभग-तत्काल प्रतिक्रिया समय प्रदान करता है।
- ऑफ़लाइन पीढ़ी: विंडोज API आउटलुक या आंतरिक उपकरणों में ऑफ़लाइन पीढ़ी को एकीकृत करने की अनुमति देते हैं, जिससे उपयोगकर्ता इंटरनेट से कनेक्ट न होने पर भी AI क्षमताओं तक पहुंच सकते हैं।
सुरक्षा और जिम्मेदारी
Microsoft जिम्मेदार और नैतिक तरीके से AI मॉडल विकसित और तैनात करने के लिए प्रतिबद्ध है। Phi-4 मॉडल कोई अपवाद नहीं हैं।
- जिम्मेदारी सिद्धांत: Microsoft की AI विकास पाइपलाइन जिम्मेदारी के अपने सिद्धांतों के अनुरूप है, जिसमें जवाबदेही, निष्पक्षता, विश्वसनीयता, सुरक्षा और समावेश शामिल हैं।
- पोस्ट-ट्रेनिंग: Phi-4 मॉडल सार्वजनिक और आंतरिक "सहायक/हानिरहित" उन्मुख डेटासेट से SFT, डायरेक्ट प्रेफरेंस ऑप्टिमाइज़ेशन और RLHF का उपयोग करके पोस्ट-ट्रेनिंग से गुजरते हैं। इससे यह सुनिश्चित करने में मदद मिलती है कि मॉडल सुरक्षित और विश्वसनीय हैं।
- मॉडल कार्ड: Microsoft अपने मॉडलों के लिए "कार्ड" प्रकाशित करता है, जो अवशिष्ट सीमाओं और शमन उपायों का विवरण देते हैं। यह उपयोगकर्ताओं को पारदर्शिता प्रदान करता है और उन्हें मॉडल का उपयोग करने के तरीके के बारे में सूचित निर्णय लेने की अनुमति देता है।
SLM का भविष्य
Phi-4 मॉडल छोटे भाषा मॉडल (SLM) के विकास में एक महत्वपूर्ण कदम का प्रतिनिधित्व करते हैं। उनकी उन्नत तर्क क्षमताएं, उनके छोटे आकार और दक्षता के साथ मिलकर, उन्हें कई अनुप्रयोगों में बड़े भाषा मॉडल (LLM) का एक सम्मोहक विकल्प बनाती हैं।
जैसे-जैसे SLM में सुधार जारी रहेगा, वे AI परिदृश्य में तेजी से महत्वपूर्ण भूमिका निभाएंगे। संसाधन-बाधित उपकरणों पर चलने और तेज़, कुशल प्रदर्शन प्रदान करने की उनकी क्षमता उन्हें शैक्षिक उपकरणों से लेकर स्थानीय चैटबॉट से लेकर एज कंप्यूटिंग उपकरणों तक, अनुप्रयोगों की एक विस्तृत श्रृंखला के लिए अच्छी तरह से अनुकूल बनाती है।
Microsoft की ओपन-सोर्स सिद्धांतों और जिम्मेदार AI विकास के प्रति प्रतिबद्धता Phi-4 मॉडल को AI समुदाय के लिए एक मूल्यवान संसाधन के रूप में और अधिक स्थान देती है। इन शक्तिशाली उपकरणों तक पहुंच को लोकतांत्रिक बनाकर, Microsoft डेवलपर्स को नवीन और प्रभावशाली एप्लिकेशन बनाने का अधिकार दे रहा है जो पूरे समाज को लाभान्वित कर सकते हैं।
तकनीकी पहलुओं पर करीब से नज़र
Phi-4 आर्किटेक्चर और प्रशिक्षण की विशिष्टताओं में गहराई से उतरने से नवीन तकनीकों का पता चलता है जो इन SLM को इतनी प्रभावशाली तर्क क्षमताएं प्राप्त करने में सक्षम बनाती हैं। सावधानीपूर्वक क्यूरेट किए गए डेटासेट, परिष्कृत प्रशिक्षण एल्गोरिदम और दक्षता पर ध्यान केंद्रित करने के संयोजन के परिणामस्वरूप मॉडल का एक परिवार है जो शक्तिशाली और व्यावहारिक दोनों हैं।
डेटा क्यूरेशन और तैयारी
किसी भी मशीन लर्निंग मॉडल की सफलता इस पर निर्भर करती है कि वह किस डेटा पर प्रशिक्षित है, उसकी गुणवत्ता और प्रासंगिकता पर निर्भर करती है। Microsoft ने Phi-4 मॉडल को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटासेट को क्यूरेट करने और तैयार करने में महत्वपूर्ण प्रयास किया।
- OpenAI के o3-mini से तर्क श्रृंखलाएँ: मॉडल जटिल तर्क प्रक्रियाओं में शामिल चरणों को सीखने के लिए OpenAI के o3-mini मॉडल द्वारा उत्पन्न तर्क श्रृंखलाओं का लाभ उठाते हैं। ये श्रृंखलाएँ SLM का अनुसरण करने के लिए एक विस्तृत रोडमैप प्रदान करती हैं, जिससे उन्हें अंतर्निहित तर्क की गहरी समझ विकसित करने में मदद मिलती है।
- सिंथेटिक गणितीय समस्याएँ: Phi-4-mini-reasoning मॉडल को DeepSeek-R1 द्वारा उत्पन्न एक मिलियन गणितीय समस्याओं के सिंथेटिक डेटासेट पर प्रशिक्षित किया जाता है। यह डेटासेट गणितीय चुनौतियों की एक विविध श्रेणी प्रदान करता है, जो मॉडल को मजबूत समस्या-समाधान कौशल विकसित करने की अनुमति देता है।
- सहायक/हानिरहित डेटासेट: मॉडल सहायकता और हानिरहितता को बढ़ावा देने के लिए डिज़ाइन किए गए डेटासेट का उपयोग करके पोस्ट-ट्रेनिंग से गुजरते हैं। यह सुनिश्चित करने में मदद करता है कि मॉडल सुरक्षित और जिम्मेदार आउटपुट उत्पन्न करते हैं।
प्रशिक्षण एल्गोरिदम
Phi-4 मॉडल को पर्यवेक्षित शिक्षण, सुदृढीकरण सीखने और डिस्टिलेशन के संयोजन का उपयोग करके प्रशिक्षित किया जाता है। ये तकनीकें तर्क कार्यों के लिए मॉडल को अनुकूलित करने और यह सुनिश्चित करने के लिए एक साथ काम करती हैं कि वे सटीक और कुशल दोनों हैं।
- पर्यवेक्षित ललित-ट्यूनिंग (SFT): SFT का उपयोग OpenAI के o3-mini मॉडल द्वारा उत्पन्न तर्क श्रृंखलाओं पर मॉडल को ललित-ट्यून करने के लिए किया जाता है। यह मॉडल को विशिष्ट पैटर्न और रिश्तों को सीखने की अनुमति देता है जो जटिल तर्क प्रक्रियाओं की विशेषता हैं।
- सुदृढीकरण सीखना (RL): RL का उपयोग Phi-4-reasoning-plus मॉडल को उसके तर्क की सटीकता और दक्षता के आधार पर एक इनाम संकेत को अधिकतम करने के लिए प्रशिक्षित करने के लिए किया जाता है। यह मॉडल को उन समस्याओं को हल करने के लिए रणनीतियों को विकसित करने के लिए प्रोत्साहित करता है जो प्रभावी और कम्प्यूटेशनल रूप से कुशल दोनों हैं।
- डिस्टिलेशन: डिस्टिलेशन का उपयोग बड़े, अधिक जटिल मॉडल से छोटे Phi-4 मॉडल में ज्ञान स्थानांतरित करने के लिए किया जाता है। यह SLM को अपने कॉम्पैक्ट आकार और दक्षता को बनाए रखते हुए, बहुत बड़े मॉडल के तुलनीय प्रदर्शन स्तरों को प्राप्त करने की अनुमति देता है।
दक्षता के लिए अनुकूलन
Phi-4 मॉडल विकसित करने में प्रमुख लक्ष्यों में से एक उन्हें दक्षता के लिए अनुकूलित करना था। यह उनके डिजाइन और प्रशिक्षण के कई पहलुओं में परिलक्षित होता है।
- कॉम्पैक्ट आर्किटेक्चर: Phi-4 मॉडल को एक कॉम्पैक्ट आर्किटेक्चर के साथ डिज़ाइन किया गया है जो आवश्यक मापदंडों की संख्या को कम करता है। यह मॉडल को चलाने की कम्प्यूटेशनल लागत को कम करता है और उन्हें संसाधन-बाधित उपकरणों पर तैनाती के लिए अच्छी तरह से अनुकूल बनाता है।
- परिमाणीकरण: मॉडल के मेमोरी पदचिह्न को कम करने और उनकी अनुमान गति में सुधार के लिए परिमाणीकरण का उपयोग किया जाता है। इसमें मॉडल के मापदंडों को कम बिट्स का उपयोग करके दर्शाना शामिल है, जो मॉडल को चलाने की कम्प्यूटेशनल लागत को काफी कम कर सकता है।
- हार्डवेयर त्वरण: Phi-4 मॉडल को सीपीयू, जीपीयू और एनपीयू सहित विभिन्न प्लेटफार्मों पर हार्डवेयर त्वरण के लिए अनुकूलित किया गया है। यह उन्हें उपकरणों की एक विस्तृत श्रृंखला पर अधिकतम प्रदर्शन प्राप्त करने की अनुमति देता है।
AI के भविष्य के लिए निहितार्थ
Phi-4 मॉडल AI के विकास में एक महत्वपूर्ण कदम का प्रतिनिधित्व करते हैं, जिनके निहितार्थ उन विशिष्ट अनुप्रयोगों से कहीं अधिक हैं जिनके लिए उन्हें डिज़ाइन किया गया है। अपेक्षाकृत छोटे आकार और कम्प्यूटेशनल संसाधनों के साथ उच्च प्रदर्शन प्राप्त करने की उनकी क्षमता विभिन्न सेटिंग्स में AI को तैनात करने की नई संभावनाओं को खोलती है।
AI का लोकतंत्रीकरण
Phi-4 मॉडल इस तथ्य का प्रमाण हैं कि बड़े कम्प्यूटेशनल संसाधनों या स्वामित्व वाले डेटासेट तक पहुंच की आवश्यकता के बिना शक्तिशाली AI क्षमताएं प्राप्त की जा सकती हैं। यह AI तक पहुंच को लोकतांत्रिक बनाता है, जिससे डेवलपर्स और शोधकर्ताओं को सीमित संसाधनों के साथ भी अभिनव अनुप्रयोग बनाने का अधिकार मिलता है।
एज कंप्यूटिंग
Phi-4 मॉडल का छोटा आकार और दक्षता उन्हें एज कंप्यूटिंग अनुप्रयोगों के लिए अच्छी तरह से अनुकूल बनाती है। यह AI को डेटा स्रोत के करीब तैनात करने की अनुमति देता है, जिससे विलंबता कम होती है और प्रतिक्रियाशीलता में सुधार होता है। एज कंप्यूटिंग में विनिर्माण से लेकर स्वास्थ्य सेवा से लेकर परिवहन तक, उद्योगों की एक विस्तृत श्रृंखला में क्रांति लाने की क्षमता है।
व्यक्तिगत AI
Phi-4 मॉडल को व्यक्तिगत उपयोगकर्ताओं या संगठनों की विशिष्ट आवश्यकताओं को पूरा करने के लिए अनुकूलितऔर अनुकूलित किया जा सकता है। यह व्यक्तिगत AI अनुभवों के निर्माण की अनुमति देता है जो प्रत्येक उपयोगकर्ता की अनूठी आवश्यकताओं के अनुरूप होते हैं। व्यक्तिगत AI में उत्पादकता में सुधार करने, सीखने को बढ़ाने और समग्र कल्याण में सुधार करने की क्षमता है।
टिकाऊ AI
Phi-4 मॉडल बड़े भाषा मॉडल का अधिक टिकाऊ विकल्प हैं, जिसके लिए कम ऊर्जा और कम्प्यूटेशनल संसाधनों की आवश्यकता होती है। यह AI के पर्यावरणीय प्रभाव को कम करने और यह सुनिश्चित करने के लिए महत्वपूर्ण है कि इसे जिम्मेदार और टिकाऊ तरीके से तैनात किया जा सकता है।
Microsoft Phi-4-Reasoning मॉडल AI की लगातार विकसित हो रही दुनिया में सिर्फ एक और पुनरावृत्ति नहीं हैं; वे एक प्रतिमान बदलाव हैं। वे प्रदर्शित करते हैं कि बुद्धिमत्ता केवल आकार और कम्प्यूटेशनल शक्ति का कार्य नहीं है, बल्कि चतुर डिजाइन, डेटा की सावधानीपूर्वक क्यूरेशन और नवीन प्रशिक्षण तकनीकों के माध्यम से प्राप्त की जा सकती है। जैसे-जैसे ये मॉडल विकसित होते रहेंगे, वे AI के लिए नई संभावनाओं को अनलॉक करने और हमारे द्वारा प्रौद्योगिकी के साथ बातचीत करने के तरीके को बदलने के लिए तैयार हैं।