कृत्रिम बुद्धिमत्ता के परिदृश्य में बड़े भाषा मॉडल (LLMs) का आगमन निर्विवाद रूप से एक क्रांतिकारी बदलाव लाया है। हालांकि, एक लगातार चुनौती बनी हुई है: इन मॉडलों को मालिकाना डेटा के साथ प्रभावी ढंग से एकीकृत करना। जबकि LLMs इंटरनेट से बड़ी मात्रा में जानकारी संसाधित करने में कुशल हैं, उनकी वास्तविक क्षमता हमारे अनुप्रयोगों और डेटा के लिए प्राकृतिक भाषा इंटरफेस के रूप में सेवा करने में निहित है, जिससे हमें एक नियंत्रित वातावरण में उनकी भविष्य कहनेवाला और जेनरेटिव क्षमताओं का उपयोग करने की अनुमति मिलती है।
LLM आउटपुट की विश्वसनीयता और प्रासंगिकता सुनिश्चित करने के लिए, विभिन्न रणनीतियां सामने आई हैं, जिनमें से प्रत्येक को इन मॉडलों और विशिष्ट डेटासेट के बीच की खाई को पाटने के लिए डिज़ाइन किया गया है। इन रणनीतियों में कस्टम एम्बेडिंग बनाना और पुनर्प्राप्ति-संवर्धित पीढ़ी (RAG) तकनीकों को नियोजित करना शामिल है - डेटा के भीतर जटिल संबंधों को उजागर करने के लिए ग्राफ डेटाबेस का लाभ उठाना - उपयोगकर्ता संकेतों द्वारा ट्रिगर किए गए OpenAPI कॉलों के माध्यम से प्राप्त डेटा को डिस्टिल और प्रस्तुत करने के लिए LLMs का उपयोग करना। इसके अलावा, OpenAI के ChatGPT द्वारा लोकप्रिय बनाया गया प्लग-इन मॉडल डेटा एकीकरण के लिए एक और मार्ग प्रदान करता है। इन विविध दृष्टिकोणों में, मॉडल संदर्भ प्रोटोकॉल (MCP) LLMs और बाहरी डेटा स्रोतों के बीच कनेक्शन को मानकीकृत करने के लिए एक आशाजनक समाधान के रूप में खड़ा है।
मॉडल संदर्भ प्रोटोकॉल का अनावरण
मॉडल संदर्भ प्रोटोकॉल, जिसे एंथ्रोपिक द्वारा 2024 के अंत में अनावरण किया गया था, LLMs और उपयोगकर्ता-विशिष्ट डेटा के बीच बातचीत को सुव्यवस्थित करने की दिशा में एक महत्वपूर्ण कदम का प्रतिनिधित्व करता है। यह प्रोटोकॉल AI अनुप्रयोगों में संदर्भ की महत्वपूर्ण भूमिका को रेखांकित करता है, यह स्वीकार करते हुए कि AI की सुसंगत और सार्थक आउटपुट देने की क्षमता प्रासंगिक प्रासंगिक जानकारी की उपलब्धता पर निर्भर करती है। समझदार प्रतिक्रियाओं को प्राप्त करने के लिए केवल चैट संकेतों पर निर्भर रहना, सबसे अच्छा, आशावाद में एक अभ्यास है और, सबसे खराब, गलत या भ्रामक परिणामों के लिए एक नुस्खा है। हमारे डेटा के आसपास वर्कफ़्लो को व्यवस्थित करने में सक्षम मजबूत, अर्ध-स्वायत्त एजेंटों का निर्माण करने के लिए, उस डेटा को इन एजेंटों तक पहुंचाने के लिए एक विश्वसनीय तंत्र आवश्यक है।
एक ओपन-सोर्स पहल के रूप में, MCP प्रोग्रामिंग भाषाओं की एक विस्तृत श्रृंखला के लिए SDK कार्यान्वयन प्रदान करता है, साथ ही इसके GitHub रिपॉजिटरी के भीतर व्यापक प्रलेखन भी प्रदान करता है। यह प्रलेखन डेवलपर्स को MCP सर्वर को प्रभावी ढंग से लागू करने या उपयोग करने के लिए सशक्त बनाता है। MCP के परियोजना के विवरण को ‘AI अनुप्रयोगों के लिए एक USB-C पोर्ट’ के रूप में उपयुक्त रूप से इसके सार को कैप्चर करता है, जो विविध डेटा स्रोतों से कनेक्शन को मानकीकृत करने की क्षमता पर प्रकाश डालता है। एक मानकीकृत नींव पर निर्मित, MCP मौजूदा परियोजनाओं के साथ आसानी से एकीकृत होता है, विभिन्न LLMs और अनुमान प्रदाताओं के साथ मूल रूप से इंटरफेसिंग करता है।
MCP का आर्किटेक्चर एक अच्छी तरह से स्थापित क्लाइंट/सर्वर मॉडल का पालन करता है, जहां एक ब्रोकर MCP अनुरोधों को स्थानीय या रिमोट अनुरोधों में अनुवाद करने की जिम्मेदारी लेता है। यह डिज़ाइन इंटरफ़ेस परिभाषा भाषाओं जैसे CORBA की कार्यक्षमता को दर्शाता है, MCP को एक बहुमुखी इंटरऑपरेबिलिटी परत में बदल देता है जो सूचना स्रोतों और LLM अनुप्रयोगों के बीच निर्बाध स्विचिंग को सुविधाजनक बनाता है। एक JSON RPC कनेक्शन का लाभ उठाते हुए, MCP Azure API मैनेजमेंट जैसे टूल के माध्यम से व्यक्तिगत उपयोगकर्ता स्तर पर बारीक नियंत्रण को सक्षम बनाता है।
MCP AI-संचालित कोड के लिए सामान्य इंटरफेस के विकास को बढ़ावा देता है, जो Microsoft के AI विकास प्लेटफार्मों में इसके बढ़ते अपनाने से स्पष्ट है। सिमेंटिक कर्नल मॉडल ऑर्केस्ट्रेशन टूल के भीतर इसके एकीकरण से लेकर Azure OpenAI और Azure AI फाउंड्री के साथ संगत MCP सर्वर के रूप में इसके परिनियोजन तक, MCP तेजी से कर्षण प्राप्त कर रहा है। Microsoft उपयोगकर्ता क्रेडेंशियल्स के आधार पर डेटा एक्सेस को नियंत्रित करने के लिए सुविधाओं के साथ Azure API प्रबंधन को भी बढ़ा रहा है, जिससे सुरक्षित और शासित AI परिनियोजन में MCP की भूमिका और मजबूत हो रही है।
Azure MCP सर्वर: एक प्रारंभिक कार्यान्वयन
ओपन-सोर्स Azure MCP सर्वर, जिसे हाल ही में सार्वजनिक पूर्वावलोकन में जारी किया गया था, Microsoft के प्लेटफॉर्म पर MCP के प्रारंभिक कार्यान्वयन का उदाहरण है। यह सर्वर प्रमुख Azure सेवाओं तक AI पहुंच के लिए एक सामान्य ब्रोकर के रूप में कार्य करता है, जो कई हालिया Azure परियोजनाओं द्वारा अपनाए गए ओपन-सोर्स सिद्धांतों का पालन करता है। इसका कोड GitHub पर आसानी से उपलब्ध है। Azure MCP सर्वर Azure प्लेटफॉर्म के एक बड़े हिस्से तक पहुंच प्रदान करता है, जिसमें डेटाबेस, स्टोरेज समाधान और Azure CLI जैसी सेवाएं शामिल हैं।
Azure CLI (और डेवलपर CLI) के लिए समर्थन का समावेश विशेष रूप से उल्लेखनीय है, क्योंकि यह MCP-संचालित एजेंटों को MCP कॉल को ऑपरेटरों के रूप में मानते हुए सीधे Azure के साथ बातचीत करने के लिए सशक्त बनाता है। यह क्षमता उन एजेंटों के निर्माण का मार्ग प्रशस्त करती है जो Azure के लिए एक प्राकृतिक भाषा स्व-सेवा इंटरफेस प्रदान करते हैं। उदाहरण के लिए, एक एजेंट एक बुनियादी ढांचे के विवरण को ले सकता है और स्वचालित रूप से इसके परिनियोजन के लिए आवश्यक ARM टेम्पलेट उत्पन्न कर सकता है। इस अवधारणा को आगे बढ़ाते हुए, कोई एक मल्टीमॉडल एजेंट की कल्पना कर सकता है जो एक व्हाइटबोर्ड स्केच का विश्लेषण करता है, आवश्यक संसाधनों का विवरण प्राप्त करता है, और फिर बुनियादी ढांचे को तैनात करता है, जिससे तत्काल कोड विकास सक्षम होता है। Azure MCP सर्वर के माध्यम से सुलभ अतिरिक्त सिस्टम प्रशासन सेवाओं में वर्तमान संसाधन समूहों को सूचीबद्ध करना और Azure मॉनिटरिंग लॉग को क्वेरी करने के लिए KQL का लाभ उठाना शामिल है।
GitHub Copilot चैट के साथ Azure MCP सर्वर को एकीकृत करना
क्योंकि यह MCP मानक का पालन करता है, Azure MCP सर्वर किसी भी AI टूल के साथ मूल रूप से एकीकृत होता है जो MCP का समर्थन करता है, जैसे कि GitHub Copilot एजेंट मोड। बस अपने किरायेदार में सर्वर जोड़कर, आप Copilot के माध्यम से प्रश्न पूछना शुरू कर सकते हैं, या तो सीधे या विज़ुअल स्टूडियो कोड एकीकरण के माध्यम से। यह बाद वाला विकल्प MCP का लाभ उठाने और अपने स्वयं के MCP-आधारित AI अनुप्रयोगों के लिए संकेत बनाने के तरीके को सीखने का एक प्रभावी साधन प्रदान करता है।
वर्तमान में, Microsoft ने अभी तक अपनी प्रोग्रामिंग भाषाओं के लिए एक समर्पित MCP टूल जारी नहीं किया है, जिसके लिए कस्टम कोड विकसित करने के लिए आधिकारिक SDK का उपयोग करने की आवश्यकता है। TypeScript, C# और Python के लिए समर्थन के साथ, डेवलपर्स के पास अपने स्वयं के Azure MCP एजेंट बनाने के लिए आवश्यक टूल तक पहुंच है। विज़ुअल स्टूडियो कोड के भीतर प्रयोग किया जा सकता है, मौजूदा Azure क्रेडेंशियल्स का उपयोग करके।
सर्वर आपके विकास PC पर काम करता है और इसके लिए Node.js की आवश्यकता होती है। स्थापना सीधे परियोजना के GitHub रिपॉजिटरी से VS Code में की जाती है। एक बार स्थापित होने के बाद, सुनिश्चित करें कि GitHub Copilot और GitHub Copilot चैट एक्सटेंशन दोनों प्रयोगात्मक एजेंट मोड का उपयोग करने के लिए कॉन्फ़िगर किए गए हैं (VS Code सेटिंग्स टूल के माध्यम से सुलभ)। इसके बाद, GitHub Copilot चैट फलक खोलें और एजेंट मोड पर स्विच करें। सत्यापित करें कि Azure MCP सर्वर टूल ड्रॉपडाउन के भीतर स्थापित है। अब आप “मेरी Azure सदस्यताएँ सूचीबद्ध करें” जैसे प्रश्न सबमिट कर सकते हैं।
परिणामी टूल Azure के साथ काम करने वाले किसी भी व्यक्ति के लिए अमूल्य साबित होता है और Copilot एकीकरण से परे फैला हुआ है। Azure MCP सर्वर को कहीं भी स्थापित किया जा सकता है जहां Node.js समर्थित है, जिससे इसे कस्टम एजेंटों में एकीकृत किया जा सकता है।
Azure AI फाउंड्री में MCP की भूमिका
Microsoft MCP टूल के अपने पोर्टफोलियो का तेजी से विस्तार कर रहा है, MCP के माध्यम से मौजूदा कार्यात्मकताओं को उजागर कर रहा है या एजेंटिक अनुप्रयोगों के भीतर उनके उपभोग को सक्षम कर रहा है। इस तेजी से रोलआउट में Copilot Studio के नो-कोड एजेंट विकास के लिए टूल शामिल हैं, जिसकी घोषणा इस लेख को लिखने के दौरान की गई थी।
Azure AI Foundry, बड़े पैमाने पर AI एप्लिकेशन विकास के लिए Microsoft का प्राथमिक विकास प्लेटफॉर्म, Azure की AI एजेंट सेवा के पूरक के लिए एक MCP सर्वर भी सक्रिय रूप से विकसित कर रहा है। इस एकीकरण का उद्देश्य Azure AI Foundry के भीतर चलने वाले एजेंटों को अन्य AI अनुप्रयोगों के हिस्से के रूप में काम करने वाले ग्राहकों के साथ जोड़ना है।
यह सेवा आपको मौजूदा AI कोड और सेवाओं को जल्दी से पुन: उपयोग करने और उन्हें नए अनुप्रयोगों से जोड़ने की अनुमति देती है। Fabric जैसी सेवाएं अपनी एजेंट सुविधाओं को AI एजेंट सेवा समापन बिंदुओं के रूप में उजागर करती हैं, जिससे AI अनुप्रयोगों को मूल लाइन-ऑफ़-बिज़नेस डेटा से मूल रूप से कनेक्ट करने में सक्षम बनाया जाता है, जिससे मतिभ्रम और त्रुटियों के जोखिम को कम करने के लिए आवश्यक आधार मिलता है।
स्थापना पर, सर्वर एजेंटों से कनेक्ट करने और उन्हें प्रश्न भेजने के लिए MCP क्रियाओं का एक सेट प्रदान करता है। यह उपलब्ध एजेंटों को भी सूचीबद्ध कर सकता है या विशिष्ट कार्यों के लिए एक डिफ़ॉल्ट एजेंट का उपयोग कर सकता है। बातचीत थ्रेड के लिए समर्थन शामिल है, जो एजेंटों को प्रासंगिक बातचीत के लिए एक बुनियादी सिमेंटिक मेमोरी प्रदान करता है। MCP का उपयोग करके उन्हें लागू करने के लिए आपको Azure AI एजेंट सेवा एजेंट आईडी की आवश्यकता होगी।
सर्वर को Python में लागू किया गया है और इसे pip
के माध्यम से Azure CLI का उपयोग करके स्थापित किया जा सकता है। वैकल्पिक रूप से, TypeScript संस्करण उन लोगों के लिए उपलब्ध है जो इसे पसंद करते हैं। Azure MCP सर्वर के समान, यह सर्वर AI Foundry वातावरण के बाहर काम करता है, जिससे इसे विकास PC पर या अपने स्वयं के कंटेनर या VM के भीतर क्लाउड-होस्ट किए गए एप्लिकेशन के हिस्से के रूप में स्थापित किया जा सकता है, जिसमें Windows, macOS और Linux के लिए समर्थन है।
सिमेंटिक कर्नल AI अनुप्रयोगों से MCP सर्वर का लाभ उठाना
एक खुले मानक के रूप में, MCP किसी भी क्लाइंट के साथ सर्वर संगतता को सक्षम बनाता है। GitHub रिपॉजिटरी एंथ्रोपिक के Claude Desktop का उपयोग करके कनेक्शन स्थापित करने के तरीके पर निर्देश प्रदान करता है, लेकिन वास्तविक मूल्य सिमेंटिक कर्नल के भीतर कस्टम एजेंट वर्कफ़्लो बनाने में निहित है।
Microsoft नमूना कोड प्रदान करता है जो यह दर्शाता है कि MCP समर्थन को सिमेंटिक कर्नल ऑर्केस्ट्रेशन में कैसे एकीकृत किया जाए, इसे एक कर्नल प्लग-इन के रूप में माना जाए जो परिचित फ़ंक्शन कॉल के साथ एकीकृत होता है। इन एकीकरणों को एजेंटों के रूप में लपेटा जा सकता है और आवश्यकतानुसार एक्सेस किया जा सकता है। जबकि सिमेंटिक कर्नल के भीतर MCP एकीकरण अभी भी विकास के अधीन है, यह अपनी मौजूदा सुविधा सेट के साथ मूल रूप से एकीकृत होता है, जिससे AI अनुप्रयोगों के लिए सर्वर से MCP टूल को उजागर करने के लिए न्यूनतम अतिरिक्त कोड की आवश्यकता होती है।
MCP जैसे उपकरण एक आधुनिक AI स्टैक के महत्वपूर्ण घटक हैं, जो स्थानीय और दूरस्थ दोनों अनुप्रयोगों के लिए खोज योग्य इंटरफेस बनाने के लिए एक मानकीकृत दृष्टिकोण प्रदान करते हैं। एक बार परिभाषित हो जाने के बाद, MCP टूल को आसानी से लागू किया जाता है, एक सर्वर उपलब्ध टूल की एक सूची प्रदान करता है और MCP LLMs को उन टूल को कॉल करने और उनके आउटपुट का उपयोग करने का एक मानकीकृत साधन प्रदान करता है। यह दृष्टिकोण AI अनुप्रयोगों के लिए एक सार्वभौमिक ग्राउंडिंग टूल प्रदान करने में महत्वपूर्ण योगदान देता है, जो मानक API, डेटाबेस क्वेरी और AI एजेंटों के साथ समान रूप से काम करता है।