لارج لینگویج ماڈلز (LLMs) کی آمد نے بلاشبہ مصنوعی ذہانت کے منظر نامے میں انقلاب برپا کر دیا ہے۔ تاہم، ایک مستقل چیلنج باقی ہے: ان ماڈلز کو ملکیتی ڈیٹا کے ساتھ مؤثر طریقے سے مربوط کرنا۔ اگرچہ LLMs انٹرنیٹ سے معلومات کی وسیع مقدار کو پروسیس کرنے میں ماہر ہیں، لیکن ان کی حقیقی صلاحیت ہماری ایپلی کیشنز اور ڈیٹا کے لیے قدرتی لسانی انٹرفیس کے طور پر کام کرنے میں مضمر ہے، جس سے ہم ایک کنٹرولڈ ماحول میں ان کی پیشن گوئی کرنے اور پیدا کرنے کی صلاحیتوں کو بروئے کار لا سکتے ہیں۔
LLM آؤٹ پٹ کی وشوسنییتا اور مطابقت کو یقینی بنانے کے لیے، مختلف حکمت عملیوں نے جنم لیا ہے، جن میں سے ہر ایک کو ان ماڈلز اور مخصوص ڈیٹا سیٹس کے درمیان فرق کو ختم کرنے کے لیے ڈیزائن کیا گیا ہے۔ یہ حکمت عملی کسٹم ایمبیڈنگ بنانے اور ریٹریول-اگمینٹڈ جنریشن (RAG) تکنیکوں کو استعمال کرنے سے لے کر ہیں – ڈیٹا کے اندر پیچیدہ تعلقات کو بے نقاب کرنے کے لیے گراف ڈیٹا بیسز کا فائدہ اٹھانا – صارف کے اشارے سے متحرک OpenAPI کالوں کے ذریعے حاصل کردہ ڈیٹا کو کشید کرنے اور پیش کرنے کے لیے LLMs کا استعمال کرنا۔ مزید برآں، OpenAI کے ChatGPT کے ذریعے مقبول کردہ پلگ ان ماڈل ڈیٹا انضمام کے لیے ایک اور راستہ پیش کرتا ہے۔ ان متنوع طریقوں میں، ماڈل کانٹیکسٹ پروٹوکول (MCP) LLMs اور بیرونی ڈیٹا ذرائع کے درمیان کنکشن کو معیاری بنانے کے لیے ایک امید افزا حل کے طور پر نمایاں ہے۔
ماڈل کانٹیکسٹ پروٹوکول کی نقاب کشائی
ماڈل کانٹیکسٹ پروٹوکول، جسے Anthropic نے 2024 کے آخر میں منظر عام پر لایا تھا، LLMs اور صارف کے مخصوص ڈیٹا کے درمیان تعامل کو ہموار کرنے کی جانب ایک اہم قدم کی نمائندگی کرتا ہے۔ یہ پروٹوکول AI ایپلی کیشنز میں سیاق و سباق کے اہم کردار کو اجاگر کرتا ہے، اس بات کو تسلیم کرتے ہوئے کہ AI کی مربوط اور بامعنی آؤٹ پٹ فراہم کرنے کی صلاحیت متعلقہ سیاق و سباق کی معلومات کی دستیابی پر منحصر ہے۔ سمجھدار ردعمل حاصل کرنے کے لیے صرف چیٹ پرامپٹس پر انحصار کرنا، بہترین طور پر، رجائیت میں ایک مشق ہے اور، بدترین طور پر، غلط یا گمراہ کن نتائج کے لیے ایک نسخہ ہے۔ مضبوط، نیم خود مختار ایجنٹوں کی تعمیر کے لیے جو ہمارے ڈیٹا کے گرد ورک فلوز کو ترتیب دینے کے قابل ہوں، ان ایجنٹوں کو وہ ڈیٹا فراہم کرنے کے لیے ایک قابل اعتماد میکانزم ضروری ہے۔
ایک اوپن سورس پہل کے طور پر، MCP پروگرامنگ زبانوں کی ایک وسیع صف کے لیے SDK نفاذ فراہم کرتا ہے، اس کے GitHub ذخیرے کے اندر جامع دستاویزات کے ساتھ۔ یہ دستاویزات ڈویلپرز کو MCP سرورز کو مؤثر طریقے سے نافذ کرنے یا استعمال کرنے کی طاقت دیتی ہیں۔ MCP کی پروجیکٹ کی وضاحت ‘AI ایپلی کیشنز کے لیے USB-C پورٹ’ کے طور پر اس کے جوہر کو مناسب طور پر حاصل کرتی ہے، اس کی مختلف ڈیٹا ذرائع سے کنکشن کو معیاری بنانے کی صلاحیت کو اجاگر کرتی ہے۔ ایک معیاری بنیاد پر تعمیر کیا گیا، MCP موجودہ پروجیکٹس کے ساتھ آسانی سے مربوط ہوتا ہے، مختلف LLMs اور انفرنس فراہم کرنے والوں کے ساتھ بغیر کسی رکاوٹ کے تعامل کرتا ہے۔
MCP کا فن تعمیر ایک اچھی طرح سے قائم کلائنٹ/سرور ماڈل کی پیروی کرتا ہے، جہاں ایک بروکر MCP درخواستوں کو مقامی یا دور دراز درخواستوں میں ترجمہ کرنے کی ذمہ داری قبول کرتا ہے۔ یہ ڈیزائن انٹرفیس ڈیفینیشن لینگویجز جیسے CORBA کی فعالیت کی عکاسی کرتا ہے، MCP کو ایک ورسٹائل انٹرآپریبلٹی لیئر میں تبدیل کرتا ہے جو معلومات کے ذرائع اور LLM ایپلی کیشنز کے درمیان بغیر کسی رکاوٹ کے سوئچنگ کی سہولت فراہم کرتا ہے۔ JSON RPC کنکشن کا فائدہ اٹھاتے ہوئے، MCP Azure API مینجمنٹ جیسے ٹولز کے ذریعے انفرادی صارف کی سطح پر ٹھیک دانے دار کنٹرول کو قابل بناتا ہے۔
MCP AI سے چلنے والے کوڈ کے لیے عام انٹرفیس کی ترقی کو فروغ دیتا ہے، جو مائیکروسافٹ کے AI ڈویلپمنٹ پلیٹ فارمز میں اس کے بڑھتے ہوئے استعمال سے ظاہر ہوتا ہے۔ سیمینٹک کرنل ماڈل آرکیسٹریشن ٹول کے اندر اس کے انضمام سے لے کر Azure OpenAI اور Azure AI فاؤنڈری کے ساتھ مطابقت رکھنے والے MCP سرورز کے طور پر اس کی تعیناتی تک، MCP تیزی سے مقبولیت حاصل کر رہا ہے۔ مائیکروسافٹ صارف کی اسناد کی بنیاد پر ڈیٹا تک رسائی کو کنٹرول کرنے کے لیے خصوصیات کے ساتھ Azure API مینجمنٹ کو بھی بڑھا رہا ہے، مزید محفوظ اور زیر انتظام AI تعیناتیوں میں MCP کے کردار کو مستحکم کر رہا ہے۔
Azure MCP سرور: ایک ابتدائی نفاذ
اوپن سورس Azure MCP سرور، جو حال ہی میں پبلک پریویو میں جاری کیا گیا ہے، مائیکروسافٹ کے پلیٹ فارم پر MCP کے ابتدائی نفاذ کی مثال ہے۔ یہ سرور کلیدی Azure سروسز تک AI رسائی کے لیے ایک عام بروکر کے طور پر کام کرتا ہے، جو بہت سے حالیہ Azure پروجیکٹس کے ذریعے اپنائے گئے اوپن سورس اصولوں پر عمل پیرا ہے۔ اس کا کوڈ GitHub پر آسانی سے دستیاب ہے۔ Azure MCP سرور Azure پلیٹ فارم کے ایک بڑے حصے تک رسائی فراہم کرتا ہے، بشمول ڈیٹا بیس، اسٹوریج سلوشنز، اور Azure CLI جیسی سروسز۔
Azure CLI (اور ڈویلپر CLI) کے لیے سپورٹ کا شامل ہونا خاص طور پر قابل ذکر ہے، کیونکہ یہ MCP سے چلنے والے ایجنٹوں کو Azure کے ساتھ براہ راست تعامل کرنے، MCP کالوں کو آپریٹرز کے طور پر برتنے کی طاقت دیتا ہے۔ یہ صلاحیت ان ایجنٹوں کی تعمیر کی راہ ہموار کرتی ہے جو Azure کے لیے قدرتی لسانی خود سروس انٹرفیس پیش کرتے ہیں۔ مثال کے طور پر، ایک ایجنٹ انفراسٹرکچر کی تفصیل لے سکتا ہے اور خود بخود اس کی تعیناتی کے لیے درکار ARM ٹیمپلیٹس تیار کر سکتا ہے۔ اس تصور کو مزید بڑھاتے ہوئے، کوئی ایک ملٹی موڈل ایجنٹ کا تصور کر سکتا ہے جو وائٹ بورڈ اسکیچ کا تجزیہ کرتا ہے، ضروری وسائل کی تفصیل اخذ کرتا ہے، اور پھر انفراسٹرکچر کو تعینات کرتا ہے، جس سے فوری کوڈ کی ترقی ممکن ہوتی ہے۔ Azure MCP سرور کے ذریعے قابل رسائی اضافی سسٹم ایڈمنسٹریشن سروسز میں موجودہ ریسورس گروپس کی فہرست بنانا اور Azure مانیٹرنگ لاگز کو استفسار کرنے کے لیے KQL کا فائدہ اٹھانا شامل ہے۔
GitHub Copilot چیٹ کے ساتھ Azure MCP سرور کو مربوط کرنا
چونکہ یہ MCP معیار پر عمل پیرا ہے، اس لیے Azure MCP سرور کسی بھی AI ٹول کے ساتھ بغیر کسی رکاوٹ کے مربوط ہوتا ہے جو MCP کو سپورٹ کرتا ہے، جیسے کہ GitHub Copilot Agent Mode۔ محض اپنے کرایہ دار میں سرور شامل کر کے، آپ Copilot کے ذریعے سوالات پوچھنا شروع کر سکتے ہیں، یا تو براہ راست یا Visual Studio Code انضمام کے ذریعے ۔ یہ بعد والا آپشن MCP کا فائدہ اٹھانے اور اپنی MCP پر مبنی AI ایپلی کیشنز کے لیے اشارے کی تعمیر کا طریقہ سیکھنے کا ایک مؤثر ذریعہ فراہم کرتا ہے۔
فی الحال، مائیکروسافٹ نے ابھی تک اپنی پروگرامنگ زبانوں کے لیے ایک وقف شدہ MCP ٹول جاری نہیں کیا ہے، جس کے لیے کسٹم کوڈ تیار کرنے کے لیے آفیشل SDKs کے استعمال کی ضرورت ہے۔ TypeScript، C#، اور Python کے لیے سپورٹ کے ساتھ، ڈویلپرز کو اپنے Azure MCP ایجنٹ بنانے کے لیے ضروری ٹولز تک رسائی حاصل ہے۔ موجودہ Azure اسناد کا استعمال کرتے ہوئے Visual Studio Code کے اندر تجربات کیے جا سکتے ہیں۔
سرور آپ کے ڈویلپمنٹ پی سی پر کام کرتا ہے اور اسے Node.js کی ضرورت ہوتی ہے۔ انسٹالیشن براہ راست پروجیکٹ کے GitHub ذخیرے سے VS کوڈ میں مکمل ہو جاتی ہے۔ ایک بار انسٹال ہونے کے بعد، اس بات کو یقینی بنائیں کہ GitHub Copilot اور GitHub Copilot Chat دونوں ایکسٹینشنز کو تجرباتی ایجنٹ موڈ استعمال کرنے کے لیے کنفیگر کیا گیا ہے (VS کوڈ سیٹنگز ٹول کے ذریعے قابل رسائی)۔ اس کے بعد، GitHub Copilot چیٹ پین کھولیں اور ایجنٹ موڈ پر سوئچ کریں۔ تصدیق کریں کہ Azure MCP سرور ٹولز ڈراپ ڈاؤن کے اندر انسٹال ہے۔ اب آپ سوالات جمع کر سکتے ہیں، جیسے ‘میری Azure سبسکرپشنز کی فہرست بنائیں’۔
نتیجہ خیز ٹول Azure کے ساتھ کام کرنے والے کسی بھی شخص کے لیے انمول ثابت ہوتا ہے اور Copilot انضمام سے آگے بڑھتا ہے۔ Azure MCP سرور کو جہاں بھی Node.js سپورٹ کیا جاتا ہے، انسٹال کیا جا سکتا ہے، جس سے اسے کسٹم ایجنٹوں میں ضم کیا جا سکتا ہے۔
Azure AI فاؤنڈری میں MCP کا کردار
مائیکروسافٹ MCP ٹولز کے اپنے پورٹ فولیو کو تیزی سے بڑھا رہا ہے، موجودہ افعال کو MCP کے ذریعے بے نقاب کر رہا ہے یا انہیں ایجنٹک ایپلی کیشنز کے اندر ان کے استعمال کو فعال کر رہا ہے۔ اس تیز رول آؤٹ میں Copilot Studio کی نو کوڈ ایجنٹ ڈویلپمنٹ کے لیے ٹولز شامل ہیں، جن کا اعلان اس مضمون کے لکھے جانے کے دوران کیا گیا تھا۔
Azure AI فاؤنڈری، بڑے پیمانے پر AI ایپلی کیشن ڈویلپمنٹ کے لیے مائیکروسافٹ کا بنیادی ڈویلپمنٹ پلیٹ فارم، Azure کی AI ایجنٹ سروس کی تکمیل کے لیے ایک MCP سرور بھی فعال طور پر تیار کر رہا ہے۔ اس انضمام کا مقصد Azure AI فاؤنڈری کے اندر چلنے والے ایجنٹوں کو دیگر AI ایپلی کیشنز کے حصے کے طور پر کام کرنے والے کلائنٹس سے جوڑنا ہے۔
یہ سروس آپ کو موجودہ AI کوڈ اور سروسز کو جلدی سے دوبارہ استعمال کرنے اور انہیں نئی ایپلی کیشنز سے جوڑنے کی اجازت دیتی ہے۔ Fabric جیسی خدمات اپنی ایجنٹ خصوصیات کو AI ایجنٹ سروس اینڈ پوائنٹس کے طور پر بے نقاب کرتی ہیں، جس سے AI ایپلی کیشنز کو بنیادی لائن آف بزنس ڈیٹا سے بغیر کسی رکاوٹ کے جڑنے کے قابل بنایا جاتا ہے، جو فریب اور غلطیوں کے خطرات کو کم کرنے کے لیے ضروری گراؤنڈنگ فراہم کرتی ہے۔
انسٹالیشن پر، سرور ایجنٹوں سے منسلک ہونے اور انہیں سوالات بھیجنے کے لیے MCP ایکشنز کا ایک سیٹ فراہم کرتا ہے۔ یہ دستیاب ایجنٹوں کی فہرست بھی بنا سکتا ہے یا مخصوص کاموں کے لیے ایک ڈیفالٹ ایجنٹ استعمال کر سکتا ہے۔ گفتگو کے دھاگوں کے لیے سپورٹ شامل ہے، جو ایجنٹوں کو سیاق و سباق کی گفتگو کے لیے ایک بنیادی سیمینٹک میموری فراہم کرتا ہے۔ MCP کا استعمال کرتے ہوئے ان کو طلب کرنے کے لیے آپ کو Azure AI ایجنٹ سروس ایجنٹ IDs کی ضرورت ہوگی۔
سرور Python میں لاگو کیا گیا ہے اور اسے pip
کے ذریعے Azure CLI کا استعمال کرتے ہوئے انسٹال کیا جا سکتا ہے۔ متبادل طور پر، ان لوگوں کے لیے ایک TypeScript ورژن دستیاب ہے جو اسے ترجیح دیتے ہیں۔ Azure MCP سرور کی طرح، یہ سرور AI فاؤنڈری ماحول سے باہر کام کرتا ہے، جس سے اسے ایک ڈویلپمنٹ پی سی پر یا کلاؤڈ میں ہوسٹ کی جانے والی ایپلی کیشن کے حصے کے طور پر اپنے کنٹینر یا VM میں انسٹال کرنے کی اجازت ملتی ہے، ونڈوز، macOS اور Linux کے لیے سپورٹ کے ساتھ۔
سیمینٹک کرنل AI ایپلی کیشنز سے MCP سرورز کا فائدہ اٹھانا
ایک کھلے معیار کے طور پر، MCP کسی بھی کلائنٹ کے ساتھ سرور مطابقت کو فعال کرتا ہے۔ GitHub ذخیرہ اینتھروپک کے کلاڈ ڈیسک ٹاپ کا استعمال کرتے ہوئے کنکشن قائم کرنے کے بارے میں ہدایات فراہم کرتا ہے، لیکن حقیقی قدر سیمینٹک کرنل کے اندر کسٹم ایجنٹ ورک فلوز کی تعمیر میں مضمر ہے۔
مائیکروسافٹ سیمینٹک کرنل آرکیسٹریشن میں MCP سپورٹ کو مربوط کرنے کا طریقہ دکھانے والا نمونہ کوڈ فراہم کرتا ہے، اس کے ساتھ ایک کرنل پلگ ان کے طور پر برتاؤ کرتا ہے جو مانوس فنکشن کالوں کے ساتھ مربوط ہوتا ہے۔ ان انضمام کو ایجنٹوں کے طور پر لپیٹا جا سکتا ہے اور ضرورت کے مطابق ان تک رسائی حاصل کی جا سکتی ہے۔ اگرچہ سیمینٹک کرنل کے اندر MCP انضمام ابھی تک زیر تعمیر ہے، لیکن یہ اس کے موجودہ فیچر سیٹ کے ساتھ بغیر کسی رکاوٹ کے مربوط ہوتا ہے، جس کے لیے کسی سرور سے AI ایپلی کیشنز کو MCP ٹولز کو بے نقاب کرنے کے لیے کم سے کم اضافی کوڈ کی ضرورت ہوتی ہے۔
MCP جیسے ٹولز ایک جدید AI اسٹیک کے اہم اجزاء ہیں، جو مقامی اور دور دراز دونوں ایپلی کیشنز کے لیے قابل دریافت انٹرفیس کی تعمیر کے لیے ایک معیاری طریقہ فراہم کرتے ہیں۔ ایک بار وضاحت کرنے کے بعد، MCP ٹولز کو آسانی سے طلب کیا جاتا ہے، ایک سرور دستیاب ٹولز کی فہرست فراہم کرتا ہے اور MCP LLMs کو ان ٹولز کو کال کرنے اور ان کی آؤٹ پٹ کو استعمال کرنے کا ایک معیاری ذریعہ فراہم کرتا ہے۔ یہ طریقہ AI ایپلی کیشنز کے لیے ایک عالمگیر گراؤنڈنگ ٹول فراہم کرنے میں نمایاں طور پر معاون ہے، جو معیاری APIs، ڈیٹا بیس استفسارات، اور AI ایجنٹوں کے ساتھ یکساں طور پر کام کرتا ہے۔