شهد ظهور نماذج اللغات الكبيرة (LLMs) بلا شك ثورة في مشهد الذكاء الاصطناعي. ومع ذلك، لا يزال هناك تحدٍ مستمر واحد: دمج هذه النماذج بشكل فعال مع البيانات الخاصة. في حين أن نماذج LLMs بارعة في معالجة كميات هائلة من المعلومات من الإنترنت، إلا أن إمكاناتها الحقيقية تكمن في العمل كواجهات لغة طبيعية لتطبيقاتنا وبياناتنا، مما يسمح لنا بتسخير قدراتها التنبؤية والتوليدية داخل بيئة خاضعة للرقابة.
لضمان موثوقية وأهمية مخرجات LLM، ظهرت استراتيجيات مختلفة، تم تصميم كل منها لسد الفجوة بين هذه النماذج ومجموعات بيانات محددة. تتراوح هذه الاستراتيجيات من إنشاء تضمينات مخصصة وتوظيف تقنيات التوليد المعزز للاسترجاع (RAG) - الاستفادة من قواعد بيانات الرسوم البيانية للكشف عن العلاقات المعقدة داخل البيانات - إلى استخدام LLMs لتقطير وتقديم البيانات التي تم الحصول عليها من خلال مكالمات OpenAPI التي تثيرها مطالبات المستخدم. علاوة على ذلك، يقدم نموذج المكونات الإضافية الذي اشتهر به ChatGPT من OpenAI وسيلة أخرى لدمج البيانات. من بين هذه الأساليب المتنوعة، يبرز بروتوكول سياق النموذج (MCP) كحل واعد لتوحيد الاتصال بين LLMs ومصادر البيانات الخارجية.
الكشف عن بروتوكول سياق النموذج
يمثل بروتوكول سياق النموذج، الذي كشفت عنه Anthropic في أواخر عام 2024، خطوة مهمة نحو تبسيط التفاعل بين LLMs وبيانات المستخدم المحددة. يؤكد هذا البروتوكول على الدور الحاسم للسياق في تطبيقات الذكاء الاصطناعي، مع الاعتراف بأن قدرة الذكاء الاصطناعي على تقديم مخرجات متماسكة وذات مغزى تعتمد على توافر المعلومات السياقية ذات الصلة. إن الاعتماد فقط على مطالبات الدردشة لاستنباط استجابات معقولة هو، في أحسن الأحوال، ممارسة في التفاؤل، وفي أسوأ الأحوال، وصفة لنتائج غير دقيقة أو مضللة. لبناء وكلاء أقوياء وشبه مستقلين قادرين على تنظيم سير العمل حول بياناتنا، فإن آلية موثوقة لتسليم تلك البيانات إلى هؤلاء الوكلاء أمر ضروري.
كمبادرة مفتوحة المصدر، يوفر MCP تطبيقات SDK لمجموعة واسعة من لغات البرمجة، مصحوبة بوثائق شاملة داخل مستودع GitHub الخاص به. تمكن هذه الوثائق المطورين من تنفيذ أو استخدام خوادم MCP بشكل فعال. إن وصف المشروع لـ MCP بأنه ‘منفذ USB-C لتطبيقات الذكاء الاصطناعي’ يلتقط جوهره على نحو مناسب، ويسلط الضوء على قدرته على توحيد الاتصالات بمصادر البيانات المتنوعة. استنادًا إلى أساس موحد، يتكامل MCP بسهولة مع المشاريع الحالية، ويتعامل بسلاسة مع مختلف LLMs وموفري الاستدلال.
تتبع بنية MCP نموذج العميل/الخادم الراسخ، حيث يتحمل الوسيط مسؤولية ترجمة طلبات MCP إلى طلبات محلية أو بعيدة. يعكس هذا التصميم وظائف لغات تعريف الواجهة مثل CORBA، وتحويل MCP إلى طبقة تشغيل متعددة الاستخدامات تسهل التبديل السلس بين مصادر المعلومات وتطبيقات LLM. من خلال الاستفادة من اتصال JSON RPC، يتيح MCP التحكم الدقيق على مستوى المستخدم الفردي من خلال أدوات مثل Azure API Management.
يعزز MCP تطوير واجهات عامة للتعليمات البرمجية التي تعتمد على الذكاء الاصطناعي، ويتضح ذلك من خلال اعتماده المتزايد عبر منصات تطوير الذكاء الاصطناعي من Microsoft. من خلال تكامله داخل أداة تنسيق نموذج Semantic Kernel إلى نشره كخوادم MCP متوافقة مع Azure OpenAI وAzure AI Foundry، يكتسب MCP زخمًا سريعًا. تقوم Microsoft أيضًا بتحسين Azure API Management بميزات للتحكم في الوصول إلى البيانات بناءً على بيانات اعتماد المستخدم، مما يزيد من تعزيز دور MCP في عمليات نشر الذكاء الاصطناعي الآمنة والمحكومة.
Azure MCP Server: تطبيق مبكر
يُعد خادم Azure MCP مفتوح المصدر، الذي تم إصداره مؤخرًا في معاينة عامة، مثالًا على التطبيق المبكر لـ MCP على نظام Microsoft الأساسي. يعمل هذا الخادم كوسيط مشترك للوصول إلى الذكاء الاصطناعي إلى خدمات Azure الرئيسية، مع الالتزام بمبادئ المصادر المفتوحة التي تتبناها العديد من مشاريع Azure الحديثة. التعليمات البرمجية الخاصة به متاحة بسهولة على GitHub. يوفر Azure MCP Server الوصول إلى جزء كبير من نظام Azure الأساسي، بما في ذلك قواعد البيانات وحلول التخزين والخدمات مثل Azure CLI.
إن تضمين الدعم لـ Azure CLI (و Developer CLI) جدير بالذكر بشكل خاص، لأنه يمكّن الوكلاء الذين يحركهم MCP من التفاعل مع Azure مباشرةً، ومعاملة مكالمات MCP كعوامل تشغيل. يمهد هذا الطريق لبناء وكلاء يقدمون واجهة خدمة ذاتية للغة الطبيعية إلى Azure. على سبيل المثال، يمكن للوكيل أن يأخذ وصفًا للبنية التحتية ويقوم تلقائيًا بإنشاء قوالب ARM المطلوبة لنشره. بتوسيع هذا المفهوم، يمكن للمرء أن يتصور وكيلاً متعدد الوسائط يحلل رسمًا تخطيطيًا للوحة بيضاء، ويستمد وصفًا للموارد الضرورية، ثم ينشر البنية التحتية، مما يتيح تطوير التعليمات البرمجية الفورية. تشمل خدمات إدارة النظام الإضافية التي يمكن الوصول إليها من خلال Azure MCP Server سرد مجموعات الموارد الحالية والاستفادة من KQL للاستعلام عن سجلات Azure Monitoring.
دمج Azure MCP Server مع GitHub Copilot Chat
نظرًا لأنه يلتزم بمعيار MCP، يتكامل Azure MCP Server بسلاسة مع أي أداة ذكاء اصطناعي تدعم MCP، مثل GitHub Copilot Agent Mode. بمجرد إضافة الخادم إلى المستأجر الخاص بك، يمكنك البدء في طرح الأسئلة من خلال Copilot، إما مباشرة أو عبر تكامل Visual Studio Code. يوفر هذا الخيار الأخير وسيلة فعالة لتعلم كيفية الاستفادة من MCP وإنشاء مطالبات لتطبيقات الذكاء الاصطناعي الخاصة بك المستندة إلى MCP.
حاليًا، لم تصدر Microsoft بعد أداة MCP مخصصة للغات البرمجة الخاصة بها، مما يستلزم استخدام SDKs الرسمية لتطوير التعليمات البرمجية المخصصة. مع دعم TypeScript وC# وPython، يمكن للمطورين الوصول إلى الأدوات اللازمة لإنشاء وكلاء Azure MCP الخاصين بهم. يمكن إجراء التجارب داخل Visual Studio Code، باستخدام بيانات اعتماد Azure الحالية.
يعمل الخادم على جهاز الكمبيوتر الخاص بك ويتطلب Node.js. يتم إنجاز التثبيت مباشرة من مستودع GitHub الخاص بالمشروع في VS Code. بمجرد التثبيت، تأكد من تهيئة كل من امتدادات GitHub Copilot وGitHub Copilot Chat لاستخدام وضع الوكيل التجريبي (يمكن الوصول إليه عبر أداة إعدادات VS Code). بعد ذلك، افتح جزء الدردشة GitHub Copilot وانتقل إلى وضع الوكيل. تحقق من تثبيت Azure MCP Server داخل القائمة المنسدلة للأدوات. يمكنك الآن إرسال استعلامات، مثل ‘List my Azure subscriptions’.
تثبت الأداة الناتجة أنها لا تقدر بثمن لأي شخص يعمل مع Azure وتمتد إلى ما وراء تكامل Copilot. يمكن تثبيت Azure MCP Server أينما كان Node.js مدعومًا، مما يتيح دمجه في وكلاء مخصصين.
دور MCP في Azure AI Foundry
تعمل Microsoft على توسيع حافظتها من أدوات MCP بسرعة، وكشف الوظائف الحالية من خلال MCP أو تمكين استهلاكها داخل التطبيقات العاملة. يتضمن هذا التوزيع السريع أدوات لتطوير وكيل بدون تعليمات برمجية في Copilot Studio، والذي تم الإعلان عنه أثناء كتابة هذه المقالة.
تعمل Azure AI Foundry، وهي منصة التطوير الرئيسية من Microsoft لتطوير تطبيقات الذكاء الاصطناعي واسعة النطاق، أيضًا على تطوير MCP Server لتكملة Azure’s AI Agent Service. يهدف هذا التكامل إلى ربط الوكلاء الذين يعملون داخل Azure AI Foundry بالعملاء الذين يعملون كجزء من تطبيقات الذكاء الاصطناعي الأخرى.
تتيح لك هذه الخدمة إعادة استخدام التعليمات البرمجية وخدمات الذكاء الاصطناعي الحالية بسرعة وربطها بتطبيقات جديدة. تعرض خدمات مثل Fabric ميزات الوكيل الخاصة بها كنقاط نهاية AI Agent Service، مما يتيح لتطبيقات الذكاء الاصطناعي الاتصال بسلاسة ببيانات خط الأعمال الأساسية، مما يوفر أساسًا أساسيًا للتخفيف من مخاطر الهلوسة والأخطاء.
عند التثبيت، يوفر الخادم مجموعة من إجراءات MCP للاتصال بالوكلاء وإرسال الاستعلامات إليهم. يمكنه أيضًا سرد الوكلاء المتاحين أو استخدام وكيل افتراضي لمهام محددة. يتم تضمين دعم سلاسل المحادثات، مما يوفر للوكلاء ذاكرة دلالية أساسية للمحادثات السياقية. ستحتاج إلى معرّفات وكيل Azure AI Agent Service لاستدعائها باستخدام MCP.
تم تنفيذ الخادم في Python ويمكن تثبيته باستخدام Azure CLI عبر pip
. بدلاً من ذلك، يتوفر إصدار TypeScript لأولئك الذين يفضلونه. على غرار Azure MCP Server، يعمل هذا الخادم خارج بيئة AI Foundry، مما يسمح بتثبيته على جهاز كمبيوتر قيد التطوير أو كجزء من تطبيق مستضاف على السحابة داخل الحاوية أو الجهاز الظاهري الخاص به، مع دعم Windows وmacOS وLinux.
الاستفادة من خوادم MCP من تطبيقات Semantic Kernel AI
بصفته معيارًا مفتوحًا، يتيح MCP توافق الخادم مع أي عميل. يوفر مستودع GitHub إرشادات حول كيفية إنشاء اتصال باستخدام Claude Desktop من Anthropic، ولكن تكمن القيمة الحقيقية في بناء مهام سير عمل الوكيل المخصصة داخل Semantic Kernel.
توفر Microsoft نموذج التعليمات البرمجية الذي يوضح كيفية دمج دعم MCP في تنسيق Semantic Kernel، ومعاملته كمكون إضافي للنواة يتكامل مع استدعاءات الوظائف المألوفة. يمكن تغليف عمليات التكامل هذه كوكلاء والوصول إليها حسب الحاجة. في حين أن تكامل MCP داخل Semantic Kernel لا يزال قيد التطوير، إلا أنه يتكامل بسلاسة مع مجموعة الميزات الحالية الخاصة به، مما يتطلب الحد الأدنى من التعليمات البرمجية الإضافية لعرض أدوات MCP من الخادم إلى تطبيقات الذكاء الاصطناعي.
تعد أدوات مثل MCP مكونات مهمة في مجموعة أدوات الذكاء الاصطناعي الحديثة، مما يوفر نهجًا موحدًا لبناء واجهات قابلة للاكتشاف للتطبيقات المحلية والبعيدة. بمجرد تعريفها، يتم استدعاء أدوات MCP بسهولة، حيث يوفر الخادم قائمة بالأدوات المتاحة ويوفر MCP لـ LLMs وسيلة موحدة لاستدعاء هذه الأدوات والاستفادة من مخرجاتها. يساهم هذا النهج بشكل كبير في توفير أداة أساس عالمية لتطبيقات الذكاء الاصطناعي، والعمل مع واجهات برمجة التطبيقات القياسية واستعلامات قواعد البيانات ووكلاء الذكاء الاصطناعي على حد سواء.