صعود بروتوكول MCP: ريادة بايدو كلاود لخدمات المؤسسات

صعود MCP كمعيار صناعي

في غضون بضعة أشهر فقط، اكتسب MCP زخمًا كبيرًا في مجتمع الذكاء الاصطناعي. في مؤتمر Baidu AI Developer Conference Create2025 في 25 أبريل، كشف مؤسس Baidu Robin Li عن نموذجين رائدين: Wenxin Large Model 4.5 Turbo و Deep Thinking Model X1 Turbo. رافقت هذه النماذج تطبيقات الذكاء الاصطناعي المختلفة، مما يدل على التزام Baidu بمساعدة المطورين على تبني MCP بشكل كامل.

يمتد دعم MCP إلى ما وراء Baidu، ليشمل لاعبين رئيسيين مثل OpenAI و Google و Microsoft و Amazon و Anthropic و Alibaba و Tencent. يشير هذا الاعتماد الواسع النطاق إلى أن MCP أصبح ‘HTTP لعالم الذكاء الاصطناعي’، مما يضع معيارًا عالميًا لكيفية تفاعل النماذج ومصادر البيانات.

خلال المؤتمر، أطلقت Baidu Intelligent Cloud رسميًا أول خدمة MCP على مستوى المؤسسات في الصين. توفر هذه الخدمة للمؤسسات والمطورين الوصول إلى أكثر من 1000 خادم MCP. علاوة على ذلك، تسمح المنصة للمطورين بإنشاء خوادم MCP الخاصة بهم على Qianfan، منصة تطوير الذكاء الاصطناعي الخاصة بـ Baidu، ونشرها على MCP Square، مما يوفر استضافة وفهرسة مجانية من خلال Baidu Search.

استراتيجية Baidu Cloud التي تركز على المؤسسات

في حين أن العديد من البائعين يتبنون MCP، إلا أن مناهجهم تختلف. تركز Baidu Intelligent Cloud على سوق المؤسسات، بهدف إشراك أكبر عدد ممكن من المطورين في وقت مبكر. تتضمن هذه الإستراتيجية إثراء MCP Square والاستفادة من Baidu Search لزيادة حركة المرور، وبالتالي تعزيز نظام MCP بيئي قوي.

يركز النهج الذي تتبعه Baidu مع عروض MCP على ما يحتاجه عملاء المؤسسات وما سيستجيبون له. الشركة في وضع جيد للاستفادة من بصمتها الحالية مع عملاء المؤسسات لجلبهم إلى عالم MCP.

ضرورة MCP في مشهد الذكاء الاصطناعي

يعالج ظهور MCP التحديات الحاسمة في نشر LLM، لا سيما في بيئات المؤسسات. في السابق، كان تطبيق LLM يقتصر بشكل أساسي على سيناريوهات تشبه روبوتات الدردشة. تتطلب تطبيقات المؤسسات الأوسع نطاقًا تخصيصًا مكثفًا، مما يجعل عملية التطوير معقدة وتتطلب موارد مكثفة، حتى مع مجموعات الأدوات التي يوفرها بائعون مثل Baidu Intelligent Cloud.

مع الترحيب بعام 2025 باعتباره عام وكيل الذكاء الاصطناعي، من المتوقع أن تتطور LLM إلى ما هو أبعد من مجرد التفكير إلى التخطيط وتنفيذ المهام بشكل مستقل. في هذا النموذج، تعمل LLM بمثابة ‘دماغ’، وتتطلب ‘أطرافًا’ و ‘حواسًا’ لإكمال مهام محددة.

يتطلب النهج التقليدي لتخصيص كل تطبيق من تطبيقات الذكاء الاصطناعي دمج أدوات ‘M×N’، حيث يجب أن تتفاعل كل تطبيق من تطبيقات الذكاء الاصطناعي مع العديد من الأدوات. يبسط MCP هذا عن طريق توحيد التفاعل بين LLM والأدوات، مما يقلل التعقيد إلى ‘M+N’. هذا التوحيد القياسي أمر بالغ الأهمية لتوسيع نطاق تطبيقات الذكاء الاصطناعي عبر وظائف المؤسسات المختلفة.

تبسيط تطبيقات الذكاء الاصطناعي على مستوى المؤسسات

أكد نائب الرئيس التنفيذي لمجموعة Baidu ورئيس مجموعة أعمال Baidu Intelligent Cloud، Shen Dou، أن تطبيق LLM يتضمن أكثر من مجرد استدعاءات بسيطة. وأشار إلى ‘أنه يتطلب ربط المكونات والأدوات المختلفة وتنفيذ تنسيق معقد. غالبًا ما تكون هناك حاجة إلى مزيد من التحسين والتخصيص للنماذج لتعزيز الأداء’.

وأوضح شين دو كذلك أن بناء تطبيقات على مستوى المؤسسات يتطلب دراسة متأنية لأداء الحوسبة والاستقرار وقابلية التوسع والأمن. إنه ينظر إلى نشر التطبيق على أنه عملية بناء ‘نظام’.

تتطلب تطبيقات المؤسسات معايير أعلى وتحملًا أقل للأخطاء مقارنة بالتطبيقات ذات الدرجة الاستهلاكية. وفقًا لأحد خبراء الصناعة، يستهلك تطوير التطبيقات 90٪ من وقت المشروع لأنه بينما تكون النماذج موحدة، فإن التطبيقات شديدة التباين.

تتضمن هذه الجهود عمومًا أربع مهام رئيسية: استكمال المعرفة المهنية، وتنسيق العمليات التجارية، وتوسيع الأدوات الذكية، ودمج أنظمة المؤسسات. من خلال تغليف هذه المهام في نظام أساسي يوفر وظائف جاهزة، يمكن للمؤسسات الاستفادة من RAG (جيل معزز بالاسترجاع) لدمج معرفة الخبراء، واستخدام مهام سير العمل لتنسيق العمليات التجارية، واستخدام الوكلاء الأذكياء جنبًا إلى جنب مع MCP للاستفادة من الأنظمة والأصول الحالية.

MCP مهيأ لتلبية توقعات الصناعة لتبسيط نشر LLM في التطبيقات العملية.

سد الفجوة في الوكلاء على مستوى المؤسسات

كما أشار شين دو، يتطلب نشر LLM دعمًا كاملاً على مستوى النظام، يمتد من قوة الحوسبة الأساسية إلى التطبيقات. يتضمن ذلك أجهزة عالية الأداء وتحسين الكتلة، بالإضافة إلى مجموعات أدوات تطوير مرنة وحلول قائمة على السيناريو.

تشمل قدرات Baidu Intelligent Cloud على مستوى النظام طبقة قوة الحوسبة، بما في ذلك مجموعة Kunlunxin المكونة من 30000 بطاقة التي تم الإعلان عنها حديثًا ومنصة حساب Baige GPU التي تمت ترقيتها. تتميز طبقة تطوير النموذج بأكثر من 100 نموذج على منصة Qianfan، بما في ذلك Baidu’s Wenxin 4.5Turbo و Wenxin X1 Turbo، بالإضافة إلى نماذج الطرف الثالث مثل DeepSeek و Ilama و Vidu.

في طبقة تطوير التطبيقات، تقدم Baidu Intelligent Cloud خدمات Qianfan Enterprise-Level Agent و MCP، مما يعزز قدرة الوكلاء على حل المشكلات المعقدة. يتم استكمال هذه الخدمات بمجموعة أدوات تطوير نموذج شاملة تدعم تخصيص وضبط النماذج ذات التفكير العميق والنماذج متعددة الوسائط.

تركز Baidu Intelligent Cloud على طبقة تطوير التطبيقات، مع تحديثات كبيرة لمجموعة أدوات تطوير الوكلاء على مستوى المؤسسات الخاصة بمنصة Qianfan. تقدم المنصة الوكيل الذكي الجديد القائم على الاستدلال، Intelligent Agent Pro، الذي يعزز القدرات من الإجابة السريعة على الأسئلة إلى المداولات العميقة، ودعم الوكلاء الأذكياء المخصصين لكل مؤسسة.

تطبيقات واقعية للنظام البيئي MCP الخاص بـ Baidu

ضع في اعتبارك مثال Sewage Treasure، الذي يستخدم قدرات Qianfan Agentic RAG لدمج البيانات وقواعد المعرفة الخاصة بالمؤسسة. يسمح هذا للوكلاء بصياغة استراتيجيات الاسترجاع بناءً على فهم المهام، مما يقلل بشكل كبير من هلاوس النموذج.

يدعم Intelligent Agent Pro أيضًا وضع البحث العميق، مما يمكّن الوكلاء من التخطيط بشكل مستقل للمهام المعقدة وتصفية وتنظيم المعلومات وجمع المعرفة الاستكشافية عن طريق تصفح صفحات الويب. كما أنه يدعم استخدام أدوات مختلفة لإنشاء الرسوم البيانية وكتابة التقارير وإنشاء تقارير مهنية منظمة وغنية بالمعلومات.

يمكّن MCP المطورين والمؤسسات من الاستفادة بشكل أفضل من بيانات وأدوات الصناعة عند تطوير الوكلاء، وبالتالي معالجة الثغرات الحاسمة في قدرات الوكلاء على مستوى المؤسسات.

يمكن للمطورين تبني MCP بطريقتين: من خلال توفير مواردهم وبياناتهم وقدراتهم بتنسيق MCP لاستخدامها من قبل تطبيقات الذكاء الاصطناعي، أو من خلال الاستفادة من موارد خادم MCP الحالية عند تطوير تطبيقات الذكاء الاصطناعي. يقلل كلا النهجين من جهد التطوير ويعززان القدرات بشكل كبير.

تعد منصة Qianfan الخاصة بـ Baidu Intelligent Cloud أول منصة نموذجية كبيرة تدعم MCP. قبل MCP، كانت النماذج والأدوات الكبيرة متناثرة وتفتقر إلى التقييس. يعزز MCP الترابط ويسهل ازدهار النظام البيئي.

المشهد التنافسي لـ MCP

يمثل MCP، والنماذج الكبيرة بشكل عام، منافسة بين المنصات والنظم البيئية. في المراحل المبكرة من التقنيات الجديدة، تكون النماذج المختلفة غير ناضجة، مما يتطلب تحسينًا شاملاً لتحقيق الأداء الأمثل. وهذا يفسر سبب اعتماد نشر تطبيقات النموذج الكبير بشكل كبير على البائعين الرئيسيين.

بالنسبة لهؤلاء البائعين، لا يكمن التحدي في التفوق في مجال واحد ولكن في عدم وجود نقاط ضعف كبيرة. يجب عليهم بناء قدرات منصة قوية وتعزيز النظم البيئية المزدهرة لجذب المزيد من المشاركين، ووضع نظام بيئي نموذجي كبير ضد آخر.

تتضمن إستراتيجية Baidu في مجال MCP ثلاث خطوات.

  1. إطلاق خوادم MCP: كانت Baidu من بين أوائل الشركات التي أطلقت خوادم MCP، بما في ذلك أول MCP للمعاملات التجارية الإلكترونية و MCP للبحث في العالم. يمكن للمطورين إضافة Baidu AI Search وخوادم MCP الخاصة بـ Baidu Youxuan إلى ‘مساعد الوكيل الذكي العالمي’ على منصة Baidu Intelligent Cloud Qianfan، مما يمكّن الوكلاء الأذكياء من إكمال العملية بأكملها من استعلامات المعلومات وتوصيات المنتج إلى وضع الطلبات المباشرة. يجمع هذا بين دعم معاملات التجارة الإلكترونية وقدرات البحث من الدرجة الأولى.
  2. دعم تطوير خدمة MCP: أطلقت منصة Baidu Intelligent Cloud Qianfan رسميًا أول خدمة MCP على مستوى المؤسسات في الصين، مع توفر أكثر من 1000 خادم MCP للمؤسسات والمطورين. يمكن للمطورين إنشاء خوادم MCP الخاصة بهم على Qianfan ونشرها على MCP Square والاستمتاع باستضافة مجانية واكتساب فرص الظهور والاستخدام من خلال Baidu Search.
  3. خطة AI المفتوحة: أطلقت Baidu Search Open Platform ‘خطة AI المفتوحة’ (sai.baidu.com) لتوفير حركة المرور وفرص تحقيق الدخل للمطورين من الوكلاء الأذكياء وتطبيقات H5 والبرامج الصغيرة والتطبيقات المستقلة من خلال آليات توزيع المحتوى والخدمات المختلفة. تسمح هذه الخطة أيضًا للمستخدمين باكتشاف واستخدام أحدث خدمات الذكاء الاصطناعي بسهولة.

من خلال تمكين المزيد من المؤسسات والمطورين من فتح قدراتهم من خلال MCP، فإن Baidu تعزز نظامها البيئي مع تمكين شركائها من تحقيق قيمة تجارية. قد لا يكون الفائز النهائي في منافسة النموذج الكبير بالضرورة هو البائع الأكثر تقدمًا من الناحية التكنولوجية، ولكنه الفائز الذي يتمتع بالنظام البيئي الأكثر ازدهارًا.