ثورة MCP: إعادة تشكيل الذكاء الاصطناعي وتخفيف قلق الشركات

فجر MCP و A2A: تحول نموذجي

يمثل ظهور بروتوكول سياق النموذج (MCP) وبروتوكول الوكيل إلى الوكيل (A2A) في عام 2025 لحظة محورية في تطور تطوير تطبيقات الذكاء الاصطناعي. يهدف MCP إلى توحيد الواجهات لكسر صوامع البيانات، مما يتيح للنماذج اللغوية الكبيرة (LLMs) الوصول إلى الموارد الخارجية بكفاءة وتسهيل تدفق البيانات بسلاسة عبر الأنظمة والمنصات. يعزز A2A كذلك التفاعل السلس بين الوكلاء، مما يعزز التعاون والتواصل لتشكيل أنظمة متماسكة ومتكاملة.

يشدد التحول من MCP إلى A2A على التأكيد المتزايد على ‘الانفتاح’ كمحرك رئيسي في النظام البيئي لتطبيقات الذكاء الاصطناعي. يشمل هذا الانفتاح قابلية التشغيل البيني التقني والروح التعاونية. من منظور أوسع، يعكس هذا التحول تقدمًا طبيعيًا في تطوير التكنولوجيا: انتقالًا من الإثارة الأولية إلى التنفيذ العملي، ومن الابتكار المعزول إلى تطور النظام البيئي التعاوني.

تاريخياً، نُسبت قيمة LLMs بشكل غير متناسب إلى حجم المعلمات والقدرات المستقلة. اليوم، يعالج MCP و A2A القضية الحاسمة المتمثلة في الترابط بين تطبيقات الذكاء الاصطناعي وإعادة تشكيل الديناميكيات التنافسية للنظام البيئي LLM. يتطور تطوير تطبيقات الذكاء الاصطناعي من نهج ‘الذئب الوحيد’ إلى نموذج من الترابط. هذا يستلزم إعادة تقييم لقيمة الذكاء الاصطناعي لمديري التكنولوجيا، وتحويل التركيز من مجرد السعي وراء حجم النموذج واستراتيجيات ‘الكل في’ إلى الاستفادة من المنصات التي تربط قدرات الذكاء الاصطناعي المتنوعة. الهدف هو تضمين الذكاء الاصطناعي بشكل عضوي في عمليات الأعمال وأنظمة الإنتاج الحالية، وتحسين الكفاءة الإجمالية من خلال التعاون والتوحيد القياسي، وحل المشكلات الحرجة بأقل قدر من الموارد الحسابية، والتغلب على ‘معضلة عائد الاستثمار’.

آفة الحساب المهدر والسيناريوهات غير المتوافقة

إن عدم القدرة على التغلب على عنق الزجاجة المتمثل في الاستثمار المرتفع والناتج المنخفض قد ابتليت منذ فترة طويلة بتنفيذ LLMs. تعكس هذه الظاهرة تناقضات عميقة الجذور في تطوير الذكاء الاصطناعي. أولاً، هناك قدر كبير من الهدر في قوة الحوسبة. تشير البيانات إلى أن مراكز الحوسبة ذات الأغراض العامة على مستوى المؤسسات تعمل بنسبة 10-15٪ فقط من الاستخدام، مما يترك كميات هائلة من موارد الحوسبة في وضع الخمول. ثانيًا، هناك عدم توافق في السيناريوهات حيث لا يلبي أداء النموذج الاحتياجات الفعلية لسيناريوهات الأعمال.

إحدى المشكلات الشائعة هي ‘المبالغة’ في استخدام النماذج الكبيرة للمهام الخفيفة الوزن. تعتمد بعض الشركات بشكل مفرط على LLMs ذات الأغراض العامة للتطبيقات البسيطة. بالإضافة إلى ذلك، تخلق الطبيعة الفريدة لسيناريوهات الأعمال معضلات. يؤدي استخدام النماذج الكبيرة إلى تكاليف حسابية عالية وأوقات استدلال طويلة. قد لا يلبي اختيار نماذج أصغر متطلبات العمل. هذا التعارض واضح بشكل خاص في سيناريوهات الأعمال التي تتطلب معرفة متخصصة بالمجال.

ضع في اعتبارك سيناريو مطابقة المواهب والوظائف في صناعة التوظيف. تتطلب الشركات نماذج ذات قدرات استدلال عميقة لفهم العلاقات المعقدة بين السير الذاتية وأوصاف الوظائف مع المطالبة أيضًا بأوقات استجابة سريعة. يمكن أن تؤدي أوقات الاستدلال الطويلة لـ LLMs ذات الأغراض العامة إلى تدهور كبير في تجربة المستخدم، خاصة في ظل طلبات المستخدمين عالية التزامن.

لتحقيق التوازن بين الأداء والكفاءة، اكتسب تقطير النموذج قوة جذب في السنوات الأخيرة. لقد أبرز إطلاق DeepSeek-R1 في وقت سابق من هذا العام قيمة هذه التقنية. في التعامل مع مهام الاستدلال المعقدة، يلتقط تقطير النموذج نمط ‘سلسلة التفكير’ لـ DeepSeek-R1، مما يسمح لنماذج الطلاب خفيفة الوزن بوراثة قدراته الاستدلالية بدلاً من مجرد تقليد نتائج الإخراج.

على سبيل المثال، استخدمت Zhaopin، وهي منصة توظيف رائدة، DeepSeek-R1 (أكثر من 600 مليار معلمة) كنموذج تعليمي لتقطير سلسلة التفكير ومنطق اتخاذ القرار المستخدم في مهام مطابقة المواهب والوظائف. استخدموا منصة تطوير نماذج Baidu AI Cloud Qianfan لتقطير النموذج التعليمي ونقله إلى نموذج ERNIE Speed (أكثر من 10 مليارات معلمة)، وهو نموذج الطالب. حقق هذا النهج أداءً قابلاً للمقارنة مع النموذج التعليمي (حقق DeepSeek-R1 دقة 85٪ في نتائج رابط الاستدلال، بينما حقق نموذج الطالب أكثر من 81٪)، وحسن سرعة الاستدلال إلى مستوى مقبول، وخفض التكاليف إلى 30٪ من الأصل مع تحقيق سرعات أسرع بـ 1x من DeepSeek-R1 الكامل.

تتبنى الشركات حاليًا طريقتين لتقطير النموذج: بناء نظام تقني كامل من البنية التحتية ووحدات معالجة الرسوميات إلى أطر التدريب، أو استخدام حلول قائمة على النظام الأساسي مثل منصة تطوير نماذج Qianfan أو بائعين آخرين. صرح ياو سيجيا، خبير تطبيقات الذكاء الاصطناعي في Zhaopin، بأنه على الرغم من أن Zhaopin لديها إطار التدريب الخاص بها، إلا أنها اختارت منصة تطوير نماذج Qianfan لتقطير النموذج بسبب ثلاثة اعتبارات رئيسية:

  • دعم شامل: توفر منصة تطوير نماذج Qianfan دعمًا رائدًا في الصناعة لتقطير النموذج، مما يحسن بشكل كبير السلسلة التقنية بأكملها حول سيناريوهات التقطير.
  • التحكم في التكاليف: بالمقارنة مع شراء وصيانة الأجهزة بشكل مستقل، توفر منصة تطوير نماذج Qianfan مزايا كبيرة في التحكم في التكاليف وتخصيص موارد أكثر مرونة.
  • فهم عميق لسيناريوهات الأعمال: يفهم فريق حلول Baidu المحترف المتطلبات الأساسية بعمق مثل ‘المطابقة الدقيقة’ و ‘الاستجابة عالية التزامن’ في مجال التوظيف ويتعاون مع الشركات لاستكشاف الحلول.

وأضاف ياو سيجيا أن Zhaopin ستواصل الريادة في سيناريوهات التوظيف AI +، باستخدام تقنية التعلم المعزز الدقيق (RFT) من Qianfan لزيادة تحسين أداء النموذج. إنهم يخططون لاستكشاف ما إذا كان يمكن تحسين النموذج التعليمي بشكل أكبر وما إذا كانت آليات المكافآت الأفضل يمكن أن تحسن نماذج الطلاب المقطرة بالفعل لتحسين الدقة. Qianfan هي أول منصة في الصين تقوم بتسويق طرق التعلم المعزز الرائدة مثل RFT و GRPO. من خلال تحويل طرق التعلم المعزز المتطورة هذه إلى حلول قابلة للتنفيذ، تقدم Qianfan لشركات مثل Zhaopin المزيد من الاحتمالات لتحسين أداء النموذج.

ومع ذلك، فإن تقطير النموذج يحسن فقط أداء نموذج واحد. في سيناريوهات الأعمال المعقدة، من الضروري مطابقة قدرات الذكاء الاصطناعي المتنوعة بدقة مع السيناريوهات.

ضع في اعتبارك هاتفًا ذكيًا. في سيناريوهات التعرف على النية مثل مساعدي المكالمات، تُستخدم النماذج خفيفة الوزن عادةً لتحديد مشكلات المستخدم بسرعة. بالنسبة لسيناريوهات الأسئلة والأجوبة المعرفية العامة مثل استعلامات الطقس واسترجاع الأخبار، تُستخدم النماذج متوسطة الحجم عادةً لتقديم إجابات دقيقة وغنية بالمعلومات بسرعة. في سيناريوهات تحليل البيانات والاستدلال المنطقي التي تتطلب تفكيرًا عميقًا، تُستخدم النماذج الكبيرة عادةً.

هذا يعني أن الهاتف الذكي يحتاج إلى استدعاء العديد من LLMs بمرونة في سيناريوهات طلب المستخدم المختلفة. بالنسبة لمصنعي الهواتف، يمثل هذا تحديات مثل التكاليف العالية لاختيار النموذج وعمليات الاستدعاء المعقدة بسبب بروتوكولات واجهة النموذج المختلفة.

لمعالجة نقاط الألم في هذه الصناعة، قامت منصة تطوير نماذج Qianfan بتسويق واجهات توجيه النماذج. بالمقارنة مع استخدام نماذج المصنع الأصلية مباشرةً، فإنه يوفر قدرات تطوير مخصصة واستدعاء واجهة برمجة تطبيقات جاهزة للاستخدام، مما يساعد الشركات على توفير عبء العمل الهندسي ووقت التطوير مع تقليل التكاليف. بالإضافة إلى ذلك، تدعم منصة تطوير نماذج Qianfan الاستدعاء المرن للمستخدمين على نطاق واسع، مما يضمن السرعة والاستقرار حتى في ظل طلبات الاستدعاء عالية التردد وعالية التزامن.

على مستوى النموذج، تساعد القدرات التقنية مثل تقطير النموذج والاستدعاء متعدد النماذج المزيد والمزيد من الشركات على تحسين تخصيص الموارد، مما يتيح لقدرات الذكاء الاصطناعي أن تتطابق بدقة مع سيناريوهات الأعمال مع تقليل التكاليف. على مستوى التطبيق، فإن MCP و A2A، اللذين حظيا باهتمام كبير في الصناعة، يقللان بشكل أكبر من تكاليف التجربة والخطأ في الذكاء الاصطناعي، ويساعدان الشركات على تحسين نماذج تعاون التطبيقات، وتغيير نموذج ‘إعادة اختراع العجلة’ غير الفعال في تطوير الوكيل التقليدي.

إن ‘مجموعة مختلطة’ من النماذج إلى التطبيقات هي الحل الأمثل لمساعدة LLMs على التغلب على ‘معضلة عائد الاستثمار’.

من مغلق إلى مفتوح: خفض حاجز تجربة الذكاء الاصطناعي

منذ عام 2023، تحولت الكلمة الرئيسية لتنفيذ تطبيقات الذكاء الاصطناعي تدريجيًا إلى الوكيل. بحلول عام 2024، كانت جميع الشركات تقريبًا تناقش تطبيقات الوكيل وتطويره. ومع ذلك، كانت الوكلاء في ذلك الوقت يفتقرون إلى قدرات التخطيط الحقيقية وكانوا يعتمدون بشكل أساسي على وجهات نظر سير العمل، وربط LLMs بالتطبيقات الأساسية عن طريق تجميع المكونات أو إجرائها من خلال قواعد يحركها الخبراء.

مع الصعود الأخير لبروتوكولات MCP و A2A، أصبح عام 2025 هو ‘عام الوكيل صفر’ الحقيقي. على وجه الخصوص، فإن تأثير MCP على مجال الذكاء الاصطناعي يضاهي تأثير بروتوكول TCP/IP على الإنترنت.

صرح تشو زآن، الرئيس التنفيذي لشركة Biyao Technology، في مقابلة مع InfoQ أن القيمة الأساسية لـ MCP لمجال الذكاء الاصطناعي تنعكس في ثلاثة أبعاد:

  • توحيد استدعاء أدوات LLM: في الماضي، كان لكل شركة تنفيذ خاص بها لـ Function Call، مع اختلافات كبيرة بينها. يضع MCP معيار وصول موحدًا، مما يتيح توحيدًا حقيقيًا لخطط جدولة التطبيقات بين العملاء والخوادم. بالإضافة إلى ذلك، يتيح MCP التفاعل ليس فقط بين LLMs التي تدعم Function Call ولكن أيضًا مع LLMs التي لا تحتوي على هذه الميزة.
  • حل تحديات تعاون الأدوات: المعيار الموحد لبروتوكول MCP يجعل بناء خدمات الوكيل أكثر تنوعًا. يحتاج المطورون إلى التفكير ليس فقط في الوكلاء وخدمات MCP الخاصة بهم ولكن أيضًا في كيفية دمج القدرات الخارجية لتحقيق وظائف وكيل أكثر قوة.
  • التحكم في السياق بأكمله من خلال LLMs، مما يؤدي إلى تفاعل أكثر سهولة في الاستخدام: عند بناء العمليات، يمكنه استخدام نطاق أوسع من مصادر البيانات لحل المهام المعقدة التي كانت مستحيلة في السابق.

‘بشكل عام، يقلل بروتوكول MCP بشكل كبير من حاجز تبني الشركات لتكنولوجيا الذكاء الاصطناعي. في الماضي، كانت عملية التكامل التقني للوصول إلى الوكلاء معقدة. الآن، لم تعد الشركات بحاجة إلى فهم تفاصيل التنفيذ التقني المعقدة بعمق ولكنها تحتاج فقط إلى توضيح احتياجاتها التجارية،’ قال تشو زآن. فتحت Biyao Technology بالكامل قدرات معالجة المستندات الخاصة بـ LLM الرأسي لصناعة الموارد البشرية المطورة ذاتيًا ‘Bole’ من خلال بروتوكول MCP، بما في ذلك العقود والسير الذاتية وعروض PPT، وأصبحت واحدة من أوائل مطوري المؤسسات الذين أطلقوا مكونات MCP على منصة تطوير تطبيقات Qianfan. حاليًا، يمكن لأي مؤسسة أو مطور فردي استدعاء قدراتها المهنية مباشرة على منصة Qianfan.

‘ستساعد Baidu المطورين بنشاط وبشكل شامل على تبني MCP.’ في مؤتمر Baidu AI للمطورين Create2025 الذي عقد في 25 أبريل، أطلقت منصة Qianfan رسميًا خدمات MCP على مستوى المؤسسات. أظهر مؤسس Baidu Li Yanhong حالة احتضان منصة Qianfan لـ MCP، مما يسمح للمطورين بالوصول بمرونة إلى 1000 خادم MCP، بما في ذلك Baidu AI search والخرائط و Wenku، عند إنشاء الوكلاء. بالإضافة إلى ذلك، أطلقت Qianfan أداة ذات رمز منخفض لإنشاء خوادم MCP، مما يسمح للمطورين بتطوير خوادم MCP الخاصة بهم بسهولة على Qianfan ونشرها في Qianfan MCP Square بنقرة واحدة. سيتم أيضًا فهرسة خوادم MCP هذه على الفور بواسطة Baidu search، مما يسمح باكتشافها واستخدامها من قبل المزيد من المطورين.

في الواقع، ظلت Qianfan تحل باستمرار مشكلة الميل الأخير لتنفيذ الذكاء الاصطناعي قبل صعود بروتوكول MCP، مما يساعد الشركات بكفاءة وبحواجز منخفضة على الاستمتاع بفوائد تكنولوجيا الذكاء الاصطناعي وتوفير حلول ناضجة للعديد من الصناعات.

على سبيل المثال، في صناعة المنزل الذكي، تواجه الشركات بشكل عام مشكلة شائعة: كيفية تقديم خدمات ذكية دقيقة لنماذج المنتجات الضخمة؟ مع التنفيذ المتسارع لـ LLMs، يستخدم المزيد والمزيد من الشركات الوكلاء لتقديم إجابات دقيقة وشخصية للمستخدمين بسرعة. ومع ذلك، فإن هذا يجلب أيضًا تحديًا جديدًا: كيف يتم تطوير وإدارة العديد من الوكلاء؟ عادة ما يكون لدى العلامات التجارية للمنازل الذكية العديد من فئات المنتجات والنماذج المختلفة. لن يؤدي بناء وكيل لكل منتج على حدة إلى تكاليف تطوير عالية فحسب، بل سيؤدي أيضًا إلى تكاليف إدارة وصيانة كبيرة في المراحل اللاحقة.

على سبيل المثال، استخدمت علامة تجارية رائدة للمنازل الذكية منصة تطوير تطبيقات Baidu AI Cloud Qianfan للتعامل مع أسماء الملفات كشرائح مستقلة وتضمين معلومات شريحة اسم الملف في كل شريحة دقيقة. بدلاً من بناء وكيل لكل منتج على حدة، احتاجوا فقط إلى فرز قاعدة المعرفة المقابلة وتحديد أسماء نماذج المنتجات. ثم، يمكنهم استخدام استراتيجية التحليل التلقائي لإطار عمل RAG الخاص بمنصة Qianfan لتحقيق مطابقة دقيقة لنماذج المنتجات ونقاط المعرفة.

توفر منصة تطوير تطبيقات Qianfan أيضًا للعلامة التجارية مجموعة من أدوات العمليات لبناء مركز ذكي يتطور باستمرار. من خلال وظيفة ارتداد البيانات، يتم تحويل جميع سجلات تفاعل المستخدم إلى مواد تحسين. يمكن لموظفي العمليات عرض المشكلات عالية التردد في الوقت الفعلي والتدخل على الفور في نقاط المعرفة غير المكتشفة، مما يشكل حلقة مغلقة ‘عملية - ملاحظات - تحسين’. بالإضافة إلى ذلك، قامت منصة تطوير تطبيقات Qianfan ومساعد Xiaodu AI ببناء إطار عمل للتفاعل الصوتي بشكل مشترك. بالاعتماد على هذا الإطار، يمكن للعلامة التجارية تمكين الأجهزة من ‘التحدث’ مباشرة مع المستخدمين، وتحقيق تجربة تفاعلية أكثر طبيعية وفعالية وشخصية.

من MCP إلى A2A، أصبح الانفتاح كلمة رئيسية جديدة في النظام البيئي لتطبيقات LLM. الانفتاح هو أيضًا النية الأصلية لمنصة Qianfan. منذ اليوم الأول لإصدارها في عام 2023، تبنت Qianfan الموقف الأكثر انفتاحًا للوصول إلى ثروة من LLMs التابعة لجهات خارجية. حاليًا، لدى Qianfan حق الوصول إلى أكثر من 100 نموذج من أكثر من 30 بائعًا للنماذج، تغطي 11 نوعًا من القدرات مثل النص والصورة والاستدلال العميق، بما في ذلك نماذج الجهات الخارجية مثل DeepSeek و LLaMA و Tongyi و Vidu. كما يوفر مجموعة كاملة من Wenxin LLMs، بما في ذلك نموذج Wenxin 4.5 Turbo متعدد الوسائط الأصلي الذي تم إصداره حديثًا ونموذج Wenxin X1 Turbo للتفكير العميق، بالإضافة إلى نموذج Wenxin X1 للتفكير العميق الذي تم إصداره مسبقًا.

بالنسبة للشركات التي ترغب في تنفيذ تكنولوجيا الذكاء الاصطناعي بسرعة، أصبحت Baidu AI Cloud تدريجيًا الخيار الأول. بيانات السوق هي أفضل دليل. تخدم منصة Qianfan حاليًا أكثر من 400000 عميل، بمعدل اختراق يزيد عن 60٪ في المؤسسات المركزية. وفقًا لتقرير مراقبة وتحليل مشاريع العطاءات الكبيرة في الصين (2025Q1)، حققت Baidu المركز الأول المزدوج في عدد مشاريع العطاءات الكبيرة ونسبة العطاءات الفائزة في الربع الأول: الفوز بـ 19 مشروع عطاءات كبيرة بمبلغ مشروع معلن عنه يزيد عن 450 مليون يوان، وكانت مشاريع LLM الكبيرة الفائزة تقريبًا جميعها من عملاء المؤسسات المملوكة للدولة المركزية في صناعات مثل الطاقة والمالية.

ترسل بطاقة تقرير Baidu AI Cloud أيضًا إشارة إلى العالم الخارجي: في هذه المعركة طويلة الأجل لتنفيذ تكنولوجيا الذكاء الاصطناعي، فإن الحلول التي تفهم حقًا نقاط الألم في الصناعة ويمكن أن تساعد الشركات على تقليل تكاليف التجربة والخطأ هي الأكثر حيوية.