انقلاب MCP: تغییر چشم‌انداز هوش مصنوعی

از زمان ظهور ChatGPT، پیگیری بی‌وقفه پیشرفت‌ها در مدل‌های زبانی بزرگ (LLM) یکی از ویژگی‌های تعیین‌کننده چشم‌انداز هوش مصنوعی بوده است. تمرکز اولیه بر اندازه پارامتر به تدریج به سمت کاربردهای عملی تغییر کرده است، اما چالش‌های قابل توجهی برای کسب‌وکارهایی که به دنبال استفاده از قدرت هوش مصنوعی هستند، وجود دارد. هزینه‌های بالای مربوط به توان محاسباتی و ماهیت پراکنده اکوسیستم برنامه‌های کاربردی هوش مصنوعی همچنان نقاط دردناک مهمی هستند. شرکت‌ها اغلب متوجه می‌شوند که سرمایه‌گذاری‌های قابل توجه آنها در هوش مصنوعی به بازده مورد انتظار تبدیل نمی‌شود و منجر به یک ‘معضل بازگشت سرمایه’ مداوم می‌شود.

طلوع MCP و A2A: یک تغییر پارادایم

ظهور پروتکل مدل متن (MCP) و پروتکل عامل به عامل (A2A) در سال ۲۰۲۵ نشان دهنده یک لحظه محوری در تکامل توسعه برنامه‌های کاربردی هوش مصنوعی است. MCP هدف دارد تا رابط‌ها را استاندارد کند تا سیلوهای داده را از بین ببرد، LLMها را قادر سازد تا به طور کارآمد به منابع خارجی دسترسی پیدا کنند و جریان یکپارچه داده‌ها را در سراسر سیستم‌ها و پلتفرم‌ها تسهیل کند. A2A بیشتر تعامل یکپارچه بین عامل‌ها را ترویج می‌کند، همکاری و ارتباط را برای تشکیل سیستم‌های منسجم و یکپارچه تقویت می‌کند.

تغییر از MCP به A2A بر تأکید روزافزون بر ‘باز بودن’ به عنوان یک محرک کلیدی در اکوسیستم برنامه‌های کاربردی هوش مصنوعی تأکید می‌کند. این باز بودن شامل قابلیت همکاری فنی و روحیه همکاری است. از دیدگاه گسترده‌تر، این تحول نشان‌دهنده یک پیشرفت طبیعی در توسعه فناوری است: گذار از هیجان اولیه به اجرای عملی و از نوآوری مجزا به تکامل اکوسیستم مشارکتی.

از لحاظ تاریخی، ارزش LLMها به طور نامتناسبی به مقیاس پارامتر و قابلیت‌های مستقل نسبت داده شده است. امروزه، MCP و A2A به موضوع مهم اتصال متقابل بین برنامه‌های کاربردی هوش مصنوعی می‌پردازند و پویایی‌های رقابتی اکوسیستم LLM را تغییر می‌دهند. توسعه برنامه‌های کاربردی هوش مصنوعی در حال تکامل از یک رویکرد ‘گرگ تنها’ به مدلی از ارتباط متقابل است. این امر مستلزم ارزیابی مجدد ارزش هوش مصنوعی برای مدیران ارشد فناوری (CTO) است و تمرکز را از صرفاً پیگیری اندازه مدل و استراتژی‌های ‘همه جانبه’ به اهرم قرار دادن پلتفرم‌هایی که قابلیت‌های مختلف هوش مصنوعی را به هم متصل می‌کنند، تغییر می‌دهد. هدف این است که هوش مصنوعی را به طور ارگانیک در فرآیندهای تجاری و سیستم‌های تولید موجود تعبیه کنیم، کارایی کلی را از طریق همکاری و استانداردسازی بهبود بخشیم، مشکلات اساسی را با حداقل منابع محاسباتی حل کنیم و بر ‘معضل بازگشت سرمایه’ غلبه کنیم.

آفت محاسبات هدر رفته و سناریوهای ناهمسو

ناتوانی در غلبه بر تنگنای سرمایه‌گذاری بالا و خروجی کم، مدت‌هاست که اجرای LLMها را آزار می‌دهد. این پدیده منعکس کننده تناقضات عمیقی در توسعه هوش مصنوعی است. اول، ضایعات قابل توجهی در توان محاسباتی وجود دارد. داده‌ها نشان می‌دهد که مراکز محاسباتی عمومی سطح سازمانی تنها با ۱۰-۱۵٪ استفاده کار می‌کنند و مقادیر زیادی از منابع محاسباتی را بیکار می‌گذارند. دوم، ناهمسویی سناریوهایی وجود دارد که در آن عملکرد مدل نیازهای واقعی سناریوهای تجاری را برآورده نمی‌کند.

یک مشکل رایج، ‘زیاده‌روی’ در استفاده از مدل‌های بزرگ برای کارهای سبک است. برخی از کسب‌وکارها بیش از حد به LLMهای عمومی برای برنامه‌های ساده متکی هستند. علاوه بر این، ماهیت منحصر به فرد سناریوهای تجاری معضلاتی ایجاد می‌کند. استفاده از مدل‌های بزرگ هزینه‌های محاسباتی بالایی را به همراه دارد و زمان استنتاج طولانی دارد. انتخاب مدل‌های کوچکتر ممکن است نیازهای تجاری را برآورده نکند. این تضاد به ویژه در سناریوهای تجاری که نیاز به دانش تخصصی دامنه دارند، مشهود است.

سناریوی تطبیق استعداد و شغل در صنعت استخدام را در نظر بگیرید. شرکت‌ها به مدل‌هایی با توانایی‌های استدلال عمیق نیاز دارند تا روابط پیچیده بین رزومه‌ها و شرح شغل‌ها را درک کنند و در عین حال خواستار زمان پاسخگویی سریع هستند. زمان استنتاج طولانی LLMهای عمومی می‌تواند به طور قابل توجهی تجربه کاربر را کاهش دهد، به خصوص در شرایط تقاضای بالای همزمانی کاربر.

برای ایجاد تعادل بین عملکرد و کارایی، تقطیر مدل در سال‌های اخیر مورد توجه قرار گرفته است. راه‌اندازی DeepSeek-R1 در اوایل سال جاری ارزش این تکنیک را بیشتر برجسته کرده است. در رسیدگی به وظایف استدلال پیچیده، تقطیر مدل الگوی ‘زنجیره تفکر’ DeepSeek-R1 را ثبت می‌کند و به مدل‌های دانشجویی سبک وزن اجازه می‌دهد تا توانایی‌های استدلال آن را به جای تقلید صرف از نتایج خروجی، به ارث ببرند.

به عنوان مثال، Zhaopin، یک پلتفرم استخدام پیشرو، از DeepSeek-R1 (۶۰۰+ میلیارد پارامتر) به عنوان یک مدل معلم برای تقطیر زنجیره تفکر و منطق تصمیم‌گیری استفاده شده در وظایف تطبیق استعداد و شغل استفاده کرد. آنها از پلتفرم توسعه مدل Qianfan Baidu AI Cloud برای تقطیر مدل معلم و انتقال آن به مدل ERNIE Speed (۱۰+ میلیارد پارامتر)، مدل دانشجویی استفاده کردند. این رویکرد به عملکردی قابل مقایسه با مدل معلم دست یافت (DeepSeek-R1 به دقت ۸۵٪ در نتایج پیوند استدلال دست یافت، در حالی که مدل دانشجویی به بیش از ۸۱٪ دست یافت)، سرعت استنتاج را به سطح قابل قبولی بهبود بخشید و هزینه‌ها را به ۳۰٪ از حالت اصلی کاهش داد در حالی که سرعت ۱ برابر سریع‌تر از DeepSeek-R1 کامل به دست آمد.

در حال حاضر، کسب‌وکارها معمولاً دو رویکرد را برای تقطیر مدل اتخاذ می‌کنند: ساخت یک سیستم فنی کامل از زیرساخت و GPUها تا چارچوب‌های آموزشی، یا استفاده از راهکارهای مبتنی بر پلتفرم مانند پلتفرم توسعه مدل Qianfan یا سایر فروشندگان. Yao Sijia، یک متخصص برنامه کاربردی هوش مصنوعی در Zhaopin، اظهار داشت که در حالی که Zhaopin چارچوب آموزشی خود را دارد، آنها پلتفرم توسعه مدل Qianfan را برای تقطیر مدل به دلیل سه ملاحظه اصلی انتخاب کردند:

  • پشتیبانی جامع: پلتفرم توسعه مدل Qianfan پشتیبانی پیشرو در صنعت را برای تقطیر مدل فراهم می‌کند و کل زنجیره فنی را در اطراف سناریوهای تقطیر به شدت بهینه می‌کند.
  • کنترل هزینه: در مقایسه با خرید و نگهداری مستقل سخت‌افزار، پلتفرم توسعه مدل Qianfan مزایای قابل توجهی در کنترل هزینه و تخصیص انعطاف‌پذیرتر منابع ارائه می‌دهد.
  • درک عمیق از سناریوهای تجاری: تیم راهکارهای حرفه‌ای Baidu به طور عمیق الزامات اصلی مانند ‘تطبیق دقیق’ و ‘پاسخگویی با همزمانی بالا’ را در حوزه استخدام درک می‌کند و با شرکت‌ها برای کشف راهکارها همکاری می‌کند.

Yao Sijia افزود که Zhaopin به پیشگامی در سناریوهای AI+ استخدام ادامه خواهد داد و از فناوری Reinforcement Learning Fine-Tuning (RFT) Qianfan برای بهبود بیشتر عملکرد مدل استفاده خواهد کرد. آنها قصد دارند بررسی کنند که آیا مدل معلم می‌تواند بیشتر بهبود یابد و آیا مکانیسم‌های پاداش بهتری می‌توانند مدل‌های دانشجویی از قبل تقطیر شده را برای بهبود دقت بهینه کنند. Qianfan اولین پلتفرم در چین است که روش‌های یادگیری تقویتی پیشرو مانند RFT و GRPO را به محصول تبدیل می‌کند. Qianfan با تبدیل این روش‌های یادگیری تقویتی پیشرفته به راهکارهای قابل اجرا، امکانات بیشتری را برای شرکت‌هایی مانند Zhaopin برای بهینه‌سازی عملکرد مدل ارائه می‌دهد.

با این حال، تقطیر مدل تنها عملکرد یک مدل واحد را بهینه می‌کند. در سناریوهای تجاری پیچیده، لازم است که قابلیت‌های مختلف هوش مصنوعی را دقیقاً با سناریوها مطابقت دهیم.

یک تلفن هوشمند را در نظر بگیرید. در سناریوهای تشخیص هدف مانند دستیارهای تماس، مدل‌های سبک وزن معمولاً برای شناسایی سریع مشکلات کاربر استفاده می‌شوند. برای سناریوهای پرسش و پاسخ دانش عمومی مانند پرسش‌های آب و هوا و بازیابی اخبار، مدل‌های متوسط ​​معمولاً برای ارائه پاسخ‌های دقیق و آموزنده به سرعت استفاده می‌شوند. در سناریوهای تجزیه و تحلیل داده‌ها و استدلال منطقی که نیاز به تفکر عمیق دارند، مدل‌های بزرگ معمولاً استفاده می‌شوند.

این بدان معناست که یک تلفن هوشمند باید به طور انعطاف‌پذیر چندین LLM را در سناریوهای مختلف تقاضای کاربر فراخوانی کند. برای تولیدکنندگان تلفن، این امر چالش‌هایی مانند هزینه‌های بالای انتخاب مدل و فرآیندهای فراخوانی پیچیده به دلیل پروتکل‌های رابط مدل مختلف ایجاد می‌کند.

برای رفع این نقاط دردناک صنعت، پلتفرم توسعه مدل Qianfan رابط‌های مسیریابی مدل را به محصول تبدیل کرد. در مقایسه با استفاده مستقیم از مدل‌های کارخانه اصلی، قابلیت‌های محصول فراخوانی API سفارشی و آماده برای استفاده را فراهم می‌کند و به شرکت‌ها کمک می‌کند تا حجم کار مهندسی و زمان توسعه را صرفه‌جویی کنند و در عین حال هزینه‌ها را کاهش دهند. علاوه بر این، پلتفرم توسعه مدل Qianfan از فراخوانی انعطاف‌پذیر برای کاربران در مقیاس بزرگ پشتیبانی می‌کند و سرعت و ثبات را حتی در شرایط تقاضای فراخوانی با فرکانس بالا و همزمانی بالا تضمین می‌کند.

در سطح مدل، قابلیت‌های فنی مانند تقطیر مدل و فراخوانی چند مدل به شرکت‌های بیشتری کمک می‌کند تا تخصیص منابع را بهینه کنند و قابلیت‌های هوش مصنوعی را قادر می‌سازد تا به طور دقیق با سناریوهای تجاری مطابقت داشته باشند و در عین حال هزینه‌ها را کاهش دهند. در سطح برنامه، MCP و A2A که توجه قابل توجهی را در صنعت به خود جلب کرده‌اند، بیشتر هزینه‌های آزمون و خطای هوش مصنوعی را کاهش می‌دهند، به شرکت‌ها کمک می‌کنند تا الگوهای همکاری برنامه را بهینه کنند و مدل ناکارآمد ‘اختراع مجدد چرخ’ را در توسعه عامل سنتی تغییر دهند.

یک ‘ترکیب پانچ’ از مدل‌ها تا برنامه‌ها پاسخ کاملی برای کمک به LLMها برای غلبه بر ‘معضل بازگشت سرمایه’ است.

از بسته به باز: کاهش مانع آزمایش هوش مصنوعی

از سال ۲۰۲۳، کلمه کلیدی برای پیاده‌سازی برنامه هوش مصنوعی به تدریج به Agent تغییر یافته است. تا سال ۲۰۲۴، تقریباً همه شرکت‌ها در مورد برنامه‌ها و توسعه Agent بحث می‌کنند. با این حال، Agentها در آن زمان فاقد قابلیت‌های برنامه‌ریزی واقعی بودند و عمدتاً بر اساس دیدگاه‌های گردش کار بودند و LLMها را با برنامه‌های اصلی با بخیه زدن یا رویه‌ای کردن اجزا از طریق قوانین مبتنی بر متخصص متصل می‌کردند.

با ظهور اخیر پروتکل‌های MCP و A2A، سال ۲۰۲۵ به ‘سال صفر عامل’ واقعی تبدیل شده است. به طور خاص، تأثیر MCP بر حوزه هوش مصنوعی با تأثیر پروتکل TCP/IP بر اینترنت قابل مقایسه است.

Zhou Ze’an، مدیرعامل Biyao Technology، در مصاحبه‌ای با InfoQ اظهار داشت که ارزش اصلی MCP برای حوزه هوش مصنوعی در سه بعد منعکس می‌شود:

  • استانداردسازی فراخوانی ابزار LLM: در گذشته، هر شرکت پیاده‌سازی فراخوانی تابع خود را داشت و تفاوت‌های قابل توجهی بین آنها وجود داشت. MCP یک استاندارد دسترسی یکپارچه ایجاد می‌کند و امکان استانداردسازی واقعی طرح‌های زمان‌بندی برنامه بین مشتریان و سرورها را فراهم می‌کند. علاوه بر این، MCP تعامل را نه تنها بین LLMهایی که از فراخوانی تابع پشتیبانی می‌کنند، بلکه با LLMهایی که این ویژگی را ندارند، فعال می‌کند.
  • حل چالش‌های همکاری ابزار: استاندارد یکپارچه پروتکل MCP ساخت سرویس‌های Agent را متنوع‌تر می‌کند. توسعه‌دهندگان باید نه تنها Agentهای خود و سرویس‌های MCP را در نظر بگیرند، بلکه باید در نظر بگیرند که چگونه قابلیت‌های خارجی را برای دستیابی به عملکردهای Agent قدرتمندتر ادغام کنند.
  • کنترل کل زمینه از طریق LLMها، در نتیجه تعامل کاربرپسندتر: هنگام ساخت فرآیندها، می‌توان از طیف گسترده‌تری از منابع داده برای حل وظایف پیچیده‌ای که قبلاً غیرممکن بودند، استفاده کرد.

Zhou Ze’an گفت: ‘به طور کلی، پروتکل MCP مانع شرکت‌ها برای پذیرش فناوری هوش مصنوعی را به طور قابل توجهی کاهش می‌دهد. در گذشته، فرآیند ادغام فنی برای دسترسی به Agentها پیچیده بود. اکنون، شرکت‌ها دیگر نیازی به درک عمیق جزئیات پیاده‌سازی فنی پیچیده ندارند، بلکه فقط باید نیازهای تجاری خود را روشن کنند.’ Biyao Technology قابلیت‌های پردازش اسناد LLM عمودی صنعت منابع انسانی خود را با نام ‘Bole’ که توسط خود توسعه یافته است، به طور کامل از طریق پروتکل MCP باز کرده است، از جمله قراردادها، رزومه‌ها و PPTها، و به یکی از اولین توسعه‌دهندگان سازمانی تبدیل شده است که اجزای MCP را در پلتفرم توسعه برنامه Qianfan راه‌اندازی کرده است. در حال حاضر، هر شرکت یا توسعه‌دهنده فردی می‌تواند مستقیماً قابلیت‌های حرفه‌ای خود را در پلتفرم Qianfan فراخوانی کند.

‘Baidu به توسعه‌دهندگان کمک خواهد کرد تا به طور فعال و جامع MCP را بپذیرند.’ در کنفرانس توسعه‌دهندگان هوش مصنوعی Create2025 Baidu که در ۲۵ آوریل برگزار شد، پلتفرم Qianfan به طور رسمی سرویس‌های MCP سطح سازمانی را راه‌اندازی کرد. Li Yanhong، بنیانگذار Baidu، مورد پذیرش MCP توسط پلتفرم Qianfan را به نمایش گذاشت و به توسعه‌دهندگان اجازه داد تا به طور انعطاف‌پذیر به ۱۰۰۰ سرور MCP، از جمله جستجوی هوش مصنوعی Baidu، نقشه‌ها و Wenku، هنگام ایجاد Agentها دسترسی داشته باشند. علاوه بر این، Qianfan یک ابزار کم کد برای ایجاد سرورهای MCP را راه‌اندازی کرد و به توسعه‌دهندگان اجازه داد تا به راحتی سرورهای MCP خود را در Qianfan توسعه دهند و آنها را با یک کلیک در میدان Qianfan MCP منتشر کنند. این سرورهای MCP نیز به سرعت توسط جستجوی Baidu فهرست‌بندی می‌شوند و به آنها امکان می‌دهد تا توسط توسعه‌دهندگان بیشتری کشف و استفاده شوند.

در واقع، Qianfan قبل از ظهور پروتکل MCP به طور مداوم مشکل آخرین مایل پیاده‌سازی هوش مصنوعی را حل کرده است و به شرکت‌ها کمک می‌کند تا به طور کارآمد و با موانع کم از مزایای فناوری هوش مصنوعی برخوردار شوند و راهکارهای بالغی را برای صنایع مختلف ارائه دهند.

به عنوان مثال، در صنعت خانه هوشمند، شرکت‌ها عموماً با یک مشکل مشترک روبرو هستند: چگونه خدمات هوشمند دقیق را برای مدل‌های محصول انبوه ارائه دهیم؟ با اجرای شتاب‌دهنده LLMها، شرکت‌های بیشتری از Agentها برای ارائه سریع پاسخ‌های دقیق و شخصی‌شده به کاربران استفاده می‌کنند. با این حال، این امر چالش جدیدی را نیز به همراه دارد: چگونه تعداد زیادی Agent را توسعه و مدیریت کنیم؟ برندهای خانه هوشمند معمولاً دسته‌های محصول و مدل‌های مختلف زیادی دارند. ساخت یک Agent برای هر محصول به طور جداگانه نه تنها منجر به هزینه‌های بالای توسعه می‌شود، بلکه هزینه‌های قابل توجهی برای مدیریت و نگهداری در مراحل بعدی نیز به همراه خواهد داشت.

به عنوان مثال، یک برند خانه هوشمند پیشرو از پلتفرم توسعه برنامه Qianfan Baidu AI Cloud برای رفتار با نام‌های فایل به عنوان برش‌های مستقل و تعبیه اطلاعات برش نام فایل در هر برش ریز استفاده کرد. به جای ساخت یک Agent برای هر محصول به طور جداگانه، آنها فقط باید پایگاه دانش مربوطه را مرتب کنند و نام مدل‌های محصول را تعریف کنند. سپس، آنها می‌توانند از استراتژی تجزیه خودکار چارچوب RAG پلتفرم Qianfan برای دستیابی به تطبیق دقیق مدل‌های محصول و نقاط دانش استفاده کنند.

پلتفرم توسعه برنامه Qianfan همچنین مجموعه‌ای از ابزارهای عملیاتی را برای ساخت یک مرکز هوشمند دائماً در حال تکامل در اختیار این برند قرار می‌دهد. از طریق تابع بازگشت داده، تمام سوابق تعامل کاربر به مواد بهینه‌سازی تبدیل می‌شوند. پرسنل عملیاتی می‌توانند مشکلات با فرکانس بالا را در زمان واقعی مشاهده کنند و بلافاصله در مورد نقاط دانش کشف نشده مداخله کنند و یک حلقه بسته ‘عملیات - بازخورد - بهینه‌سازی’ را تشکیل دهند. علاوه بر این، پلتفرم توسعه برنامه Qianfan و Xiaodu AI Assistant به طور مشترک یک چارچوب تعامل صوتی ساختند. با تکیه بر این چارچوب، این برند می‌تواند سخت‌افزار را قادر سازد تا مستقیماً با کاربران ‘صحبت’ کند و به یک تجربه تعاملی طبیعی‌تر، کارآمدتر و شخصی‌تر دست یابد.

از MCP تا A2A، باز بودن به یک کلمه کلیدی جدید در اکوسیستم برنامه LLM تبدیل شده است. باز بودن همچنین هدف اصلی پلتفرم Qianfan است. Qianfan از روز اول انتشار خود در سال ۲۰۲۳، بازترین موضع را برای دسترسی به ثروت LLMهای شخص ثالث اتخاذ کرده است. در حال حاضر، Qianfan به بیش از ۱۰۰ مدل از بیش از ۳۰ فروشنده مدل دسترسی دارد که ۱۱ نوع قابلیت مانند متن، تصویر و استدلال عمیق را پوشش می‌دهد، از جمله مدل‌های شخص ثالث مانند DeepSeek، LLaMA، Tongyi و Vidu. همچنین طیف کاملی از Wenxin LLMها را ارائه می‌دهد، از جمله مدل بومی چندوجهی اخیراً منتشر شده Wenxin 4.5 Turbo و مدل تفکر عمیق Wenxin X1 Turbo، و همچنین مدل تفکر عمیق قبلاً منتشر شده Wenxin X1.

برای شرکت‌هایی که می‌خواهند به سرعت فناوری هوش مصنوعی را پیاده‌سازی کنند، Baidu AI Cloud به تدریج به اولین انتخاب تبدیل می‌شود. داده‌های بازار بهترین اثبات هستند. در حال حاضر، پلتفرم Qianfan به بیش از ۴۰۰۰۰۰ مشتری خدمات می‌دهد و نرخ نفوذ بیش از ۶۰٪ در شرکت‌های مرکزی دارد. طبق گزارش نظارت و بینش پروژه مناقصه مدل بزرگ چین (2025Q1)، Baidu در تعداد پروژه‌های مناقصه مدل بزرگ و میزان پیشنهادات برنده در سه ماهه اول به دو رتبه اول دست یافت: برنده ۱۹ پروژه مناقصه مدل بزرگ با مبلغ پروژه آشکار شده بیش از ۴۵۰ میلیون یوان شد و پروژه‌های بزرگ مدل برنده تقریباً همه از مشتریان شرکت‌های دولتی مرکزی در صنایعی مانند انرژی و امور مالی بودند.

کارت گزارش Baidu AI Cloud نیز سیگنالی را به دنیای بیرون ارسال می‌کند: در این نبرد طولانی مدت برای پیاده‌سازی فناوری هوش مصنوعی، تنها راهکارهایی که به طور واقعی نقاط دردناک صنعت را درک می‌کنند و می‌توانند به شرکت‌ها کمک کنند تا هزینه‌های آزمون و خطا را کاهش دهند، حیاتی‌ترین هستند.