از زمان ظهور ChatGPT، پیگیری بیوقفه پیشرفتها در مدلهای زبانی بزرگ (LLM) یکی از ویژگیهای تعیینکننده چشمانداز هوش مصنوعی بوده است. تمرکز اولیه بر اندازه پارامتر به تدریج به سمت کاربردهای عملی تغییر کرده است، اما چالشهای قابل توجهی برای کسبوکارهایی که به دنبال استفاده از قدرت هوش مصنوعی هستند، وجود دارد. هزینههای بالای مربوط به توان محاسباتی و ماهیت پراکنده اکوسیستم برنامههای کاربردی هوش مصنوعی همچنان نقاط دردناک مهمی هستند. شرکتها اغلب متوجه میشوند که سرمایهگذاریهای قابل توجه آنها در هوش مصنوعی به بازده مورد انتظار تبدیل نمیشود و منجر به یک ‘معضل بازگشت سرمایه’ مداوم میشود.
طلوع MCP و A2A: یک تغییر پارادایم
ظهور پروتکل مدل متن (MCP) و پروتکل عامل به عامل (A2A) در سال ۲۰۲۵ نشان دهنده یک لحظه محوری در تکامل توسعه برنامههای کاربردی هوش مصنوعی است. MCP هدف دارد تا رابطها را استاندارد کند تا سیلوهای داده را از بین ببرد، LLMها را قادر سازد تا به طور کارآمد به منابع خارجی دسترسی پیدا کنند و جریان یکپارچه دادهها را در سراسر سیستمها و پلتفرمها تسهیل کند. A2A بیشتر تعامل یکپارچه بین عاملها را ترویج میکند، همکاری و ارتباط را برای تشکیل سیستمهای منسجم و یکپارچه تقویت میکند.
تغییر از MCP به A2A بر تأکید روزافزون بر ‘باز بودن’ به عنوان یک محرک کلیدی در اکوسیستم برنامههای کاربردی هوش مصنوعی تأکید میکند. این باز بودن شامل قابلیت همکاری فنی و روحیه همکاری است. از دیدگاه گستردهتر، این تحول نشاندهنده یک پیشرفت طبیعی در توسعه فناوری است: گذار از هیجان اولیه به اجرای عملی و از نوآوری مجزا به تکامل اکوسیستم مشارکتی.
از لحاظ تاریخی، ارزش LLMها به طور نامتناسبی به مقیاس پارامتر و قابلیتهای مستقل نسبت داده شده است. امروزه، MCP و A2A به موضوع مهم اتصال متقابل بین برنامههای کاربردی هوش مصنوعی میپردازند و پویاییهای رقابتی اکوسیستم LLM را تغییر میدهند. توسعه برنامههای کاربردی هوش مصنوعی در حال تکامل از یک رویکرد ‘گرگ تنها’ به مدلی از ارتباط متقابل است. این امر مستلزم ارزیابی مجدد ارزش هوش مصنوعی برای مدیران ارشد فناوری (CTO) است و تمرکز را از صرفاً پیگیری اندازه مدل و استراتژیهای ‘همه جانبه’ به اهرم قرار دادن پلتفرمهایی که قابلیتهای مختلف هوش مصنوعی را به هم متصل میکنند، تغییر میدهد. هدف این است که هوش مصنوعی را به طور ارگانیک در فرآیندهای تجاری و سیستمهای تولید موجود تعبیه کنیم، کارایی کلی را از طریق همکاری و استانداردسازی بهبود بخشیم، مشکلات اساسی را با حداقل منابع محاسباتی حل کنیم و بر ‘معضل بازگشت سرمایه’ غلبه کنیم.
آفت محاسبات هدر رفته و سناریوهای ناهمسو
ناتوانی در غلبه بر تنگنای سرمایهگذاری بالا و خروجی کم، مدتهاست که اجرای LLMها را آزار میدهد. این پدیده منعکس کننده تناقضات عمیقی در توسعه هوش مصنوعی است. اول، ضایعات قابل توجهی در توان محاسباتی وجود دارد. دادهها نشان میدهد که مراکز محاسباتی عمومی سطح سازمانی تنها با ۱۰-۱۵٪ استفاده کار میکنند و مقادیر زیادی از منابع محاسباتی را بیکار میگذارند. دوم، ناهمسویی سناریوهایی وجود دارد که در آن عملکرد مدل نیازهای واقعی سناریوهای تجاری را برآورده نمیکند.
یک مشکل رایج، ‘زیادهروی’ در استفاده از مدلهای بزرگ برای کارهای سبک است. برخی از کسبوکارها بیش از حد به LLMهای عمومی برای برنامههای ساده متکی هستند. علاوه بر این، ماهیت منحصر به فرد سناریوهای تجاری معضلاتی ایجاد میکند. استفاده از مدلهای بزرگ هزینههای محاسباتی بالایی را به همراه دارد و زمان استنتاج طولانی دارد. انتخاب مدلهای کوچکتر ممکن است نیازهای تجاری را برآورده نکند. این تضاد به ویژه در سناریوهای تجاری که نیاز به دانش تخصصی دامنه دارند، مشهود است.
سناریوی تطبیق استعداد و شغل در صنعت استخدام را در نظر بگیرید. شرکتها به مدلهایی با تواناییهای استدلال عمیق نیاز دارند تا روابط پیچیده بین رزومهها و شرح شغلها را درک کنند و در عین حال خواستار زمان پاسخگویی سریع هستند. زمان استنتاج طولانی LLMهای عمومی میتواند به طور قابل توجهی تجربه کاربر را کاهش دهد، به خصوص در شرایط تقاضای بالای همزمانی کاربر.
برای ایجاد تعادل بین عملکرد و کارایی، تقطیر مدل در سالهای اخیر مورد توجه قرار گرفته است. راهاندازی DeepSeek-R1 در اوایل سال جاری ارزش این تکنیک را بیشتر برجسته کرده است. در رسیدگی به وظایف استدلال پیچیده، تقطیر مدل الگوی ‘زنجیره تفکر’ DeepSeek-R1 را ثبت میکند و به مدلهای دانشجویی سبک وزن اجازه میدهد تا تواناییهای استدلال آن را به جای تقلید صرف از نتایج خروجی، به ارث ببرند.
به عنوان مثال، Zhaopin، یک پلتفرم استخدام پیشرو، از DeepSeek-R1 (۶۰۰+ میلیارد پارامتر) به عنوان یک مدل معلم برای تقطیر زنجیره تفکر و منطق تصمیمگیری استفاده شده در وظایف تطبیق استعداد و شغل استفاده کرد. آنها از پلتفرم توسعه مدل Qianfan Baidu AI Cloud برای تقطیر مدل معلم و انتقال آن به مدل ERNIE Speed (۱۰+ میلیارد پارامتر)، مدل دانشجویی استفاده کردند. این رویکرد به عملکردی قابل مقایسه با مدل معلم دست یافت (DeepSeek-R1 به دقت ۸۵٪ در نتایج پیوند استدلال دست یافت، در حالی که مدل دانشجویی به بیش از ۸۱٪ دست یافت)، سرعت استنتاج را به سطح قابل قبولی بهبود بخشید و هزینهها را به ۳۰٪ از حالت اصلی کاهش داد در حالی که سرعت ۱ برابر سریعتر از DeepSeek-R1 کامل به دست آمد.
در حال حاضر، کسبوکارها معمولاً دو رویکرد را برای تقطیر مدل اتخاذ میکنند: ساخت یک سیستم فنی کامل از زیرساخت و GPUها تا چارچوبهای آموزشی، یا استفاده از راهکارهای مبتنی بر پلتفرم مانند پلتفرم توسعه مدل Qianfan یا سایر فروشندگان. Yao Sijia، یک متخصص برنامه کاربردی هوش مصنوعی در Zhaopin، اظهار داشت که در حالی که Zhaopin چارچوب آموزشی خود را دارد، آنها پلتفرم توسعه مدل Qianfan را برای تقطیر مدل به دلیل سه ملاحظه اصلی انتخاب کردند:
- پشتیبانی جامع: پلتفرم توسعه مدل Qianfan پشتیبانی پیشرو در صنعت را برای تقطیر مدل فراهم میکند و کل زنجیره فنی را در اطراف سناریوهای تقطیر به شدت بهینه میکند.
- کنترل هزینه: در مقایسه با خرید و نگهداری مستقل سختافزار، پلتفرم توسعه مدل Qianfan مزایای قابل توجهی در کنترل هزینه و تخصیص انعطافپذیرتر منابع ارائه میدهد.
- درک عمیق از سناریوهای تجاری: تیم راهکارهای حرفهای Baidu به طور عمیق الزامات اصلی مانند ‘تطبیق دقیق’ و ‘پاسخگویی با همزمانی بالا’ را در حوزه استخدام درک میکند و با شرکتها برای کشف راهکارها همکاری میکند.
Yao Sijia افزود که Zhaopin به پیشگامی در سناریوهای AI+ استخدام ادامه خواهد داد و از فناوری Reinforcement Learning Fine-Tuning (RFT) Qianfan برای بهبود بیشتر عملکرد مدل استفاده خواهد کرد. آنها قصد دارند بررسی کنند که آیا مدل معلم میتواند بیشتر بهبود یابد و آیا مکانیسمهای پاداش بهتری میتوانند مدلهای دانشجویی از قبل تقطیر شده را برای بهبود دقت بهینه کنند. Qianfan اولین پلتفرم در چین است که روشهای یادگیری تقویتی پیشرو مانند RFT و GRPO را به محصول تبدیل میکند. Qianfan با تبدیل این روشهای یادگیری تقویتی پیشرفته به راهکارهای قابل اجرا، امکانات بیشتری را برای شرکتهایی مانند Zhaopin برای بهینهسازی عملکرد مدل ارائه میدهد.
با این حال، تقطیر مدل تنها عملکرد یک مدل واحد را بهینه میکند. در سناریوهای تجاری پیچیده، لازم است که قابلیتهای مختلف هوش مصنوعی را دقیقاً با سناریوها مطابقت دهیم.
یک تلفن هوشمند را در نظر بگیرید. در سناریوهای تشخیص هدف مانند دستیارهای تماس، مدلهای سبک وزن معمولاً برای شناسایی سریع مشکلات کاربر استفاده میشوند. برای سناریوهای پرسش و پاسخ دانش عمومی مانند پرسشهای آب و هوا و بازیابی اخبار، مدلهای متوسط معمولاً برای ارائه پاسخهای دقیق و آموزنده به سرعت استفاده میشوند. در سناریوهای تجزیه و تحلیل دادهها و استدلال منطقی که نیاز به تفکر عمیق دارند، مدلهای بزرگ معمولاً استفاده میشوند.
این بدان معناست که یک تلفن هوشمند باید به طور انعطافپذیر چندین LLM را در سناریوهای مختلف تقاضای کاربر فراخوانی کند. برای تولیدکنندگان تلفن، این امر چالشهایی مانند هزینههای بالای انتخاب مدل و فرآیندهای فراخوانی پیچیده به دلیل پروتکلهای رابط مدل مختلف ایجاد میکند.
برای رفع این نقاط دردناک صنعت، پلتفرم توسعه مدل Qianfan رابطهای مسیریابی مدل را به محصول تبدیل کرد. در مقایسه با استفاده مستقیم از مدلهای کارخانه اصلی، قابلیتهای محصول فراخوانی API سفارشی و آماده برای استفاده را فراهم میکند و به شرکتها کمک میکند تا حجم کار مهندسی و زمان توسعه را صرفهجویی کنند و در عین حال هزینهها را کاهش دهند. علاوه بر این، پلتفرم توسعه مدل Qianfan از فراخوانی انعطافپذیر برای کاربران در مقیاس بزرگ پشتیبانی میکند و سرعت و ثبات را حتی در شرایط تقاضای فراخوانی با فرکانس بالا و همزمانی بالا تضمین میکند.
در سطح مدل، قابلیتهای فنی مانند تقطیر مدل و فراخوانی چند مدل به شرکتهای بیشتری کمک میکند تا تخصیص منابع را بهینه کنند و قابلیتهای هوش مصنوعی را قادر میسازد تا به طور دقیق با سناریوهای تجاری مطابقت داشته باشند و در عین حال هزینهها را کاهش دهند. در سطح برنامه، MCP و A2A که توجه قابل توجهی را در صنعت به خود جلب کردهاند، بیشتر هزینههای آزمون و خطای هوش مصنوعی را کاهش میدهند، به شرکتها کمک میکنند تا الگوهای همکاری برنامه را بهینه کنند و مدل ناکارآمد ‘اختراع مجدد چرخ’ را در توسعه عامل سنتی تغییر دهند.
یک ‘ترکیب پانچ’ از مدلها تا برنامهها پاسخ کاملی برای کمک به LLMها برای غلبه بر ‘معضل بازگشت سرمایه’ است.
از بسته به باز: کاهش مانع آزمایش هوش مصنوعی
از سال ۲۰۲۳، کلمه کلیدی برای پیادهسازی برنامه هوش مصنوعی به تدریج به Agent تغییر یافته است. تا سال ۲۰۲۴، تقریباً همه شرکتها در مورد برنامهها و توسعه Agent بحث میکنند. با این حال، Agentها در آن زمان فاقد قابلیتهای برنامهریزی واقعی بودند و عمدتاً بر اساس دیدگاههای گردش کار بودند و LLMها را با برنامههای اصلی با بخیه زدن یا رویهای کردن اجزا از طریق قوانین مبتنی بر متخصص متصل میکردند.
با ظهور اخیر پروتکلهای MCP و A2A، سال ۲۰۲۵ به ‘سال صفر عامل’ واقعی تبدیل شده است. به طور خاص، تأثیر MCP بر حوزه هوش مصنوعی با تأثیر پروتکل TCP/IP بر اینترنت قابل مقایسه است.
Zhou Ze’an، مدیرعامل Biyao Technology، در مصاحبهای با InfoQ اظهار داشت که ارزش اصلی MCP برای حوزه هوش مصنوعی در سه بعد منعکس میشود:
- استانداردسازی فراخوانی ابزار LLM: در گذشته، هر شرکت پیادهسازی فراخوانی تابع خود را داشت و تفاوتهای قابل توجهی بین آنها وجود داشت. MCP یک استاندارد دسترسی یکپارچه ایجاد میکند و امکان استانداردسازی واقعی طرحهای زمانبندی برنامه بین مشتریان و سرورها را فراهم میکند. علاوه بر این، MCP تعامل را نه تنها بین LLMهایی که از فراخوانی تابع پشتیبانی میکنند، بلکه با LLMهایی که این ویژگی را ندارند، فعال میکند.
- حل چالشهای همکاری ابزار: استاندارد یکپارچه پروتکل MCP ساخت سرویسهای Agent را متنوعتر میکند. توسعهدهندگان باید نه تنها Agentهای خود و سرویسهای MCP را در نظر بگیرند، بلکه باید در نظر بگیرند که چگونه قابلیتهای خارجی را برای دستیابی به عملکردهای Agent قدرتمندتر ادغام کنند.
- کنترل کل زمینه از طریق LLMها، در نتیجه تعامل کاربرپسندتر: هنگام ساخت فرآیندها، میتوان از طیف گستردهتری از منابع داده برای حل وظایف پیچیدهای که قبلاً غیرممکن بودند، استفاده کرد.
Zhou Ze’an گفت: ‘به طور کلی، پروتکل MCP مانع شرکتها برای پذیرش فناوری هوش مصنوعی را به طور قابل توجهی کاهش میدهد. در گذشته، فرآیند ادغام فنی برای دسترسی به Agentها پیچیده بود. اکنون، شرکتها دیگر نیازی به درک عمیق جزئیات پیادهسازی فنی پیچیده ندارند، بلکه فقط باید نیازهای تجاری خود را روشن کنند.’ Biyao Technology قابلیتهای پردازش اسناد LLM عمودی صنعت منابع انسانی خود را با نام ‘Bole’ که توسط خود توسعه یافته است، به طور کامل از طریق پروتکل MCP باز کرده است، از جمله قراردادها، رزومهها و PPTها، و به یکی از اولین توسعهدهندگان سازمانی تبدیل شده است که اجزای MCP را در پلتفرم توسعه برنامه Qianfan راهاندازی کرده است. در حال حاضر، هر شرکت یا توسعهدهنده فردی میتواند مستقیماً قابلیتهای حرفهای خود را در پلتفرم Qianfan فراخوانی کند.
‘Baidu به توسعهدهندگان کمک خواهد کرد تا به طور فعال و جامع MCP را بپذیرند.’ در کنفرانس توسعهدهندگان هوش مصنوعی Create2025 Baidu که در ۲۵ آوریل برگزار شد، پلتفرم Qianfan به طور رسمی سرویسهای MCP سطح سازمانی را راهاندازی کرد. Li Yanhong، بنیانگذار Baidu، مورد پذیرش MCP توسط پلتفرم Qianfan را به نمایش گذاشت و به توسعهدهندگان اجازه داد تا به طور انعطافپذیر به ۱۰۰۰ سرور MCP، از جمله جستجوی هوش مصنوعی Baidu، نقشهها و Wenku، هنگام ایجاد Agentها دسترسی داشته باشند. علاوه بر این، Qianfan یک ابزار کم کد برای ایجاد سرورهای MCP را راهاندازی کرد و به توسعهدهندگان اجازه داد تا به راحتی سرورهای MCP خود را در Qianfan توسعه دهند و آنها را با یک کلیک در میدان Qianfan MCP منتشر کنند. این سرورهای MCP نیز به سرعت توسط جستجوی Baidu فهرستبندی میشوند و به آنها امکان میدهد تا توسط توسعهدهندگان بیشتری کشف و استفاده شوند.
در واقع، Qianfan قبل از ظهور پروتکل MCP به طور مداوم مشکل آخرین مایل پیادهسازی هوش مصنوعی را حل کرده است و به شرکتها کمک میکند تا به طور کارآمد و با موانع کم از مزایای فناوری هوش مصنوعی برخوردار شوند و راهکارهای بالغی را برای صنایع مختلف ارائه دهند.
به عنوان مثال، در صنعت خانه هوشمند، شرکتها عموماً با یک مشکل مشترک روبرو هستند: چگونه خدمات هوشمند دقیق را برای مدلهای محصول انبوه ارائه دهیم؟ با اجرای شتابدهنده LLMها، شرکتهای بیشتری از Agentها برای ارائه سریع پاسخهای دقیق و شخصیشده به کاربران استفاده میکنند. با این حال، این امر چالش جدیدی را نیز به همراه دارد: چگونه تعداد زیادی Agent را توسعه و مدیریت کنیم؟ برندهای خانه هوشمند معمولاً دستههای محصول و مدلهای مختلف زیادی دارند. ساخت یک Agent برای هر محصول به طور جداگانه نه تنها منجر به هزینههای بالای توسعه میشود، بلکه هزینههای قابل توجهی برای مدیریت و نگهداری در مراحل بعدی نیز به همراه خواهد داشت.
به عنوان مثال، یک برند خانه هوشمند پیشرو از پلتفرم توسعه برنامه Qianfan Baidu AI Cloud برای رفتار با نامهای فایل به عنوان برشهای مستقل و تعبیه اطلاعات برش نام فایل در هر برش ریز استفاده کرد. به جای ساخت یک Agent برای هر محصول به طور جداگانه، آنها فقط باید پایگاه دانش مربوطه را مرتب کنند و نام مدلهای محصول را تعریف کنند. سپس، آنها میتوانند از استراتژی تجزیه خودکار چارچوب RAG پلتفرم Qianfan برای دستیابی به تطبیق دقیق مدلهای محصول و نقاط دانش استفاده کنند.
پلتفرم توسعه برنامه Qianfan همچنین مجموعهای از ابزارهای عملیاتی را برای ساخت یک مرکز هوشمند دائماً در حال تکامل در اختیار این برند قرار میدهد. از طریق تابع بازگشت داده، تمام سوابق تعامل کاربر به مواد بهینهسازی تبدیل میشوند. پرسنل عملیاتی میتوانند مشکلات با فرکانس بالا را در زمان واقعی مشاهده کنند و بلافاصله در مورد نقاط دانش کشف نشده مداخله کنند و یک حلقه بسته ‘عملیات - بازخورد - بهینهسازی’ را تشکیل دهند. علاوه بر این، پلتفرم توسعه برنامه Qianfan و Xiaodu AI Assistant به طور مشترک یک چارچوب تعامل صوتی ساختند. با تکیه بر این چارچوب، این برند میتواند سختافزار را قادر سازد تا مستقیماً با کاربران ‘صحبت’ کند و به یک تجربه تعاملی طبیعیتر، کارآمدتر و شخصیتر دست یابد.
از MCP تا A2A، باز بودن به یک کلمه کلیدی جدید در اکوسیستم برنامه LLM تبدیل شده است. باز بودن همچنین هدف اصلی پلتفرم Qianfan است. Qianfan از روز اول انتشار خود در سال ۲۰۲۳، بازترین موضع را برای دسترسی به ثروت LLMهای شخص ثالث اتخاذ کرده است. در حال حاضر، Qianfan به بیش از ۱۰۰ مدل از بیش از ۳۰ فروشنده مدل دسترسی دارد که ۱۱ نوع قابلیت مانند متن، تصویر و استدلال عمیق را پوشش میدهد، از جمله مدلهای شخص ثالث مانند DeepSeek، LLaMA، Tongyi و Vidu. همچنین طیف کاملی از Wenxin LLMها را ارائه میدهد، از جمله مدل بومی چندوجهی اخیراً منتشر شده Wenxin 4.5 Turbo و مدل تفکر عمیق Wenxin X1 Turbo، و همچنین مدل تفکر عمیق قبلاً منتشر شده Wenxin X1.
برای شرکتهایی که میخواهند به سرعت فناوری هوش مصنوعی را پیادهسازی کنند، Baidu AI Cloud به تدریج به اولین انتخاب تبدیل میشود. دادههای بازار بهترین اثبات هستند. در حال حاضر، پلتفرم Qianfan به بیش از ۴۰۰۰۰۰ مشتری خدمات میدهد و نرخ نفوذ بیش از ۶۰٪ در شرکتهای مرکزی دارد. طبق گزارش نظارت و بینش پروژه مناقصه مدل بزرگ چین (2025Q1)، Baidu در تعداد پروژههای مناقصه مدل بزرگ و میزان پیشنهادات برنده در سه ماهه اول به دو رتبه اول دست یافت: برنده ۱۹ پروژه مناقصه مدل بزرگ با مبلغ پروژه آشکار شده بیش از ۴۵۰ میلیون یوان شد و پروژههای بزرگ مدل برنده تقریباً همه از مشتریان شرکتهای دولتی مرکزی در صنایعی مانند انرژی و امور مالی بودند.
کارت گزارش Baidu AI Cloud نیز سیگنالی را به دنیای بیرون ارسال میکند: در این نبرد طولانی مدت برای پیادهسازی فناوری هوش مصنوعی، تنها راهکارهایی که به طور واقعی نقاط دردناک صنعت را درک میکنند و میتوانند به شرکتها کمک کنند تا هزینههای آزمون و خطا را کاهش دهند، حیاتیترین هستند.