MCP революция: Преобразяване на AI пейзажа

Зората на MCP и A2A: Промяна на парадигмата

Появата на протокола за контекст на модела (MCP) и протоколите Agent2Agent (A2A) през 2025 г. бележи ключов момент в еволюцията на развитието на AI приложения. MCP има за цел да стандартизира интерфейсите, за да разбие силозите за данни, позволявайки на LLM да имат достъп до външни ресурси ефективно и улеснявайки безпроблемния поток от данни между системи и платформи. A2A допълнително насърчава безпроблемното взаимодействие между агентите, насърчавайки сътрудничеството и комуникацията за формиране на сплотени, интегрирани системи.

Преминаването от MCP към A2A подчертава нарастващия акцент върху „отвореността“ като ключов двигател в екосистемата на AI приложенията. Тази отвореност обхваща както техническата оперативна съвместимост, така и духа на сътрудничество. От по-широка перспектива, тази трансформация отразява естествения прогрес в развитието на технологиите: преход от първоначално вълнение към практическо внедряване и от изолирани иновации към съвместна еволюция на екосистемата.

В исторически план стойността на LLM е била несъразмерно приписана на мащаба на параметрите и самостоятелните възможности. Днес MCP и A2A се занимават с критичния проблем за взаимосвързаността между AI приложенията и прекрояват конкурентната динамика на екосистемата на LLM. Разработването на AI приложения се развива от подход на „самотен вълк“ към модел на взаимосвързаност. Това налага преоценка на стойността на AI за CTO, измествайки фокуса от простото преследване на размера на модела и стратегиите „всичко в едно“ към използването на платформи, които свързват различни AI възможности. Целта е органично да се вгради AI в съществуващите бизнес процеси и производствени системи, да се подобри общата ефективност чрез сътрудничество и стандартизация, да се решат критични проблеми с минимални изчислителни ресурси и да се преодолее „ROI дилемата“.

Бичът на загубените изчисления и несъответстващите сценарии

Неспособността да се преодолее задръстването с високи инвестиции и ниска продукция отдавна измъчва внедряването на LLM. Този феномен отразява дълбоко вкоренени противоречия в развитието на AI. Първо, има значителни загуби в изчислителната мощност. Данните показват, че изчислителните центрове за общо предназначение на ниво предприятие работят само с 10-15% използване, оставяйки огромни количества изчислителни ресурси в празен ход. Второ, има несъответствие на сценарии, при които производителността на модела не отговаря на действителните нужди на бизнес сценариите.

Един често срещан проблем е „прекаляването“ с използването на големи модели за леки задачи. Някои фирми прекомерно разчитат на LLM с общо предназначение за прости приложения. Освен това, уникалният характер на бизнес сценариите създава дилеми. Използването на големи модели води до високи изчислителни разходи и дълги времена за извод. Изборът на по-малки модели може да не отговаря на бизнес изискванията. Този конфликт е особено очевиден в бизнес сценарии, изискващи специализирани знания за домейна.

Помислете за сценария за съвпадение на таланти и работа в индустрията за набиране на персонал. Компаниите изискват модели с дълбоки разсъждаващи способности, за да разберат сложните взаимоотношения между автобиографиите и описанията на длъжностите, като същевременно изискват бързи времена за отговор. Дългите времена за извод на LLM с общо предназначение могат значително да влошат потребителското изживяване, особено при високи потребителски изисквания за едновременност.

За да се балансира производителността и ефективността, дестилацията на модела набра популярност през последните години. Стартирането на DeepSeek-R1 по-рано тази година допълнително подчерта стойността на тази техника. При обработката на сложни задачи за разсъждение, дестилацията на модела улавя модела на „веригата на мисълта“ на DeepSeek-R1, позволявайки на леките студентски модели да наследят неговите разсъждаващи способности, вместо просто да имитират резултатите от изхода.

Например, Zhaopin, водеща платформа за набиране на персонал, използва DeepSeek-R1 (600+ милиарда параметри) като учителски модел за дестилиране на веригата на мисълта и логиката за вземане на решения, използвани в задачите за съвпадение на таланти и работа. Те използваха платформата за разработване на модели Qianfan на Baidu AI Cloud, за да дестилират учителския модел и да го прехвърлят към модела ERNIE Speed (10+ милиарда параметри), студентския модел. Този подход постигна производителност, сравнима с учителския модел (DeepSeek-R1 постигна 85% точност в резултатите от връзката за разсъждение, докато студентският модел постигна над 81%), подобри скоростта на извод до приемливо ниво и намали разходите до 30% от оригиналните, като същевременно постигна 1x по-бързи скорости от пълноценния DeepSeek-R1.

Понастоящем фирмите обикновено възприемат два подхода към дестилацията на модели: изграждане на пълна техническа система от инфраструктура и GPU до рамки за обучение или използване на базирани на платформа решения като платформа за разработване на модели Qianfan или други доставчици. Яо Сидзя, експерт по AI приложения в Zhaopin, заяви, че докато Zhaopin има своя собствена рамка за обучение, те са избрали платформата за разработване на модели Qianfan за дестилация на модели поради три основни съображения:

  • Цялостна поддръжка: Платформата за разработване на модели Qianfan осигурява водеща в индустрията поддръжка за дестилация на модели, като дълбоко оптимизира цялата техническа верига около сценариите на дестилация.
  • Контрол на разходите: В сравнение със закупуването и поддръжката на хардуер независимо, платформата за разработване на модели Qianfan предлага значителни предимства в контрола на разходите и по-гъвкаво разпределение на ресурсите.
  • Дълбоко разбиране на бизнес сценариите: Професионалният екип за решения на Baidu дълбоко разбира основните изисквания като „точно съвпадение“ и „високо едновременно отговаряне“ в домейна на набирането на персонал и си сътрудничи с компаниите, за да проучи решения.

Яо Сидзя добави, че Zhaopin ще продължи да бъде пионер в AI+ сценариите за набиране на персонал, използвайки технологията за фино настройване с подсилващо обучение (RFT) на Qianfan за допълнително подобряване на производителността на модела. Те планират да проучат дали учителският модел може да бъде допълнително подобрен и дали по-добрите механизми за възнаграждение могат да оптимизират вече дестилираните студентски модели, за да се подобри точността. Qianfan е първата платформа в Китай, която комерсиализира водещи методи за подсилващо обучение като RFT и GRPO. Превръщайки тези авангардни методи за подсилващо обучение в решения, които могат да бъдат внедрени, Qianfan предлага на компании като Zhaopin повече възможности за оптимизиране на производителността на модела.

Въпреки това, дестилацията на модела оптимизира само производителността на един модел. В сложни бизнес сценарии е необходимо точно да се съпоставят различни AI възможности със сценариите.

Помислете за смартфон. В сценарии за разпознаване на намерения като помощници при разговори обикновено се използват леки модели за бързо идентифициране на потребителски проблеми. За сценарии с общи знания като въпроси и отговори като заявки за времето и извличане на новини обикновено се използват модели със среден размер, за да се предоставят бързо точни и информативни отговори. В сценарии за анализ на данни и логически разсъждения, които изискват задълбочено мислене, обикновено се използват големи модели.

Това означава, че смартфонът трябва гъвкаво да извиква множество LLM в различни сценарии на потребителско търсене. За производителите на телефони това представлява предизвикателства като високи разходи за избор на модел и сложни процеси на извикване поради различни протоколи на интерфейса на модела.

За да се справят с тези индустриални болезнени точки, платформата за разработване на модели Qianfan комерсиализира интерфейси за маршрутизиране на модели. В сравнение с директното използване на оригиналните фабрични модели, тя предоставя възможности за персонализирано разработване и API извикване извън кутията, като помага на компаниите да спестят инженерна работа и време за разработка, като същевременно намаляват разходите. В допълнение, платформата за разработване на модели Qianfan поддържа гъвкаво извикване за мащабни потребители, осигурявайки скорост и стабилност дори при висока честота и високи изисквания за едновременно извикване.

На ниво модел техническите възможности като дестилация на модела и извикване на множество модели помагат на все повече компании да оптимизират разпределението на ресурсите, позволявайки на AI възможностите точно да съвпадат с бизнес сценариите, като същевременно намаляват разходите. На ниво приложение MCP и A2A, които спечелиха значително индустриално внимание, допълнително намаляват разходите за проба и грешка на AI, помагат на компаниите да оптимизират парадигмите за сътрудничество на приложения и променят неефективния модел на „преоткриване на колелото“ в традиционното разработване на агенти.

„Комбинационен удар“ от модели към приложения е идеалният отговор за подпомагане на LLM да преодолеят „ROI дилемата“.

От затворено към отворено: Намаляване на бариерата пред AI експериментите

От 2023 г. ключовата дума за внедряването на AI приложения постепенно се измести към Agent. До 2024 г. почти всички компании обсъждат Agent приложения и развитие. Въпреки това, Agents по това време нямаха истински възможности за планиране и се основаваха основно на перспективи за работния процес, свързвайки LLM с основни приложения чрез зашиване или процедуриране на компоненти чрез управлявани от експерти правила.

С неотдавнашното възникване на протоколите MCP и A2A, 2025 г. се превърна в истинската „Нулева година на агента“. По-специално, въздействието на MCP върху AI областта е сравнимо с това на TCP/IP протокола върху Интернет.

Джоу Зе’ан, главен изпълнителен директор на Biyao Technology, заяви в интервю за InfoQ, че основната стойност на MCP за AI областта се отразява в три измерения:

  • Стандартизация на LLM инструменти за извикване: В миналото всяка компания имаше своя собствена реализация на Function Call, със значителни разлики между тях. MCP установява единен стандарт за достъп, позволяващ истинска стандартизация на схемите за планиране на приложения между клиенти и сървъри. В допълнение, MCP позволява взаимодействие не само между LLM, които поддържат Function Call, но и с LLM, които нямат тази функция.
  • Решаване на предизвикателствата за сътрудничество на инструменти: Единният стандарт на MCP протокола прави конструирането на Agent услуги по-разнообразно. Разработчиците трябва да обмислят не само своите собствени агенти и MCP услуги, но и как да интегрират външни възможности за постигане на по-мощни Agent функции.
  • Контролиране на целия контекст чрез LLM, което води до по-удобно за потребителя взаимодействие: Когато се изграждат процеси, той може да използва по-широк набор от източници на данни за решаване на сложни задачи, които преди това бяха невъзможни.

“Като цяло, MCP протоколът значително намалява бариерата за компаниите да възприемат AI технология. В миналото техническият процес на интеграция за достъп до агенти беше сложен. Сега компаниите вече не трябва да разбират дълбоко сложни технически детайли на реализацията, а трябва само да изяснят своите бизнес нужди”, каза Джоу Зе’ан. Biyao Technology напълно отвори възможностите за обработка на документи на своя самостоятелно разработен вертикален LLM за индустрията на човешките ресурси “Bole” чрез MCP протокола, включително договори, автобиографии и PPT, и стана един от първите корпоративни разработчици, които пуснаха MCP компоненти на платформата за разработване на приложения Qianfan. В момента всяко предприятие или индивидуален разработчик може директно да извиква своите професионални възможности на платформата Qianfan.

“Baidu ще помогне на разработчиците активно и цялостно да приемат MCP.” На конференцията за AI разработчици Create2025 Baidu, проведена на 25 април, платформата Qianfan официално стартира MCP услуги на корпоративно ниво. Основателят на Baidu Ли Яньхонг демонстрира случая с платформата Qianfan, която приема MCP, позволявайки на разработчиците гъвкаво да имат достъп до 1000 MCP сървъра, включително Baidu AI търсене, карти и Wenku, при създаване на агенти. В допълнение, Qianfan стартира инструмент с нисък код за създаване на MCP сървъри, позволявайки на разработчиците лесно да разработват свои собствени MCP сървъри на Qianfan и да ги публикуват на Qianfan MCP Square с едно щракване. Тези MCP сървъри също ще бъдат своевременно индексирани от Baidu търсене, което им позволява да бъдат открити и използвани от повече разработчици.

Всъщност Qianfan непрекъснато решава проблема с последната миля на внедряването на AI преди възхода на MCP протокола, помагайки на компаниите ефективно и с ниски бариери да се насладят на ползите от AI технологията и предоставяйки зрели решения за множество индустрии.

Например, в индустрията за интелигентни домове компаниите обикновено се сблъскват с общ проблем: как да предоставят точни интелигентни услуги за масивни продуктови модели? С ускореното внедряване на LLM все повече компании използват Agents, за да предоставят бързо на потребителите точни и персонализирани отговори. Въпреки това, това също носи ново предизвикателство: как да се разработват и управляват многобройни агенти? Марките за интелигентни домове обикновено имат много различни продуктови категории и модели. Изграждането на агент за всеки продукт поотделно не само би довело до високи разходи за разработка, но и до значителни разходи за управление и поддръжка в по-късните етапи.

Например, водеща марка за интелигентни домове използва платформата за разработване на приложения Baidu AI Cloud Qianfan, за да третира имената на файловете като независими срезове и да вгражда информация за срезовете на имената на файловете във всеки финозърнест срез. Вместо да изграждат агент за всеки продукт поотделно, те трябваше само да сортират съответната база от знания и да определят имената на продуктовите модели. След това те можеха да използват стратегията за автоматично анализиране на RAG рамката на платформата Qianfan, за да постигнат прецизно съпоставяне на продуктовите модели и точките на знания.

Платформата за разработване на приложения Qianfan също предоставя на марката набор от инструменти за операции, за да изгради непрекъснато развиващ се интелигентен център. Чрез функцията за връщане на данни всички записи за потребителско взаимодействие се трансформират в материали за оптимизация. Оперативният персонал може да преглежда високочестотни проблеми в реално време и незабавно да се намеси в неоткрити точки на знания, формирайки затворен цикъл “операция - обратна връзка - оптимизация”. В допълнение, платформата за разработване на приложения Qianfan и Xiaodu AI Assistant съвместно изградиха рамка за гласово взаимодействие. Разчитайки на тази рамка, марката може да позволи на хардуера да “говори” директно с потребителите, постигайки по-естествено, ефикасно и персонализирано интерактивно изживяване.

От MCP до A2A, отвореността се превърна в нова ключова дума в екосистемата на LLM приложенията. Отвореността е и първоначалното намерение на платформата Qianfan. От първия ден на пускането си през 2023 г., Qianfan възприе най-отворената позиция за достъп до богатство от LLM на трети страни. В момента Qianfan има достъп до повече от 100 модела от над 30 доставчици на модели, обхващащи 11 типа възможности като текст, изображение и дълбоко разсъждение, включително модели на трети страни като DeepSeek, LLaMA, Tongyi и Vidu. Той също така предоставя пълна гама от Wenxin LLM, включително новоиздадения мултимодален модел Wenxin 4.5 Turbo и модела за дълбоко мислене Wenxin X1 Turbo, както и предварително издадения модел за дълбоко мислене Wenxin X1.

За компаниите, които искат бързо да внедрят AI технология, Baidu AI Cloud постепенно се превръща в първия избор. Пазарните данни са най-доброто доказателство. В момента платформата Qianfan обслужва над 400 000 клиенти, с проникване от над 60% в централните предприятия. Според доклада за мониторинг и прозрения на проектите за наддаване на големи модели в Китай (2025Q1), Baidu постигна двоен първенец по броя на проектите за наддаване на големи модели и сумата на спечелените наддавания през първото тримесечие: спечелвайки 19 проекта за наддаване на големи модели с разкрита сума на проекта над 450 милиона юана, а спечелените проекти за големи модели бяха почти всички от клиенти на централни държавни предприятия в индустрии като енергетика и финанси.

Докладът на Baidu AI Cloud също изпраща сигнал към външния свят: в тази дългосрочна битка за внедряване на AI технология, само тези решения, които наистина разбират болезнените точки на индустрията и могат да помогнат на компаниите да намалят разходите за проба и грешка, са най-жизненоважните.