AI надмощие: MCP и A2A строят ли 'високи стени'?

В сцена, напомняща за сложните борби за власт в ‘Игра на тронове’, AI индустрията в момента е свидетел на собствена драма с високи залози. Докато вниманието на света е фокусирано върху конкуренцията около параметрите и производителността на моделите, тиха битка назрява за AI и агентски стандарти, протоколи и екосистеми.

През ноември 2024 г. Anthropic представи Model Context Protocol (MCP), отворен стандарт за интелигентни агенти, целящ да обедини комуникационните протоколи между големи езикови модели и външни източници на данни и инструменти. Скоро след това OpenAI обяви Agent SDK поддръжка за MCP. Главният изпълнителен директор на Google DeepMind Демис Хасабис също потвърди, че моделът Gemini на Google и комплектите за разработка на софтуер ще интегрират този отворен стандарт, наричайки MCP ‘бързо превръщащ се в отворен стандарт за ерата на AI ​​агентите’.

Едновременно с това, Google обяви протокола с отворен код Agent2Agent Protocol (A2A) на конференцията Google Cloud Next 2025. Този протокол има за цел да премахне бариерите между съществуващите рамки и доставчици, позволявайки сигурно и ефикасно сътрудничество между агенти в различни екосистеми.

Тези действия от страна на технологичните гиганти разкриха конкуренция в областта на AI и интелигентните агенти по отношение на стандартите за свързване, интерфейсните протоколи и екосистемите. Принципът ‘протоколът е равен на власт’ е очевиден. Тъй като глобалният AI пейзаж се оформя, този, който контролира дефиницията на основните протоколни стандарти в ерата на AI, има възможност да прекрои структурата на властта и реда на разпределение на стойността в глобалната верига на AI индустрията.

Бъдещият AI ​​Екосистема ‘USB-C Порт’

С бързия напредък на AI технологията, големи езикови модели като GPT и Claude демонстрираха впечатляващи възможности. Истинската стойност на тези модели се крие в способността им да взаимодействат с данните и инструментите на външния свят, за да решават реални проблеми.

Въпреки това, тази способност за взаимодействие отдавна е изправена пред проблеми на фрагментация и липса на стандартизация, изискващи от разработчиците да прилагат специфична логика за интеграция за различни AI модели и платформи.

За да се справи с този проблем, се появи MCP. Като мост, свързващ AI моделите с външния свят, MCP решава няколко ключови проблема, пред които са изправени по време на AI взаимодействие.

Преди MCP, ако AI модел трябваше да се свърже към локална база данни (като SQLite), за да получи данни или да извика отдалечени инструменти (като Slack за екипна комуникация, GitHub API за управление на код), разработчиците трябваше да напишат специфичен код за връзка за всеки източник на данни или инструмент. Този процес не само беше тромав и склонен към грешки, но и скъп за разработване, труден за поддръжка и труден за мащабиране поради липсата на унифициран стандарт.

При стартирането на MCP, Anthropic направи аналогия: MCP е като USB-C порта за AI приложения. MCP има за цел да създаде общ стандарт, позволяващ на различни модели и външни системи да използват един и същ протокол за достъп, вместо да пишат отделен набор от решения за интеграция всеки път. Това прави разработката и интеграцията на AI приложения по-опростени и унифицирани.

Например, в проект за разработка на софтуер, AI инструмент, базиран на MCP, може директно да се задълбочи в хранилището на проектния код, да анализира структурата на кода, да разбере историческите записи на commit и след това да предостави на разработчиците предложения за код, които са по-съобразени с действителните нужди на проекта, значително подобрявайки ефективността на разработката и качеството на кода.

В миналото, за да се даде възможност на големи модели и други AI приложения да използват данни, обикновено беше необходимо да се копира и поставя или да се качва и изтегля. Дори най-мощните модели бяха ограничени от изолацията на данните, образувайки информационни силози. За да се създадат по-мощни модели, всеки нов източник на данни трябваше да бъде персонализиран и приложен, което затруднява мащабирането на наистина взаимосвързани системи, което води до много ограничения.

Чрез предоставяне на унифициран интерфейс, MCP директно свързва AI и данни (включително локални и интернет данни). Чрез MCP сървъра и MCP клиента, стига и двата да следват този протокол, ‘всичко може да бъде свързано’. Това позволява на AI приложенията да имат сигурен достъп и да работят с локални и отдалечени данни, предоставяйки на AI приложенията интерфейс за свързване с всичко.

От архитектурна гледна точка, MCP основно включва две основни части: MCP сървъра и MCP клиента. Разработчиците могат да изложат своите данни чрез MCP сървъра, които могат да идват от локални файлови системи, бази данни или отдалечени услуги като Slack и GitHub APIs. AI приложенията, създадени да се свързват с тези сървъри, се наричат MCP клиенти. Просто казано, MCP сървърът е отговорен за излагането на данни, а MCP клиентът е отговорен за достъпа до данните.

Когато AI моделите имат достъп до външни данни и инструменти, сигурността е важен фактор. Чрез предоставяне на стандартизирани интерфейси за достъп до данни, MCP значително намалява броя на директните контакти с чувствителни данни, намалявайки риска от изтичане на данни.

MCP има вградени механизми за сигурност, позволяващи на източниците на данни да споделят данни с AI по контролиран начин в рамките на сигурна рамка. AI може също така сигурно да връща резултатите от обработката към източниците на данни, гарантирайки, че само проверени заявки могат да имат достъп до конкретни ресурси, което е еквивалентно на добавяне на допълнителен слой защита към сигурността на данните, разсейвайки корпоративните опасения относно сигурността на данните и поставяйки солидна основа за дълбокото приложение на AI в сценарии от корпоративен клас.

Например, MCP сървърът контролира собствените си ресурси и не е необходимо да предоставя чувствителна информация като API ключове на доставчиците на големи моделни технологии. По този начин, дори ако големият модел е атакуван, нападателите няма да могат да получат тази чувствителна информация, ефективно изолирайки рисковете.

Може да се каже, че MCP е естествен продукт на развитието на AI технологиите и важен етап. Той не само опростява процеса на разработка на AI приложения, но и създава условия за просперитета на AI ​​екосистемата.

Като отворен стандарт, MCP значително стимулира жизнеността на общността на разработчиците. Глобалните разработчици могат да допринасят код и да разработват нови конектори около MCP, непрекъснато разширявайки границите на приложението му, формирайки добродетелен екологичен цикъл и насърчавайки дълбоката интеграция на AI и данни в различни индустрии. Тази отвореност улеснява AI приложенията да се свързват с различни услуги и инструменти, формирайки богата екосистема, която в крайна сметка е от полза за потребителите и цялата индустрия.

Предимствата на MCP не се отразяват само на техническо ниво, но по-важното е, че реалната стойност, която той носи в различни области. В AI ​​ерата способността за придобиване и обработка на информация определя всичко, а MCP позволява на множество агенти да си сътрудничат, максимизирайки силните страни на всеки един.

Например, в медицинската област, интелигентните агенти могат да се свързват с електронните медицински записи на пациентите и медицинските бази данни чрез MCP и в комбинация с професионалните преценки на лекарите могат да предоставят първоначални диагностични предложения по-бързо. Във финансовата индустрия, интелигентните агенти могат да си сътрудничат за анализиране на финансови данни, проследяване на пазарните промени и дори автоматично да провеждат търговия с акции. Това разделение на труда и сътрудничество между интелигентни агенти прави обработката на данни по-ефективна, а вземането на решения по-точно.

Преглеждайки историята на развитие на MCP, не е трудно да се установи, че скоростта му на растеж е удивителна. В началото на 2023 г. MCP завърши проектирането на основния комуникационен протокол, реализирайки основни функции за регистрация на интелигентни агенти и предаване на съобщения. Това е като създаване на универсален език за интелигентни агенти, позволявайки им да комуникират помежду си, вместо да говорят на собствените си езици.

В края на 2023 г. MCP допълнително разшири функциите си, поддържайки интелигентни агенти да извикват външни APIs и да споделят данни, което е еквивалентно на позволяване на интелигентните агенти не само да разговарят, но и да обменят информация и съвместно да обработват задачи.

В началото на 2024 г. MCP екосистемата достигна ново ниво. Инструменти за разработчици и примерни проекти бяха пуснати и броят на добавките за интелигентни агенти, предоставени от общността, надхвърли 100, постигайки ситуация на ‘цъфтеж’.

Наскоро Microsoft интегрира MCP в своята Azure OpenAI услуга, а Google DeepMind също обяви, че ще осигури поддръжка за MCP и ще го интегрира в модела Gemini и SDK. Не само големи технологични компании, но и AI стартиращи компании и доставчици на инструменти за разработка се присъединиха към MCP, като Block, Apollo, Zed, Replit, Codeium и Sourcegraph.

Възходът на MCP привлече бързо проследяване и конкуренция от китайски технологични компании като Tencent и Alibaba, разглеждайки го като важна стъпка в стратегията на AI ​​екосистемата. Например, наскоро платформата Bailian на Alibaba Cloud стартира услуга MCP за пълен жизнен цикъл, елиминирайки необходимостта потребителите да управляват ресурси, да разработват и внедряват, и да извършват инженерни операции и поддръжка, намалявайки цикъла на разработка на интелигентен агент до минути. Tencent Cloud пусна ‘AI Development Kit’, който поддържа услуги за хостинг на MCP добавки, за да помогне на разработчиците бързо да изградят интелигентни агенти, ориентирани към бизнеса.

‘Невидимият мост’ за Multi-Agent Сътрудничество

Тъй като протоколът MCP трансформира интелигентните агенти от инструменти за чат в асистенти за действие, технологичните гиганти започват да изграждат ‘малки дворове и високи стени’ на стандарти и екосистеми на това ново бойно поле.

В сравнение с MCP, който се фокусира върху свързването на AI модели с външни инструменти и данни, A2A отива една стъпка по-напред, фокусирайки се върху ефикасното сътрудничество между интелигентни агенти.

Първоначалното намерение на протокола A2A е просто: да се даде възможност на интелигентни агенти от различни източници и производители да се разбират и да си сътрудничат един с друг, носейки по-голяма автономия на сътрудничеството на множество интелигентни агенти.

Това е като СТО, целяща да намали тарифните бариери между държавите. Интелигентните агенти от различни доставчици и рамки са като независими държави. След като A2A бъде приет, това е еквивалентно на присъединяване към зона за свободна търговия, където те могат да комуникират на общ език, да си сътрудничат безпроблемно и съвместно да изпълняват сложни работни процеси, които един интелигентен агент не може да изпълни самостоятелно.

Специфичната форма на оперативна съвместимост на протокола A2A се постига чрез улесняване на комуникацията между Client Agent и Remote Agent. Клиентският агент е отговорен за формулирането и комуникирането на задачи, а отдалеченият агент предприема действия въз основа на тези задачи, за да предостави правилната информация или да извърши съответните операции.

В този процес протоколът A2A има следните ключови възможности:

Първо, интелигентните агенти могат да рекламират своите възможности чрез ‘карти на интелигентен агент’. Тези ‘карти на интелигентен агент’ съществуват в JSON формат, позволявайки на клиентските агенти да идентифицират кой отдалечен агент е най-подходящ да изпълни конкретна задача.

След като бъде идентифициран подходящият отдалечен агент, клиентският агент може да използва протокола A2A, за да комуникира с него и да му възложи задачата.

Управлението на задачи е важна част от протокола A2A. Комуникацията между клиентските и отдалечените агенти се върти около изпълнението на задачи. Протоколът дефинира обект ‘задача’. За прости задачи, тя може да бъде завършена незабавно; за сложни и дългосрочни задачи, интелигентните агенти могат да комуникират помежду си, за да поддържат синхронизация относно статуса на изпълнение на задачата.

В допълнение, A2A също така поддържа сътрудничество между интелигентни агенти. Множество интелигентни агенти могат да си изпращат съобщения един на друг, които могат да съдържат контекстуална информация, отговори или инструкции от потребителя. По този начин, множество интелигентни агенти могат да работят заедно по-добре, за да изпълнят съвместно сложни задачи.

При проектирането на този протокол, Google следваше пет ключови принципа. Първо, A2A се фокусира върху предоставянето на възможност на интелигентните агенти да си сътрудничат в своите естествени, неструктурирани режими, дори ако не споделят памет, инструменти и контекст.

Второ, протоколът е изграден върху съществуващи, популярни стандарти, включително HTTP, Server-Sent Events (SSE) и JSON-RPC, което означава, че е по-лесно да се интегрира със съществуващите ИТ стекове, които компаниите вече използват ежедневно.

Например, компания за електронна търговия използва протокола HTTP ежедневно, за да обработва предаването на уеб данни и JSON-RPC, за да предава инструкции за данни между предния и задния край. След въвеждането на протокола A2A, системата за управление на поръчки на компанията може бързо да получи актуализации на логистични данни, предоставени от съответните интелигентни агенти чрез HTTP и A2A протокол, без да се налага да възстановява сложни канали за предаване на данни, което го прави лесен за интегриране в съществуващата ИТ архитектура и прави сътрудничеството на различните системи по-гладко.

Трето, A2A е проектиран да поддържа удостоверяване и оторизация от корпоративен клас. Използването на протокола A2A може бързо да удостовери и сигурно да получи данни, гарантирайки сигурността и съответствието на предаването на данни и предотвратявайки рисковете от изтичане на данни.

Четвърто, A2A е достатъчно гъвкав, за да поддържа различни сценарии, от бързи задачи до задълбочени изследвания, които могат да отнемат часове или дори дни (когато са включени хора). През целия процес, A2A може да предостави на потребителите обратна връзка в реално време, известия и актуализации на състоянието.

Вземете за пример изследователска институция. Изследователите използват интелигентни агенти съгласно протокола A2A, за да провеждат изследвания, свързани с разработването на нови лекарства. Прости задачи, като бързо извличане на съществуваща информация за структурата на лекарствени молекули в базата данни, могат да бъдат завършени и върнати на изследователите в рамките на секунди. Въпреки това, за сложни задачи, като симулиране на реакцията на нови лекарствени молекули в човешката телесна среда, може да отнеме няколко дни.

През този период протоколът A2A непрекъснато ще насочва напредъка на симулацията към изследователите, като например колко стъпки са завършени, текущите срещани проблеми и т.н., което позволява на изследователите да бъдат в крак със ситуацията, точно като че ли имат асистент, който отчита напредъка на работата по всяко време.

Пето, светът на интелигентните агенти не се ограничава само до текст, така че A2A поддържа различни модалности, включително аудио, изображения и видео потоци.

Представете си, че в бъдеще вашият интелигентен асистент, CRM системата на компанията, AI за управление на веригата за доставки и дори интелигентни агенти на различни облачни платформи могат да ‘разговарят за задачи и да разделят работата’ като стари приятели, като ефективно изпълняват различни нужди от прости заявки до сложни процеси, като по този начин отварят ерата на машинната интелигентност.

В момента протоколът вече поддържа платформи за приложения за повече от 50 основни технологични компании, включително Atlassian, Box, Cohere, Intuit, MongoDB, PayPal, Salesforce и SAP.

Струва си да се отбележи, че това са всички компании, които имат фини връзки с екосистемата на Google. Например, Cohere, независим AI стартъп, е основан през 2019 г. от трима изследователи, които преди това са работили в Google Brain; те имат дългосрочно техническо партньорство с Google Cloud, а Google Cloud предоставя на Cohere изчислителната мощ, необходима за обучение на модели.

Atlassian, компания, която предоставя инструменти за екипно сътрудничество, като Jira и Confluence, се използва от много хора. Те имат партньорство с Google и някои приложения могат да се използват в продуктите на Google.

Въпреки че Google каза, че A2A е допълнение към протокола за контекст на модела MCP, предложен от Anthropic, това е малко като Google да поеме водещата роля в разработването на системата Android с повече от 80 компании в миналото. Тъй като все повече и повече компании се присъединяват, търговската стойност на A2A ще бъде значително подобрена и ще насърчи бързото развитие на цялата екосистема на интелигентни агенти.

От ‘Свързване на инструменти’ до ‘Доминиране на екосистеми’

MCP и A2A представляват два различни пътя за AI взаимосвързаност. MCP, като основен протокол за взаимодействие на модели, осигурява безпроблемно свързване между приложения и различни модели; A2A осигурява рамка за сътрудничество между интелигентни агенти на тази основа, наблягайки на автономното откриване и гъвкавото сътрудничество между интелигентни агенти. Тази многослойна структура може едновременно да задоволи нуждите от стандартизация на моделите и сътрудничество на интелигентни агенти.

В същото време, и двата са постигнали доминиращи позиции в съответните си под-области. MCP има предимства в приложенията от корпоративен клас, услугите за моделиране и сценариите за стандартизация; A2A е получил повече подкрепа в общности с отворен код, изследователски проекти и иновативни приложения.

От макро гледна точка, възходът на MCP и A2A е не само свързан с бъдещите AI технологични стандарти, но и предвещава голяма промяна в AI индустриалния пейзаж. Ние сме свидетели на исторически поврат в AI от ‘самостоятелна интелигентност’ към ‘мрежи за сътрудничество’. Както показва историята на развитие на интернет, установяването на отворени и стандартизирани протоколи ще се превърне в ключова сила за насърчаване на развитието на индустрията.

Но от по-дълбоко ниво, MCP и A2A крият огромни търговски интереси и конкуренцията за бъдещата мощ на AI технологичния дискурс.

По отношение на бизнес моделите, и двата отварят различни пътища за печалба. Anthropic планира да пусне услуга за корпоративна версия, базирана на MCP, таксувайки компаниите въз основа на обема на API повикванията. Компаниите използват MCP, за да интегрират дълбоко вътрешните данни с AI, да подобрят бизнес ефективността и трябва да платят за тази удобна услуга.

Google използва протокола A2A за насърчаване на абонаменти за облачни услуги. Когато компаниите използват A2A за изграждане на мрежи за сътрудничество на интелигентни агенти, те се ръководят да използват мощната изчислителна мощ на Google Cloud и свързаните с нея услуги, като по този начин увеличават приходите от бизнеса на Google Cloud.

По отношение на монопола на данните, овладяването на протоколни стандарти означава контролиране на потока от AI данни. Чрез протокола A2A Google събира огромни количества данни по време на сътрудничеството на много корпоративни интелигентни агенти. Тези данни се връщат в неговите основни рекламни алгоритми, допълнително консолидирайки господството му на рекламния пазар. Anthropic иска да използва MCP, за да позволи на AI да проникне в ядрото на корпоративните данни. Ако формира предимство в мащаба, то също ще натрупа голямо количество индустриални данни, предоставяйки подкрепа за данни за разширяване на бизнеса и разработване на AI продукти, които са по-съобразени с нуждите на предприятията.

По отношение на стратегията с отворен код, въпреки че и двамата твърдят, че са с отворен код, те имат свои собствени планове. Основният протокол MCP е с отворен код, привличайки разработчиците да участват в изграждането на екосистемата, но ключовите функции от корпоративен клас (като разширени функции за отдалечена връзка и задълбочена обработка на мултимодални данни) трябва да бъдат отключени срещу заплащане, балансирайки отворения код и търговските интереси. Докато протоколът A2A е с отворен код, той ръководи повече от 50 корпоративни партньори да дават приоритет на използването на услугите на Google Cloud, тясно обвързвайки екосистемата с отворен код със собствената си търговска система и повишавайки устойчивостта на потребителите и конкурентоспособността на платформата.

Самата технология няма добро или зло, но когато е вградена във веригата на интереси, тя се превръща в носител на власт и контрол. Всяка технологична революция прекроява световната верига на интереси. Индустриалната революция премести веригата на интереси от земя и труд към капитал и машини, докато дигиталната революция я изтласка към данни и алгоритми.

Инструментите с отворен код със сигурност могат да изследват иновативни пътища, но не очаквайте да използвате ключовете за данни и алгоритми, за да отворите всички врати, защото всеки низ от ключове е гравиран с паролата за интерес на платформата.

Докато технологичните компании изглежда отварят AI ​​екосистемата, те всъщност изграждат високи и дебели екологични стени около сценарии на приложение, които са по-благоприятни за себе си, предотвратявайки разкопаването на златни мини от данни, в края на краищата, крайната конкурентоспособност в AI ​​ерата е все още данните.

Дали MCP и A2A в крайна сметка могат да се слеят, все още е несигурно. Ако всеки действа независимо, технологичните гиганти е много вероятно да изградят ‘AI малки дворови стени’. В резултат на това феноменът на островите на данните ще стане по-сериозен, циркулацията на данни между компании в различни протоколни лагери ще бъде блокирана, ограничавайки обхвата на AI иновационни приложения; разработчиците ще трябва да овладеят множество протоколни умения за разработка, увеличавайки разходите за обучение и натоварването при разработка, потискайки иновационната жизненост; посоката на индустриалните иновации ще бъде лесно ръководена от гигантски протоколи, а стартиращите компании ще бъдат в неизгодно положение в конкуренцията поради трудността в подкрепата на множество протоколи, възпрепятствайки цялостния иновационен темп на индустрията.

Надяваме се, че възходът на MCP и A2A ще насърчи глобалната AI ​​индустрия да се развива в посока на сътрудничество, а не на конфронтация.

Точно като железопътния спор за габарита през 19 век и войната за стандарти за мобилна комуникация през 20 век, всяко технологично разделение е придружено от огромни социални разходи. Последиците от спора за AI стандарта и протокола може да бъдат по-далечни. То ще определи дали се движим към ‘Интернет на всичко’ звездна федерация или падаме в тъмна гора, където преобладава ‘веригата на подозрение’.