MCP: Начало эры продуктивности AI?

MCP: USB-C для AI-приложений

Интеграция AI-моделей с внешними инструментами всегда была сложной задачей, сопряженной с высокими затратами на кастомизацию и нестабильностью систем. Традиционно разработчикам приходилось создавать отдельные интерфейсы для каждого нового инструмента или источника данных, что вело к неэффективному использованию ресурсов и хрупкости архитектуры системы.

MCP разработан для решения этих проблем путем стандартизации правил взаимодействия. Благодаря MCP, AI-моделям и инструментам нужно лишь соответствовать стандартам протокола для достижения совместимости по принципу plug-and-play. Это упрощает процесс интеграции, позволяя AI-моделям напрямую обращаться к базам данных, облачным сервисам и даже локальным приложениям без необходимости создания индивидуальных адаптационных слоев для каждого инструмента.

Способность MCP к интеграции экосистем уже очевидна. Например, настольное приложение Claude от Anthropic, при подключении к локальной файловой системе через MCP-сервер, позволяет AI-ассистенту напрямую читать содержимое документов и генерировать контекстно-зависимые ответы. В то же время, инструмент разработки Cursor, установив несколько MCP-серверов (например, Slack и Postgres), обеспечивает бесперебойную многозадачность в IDE.

MCP становится тем, чем его задумал Джастин: USB-C для AI-приложений, универсальным интерфейсом, соединяющим всю экосистему.

Путь от выпуска MCP до его нынешней популярности довольно интересен.

После выхода MCP в ноябре 2024 года он быстро привлек внимание разработчиков и предприятий. Однако популярность пришла не сразу. В то время ценность интеллектуальных агентов была неясна. Даже если бы сложность интеграции агентов “MxN” была решена, никто не знал, взлетит ли производительность AI.

Эта неопределенность возникла из-за сложности преобразования быстро развивающейся технологии LLM в практические приложения. Интернет был полон противоречивых мнений об интеллектуальных агентах, что привело к низкой уверенности в способности AI оказать реальное влияние. Даже с появлением многообещающих приложений было трудно сказать, действительно ли AI повышает производительность или просто находится на поверхности. Потребовалось время, чтобы это выяснить.

Переломный момент наступил с выпуском фреймворка Manus и объявлением OpenAI о поддержке MCP.

Manus продемонстрировал возможности совместной работы нескольких агентов, точно отразив то, что пользователи ожидали от производительности AI. Когда MCP обеспечил опыт “диалога как операции” через чат-интерфейс, позволяя пользователям запускать системные действия, такие как управление файлами и получение данных, просто вводя команды, начался сдвиг в восприятии: AI действительно может помочь в реальной работе.

Этот революционный пользовательский опыт повысил популярность MCP. Выпуск Manus стал ключевым фактором успеха MCP.

Поддержка OpenAI еще больше возвысила MCP до статуса “универсального интерфейса”.

27 марта 2025 года OpenAI объявила о крупном обновлении своего основного инструмента разработки AgentSDK, официально поддержав протокол обслуживания MCP. Благодаря этому шагу технологического гиганта, контролирующего 40% мирового рынка моделей, MCP начал напоминать фундаментальную инфраструктуру, такую как HTTP. MCP официально вышел в свет, и его популярность резко возросла.

Это сделало мечту об “HTTP для AI” вполне реальной. Такие платформы, как Cursor, Winsurf и Cline, последовали их примеру и приняли протокол MCP, и экосистема Agent, построенная на MCP, выросла.

MCP: Брезжит ли на горизонте экосистема Agent?

Может ли MCP действительно стать фактическим стандартом для взаимодействия AI в будущем?

11 марта соучредитель LangChain Харрисон Чейз и глава LangGraph Нуно Кампос обсудили, станет ли MCP будущим стандартом для взаимодействия AI. Хотя они не пришли к выводу, дебаты вызвали много воображения вокруг MCP.

LangChain также запустил онлайн-опрос во время дебатов. Удивительно, но 40% участников поддержали MCP в качестве будущего стандарта.

Оставшиеся 60%, которые не голосовали за MCP, предполагают, что путь к становлению будущим стандартом для взаимодействия AI не будет легким.

Одной из главных проблем является разрыв между техническими стандартами и коммерческими интересами, о чем свидетельствуют действия отечественных и зарубежных игроков после выпуска MCP.

Вскоре после того, как Anthropic выпустила MCP, Google создала A2A (Agent to Agent).

Если MCP проложил путь отдельным интеллектуальным агентам для легкого доступа к “точкам ресурсов”, то A2A стремилась построить обширную коммуникационную сеть, соединяющую этих агентов, позволяя им “разговаривать” друг с другом и работать вместе.

С точки зрения основы, и MCP, и A2A борются за контроль над экосистемой Agent.

Итак, что происходит на китайском рынке?

Больше активности сосредоточено среди компаний LLM. С апреля Alibaba, Tencent и Baidu объявили о своей поддержке протокола MCP.

Платформа Bailian от Alibaba Cloud запустила первый в отрасли полнофункциональный сервис MCP 9 апреля, объединив более 50 инструментов, включая Amap и Wuying Cloud Desktop, что позволяет пользователям генерировать эксклюзивные агенты за 5 минут. Alipay сотрудничает с сообществом ModelScope для запуска сервиса “Payment MCP Server” в Китае, позволяя AI интеллектуальным агентам получать доступ к платежным возможностям одним щелчком мыши.

14 апреля Tencent Cloud обновила свой LLM-движок знаний для поддержки MCP-плагинов, подключив его к инструментам экосистемы, таким как Tencent Location Service и WeChat Reading. 16 апреля Alipay запустила “Payment MCP Server”, позволяя разработчикам быстро получать доступ к платежным функциям с помощью команд на естественном языке, создавая замкнутый цикл для коммерциализации AI-сервисов. 25 апреля Baidu объявила о полной совместимости с протоколом MCP, запустив первый в мире сервис MCP для электронной коммерции и поиска. Платформа Smart Cloud Qianfan интегрировала сторонний MCP-сервер, индексируя ресурсы по всей сети для снижения затрат на разработку.

MCP подход китайских компаний LLM - это “замкнутый цикл”. От интеграции Amap на платформе Bailian от Alibaba Cloud до поддержки MCP-плагинов и подключения к таким экосистемам, как WeChat Reading от Tencent Cloud, и запуска сервиса MCP для поиска от Baidu, все они используют MCP для использования своих сильных сторон и укрепления барьеров своей экосистемы.

За этим стратегическим выбором стоит глубокая бизнес-логика.

Представьте, если бы Alibaba Cloud разрешила пользователям вызывать Baidu Maps, или если бы экосистема Tencent открыла основные интерфейсы данных для внешних моделей. Дифференцированные преимущества, созданные данными и экосистемными рвами каждой компании, рухнули бы. Именно эта потребность в абсолютном контроле над “связью” делает MCP, под своей технической стандартизацией, молчаливым перераспределением контроля над инфраструктурой в эпоху AI.

Эта напряженность становится ясной: на поверхности MCP продвигает стандартизацию технических протоколов посредством унифицированных спецификаций интерфейса. В реальности каждая платформа определяет свои собственные правила подключения с помощью частных протоколов.

Это разделение между открытыми протоколами и экосистемами неизбежно станет серьезным препятствием для того, чтобы MCP стал действительно универсальным стандартом.

Реальная ценность MCP в волне индустриализации AI

Даже если в будущем не будет абсолютного “единого протокола”, стандартная революция, вызванная MCP, открыла шлюзы для производительности AI.

В настоящее время каждая компания LLM строит свой собственный “экологический анклав” через протокол MCP. Эта стратегия “замкнутого цикла” выявит глубокие противоречия фрагментации экосистемы Agent. Однако она также высвободит возможности, накопленные строителями экосистем, быстро сформирует матрицы приложений и будет способствовать внедрению AI.

Например, преимущества крупных компаний в прошлом (такие как платежные технологии Alipay, масштаб пользователей и возможности контроля рисков) ограничивались их собственным бизнесом. Однако, открывая их через стандартизированные интерфейсы (MCP), эти возможности могут быть вызваны большим количеством внешних разработчиков. Например, AI-агентам других компаний не нужно строить свои собственные платежные системы, они могут напрямую вызывать интерфейсы Alipay. Это может привлечь больше участников к использованию инфраструктуры крупной компании, формируя зависимость и сетевые эффекты и расширяя экологическое влияние.

Это “инновация огораживания” ускоряет промышленное проникновение технологии AI.

С этой точки зрения, это может привести к тому, что будущая экосистема Agent будет представлять собой модель “ограниченной открытости”.

В частности, основные интерфейсы данных по-прежнему будут прочно контролироваться крупными компаниями, но в неосновных областях, посредством продвижения технических сообществ и вмешательства регулирующих органов, могут постепенно формироваться межплатформенные “микростандарты”. Эта “ограниченная открытость” может защитить экологические интересы производителей и избежать полностью фрагментированной технической экосистемы.

В этом процессе ценность MCP также сместится с “универсального интерфейса” на “экологический соединитель”.

Он больше не будет стремиться стать единственным стандартизированным протоколом, но будет служить мостом для диалога между различными экосистемами. Когда разработчики смогут легко достичь межэкологического сотрудничества Agent через MCP, и когда пользователи смогут беспрепятственно переключать интеллектуальные агентские услуги между различными платформами, экосистема Agent действительно вступит в свой золотой век.

Предпосылкой для всего этого является то, сможет ли индустрия найти деликатный баланс между коммерческими интересами и техническими идеалами. Это изменение, вызванное MCP, выходит за рамки ценности самого инструмента.

Строительство экосистемы Agent заключается не в появлении определенного стандартного протокола. Внедрение AI заключается не в подключении определенного звена, а в консенсусе.

Как изначально представлял инженер Anthropic Дэвид: ‘Нам нужен не только ‘универсальный разъем’, но и ‘электрическая сеть’, которая позволяет разъемам быть совместимыми друг с другом’. Эта электросеть требует как технического консенсуса, так и глобального диалога о правилах инфраструктуры эпохи AI.

В нынешнюю эпоху быстрой итерации технологии AI, под влиянием MCP, производители ускоряют унификацию этого технического консенсуса.