В сцене, напоминающей сложные властные интриги из ‘Игры престолов’, индустрия искусственного интеллекта (AI) переживает свою собственную драму с высокими ставками. В то время как внимание всего мира сосредоточено на конкуренции вокруг параметров и производительности моделей, в тишине назревает битва за стандарты AI и агентов, протоколы и экосистемы.
В ноябре 2024 года Anthropic представила Model Context Protocol (MCP), открытый стандарт для интеллектуальных агентов, направленный на унификацию протоколов связи между большими языковыми моделями и внешними источниками данных и инструментами. Вскоре после этого OpenAI объявила о поддержке Agent SDK для MCP. Генеральный директор Google DeepMind Демис Хассабис также подтвердил, что модель Google Gemini и комплекты для разработки программного обеспечения будут интегрировать этот открытый стандарт, назвав MCP ‘быстро становящимся открытым стандартом для эры AI-агентов’.
Одновременно с этим Google анонсировала протокол Agent2Agent (A2A) с открытым исходным кодом на конференции Google Cloud Next 2025. Этот протокол направлен на устранение барьеров между существующими фреймворками и поставщиками, обеспечивая безопасное и эффективное сотрудничество между агентами в различных экосистемах.
Эти действия технологических гигантов выявили конкуренцию в AI и интеллектуальных агентах с точки зрения стандартов соединения, протоколов интерфейса и экосистем. Принцип ‘протокол равно сила’ очевиден. По мере формирования глобального ландшафта AI тот, кто контролирует определение базовых стандартов протоколов в эру AI, имеет возможность изменить структуру власти и порядок распределения ценностей в глобальной цепочке AI.
‘USB-C порт’ будущей AI-экосистемы
С быстрым развитием технологии AI большие языковые модели, такие как GPT и Claude, продемонстрировали впечатляющие возможности. Реальная ценность этих моделей заключается в их способности взаимодействовать с данными и инструментами внешнего мира для решения реальных задач.
Однако эта возможность взаимодействия долгое время сталкивалась с проблемами фрагментации и отсутствия стандартизации, что требовало от разработчиков реализации специфической логики интеграции для различных моделей и платформ AI.
Для решения этой проблемы появился MCP. В качестве моста, соединяющего модели AI с внешним миром, MCP решает несколько ключевых проблем, возникающих во время взаимодействия AI.
До MCP, если модели AI необходимо было подключиться к локальной базе данных (например, SQLite) для получения данных или вызвать удаленные инструменты (например, Slack для командной коммуникации, GitHub API для управления кодом), разработчикам приходилось писать специфический код подключения для каждого источника данных или инструмента. Этот процесс был не только громоздким и подверженным ошибкам, но и дорогостоящим в разработке, трудным в обслуживании и сложным в масштабировании из-за отсутствия единого стандарта.
При запуске MCP Anthropic провела аналогию: MCP - это как порт USB-C для приложений AI. MCP стремится создать общий стандарт, позволяющий различным моделям и внешним системам использовать один и тот же протокол для доступа вместо того, чтобы каждый раз писать отдельный набор решений для интеграции. Это упрощает и унифицирует разработку и интеграцию приложений AI.
Например, в проекте разработки программного обеспечения инструмент AI на основе MCP может напрямую углубляться в репозиторий кода проекта, анализировать структуру кода, понимать записи истории коммитов, а затем предоставлять разработчикам предложения по коду, которые больше соответствуют фактическим потребностям проекта, значительно повышая эффективность разработки и качество кода.
В прошлом, чтобы позволить большим моделям и другим приложениям AI использовать данные, обычно приходилось копировать и вставлять или загружать и скачивать. Даже самые мощные модели были ограничены изоляцией данных, образуя информационные silos. Чтобы создать более мощные модели, каждый новый источник данных необходимо было настраивать и реализовывать, что затрудняло масштабирование действительно взаимосвязанных систем, что приводило к множеству ограничений.
Предоставляя унифицированный интерфейс, MCP напрямую соединяет AI и данные (включая локальные и интернет-данные). Благодаря серверу MCP и клиенту MCP, пока оба следуют этому протоколу, ‘все можно подключить’. Это позволяет приложениям AI безопасно получать доступ и управлять локальными и удаленными данными, предоставляя приложениям AI интерфейс для подключения ко всему.
С архитектурной точки зрения, MCP в основном включает две основные части: сервер MCP и клиент MCP. Разработчики могут раскрывать свои данные через сервер MCP, который может поступать из локальных файловых систем, баз данных или удаленных служб, таких как Slack и GitHub API. Приложения AI, созданные для подключения к этим серверам, называются клиентами MCP. Проще говоря, сервер MCP отвечает за раскрытие данных, а клиент MCP отвечает за доступ к данным.
Когда модели AI получают доступ к внешним данным и инструментам, важным соображением является безопасность. Предоставляя стандартизированные интерфейсы доступа к данным, MCP значительно сокращает количество прямых контактов с конфиденциальными данными, снижая риск утечки данных.
MCP имеет встроенные механизмы безопасности, позволяющие источникам данных обмениваться данными с AI контролируемым образом в безопасной структуре. AI также может безопасно отправлять результаты обработки обратно в источники данных, гарантируя, что только проверенные запросы могут получить доступ к определенным ресурсам, что эквивалентно добавлению еще одного уровня защиты к безопасности данных, рассеивая корпоративные опасения по поводу безопасности данных и закладывая прочную основу для глубокого применения AI в сценариях корпоративного уровня.
Например, сервер MCP контролирует свои собственные ресурсы и не должен предоставлять конфиденциальную информацию, такую как ключи API, поставщикам технологий больших моделей. Таким образом, даже если большая модель подвергнется атаке, злоумышленники не смогут получить эту конфиденциальную информацию, эффективно изолируя риски.
Можно сказать, что MCP - это естественный продукт развития технологии AI и важная веха. Он не только упрощает процесс разработки приложений AI, но и создает условия для процветания экосистемы AI.
Как открытый стандарт, MCP значительно стимулирует жизнеспособность сообщества разработчиков. Глобальные разработчики могут вносить код и разрабатывать новые коннекторы вокруг MCP, постоянно расширяя границы его применения, формируя добродетельный экологический цикл и способствуя глубокой интеграции AI и данных в различных отраслях. Эта открытость облегчает приложениям AI подключение к различным сервисам и инструментам, формируя богатую экосистему, в конечном итоге принося пользу пользователям и всей отрасли.
Преимущества MCP отражаются не только на техническом уровне, но, что более важно, в фактической ценности, которую он приносит различным областям. В эру AI способность приобретать и обрабатывать информацию определяет все, а MCP позволяет нескольким агентам сотрудничать, максимизируя сильные стороны друг друга.
Например, в медицинской области интеллектуальные агенты могут подключаться к электронным медицинским картам пациентов и медицинским базам данных через MCP и, в сочетании с профессиональными суждениями врачей, могут предоставлять первоначальные диагностические предложения быстрее. В финансовой отрасли интеллектуальные агенты могут сотрудничать для анализа финансовых данных, отслеживания изменений на рынке и даже автоматически проводить торговлю акциями. Такое разделение труда и сотрудничество между интеллектуальными агентами делает обработку данных более эффективной, а принятие решений - более точным.
Анализируя историю развития MCP, нетрудно обнаружить, что скорость его роста поражает. В начале 2023 года MCP завершил разработку основного протокола связи, реализовав базовые функции регистрации интеллектуальных агентов и передачи сообщений. Это похоже на создание универсального языка для интеллектуальных агентов, позволяющего им общаться друг с другом, а не говорить на своих собственных языках.
В конце 2023 года MCP еще больше расширил свои функции, поддерживая интеллектуальных агентов для вызова внешних API и обмена данными, что эквивалентно тому, чтобы позволить интеллектуальным агентам не только общаться в чате, но и обмениваться информацией и совместно обрабатывать задачи.
В начале 2024 года экосистема MCP достигла нового уровня. Были запущены наборы инструментов для разработчиков и примеры проектов, а количество подключаемых модулей интеллектуальных агентов, предоставленных сообществом, превысило 100, достигнув ситуации ‘расцвета’.
Недавно Microsoft интегрировала MCP в свою службу Azure OpenAI, а Google DeepMind также объявила, что предоставит поддержку MCP и интегрирует его в модель Gemini и SDK. К MCP присоединились не только крупные технологические компании, но и стартапы AI и поставщики инструментов разработки, такие как Block, Apollo, Zed, Replit, Codeium и Sourcegraph.
Взлет MCP привлек быстрое внимание и конкуренцию со стороны китайских технологических компаний, таких как Tencent и Alibaba, рассматривающих его как важный шаг в стратегии экосистемы AI. Например, недавно платформа Bailian от Alibaba Cloud запустила сервис MCP полного жизненного цикла, избавляя пользователей от необходимости управлять ресурсами, разрабатывать и развертывать, а также выполнять инженерные операции и обслуживание, сокращая цикл разработки интеллектуальных агентов до минут. Tencent Cloud выпустила ‘AI Development Kit’, который поддерживает услуги хостинга подключаемых модулей MCP, чтобы помочь разработчикам быстро создавать интеллектуальных агентов, ориентированных на бизнес.
‘Невидимый мост’ для многоагентного сотрудничества
Поскольку протокол MCP превращает интеллектуальных агентов из инструментов чата в помощников по действиям, технологические гиганты начинают строить ‘небольшие дворы и высокие стены’ стандартов и экосистем на этом новом поле битвы.
По сравнению с MCP, который фокусируется на соединении моделей AI с внешними инструментами и данными, A2A идет на шаг дальше, фокусируясь на эффективном сотрудничестве между интеллектуальными агентами.
Первоначальное намерение протокола A2A простое: позволить интеллектуальным агентам из разных источников и производителей понимать и сотрудничать друг с другом, предоставляя большую автономию сотрудничеству нескольких интеллектуальных агентов.
Это похоже на ВТО, стремящуюся снизить тарифные барьеры между странами. Интеллектуальные агенты от разных поставщиков и фреймворков похожи на независимые страны. Как только A2A будет принят, это будет эквивалентно вступлению в зону свободной торговли, где они могут общаться на общем языке, беспрепятственно сотрудничать и совместно выполнять сложные рабочие процессы, которые один интеллектуальный агент не может выполнить самостоятельно.
Конкретная форма интероперабельности протокола A2A достигается путем облегчения связи между Client Agent и Remote Agent. Клиентский агент отвечает за формулирование и передачу задач, а удаленный агент принимает меры на основе этих задач для предоставления правильной информации или выполнения соответствующих операций.
В этом процессе протокол A2A обладает следующими ключевыми возможностями:
Во-первых, интеллектуальные агенты могут рекламировать свои возможности с помощью ‘интеллектуальных агентских карт’. Эти ‘интеллектуальные агентские карты’ существуют в формате JSON, что позволяет клиентским агентам определять, какой удаленный агент лучше всего подходит для выполнения определенной задачи.
Как только подходящий удаленный агент идентифицирован, клиентский агент может использовать протокол A2A для связи с ним и назначения ему задачи.
Управление задачами является важной частью протокола A2A. Связь между клиентским и удаленным агентами вращается вокруг выполнения задач. Протокол определяет объект ‘задача’. Для простых задач его можно выполнить немедленно; для сложных и долгосрочных задач интеллектуальные агенты могут общаться друг с другом для поддержания синхронизации по статусу выполнения задачи.
Кроме того, A2A также поддерживает сотрудничество между интеллектуальными агентами. Несколько интеллектуальных агентов могут отправлять сообщения друг другу, которые могут содержать контекстную информацию, ответы или инструкции пользователя. Таким образом, несколько интеллектуальных агентов могут работать вместе лучше для совместного выполнения сложных задач.
При разработке этого протокола Google следовала пяти ключевым принципам. Во-первых, A2A фокусируется на том, чтобы позволить интеллектуальным агентам сотрудничать в их естественных, неструктурированных режимах, даже если они не имеют общей памяти, инструментов и контекста.
Во-вторых, протокол построен на существующих, популярных стандартах, включая HTTP, Server-Sent Events (SSE) и JSON-RPC, что означает, что его легче интегрировать с существующими IT-стеками, которые компании уже используют ежедневно.
Например, компания электронной коммерции ежедневно использует протокол HTTP для обработки передачи веб-данных и JSON-RPC для передачи инструкций данных между передним и задним концами. После внедрения протокола A2A система управления заказами компании может быстро получать обновления данных логистики, предоставляемые соответствующими интеллектуальными агентами, через HTTP и док-станцию протокола A2A, без необходимости перестраивать сложные каналы передачи данных, что упрощает интеграцию в существующую IT-архитектуру и делает сотрудничество различных систем более плавным.
В-третьих, A2A предназначен для поддержки аутентификации и авторизации на уровне предприятия. Использование протокола A2A может быстро аутентифицировать и безопасно получать данные, обеспечивая безопасность и соответствие передачи данных и предотвращая риски утечки данных.
В-четвертых, A2A достаточно гибок, чтобы поддерживать различные сценарии, от быстрых задач до углубленных исследований, которые могут занять часы или даже дни (когда вовлечены люди). На протяжении всего процесса A2A может предоставлять пользователям обратную связь в режиме реального времени, уведомления и обновления статуса.
Возьмем в качестве примера исследовательское учреждение. Исследователи используют интеллектуальных агентов по протоколу A2A для проведения исследований, связанных с разработкой новых лекарств. Простые задачи, такие как быстрый поиск существующей информации о структуре молекул лекарств в базе данных, могут быть выполнены и возвращены исследователям в течение нескольких секунд. Однако для сложных задач, таких как моделирование реакции новых молекул лекарств в организме человека, может потребоваться несколько дней.
В течение этого периода протокол A2A будет непрерывно передавать ход моделирования исследователям, например, сколько шагов было завершено, текущие проблемы, с которыми столкнулись и т. д., что позволяет исследователям быть в курсе ситуации, как если бы у них был помощник, постоянно сообщающий о ходе работы.
В-пятых, мир интеллектуальных агентов не ограничивается текстом, поэтому A2A поддерживает различные модальности, включая аудио, изображения и видеопотоки.
Представьте, что в будущем ваш интеллектуальный помощник, система CRM компании, AI управления цепочками поставок и даже интеллектуальные агенты на разных облачных платформах могут ‘общаться о задачах и разделять работу’, как старые друзья, эффективно выполняя различные потребности, от простых запросов до сложных процессов, тем самым открывая эру машинного интеллекта.
В настоящее время протокол уже поддерживает платформы приложений для более чем 50 основных технологических компаний, включая Atlassian, Box, Cohere, Intuit, MongoDB, PayPal, Salesforce и SAP.
Стоит отметить, что все это компании, имеющие тонкие отношения с экосистемой Google. Например, Cohere, независимый стартап AI, был основан в 2019 году тремя исследователями, которые ранее работали в Google Brain; у них долгосрочное техническое партнерство с Google Cloud, и Google Cloud предоставляет Cohere вычислительную мощность, необходимую для обучения моделей.
Atlassian, компания, предоставляющая инструменты для совместной работы в команде, такие как Jira и Confluence, используется многими людьми. У них есть партнерство с Google, и некоторые приложения можно использовать в продуктах Google.
Хотя Google заявила, что A2A является дополнением к протоколу контекста модели MCP, предложенному Anthropic, это немного похоже на то, как Google взяла на себя инициативу в разработке системы Android с более чем 80 компаниями в прошлом. По мере того как все больше и больше компаний присоединяются, коммерческая ценность A2A будет значительно увеличена, и это будет способствовать быстрому развитию всей экосистемы интеллектуальных агентов.
От ‘соединения инструментов’ к ‘доминированию в экосистемах’
MCP и A2A представляют собой два разных пути для взаимосвязи AI. MCP, как базовый протокол взаимодействия моделей, обеспечивает бесшовную стыковку между приложениями и различными моделями; A2A предоставляет структуру сотрудничества между интеллектуальными агентами на этой основе, подчеркивая автономное обнаружение и гибкое сотрудничество между интеллектуальными агентами. Эта многоуровневая структура может одновременно удовлетворять потребности стандартизации моделей и сотрудничества интеллектуальных агентов.
В то же время оба достигли доминирующих позиций в своих соответствующих подполях. MCP имеет преимущества в приложениях корпоративного уровня, кросс-модельных сервисах и сценариях стандартизации; A2A получил большую поддержку в сообществах с открытым исходным кодом, исследовательских проектах и инновационных приложениях.
С макроэкономической точки зрения рост MCP и A2A связан не только с будущими стандартами технологии AI, но и предвещает серьезные изменения в ландшафте индустрии AI. Мы являемся свидетелями исторического поворотного момента в AI от ‘автономного интеллекта’ к ‘совместным сетям’. Как показывает история развития Интернета, создание открытых и стандартизированных протоколов станет ключевой силой в содействии развитию отрасли.
Но на более глубоком уровне MCP и A2A скрывают огромные коммерческие интересы и конкуренцию за будущую силу дискурса технологии AI.
С точки зрения бизнес-моделей, оба открывают разные пути прибыли. Anthropic планирует запустить сервис корпоративной версии на основе MCP, взимая плату с компаний на основе объема вызовов API. Компании используют MCP для глубокой интеграции внутренних данных с AI, повышения эффективности бизнеса и должны платить за этот удобный сервис.
Google использует протокол A2A для продвижения подписок на облачные сервисы. Когда компании используют A2A для построения сетей сотрудничества интеллектуальных агентов, их направляют на использование мощной вычислительной мощности Google Cloud и связанных сервисов, тем самым увеличивая доход от бизнеса Google Cloud.
С точки зрения монополии на данные, овладение стандартами протоколов означает контроль над потоком данных AI. Через протокол A2A Google собирает огромные объемы данных во время сотрудничества многих корпоративных интеллектуальных агентов. Эти данные возвращаются в его основные рекламные алгоритмы, еще больше укрепляя его доминирование на рекламном рынке. Anthropic хочет использовать MCP, чтобы AI проник в ядро корпоративных данных. Если он сформирует масштабное преимущество, он также накопит большой объем отраслевых данных, обеспечивая поддержку данных для расширения бизнеса и разработки продуктов AI, которые больше соответствуют потребностям предприятия.
С точки зрения стратегии с открытым исходным кодом, хотя оба заявляют, что являются открытым исходным кодом, у них есть свои собственные планы. Основной протокол MCP является открытым исходным кодом, привлекая разработчиков к участию в построении экосистемы, но ключевые функции корпоративного уровня (такие как расширенные функции удаленного подключения и углубленная обработка мультимодальных данных) должны быть разблокированы за плату, балансируя открытый исходный код и коммерческие интересы. В то время как протокол A2A является открытым исходным кодом, он направляет более 50 корпоративных партнеров на приоритетное использование облачных сервисов Google, тесно связывая экосистему с открытым исходным кодом со своей собственной коммерческой системой и повышая липкость пользователей и конкурентоспособность платформы.
Сама технология не имеет ни добра, ни зла, но когда она встраивается в цепочку интересов, она становится носителем власти и контроля. Каждая технологическая революция перекраивает мировую цепочку интересов. Промышленная революция перенесла цепочку интересов с земли и труда на капитал и машины, а цифровая революция подтолкнула ее к данным и алгоритмам.
Инструменты с открытым исходным кодом, безусловно, могут исследовать инновационные пути, но не ожидайте использовать ключи данных и алгоритмов для открытия всех дверей, потому что на каждой строке ключей выгравирован пароль интереса платформы.
В то время как технологические компании, кажется, открывают экосистему AI, на самом деле они строят высокие и толстые экологические стены вокруг сценариев применения, которые более благоприятны для них самих, предотвращая хищение золотых рудников данных, в конце концов, конечная конкурентоспособность в эру AI - это все еще данные.
Смогут ли MCP и A2A в конечном итоге объединиться, все еще неясно. Если каждый из них будет действовать независимо, технологические гиганты, скорее всего, построят ‘стены небольшого двора AI’. В результате явление острова данных станет более серьезным, циркуляция данных между компаниями в разных протокольных лагерях будет заблокирована, ограничивая область применения инновационных приложений AI; разработчикам необходимо будет овладеть несколькими навыками разработки протоколов, увеличивая затраты на обучение и объем работы по разработке, подавляя инновационную жизнеспособность; направление отраслевых инноваций будет легко направляться гигантскими протоколами, и стартапы окажутся в невыгодном положении в конкуренции из-за трудности поддержки нескольких протоколов, что будет препятствовать общему инновационному темпу отрасли.
Мы надеемся, что рост MCP и A2A будет способствовать развитию глобальной индустрии AI в направлении сотрудничества, а не конфронтации.
Подобно спору о железнодорожной колее в 19 веке и войне за стандарт мобильной связи в 20 веке, каждый технологический раскол сопровождается огромными социальными издержками. Последствия спора о стандарте и протоколе AI могут быть более далеко идущими. Это определит, движемся ли мы к звездной федерации ‘Интернета всего’ или погружаемся в темный лес, где преобладает ‘цепь подозрений’.