Рассвет MCP и A2A: Смена Парадигмы
Появление протоколов Model Context Protocol (MCP) и Agent2Agent (A2A) в 2025 году знаменует собой поворотный момент в эволюции разработки AI-приложений. MCP нацелен на стандартизацию интерфейсов для разрушения информационных silos, позволяя LLM эффективно получать доступ к внешним ресурсам и облегчая беспрепятственный поток данных между системами и платформами. A2A еще больше способствует беспрепятственному взаимодействию между агентами, способствуя сотрудничеству и коммуникации для формирования связных, интегрированных систем.
Переход от MCP к A2A подчеркивает растущий акцент на ‘открытости’ как на ключевом драйвере в экосистеме AI-приложений. Эта открытость охватывает как техническую совместимость, так и дух сотрудничества. В более широком плане эта трансформация отражает естественное развитие в развитии технологий: переход от первоначального волнения к практической реализации и от изолированных инноваций к эволюции совместной экосистемы.
Исторически сложилось так, что ценность LLM непропорционально приписывалась масштабу параметров и автономным возможностям. Сегодня MCP и A2A решают критический вопрос взаимосвязанности между AI-приложениями и меняют конкурентную динамику экосистемы LLM. Разработка AI-приложений развивается от подхода ‘одинокого волка’ к модели взаимосвязанности. Это требует переоценки ценности AI для CTO, смещая акцент с простого стремления к размеру модели и стратегиям ‘все-в-одном’ к использованию платформ, которые объединяют разнообразные возможности AI. Цель состоит в том, чтобы органично встроить AI в существующие бизнес-процессы и производственные системы, повысить общую эффективность за счет сотрудничества и стандартизации, решить критические проблемы с минимальными вычислительными ресурсами и преодолеть ‘дилемму ROI’.
Бич Потерянных Вычислений и Несогласованных Сценариев
Неспособность преодолеть узкое место высоких инвестиций и низкой производительности долгое время преследовала внедрение LLM. Это явление отражает глубоко укоренившиеся противоречия в развитии AI. Во-первых, существует значительная потеря вычислительной мощности. Данные показывают, что центры обработки данных общего назначения на уровне предприятия работают только на 10-15%, оставляя огромные объемы вычислительных ресурсов в режиме ожидания. Во-вторых, существует несогласованность сценариев, когда производительность модели не соответствует фактическим потребностям бизнес-сценариев.
Одной из распространенных проблем является ‘перебор’ с использованием больших моделей для легких задач. Некоторые предприятия чрезмерно полагаются на LLM общего назначения для простых приложений. Кроме того, уникальный характер бизнес-сценариев создает дилеммы. Использование больших моделей влечет за собой высокие вычислительные затраты и длительное время вывода. Выбор небольших моделей может не удовлетворить бизнес-требования. Этот конфликт особенно очевиден в бизнес-сценариях, требующих специализированных знаний в предметной области.
Рассмотрим сценарий сопоставления талантов и работы в индустрии рекрутинга. Компаниям требуются модели с глубокими возможностями рассуждения, чтобы понимать сложные взаимосвязи между резюме и описаниями должностей, и в то же время они требуют быстрого времени ответа. Длительное время вывода LLM общего назначения может значительно ухудшить пользовательский опыт, особенно при высоких требованиях пользователей к одновременному доступу.
Чтобы сбалансировать производительность и эффективность, дистилляция моделей приобрела популярность в последние годы. Запуск DeepSeek-R1 ранее в этом году еще больше подчеркнул ценность этой техники. При обработке сложных задач рассуждения дистилляция моделей захватывает шаблон ‘цепочки мыслей’ DeepSeek-R1, позволяя легким моделям-ученикам наследовать его возможности рассуждения, а не просто имитировать результаты вывода.
Например, Zhaopin, ведущая платформа для подбора персонала, использовала DeepSeek-R1 (600+ миллиардов параметров) в качестве обучающей модели для дистилляции цепочки мыслей и логики принятия решений, используемых в задачах сопоставления талантов и работы. Они использовали платформу разработки моделей Baidu AI Cloud Qianfan для дистилляции обучающей модели и переноса ее в модель ERNIE Speed (10+ миллиардов параметров), модель-ученик. Этот подход позволил достичь производительности, сравнимой с обучающей моделью (DeepSeek-R1 достиг 85% точности в результатах связывания рассуждений, а модель-ученик достигла более 81%), улучшил скорость вывода до приемлемого уровня и снизил затраты до 30% от исходных, одновременно достигнув в 1 раз большей скорости, чем полноценный DeepSeek-R1.
В настоящее время предприятия обычно используют два подхода к дистилляции моделей: создание полной технической системы от инфраструктуры и GPU до фреймворков обучения или использование платформенных решений, таких как платформа разработки моделей Qianfan или другие поставщики. Яо Сыцзя, эксперт по AI-приложениям в Zhaopin, заявил, что, хотя у Zhaopin есть собственный фреймворк обучения, они выбрали платформу разработки моделей Qianfan для дистилляции моделей из-за трех основных соображений:
- Комплексная поддержка: Платформа разработки моделей Qianfan предоставляет лучшую в отрасли поддержку для дистилляции моделей, глубоко оптимизируя всю техническую цепочку вокруг сценариев дистилляции.
- Контроль затрат: По сравнению с самостоятельной покупкой и обслуживанием оборудования, платформа разработки моделей Qianfan предлагает значительные преимущества в контроле затрат и более гибком распределении ресурсов.
- Глубокое понимание бизнес-сценариев: Команда профессиональных решений Baidu глубоко понимает основные требования, такие как ‘точное сопоставление’ и ‘высокая скорость ответа’ в области подбора персонала, и сотрудничает с компаниями для изучения решений.
Яо Сыцзя добавил, что Zhaopin продолжит внедрять AI+ в сценарии подбора персонала, используя технологию Reinforcement Learning Fine-Tuning (RFT) от Qianfan для дальнейшего улучшения производительности модели. Они планируют изучить, можно ли еще больше улучшить обучающую модель и можно ли оптимизировать уже дистиллированные модели-ученики с помощью лучших механизмов вознаграждения для повышения точности. Qianfan - первая платформа в Китае, которая превратила в продукты ведущие методы обучения с подкреплением, такие как RFT и GRPO. Преобразуя эти передовые методы обучения с подкреплением в реализуемые решения, Qianfan предлагает таким компаниям, как Zhaopin, больше возможностей для оптимизации производительности моделей.
Однако дистилляция моделей оптимизирует только производительность одной модели. В сложных бизнес-сценариях необходимо точно сопоставлять различные возможности AI со сценариями.
Рассмотрим смартфон. В сценариях распознавания намерений, таких как помощники при вызовах, обычно используются легкие модели для быстрой идентификации проблем пользователей. Для общих сценариев вопросов и ответов, таких как запросы погоды и поиск новостей, обычно используются модели среднего размера для быстрого предоставления точных и информативных ответов. В сценариях анализа данных и логических рассуждений, требующих глубокого мышления, обычно используются большие модели.
Это означает, что смартфону необходимо гибко вызывать несколько LLM в различных сценариях пользовательских запросов. Для производителей телефонов это создает такие проблемы, как высокие затраты на выбор модели и сложные процессы вызова из-за различных протоколов интерфейса модели.
Чтобы решить эти отраслевые проблемы, платформа разработки моделей Qianfan внедрила в продукты интерфейсы маршрутизации моделей. По сравнению с непосредственным использованием оригинальных заводских моделей, она предоставляет возможности пользовательской разработки и готовые к использованию API-вызовы, помогая компаниям сэкономить инженерную рабочую нагрузку и время разработки при одновременном снижении затрат. Кроме того, платформа разработки моделей Qianfan поддерживает гибкие вызовы для крупных пользователей, обеспечивая скорость и стабильность даже при высокочастотных и высокопараллельных требованиях к вызовам.
На уровне модели технические возможности, такие как дистилляция моделей и многомодельный вызов, помогают все большему количеству компаний оптимизировать распределение ресурсов, позволяя возможностям AI точно соответствовать бизнес-сценариям при одновременном снижении затрат. На уровне приложений MCP и A2A, которые привлекли значительное внимание отрасли, еще больше снижают затраты на AI-эксперименты, помогают компаниям оптимизировать парадигмы сотрудничества приложений и изменяют неэффективную модель ‘повторного изобретения колеса’ в традиционной разработке агентов.
‘Комбинированный удар’ от моделей до приложений - идеальный ответ на помощь LLM в преодолении ‘дилеммы ROI’.
От Закрытого к Открытому: Снижение Барьера для AI-Экспериментов
С 2023 года ключевое слово для реализации AI-приложений постепенно сместилось к Agent. К 2024 году почти все компании обсуждают Agent-приложения и разработку. Однако агентам в то время не хватало истинных возможностей планирования, и они в основном основывались на перспективах рабочего процесса, соединяя LLM с основными приложениями путем сшивания или процедуризации компонентов с помощью экспертных правил.
С недавним ростом протоколов MCP и A2A, 2025 год стал настоящим ‘Нулевым годом агентов’. В частности, влияние MCP на область AI сопоставимо с влиянием протокола TCP/IP на Интернет.
Чжоу Цзэань, генеральный директор Biyao Technology, заявил в интервью InfoQ, что основная ценность MCP для области AI отражается в трех аспектах:
- Стандартизация вызова инструментов LLM: В прошлом у каждой компании была своя собственная реализация Function Call, со значительными различиями между ними. MCP устанавливает единый стандарт доступа, обеспечивая истинную стандартизацию схем планирования приложений между клиентами и серверами. Кроме того, MCP обеспечивает взаимодействие не только между LLM, поддерживающими Function Call, но и с LLM, у которых нет этой функции.
- Решение проблем сотрудничества инструментов: Единый стандарт протокола MCP делает построение Agent-сервисов более разнообразным. Разработчикам необходимо учитывать не только своих собственных агентов и MCP-сервисы, но и то, как интегрировать внешние возможности для достижения более мощных функций агента.
- Контроль над всем контекстом через LLM, что приводит к более удобному для пользователя взаимодействию: При построении процессов он может использовать более широкий спектр источников данных для решения сложных задач, которые ранее были невозможны.
‘В целом, протокол MCP значительно снижает барьер для компаний, внедряющих AI-технологии. В прошлом технический процесс интеграции для доступа к агентам был сложным. Теперь компаниям больше не нужно глубоко понимать сложные детали технической реализации, а нужно только уточнить свои бизнес-потребности’, - сказал Чжоу Цзэань. Biyao Technology полностью открыла возможности обработки документов своей собственной вертикальной LLM для индустрии человеческих ресурсов ‘Bole’ через протокол MCP, включая контракты, резюме и PPT, и стала одним из первых корпоративных разработчиков, запустивших MCP-компоненты на платформе разработки приложений Qianfan. В настоящее время любое предприятие или индивидуальный разработчик может напрямую вызывать ее профессиональные возможности на платформе Qianfan.
‘Baidu будет активно и всесторонне помогать разработчикам осваивать MCP.’ На конференции для AI-разработчиков Create2025 Baidu AI, состоявшейся 25 апреля, платформа Qianfan официально запустила MCP-сервисы корпоративного уровня. Основатель Baidu Ли Яньхун продемонстрировал пример того, как платформа Qianfan принимает MCP, позволяя разработчикам гибко получать доступ к 1000 MCP-серверам, включая поиск Baidu AI, карты и Wenku, при создании агентов. Кроме того, Qianfan запустила инструмент с низким кодом для создания MCP-серверов, позволяя разработчикам легко разрабатывать свои собственные MCP-серверы на Qianfan и публиковать их в Qianfan MCP Square одним щелчком мыши. Эти MCP-серверы также будут оперативно проиндексированы поиском Baidu, что позволит им быть обнаруженными и используемыми большим количеством разработчиков.
Фактически, Qianfan постоянно решала проблему ‘последней мили’ реализации AI до роста протокола MCP, помогая компаниям эффективно и с низкими барьерами пользоваться преимуществами AI-технологий и предоставляя зрелые решения для многих отраслей.
Например, в индустрии умного дома компании обычно сталкиваются с общей проблемой: как предоставлять точные интеллектуальные сервисы для огромного количества моделей продуктов? С ускоренным внедрением LLM все больше и больше компаний используют агентов для быстрого предоставления пользователям точных и персонализированных ответов. Однако это также создает новую проблему: как разрабатывать и управлять многочисленными агентами? У брендов умного дома обычно есть много разных категорий продуктов и моделей. Создание агента для каждого продукта отдельно приведет не только к высоким затратам на разработку, но и к значительным затратам на управление и обслуживание на более поздних этапах.
Например, ведущий бренд умного дома использовал платформу разработки приложений Baidu AI Cloud Qianfan для обработки имен файлов как независимых фрагментов и встраивания информации о фрагментах имен файлов в каждый мелкозернистый фрагмент. Вместо создания агента для каждого продукта отдельно им нужно было только отсортировать соответствующую базу знаний и определить имена моделей продуктов. Затем они могли использовать стратегию автоматического анализа фреймворка RAG платформы Qianfan для достижения точного сопоставления моделей продуктов и точек знаний.
Платформа разработки приложений Qianfan также предоставляет бренду набор инструментов для операций для создания постоянно развивающегося интеллектуального хаба. С помощью функции обратного потока данных все записи взаимодействия с пользователем преобразуются в материалы для оптимизации. Операторы могут просматривать высокочастотные проблемы в режиме реального времени и немедленно вмешиваться в нераскрытые точки знаний, формируя замкнутый цикл ‘операция - обратная связь - оптимизация’. Кроме того, платформа разработки приложений Qianfan и Xiaodu AI Assistant совместно построили фреймворк голосового взаимодействия. Полагаясь на этот фреймворк, бренд может позволить оборудованию ‘разговаривать’ напрямую с пользователями, обеспечивая более естественный, эффективный и персонализированный интерактивный опыт.
От MCP до A2A открытость стала новым ключевым словом в экосистеме LLM-приложений. Открытость также является первоначальным намерением платформы Qianfan. С первого дня своего выпуска в 2023 году Qianfan заняла самую открытую позицию для доступа к множеству сторонних LLM. В настоящее время Qianfan имеет доступ к более чем 100 моделям от более чем 30 поставщиков моделей, охватывающим 11 типов возможностей, таких как текст, изображение и глубокое рассуждение, включая сторонние модели, такие как DeepSeek, LLaMA, Tongyi и Vidu. Она также предоставляет полный спектр LLM Wenxin, включая недавно выпущенную собственную мультимодальную модель Wenxin 4.5 Turbo и модель глубокого мышления Wenxin X1 Turbo, а также ранее выпущенную модель глубокого мышления Wenxin X1.
Для компаний, которые хотят быстро внедрить AI-технологии, Baidu AI Cloud постепенно становится первым выбором. Рыночные данные - лучшее доказательство. В настоящее время платформа Qianfan обслуживает более 400 000 клиентов, с уровнем проникновения более 60% в центральные предприятия. Согласно Отчету о мониторинге и анализе проектов торгов для больших моделей в Китае (2025Q1), Baidu добилась двойного первенства по количеству проектов торгов для больших моделей и сумме выигранных торгов в первом квартале: выиграв 19 проектов торгов для больших моделей с раскрытой суммой проекта более 450 миллионов юаней, и выигранные проекты для больших моделей были почти все от центральных государственных предприятий в таких отраслях, как энергетика и финансы.
Отчет Baidu AI Cloud также посылает сигнал внешнему миру: в этой долгосрочной борьбе за внедрение AI-технологий только те решения, которые действительно понимают отраслевые проблемы и могут помочь компаниям снизить затраты на эксперименты, являются наиболее жизненно важными.