MCP崛起:百度云如何引领企业级模型上下文协议服务
在人工智能迅速发展的今天,一种新的模型交互标准正在兴起。模型上下文协议 (Model Context Protocol, MCP) 是由 Anthropic 于 2024 年 11 月推出的开放标准,迅速成为开发者和企业关注的焦点。MCP 的主要目标是在大型语言模型 (LLM) 和各种数据源之间建立安全、双向的连接,从而解决工具实现中的不一致性,并促进跨模型共享。
MCP 成为行业标准
短短几个月内,MCP 在人工智能领域获得了显著的关注。在 4 月 25 日举行的 Create2025 百度 AI 开发者大会上,百度创始人李彦宏发布了两款突破性模型:文心大模型 4.5 Turbo 和深度思考模型 X1 Turbo。与这些模型一同发布的还有各种 AI 应用,标志着百度致力于帮助开发者充分利用 MCP。
对 MCP 的支持不仅限于百度,还包括 OpenAI、Google、Microsoft、Amazon、Anthropic、Alibaba 和 Tencent 等主要参与者。这种广泛的采用表明 MCP 正在成为 ‘AI 领域的 HTTP’,为模型和数据源之间的交互设置通用标准。
在大会期间,百度智能云正式发布了中国首个企业级 MCP 服务。该服务为企业和开发者提供了访问 1000 多个 MCP 服务器的权限。此外,该平台还允许开发者在百度 AI 开发平台 Qianfan 上创建自己的 MCP 服务器,并将其发布到 MCP Square,通过百度搜索提供免费托管和索引。
百度云的企业聚焦战略
虽然许多供应商都在采用 MCP,但他们的方法各不相同。百度智能云专注于企业市场,旨在尽早让尽可能多的开发者参与进来。该战略包括丰富 MCP Square 并利用百度搜索来推动流量,从而培养强大的 MCP 生态系统。
百度对其 MCP 产品采取的方法以企业客户的需求以及他们的反应为中心。该公司拥有有利地位,可以利用其现有的企业客户基础,将他们带入 MCP 的世界。
人工智能领域中 MCP 的必要性
MCP 的出现解决了部署 LLM 的关键挑战,尤其是在企业环境中。以前,LLM 的应用主要限于类似聊天机器人的场景。更广泛的企业应用需要大量的定制,使得开发过程复杂且资源密集,即使有百度智能云等供应商提供的工具链也是如此。
随着 2025 年被称为 AI Agent 的元年,LLM 有望从仅仅是思考发展到自主规划和执行任务。在这种模式下,LLM 充当 ‘大脑’,需要 ‘四肢’ 和 ‘感官’ 来完成特定任务。
传统上定制每个 AI 应用都需要集成 ‘M×N’ 个工具,其中每个 AI 应用必须与许多工具交互。MCP 通过标准化 LLM 和工具之间的交互来简化此过程,从而将复杂性降低到 ‘M+N’。这种标准化对于在各种企业职能中扩展 AI 应用至关重要。
简化企业级 AI 应用
百度集团执行副总裁兼百度智能云业务集团总裁沈抖强调,应用 LLM 不仅仅是简单的调用。“它需要连接各种组件和工具,并执行复杂的编排。通常,还需要进一步改进和定制模型以提高性能,”他指出。
沈抖进一步解释说,构建企业级应用需要仔细考虑计算性能、稳定性、可扩展性和安全性。他将应用的部署视为一个“系统”构建过程。
与消费级应用相比,企业应用对标准的要求更高,对错误的容忍度更低。一位业内专家表示,应用开发占用了 90% 的项目时间,因为虽然模型是标准化的,但应用却高度可变。
这些工作通常涉及四个关键任务:补充专业知识、编排业务流程、扩展智能工具以及集成企业系统。通过将这些任务封装到一个提供开箱即用功能的平台中,企业可以利用 RAG(检索增强生成)来整合专家知识,使用工作流来编排业务流程,并使用智能代理结合 MCP 来利用现有系统和资产。
MCP 有望满足行业对简化 LLM 在实际应用中部署的期望。
弥合企业级代理中的差距
正如沈抖指出的那样,LLM 的部署需要全栈、系统级的支持,从底层计算能力到应用。这包括高性能硬件和集群优化,以及灵活的开发工具链和基于场景的解决方案。
百度智能云的系统级能力包括一个计算能力层,其中包括新发布的 30,000 卡昆仑芯集群和升级后的百舸 GPU 计算平台。模型开发层在 Qianfan 平台上拥有 100 多个模型,包括百度的文心 4.5Turbo 和文心 X1 Turbo,以及 DeepSeek、Ilama 和 Vidu 等第三方模型。
在应用开发层,百度智能云提供 Qianfan 企业级 Agent 和 MCP 服务,增强了 Agent 解决复杂问题的能力。这些服务由全面的模型开发工具链提供补充,该工具链支持深度思考模型和多模态模型的定制和微调。
百度智能云专注于应用开发层,对 Qianfan 平台的企业级 Agent 开发工具链进行了重大更新。该平台引入了新的基于推理的智能代理 Intelligent Agent Pro,它增强了从快速问答到深度审议的能力,为每个企业支持定制的智能代理。
百度 MCP 生态系统的实际应用
以污水宝为例,它使用 Qianfan Agentic RAG 能力来结合企业特定的数据和知识库。这使得代理能够基于对任务的理解来制定检索策略,从而显著减少模型幻觉。
Intelligent Agent Pro 还支持 Deep Research 模式,使代理能够自主地计划复杂的任务,过滤和组织信息,并通过浏览网页来收集探索性知识。它还支持使用各种工具来创建图表、编写报告以及生成结构化和信息丰富的专业报告。
MCP 使开发者和企业能够在开发代理时更好地利用行业数据和工具,从而解决企业级代理能力中的关键差距。
开发者可以通过两种方式使用 MCP:通过以 MCP 格式提供其资源、数据和能力以供 AI 应用使用,或者通过在开发 AI 应用时利用现有的 MCP 服务器资源。这两种方法都可以减少开发工作量并显著增强能力。
百度智能云的 Qianfan 平台是首个支持 MCP 的大型模型平台。在 MCP 之前,大型模型和工具分散且缺乏标准化。MCP 促进了互连并促进了生态系统的繁荣。
MCP 的竞争格局
MCP 以及一般的大型模型代表了平台和生态系统之间的竞争。在新技术的早期阶段,各种范例尚不成熟,需要端到端的优化才能实现最佳性能。这解释了为什么大型模型应用的部署在很大程度上依赖于领先的供应商。
对于这些供应商来说,挑战不在于在一个领域中表现出色,而在于没有明显的弱点。他们必须构建强大的平台能力并培养蓬勃发展的生态系统以吸引更多的参与者,从而将一个大型模型生态系统与另一个生态系统竞争。
百度在 MCP 领域的战略涉及三个步骤。
- 推出 MCP 服务器:百度是最早推出 MCP 服务器的公司之一,包括全球首个电子商务交易 MCP 和搜索 MCP。开发者可以将百度 AI 搜索和百度优选的 MCP 服务器添加到百度智能云 Qianfan 平台上的“通用智能代理助手”中,使智能代理能够完成从信息查询和产品推荐到直接下单的整个过程。这结合了电子商务交易支持和顶级搜索能力。
- 支持 MCP 服务开发:百度智能云 Qianfan 平台正式发布了中国首个企业级 MCP 服务,为企业和开发者提供 1000 多个 MCP 服务器。开发者可以在 Qianfan 上创建自己的 MCP 服务器,将其发布到 MCP Square,享受免费托管,并通过百度搜索获得曝光和使用机会。
- AI 开放计划:百度搜索开放平台启动了“AI 开放计划” (sai.baidu.com),通过各种内容和服务分发机制,为智能代理、H5 应用、小程序和独立应用的开发者提供流量和商业化机会。该计划还允许用户轻松发现和使用最新的 AI 服务。
通过使更多的企业和开发者能够通过 MCP 开放其能力,百度正在促进其生态系统的发展,同时使其合作伙伴能够实现商业价值。大型模型竞争中的最终赢家可能不一定是技术最先进的供应商,而是拥有最繁荣的生态系统的供应商。