MCP革命:重塑AI格局,缓解企业焦虑

MCP和A2A的曙光:范式转变

自ChatGPT问世以来,对大型语言模型 (LLMs) 不懈的进步追求一直是AI领域的一个显著特征。最初对参数规模的关注已逐渐转向实际应用,但对于寻求利用AI力量的企业而言,重大挑战依然存在。与计算能力相关的高成本和AI应用生态系统的碎片化仍然是关键的痛点。公司经常发现,他们对AI的大量投资并没有转化为预期的回报,从而导致持续存在的“ROI困境”。

2025年,模型上下文协议 (MCP) 和 Agent2Agent (A2A) 协议的出现标志着AI应用开发演变的关键时刻。MCP旨在标准化接口以打破数据孤岛,使LLM能够高效地访问外部资源,并促进跨系统和平台之间的无缝数据流。A2A进一步促进了代理之间的无缝交互,从而促进了协作和通信,以形成有凝聚力的集成系统。

从MCP到A2A的转变,突显了对“开放性”日益增长的重视,将其作为AI应用生态系统中的关键驱动因素。这种开放性包括技术互操作性和协作精神。从更广阔的角度来看,这种转变反映了技术发展的自然演进:从最初的兴奋到实际的实施,以及从孤立的创新到协作的生态系统演进。

从历史上看,LLM的价值被不成比例地归因于参数规模和独立能力。如今,MCP和A2A解决了AI应用程序之间互连的关键问题,并重塑了LLM生态系统的竞争动态。AI应用程序开发正在从“孤狼”方法演变为互连模型。这就需要CTO重新评估AI的价值,将重点从仅仅追求模型大小和“全有全无”策略,转移到利用连接各种AI能力的平台。目标是将AI有机地嵌入到现有的业务流程和生产系统中,通过协作和标准化提高整体效率,以最小的计算资源解决关键问题,并克服“ROI困境”。

被浪费的计算资源和错位的应用场景

长期以来,无法克服高投入、低产出的瓶颈一直困扰着LLM的实施。这种现象反映了AI发展中根深蒂固的矛盾。首先,计算能力存在严重的浪费。数据显示,企业级通用计算中心的利用率仅为10-15%,导致大量计算资源闲置。其次,存在模型性能与业务场景的实际需求不符的应用场景错位。

一个常见的问题是使用大型模型进行轻量级任务的“过度使用”。一些企业过度依赖通用LLM来处理简单的应用程序。此外,业务场景的独特性也带来了难题。使用大型模型会产生高昂的计算成本和较长的推理时间。选择较小的模型可能无法满足业务需求。这种冲突在需要专业领域知识的业务场景中尤为明显。

以招聘行业中的人才-职位匹配场景为例。公司需要具有深度推理能力的模型来理解简历和职位描述之间复杂的关系,同时还需要快速的响应时间。通用LLM冗长的推理时间会显着降低用户体验,尤其是在高并发用户需求下。

为了平衡性能和效率,模型蒸馏近年来受到了广泛关注。今年早些时候DeepSeek-R1的发布进一步突出了该技术的价值。在处理复杂的推理任务时,模型蒸馏捕获了DeepSeek-R1的“思维链”模式,使轻量级学生模型能够继承其推理能力,而不是仅仅模仿输出结果。

例如,领先的招聘平台智联招聘使用DeepSeek-R1(6000亿+参数)作为教师模型,来提炼人才-职位匹配任务中使用的思维链和决策逻辑。他们使用百度智能云千帆模型开发平台来提炼教师模型,并将其转移到学生模型ERNIE Speed模型(100亿+参数)。这种方法实现了与教师模型相当的性能(DeepSeek-R1在推理链接结果中实现了85%的准确率,而学生模型实现了81%以上),将推理速度提高到可接受的水平,并将成本降低到原来的30%,同时实现了比成熟的DeepSeek-R1快1倍的速度。

目前,企业通常采用两种方法进行模型蒸馏:从基础设施和GPU到训练框架构建完整的技术系统,或者使用像千帆模型开发平台或其他供应商的基于平台的解决方案。智联招聘的人工智能应用专家姚思嘉表示,虽然智联招聘有自己的训练框架,但他们选择千帆模型开发平台进行模型蒸馏,主要有三个方面的考虑:

  • **全面的支持:**千帆模型开发平台为模型蒸馏提供行业领先的支持,围绕蒸馏场景深度优化整个技术链。
  • **成本控制:**与独立购买和维护硬件相比,千帆模型开发平台在成本控制和更灵活的资源分配方面具有显着优势。
  • **对业务场景的深刻理解:**百度专业的解决方案团队深入理解招聘领域“精准匹配”和“高并发响应”等核心需求,并与公司合作探索解决方案。

姚思嘉补充说,智联招聘将继续引领AI+招聘场景,使用千帆的强化学习微调 (RFT) 技术进一步提高模型性能。他们计划探索是否可以进一步增强教师模型,以及更好的奖励机制是否可以优化已经蒸馏的学生模型以提高准确性。千帆是中国首个将RFT和GRPO等领先的强化学习方法产品化的平台。 通过将这些前沿的强化学习方法转化为可实施的解决方案,千帆为像智联招聘这样的公司提供了更多优化模型性能的可能性。

然而,模型蒸馏仅优化单个模型的性能。在复杂的业务场景中,有必要将各种AI能力与场景精确匹配。

以智能手机为例。在呼叫助手等意图识别场景中,通常使用轻量级模型来快速识别用户问题。对于天气查询和新闻检索等通用知识问答场景,通常使用中型模型来快速提供准确且内容丰富的答案。在需要深度思考的数据分析和逻辑推理场景中,通常使用大型模型。

这意味着智能手机需要在不同的用户需求场景中灵活调用多个LLM。对于手机制造商而言,这带来了诸如模型选择成本高昂以及由于不同的模型接口协议而导致的复杂调用过程等挑战。

为了解决这些行业痛点,千帆模型开发平台将模型路由接口产品化。与直接使用原始工厂模型相比,它提供了定制开发和开箱即用的API调用产品功能,帮助企业节省工程工作量和开发时间,同时降低成本。此外,千帆模型开发平台支持大规模用户的灵活调用,即使在高频率和高并发调用需求下也能确保速度和稳定性。

在模型层面,模型蒸馏和多模型调用等技术能力正在帮助越来越多的公司优化资源分配,使AI能力能够精确匹配业务场景,同时降低成本。在应用层面,受到行业广泛关注的MCP和A2A进一步降低了AI试错成本,帮助企业优化应用协作范式,并改变了传统代理开发中效率低下的“重复发明轮子”模式。

从模型到应用的“组合拳”是帮助LLM克服“ROI困境”的完美答案。

从封闭到开放:降低AI实验的门槛

自2023年以来,AI应用实施的关键在于Agent。到2024年,几乎所有公司都在讨论Agent应用和开发。然而,当时的Agent缺乏真正的规划能力,主要基于工作流程的角度,通过专家驱动的规则,将LLM与基本应用程序通过拼接或程序化组件连接起来。

随着MCP和A2A协议的兴起,2025年已成为真正的“Agent元年”。特别是,MCP对AI领域的影响可与TCP/IP协议对互联网的影响相提并论。

比友科技首席执行官周泽安在接受InfoQ采访时表示,MCP对AI领域的核心价值体现在三个方面:

  • **LLM工具调用的标准化:**过去,每家公司都有自己的函数调用实现,彼此之间存在显着差异。MCP建立了一个统一的访问标准,从而实现了客户端和服务器之间应用程序调度方案的真正标准化。此外,MCP不仅可以在支持函数调用的LLM之间进行交互,还可以与没有此功能的LLM进行交互。
  • **解决工具协作挑战:**MCP协议的统一标准使Agent服务的构建更加多样化。开发人员不仅需要考虑自己的Agent和MCP服务,还需要考虑如何集成外部能力以实现更强大的Agent功能。
  • **通过LLM控制整个上下文,从而实现更友好的用户交互:**在构建流程时,它可以使用更广泛的数据源来解决以前不可能完成的复杂任务。

“总的来说,MCP协议显着降低了公司采用AI技术的门槛。过去,访问Agent的技术集成过程非常复杂。现在,公司不再需要深入了解复杂的技术实现细节,而只需要明确自己的业务需求,”周泽安说。比友科技已通过MCP协议完全开放了其自主研发的人力资源行业垂直LLM“伯乐”的文档处理能力,包括合同、简历和PPT,并成为首批在千帆应用开发平台上推出MCP组件的企业开发商之一。目前,任何企业或个人开发人员都可以直接在千帆平台上调用其专业能力。

“百度将帮助开发人员积极、全面地拥抱MCP。” 在4月25日举行的Create2025百度AI开发者大会上,千帆平台正式推出了企业级MCP服务。百度创始人李彦宏演示了千帆平台拥抱MCP的案例,允许开发人员在创建Agent时灵活访问1000个MCP服务器,包括百度AI搜索、地图和文库。此外,千帆还推出了用于创建MCP服务器的低代码工具,使开发人员可以轻松地在千帆上开发自己的MCP服务器,并一键将其发布到千帆MCP广场。这些MCP服务器也将被百度搜索及时索引,从而可以被更多开发人员发现和使用。

事实上,在MCP协议兴起之前,千帆一直在不断解决AI实施的最后一公里问题,帮助企业高效、低门槛地享受AI技术带来的好处,并为多个行业提供成熟的解决方案。

例如,在智能家居行业,企业普遍面临一个共同的问题:如何为海量的产品型号提供准确的智能服务?随着LLM的加速实施,越来越多的公司使用Agent来快速为用户提供准确和个性化的答案。然而,这也带来了新的挑战:如何开发和管理大量的Agent?智能家居品牌通常有许多不同的产品类别和型号。为每个产品单独构建Agent不仅会导致高昂的开发成本,而且还会导致后期大量的管理和维护成本。

例如,一家领先的智能家居品牌使用百度智能云千帆应用开发平台将文件名视为独立的切片,并将文件名切片信息嵌入到每个细粒度切片中。他们不需要为每个产品单独构建Agent,而只需要整理相应的知识库并定义产品型号名称。然后,他们可以使用千帆平台的RAG框架自动解析策略来实现产品型号和知识点的精确匹配。

千帆应用开发平台还为该品牌提供了一套运营工具,以构建不断发展的智能中心。通过数据回流功能,所有用户交互记录都将转换为优化材料。运营人员可以实时查看高频问题,并立即干预未发现的知识点,形成“运营 - 反馈 - 优化”闭环。此外,千帆应用开发平台和小度AI助手共同构建了一个语音交互框架。依靠此框架,该品牌可以使硬件直接与用户“对话”,从而实现更自然、高效和个性化的交互体验。

从MCP到A2A,开放性已成为LLM应用生态系统中的一个新关键词。开放性也是千帆平台的初衷。自2023年发布的第一天起,千帆就以最开放的姿态访问了丰富的第三方LLM。目前,千帆可以访问来自30多家模型供应商的100多个模型,涵盖文本、图像和深度推理等11种类型的能力,包括DeepSeek、LLaMA、通义和Vidu等第三方模型。它还提供全方位的文心LLM,包括新发布的原生多模态模型文心4.5 Turbo和深度思考模型文心X1 Turbo,以及之前发布的深度思考模型文心X1。

对于想要快速实施AI技术的公司而言,百度智能云正逐渐成为首选。市场数据是最好的证明。目前,千帆平台服务超过40万客户,中央企业渗透率超过60%。根据《中国大模型招投标项目监测与洞察报告(2025Q1)》,百度在一季度大模型招投标项目数量和中标金额方面均实现双第一:中标19个大模型招投标项目,披露项目金额超过4.5亿元,中标的大模型项目几乎全部来自能源和金融等行业的中央国有企业客户。

百度智能云的成绩单也向外界发出了一个信号:在这场AI技术实施的长期战役中,只有那些真正了解行业痛点并能帮助企业降低试错成本的解决方案才最具生命力。