模型上下文协议(MCP)正迅速成为下一代人工智能驱动应用的基础标准。由Anthropic于2024年末开发并作为开放标准发布,MCP旨在解决人工智能生态系统中的一个核心问题:如何无缝且安全地将大型语言模型(LLM)和人工智能代理连接到广阔且不断变化的真实世界数据、工具和服务领域。
Anthropic解释说,随着人工智能助手及其背后的大型语言模型的改进,’即使是最复杂的模型也受到其与数据隔离的限制——被困在信息孤岛和遗留系统之后。每一种新的数据源都需要其自定义实现,这使得真正连接的系统难以扩展。’
MCP是Anthropic给出的答案。该公司声称,它将提供一个’通用、开放的标准,用于将人工智能系统与数据源连接,用单一协议取代碎片化的集成。’
MCP:人工智能数据的通用适配器
在我看来,MCP是一种通用的人工智能数据适配器。正如以人工智能为中心的公司Aisera所说,你可以将MCP视为’人工智能的USB-C端口’。正如USB-C标准化了我们连接设备的方式一样,MCP标准化了人工智能模型与外部系统交互的方式。换句话说,Linux基金会的执行董事Jim Zemlin将MCP描述为’正在成为人工智能系统的基础通信层,类似于HTTP对网络所做的事情。’
具体来说,MCP定义了一个基于JSON-RPC 2.0的标准协议,该协议使人工智能应用程序能够通过单一、安全的接口调用函数、获取数据和利用来自任何兼容工具、数据库或服务的提示。
MCP 的架构与组件
它通过遵循具有几个关键组件的客户端-服务器架构来实现这一点。这些是:
- **主机(Host):**需要访问外部数据的人工智能驱动的应用程序(例如,Claude Desktop、集成开发环境(IDE)、聊天机器人)。
- **客户端(Client):**管理与单个MCP服务器的专用、有状态连接,处理通信和能力协商。
- **服务器(Server):**通过MCP协议公开特定功能——工具(函数)、资源(数据)和提示,连接到本地或远程数据源。
- **基础协议(Base protocol):**标准化的消息传递层(JSON-RPC 2.0)确保所有组件可靠且安全地通信。
这种架构将’M×N集成问题’(其中M个AI应用程序必须连接到N个工具,需要M×N个自定义连接器)转换为更简单的’M+N问题’。因此,每个工具和应用程序只需要支持一次MCP即可实现互操作性。这对于开发人员来说确实可以节省时间。
MCP 的工作原理
首先,当AI应用程序启动时,它会启动MCP客户端,每个客户端连接到不同的MCP服务器。这些客户端协商协议版本和功能。建立与客户端的连接后,它会查询服务器以获取可用的工具、资源和提示。
建立连接后,AI模型现在可以访问服务器的实时数据和功能,从而动态更新其上下文。这意味着MCP使AI聊天机器人能够访问最新的实时数据,而不是依赖于预索引的数据集、嵌入或LLM中的缓存信息。
因此,当你要求AI执行任务(例如,’纽约到洛杉矶的最新航班价格是多少?’)时,AI会将请求通过MCP客户端路由到相关服务器。然后,服务器执行该功能,返回结果,并且AI将此最新数据合并到你的答案中。
此外,MCP使AI模型能够在运行时发现和利用新工具。这意味着你的AI代理可以适应新的任务和环境,而无需进行重大代码更改或机器学习(ML)重新训练。
简而言之,MCP用单一、开放的协议取代了碎片化的、定制构建的集成。这意味着开发人员只需要实现一次MCP即可将AI模型连接到任何兼容的数据源或工具,从而大大降低了集成复杂性和维护开销。这使开发人员的生活更加轻松。
更直接的是,你可以使用AI生成MCP代码并解决实施挑战。
MCP 的核心优势
以下是MCP提供的内容:
统一的标准化集成: MCP充当通用协议,使开发人员可以通过单一的标准化接口将其服务、API和数据源连接到任何AI客户端(例如聊天机器人、IDE或自定义代理)。
双向通信和丰富的交互: MCP支持AI模型和外部系统之间的安全、实时、双向通信,不仅可以实现数据检索,还可以实现工具调用和操作执行。
**可扩展性和生态系统重用:**一旦你为某项服务实施了MCP,任何符合MCP的AI客户端都可以访问它,从而促进可重用连接器的生态系统并加速采用。
一致性和互操作性: MCP强制执行一致的JSON请求/响应格式。这使得调试、维护和扩展集成变得更加容易,而与底层服务或AI模型无关。这也意味着即使你切换模型或添加新工具,集成仍然可靠。
增强的安全性和访问控制: MCP在设计时考虑了安全性,支持加密、精细的访问控制和用户对敏感操作的批准。你还可以自托管MCP服务器,从而可以将数据保留在内部。
**缩短的开发时间和维护:**通过避免碎片化的、一次性的集成,开发人员可以节省设置和持续维护的时间,从而使他们能够专注于更高级别的应用程序逻辑和创新。此外,MCP在代理逻辑和后端功能之间的清晰分离使代码库更模块化、更易于维护。
MCP 的采用情况与未来展望
对于任何标准来说,最重要的事情是:’人们会采用它吗?’仅仅几个月后,答案响亮而明确:是的。OpenAI于2025年3月增加了对其的支持。4月9日,谷歌DeepMind领导者Demis Hassabis表示支持。谷歌首席执行官Sundar Pichai迅速表示赞同。包括微软、Replit和Zapier在内的其他公司也纷纷效仿。
这不仅仅是说说而已。一个不断增长的预构建MCP连接器库正在涌现。例如,Docker最近宣布它将通过MCP目录支持MCP。MCP推出不到六个月,该目录已经包含来自Grafana Labs、Kong、Neo4j、Pulumi、Heroku、Elasticsearch等公司的100多个MCP服务器。
除了Docker可以访问的内容之外,已经有数百个MCP服务器。这些服务器可用于以下任务:
- 客户支持聊天机器人: AI助手可以实时访问CRM数据、产品信息和支持票证,从而提供准确、有背景的帮助。
- 企业AI搜索: AI可以搜索文档存储、数据库和云存储,并将响应链接到其相应的源文档。
- 开发人员工具: 编码助手可以与CVS和其他版本控制系统、问题跟踪器和文档进行交互。
- AI代理: 当然,自主代理可以计划多步骤任务,代表用户执行操作,并通过利用MCP连接的工具和数据来适应不断变化的需求。
真正的问题是,MCP不能用于什么。
MCP代表着一种范式转变:从孤立的静态AI到深度集成、上下文感知和具有行动能力的系统。随着协议的成熟,它将支撑新一代AI代理和助手,这些代理和助手可以安全、高效且大规模地跨越全方位的数字工具和数据进行推理、行动和协作。
自2022年生成式AI首次爆炸式出现以来,我还没有见过任何技术像这样迅速发展。但真正让我联想到的是Kubernetes在十多年前的出现。当时,许多人认为在容器编排器中会出现一场竞争,比如Swarm和Mesosphere等现在几乎被遗忘的程序。我从一开始就知道Kubernetes将是赢家。
所以,我现在就预测。MCP将是AI的连接,它将释放AI在企业、云和更广泛领域的全部潜力。