解讀模型上下文協議:AI與數據的新興標準

模型上下文協議(MCP)正迅速成為下一代人工智慧驅動應用程式的基礎標準。由Anthropic於2024年末開發並作為開放標準發布,MCP旨在解決人工智慧生態系統中的一個核心問題:如何無縫且安全地將大型語言模型(LLM)和人工智慧代理連接到廣闊且不斷變化的真實世界數據、工具和服務領域。

Anthropic解釋說,隨著人工智慧助手及其背後的大型語言模型的改進,’即使是最複雜的模型也受到其與數據隔離的限制——被困在資訊孤島和遺留系統之後。每一種新的數據源都需要其自定義實現,這使得真正連接的系統難以擴展。’

MCP是Anthropic給出的答案。該公司聲稱,它將提供一個’通用、開放的標準,用於將人工智慧系統與數據源連接,用單一協議取代碎片化的集成。’

MCP:人工智慧數據的通用適配器

在我看來,MCP是一種通用的人工智慧數據適配器。正如以人工智慧為中心的公司Aisera所說,你可以將MCP視為’人工智慧的USB-C端口’。正如USB-C標準化了我們連接設備的方式一樣,MCP標準化了人工智慧模型與外部系統交互的方式。換句話說,Linux基金會的執行董事Jim Zemlin將MCP描述為’正在成為人工智慧系統的基礎通信層,類似於HTTP對網絡所做的事情。’

具體來說,MCP定義了一個基於JSON-RPC 2.0的標準協議,該協議使人工智慧應用程式能夠通過單一、安全的介面調用函數、獲取數據和利用來自任何相容工具、資料庫或服務的提示。

MCP 的架構與組件

它通過遵循具有幾個關鍵組件的客戶端-伺服器架構來實現這一點。這些是:

  • **主機(Host):**需要訪問外部數據的人工智慧驅動的應用程式(例如,Claude Desktop、集成開發環境(IDE)、聊天機器人)。
  • **客戶端(Client):**管理與單個MCP伺服器的專用、有狀態連接,處理通信和能力協商。
  • **伺服器(Server):**通過MCP協議公開特定功能——工具(函數)、資源(數據)和提示,連接到本地或遠程數據源。
  • **基礎協議(Base protocol):**標準化的消息傳遞層(JSON-RPC 2.0)確保所有組件可靠且安全地通信。

這種架構將’M×N集成問題’(其中M個AI應用程式必須連接到N個工具,需要M×N個自定義連接器)轉換為更簡單的’M+N問題’。因此,每個工具和應用程式只需要支持一次MCP即可實現互操作性。這對於開發人員來說確實可以節省時間。

MCP 的工作原理

首先,當AI應用程式啟動時,它會啟動MCP客戶端,每個客戶端連接到不同的MCP伺服器。這些客戶端協商協議版本和功能。建立與客戶端的連接後,它會查詢伺服器以獲取可用的工具、資源和提示。

建立連接後,AI模型現在可以訪問伺服器的實時數據和功能,從而動態更新其上下文。這意味著MCP使AI聊天機器人能夠訪問最新的實時數據,而不是依賴於預索引的數據集、嵌入或LLM中的緩存資訊。

因此,當你要求AI執行任務(例如,’紐約到洛杉磯的最新航班價格是多少?’)時,AI會將請求通過MCP客戶端路由到相關伺服器。然後,伺服器執行該功能,返回結果,並且AI將此最新數據合併到你的答案中。

此外,MCP使AI模型能夠在運行時發現和利用新工具。這意味著你的AI代理可以適應新的任務和環境,而無需進行重大程式碼更改或機器學習(ML)重新訓練。

簡而言之,MCP用單一、開放的協議取代了碎片化的、定制構建的集成。這意味著開發人員只需要實現一次MCP即可將AI模型連接到任何相容的數據源或工具,從而大大降低了集成複雜性和維護開銷。這使開發人員的生活更加輕鬆。

更直接的是,你可以使用AI生成MCP程式碼並解決實施挑戰。

MCP 的核心優勢

以下是MCP提供的内容:

  • 統一的標準化集成: MCP充當通用協議,使開發人員可以通過單一的標準化介面將其服務、API和數據源連接到任何AI客戶端(例如聊天機器人、IDE或自定義代理)。

  • 雙向通信和豐富的交互: MCP支持AI模型和外部系統之間的安全、實時、雙向通信,不僅可以實現數據檢索,還可以實現工具調用和操作執行。

  • 可擴展性和生態系統重用: 一旦你為某項服務實施了MCP,任何符合MCP的AI客戶端都可以訪問它,從而促進可重用連接器的生態系統並加速採用。

  • 一致性和互操作性: MCP強制執行一致的JSON請求/響應格式。這使得調試、維護和擴展集成變得更加容易,而與底層服務或AI模型無關。這也意味著即使你切換模型或添加新工具,集成仍然可靠。

  • 增強的安全性和訪問控制: MCP在設計時考慮了安全性,支持加密、精細的訪問控制和用戶對敏感操作的批准。你還可以自託管MCP伺服器,從而可以将數據保留在內部。

  • 縮短的開發時間和維護: 通過避免碎片化的、一次性的集成,開發人員可以節省設置和持續維護的時間,從而使他們能夠專注於更高級別的應用程式邏輯和創新。此外,MCP在代理邏輯和後端功能之間的清晰分離使程式碼庫更模組化、更易於維護。

MCP 的採用情況與未來展望

對於任何標準來說,最重要的事情是:’人們會採用它嗎?’仅仅幾個月後,答案響亮而明確:是的。OpenAI於2025年3月增加了對其的支持。4月9日,谷歌DeepMind領導者Demis Hassabis表示支持。谷歌首席執行官Sundar Pichai迅速表示贊同。包括微軟、Replit和Zapier在內的其他公司也紛紛效仿。

這不僅僅是说说而已。一個不斷增長的預構建MCP連接器庫正在湧現。例如,Docker最近宣佈它將通過MCP目錄支持MCP。MCP推出不到六個月,該目錄已經包含來自Grafana Labs、Kong、Neo4j、Pulumi、Heroku、Elasticsearch等公司的100多個MCP伺服器。

除了Docker可以訪問的内容之外,已經有數百個MCP伺服器。這些伺服器可用於以下任務:

  • 客戶支持聊天機器人: AI助手可以實時訪問CRM數據、產品資訊和支持票證,從而提供準確、有背景的幫助。
  • 企業AI搜索: AI可以搜索文檔存儲、資料庫和雲存儲,並將響應鏈接到其相應的源文檔。
  • 開發人員工具: 程式碼助手可以與CVS和其他版本控制系統、問題跟蹤器和文檔進行交互。
  • AI代理: 當然,自主代理可以計劃多步驟任務,代表用戶執行操作,並通過利用MCP連接的工具和數據來適應不斷變化的需求。

真正的問題是,MCP不能用於什麼。

MCP代表著一種範式轉變:從孤立的靜態AI到深度集成、上下文感知和具有行動能力的系統。隨著協議的成熟,它將支撐新一代AI代理和助手,這些代理和助手可以安全、高效且大規模地跨越全方位的數字工具和數據進行推理、行動和協作。

自2022年生成式AI首次爆炸式出現以來,我還沒有見過任何技術像這樣迅速發展。但真正讓我聯想到的是Kubernetes在十多年前的出現。當時,許多人認為在容器編排器中會出現一場競爭,比如Swarm和Mesosphere等現在幾乎被遺忘的程序。我從一開始就知道Kubernetes將是贏家。

所以,我現在就預測。MCP將是AI的連接,它將釋放AI在企業、雲和更廣泛領域的全部潛力。