人工智慧(AI)的世界不斷演變,新名詞和技術以驚人的速度湧現。 近期,一個備受關注的術語是 ‘MCP’,即模型情境協定(Model Context Protocol)。 這個概念在 AI 社群中引起了極大的興奮,讓人聯想到手機 App 開發的早期階段。
正如百度董事長李彥宏在 4 月 25 日的百度 Create 大會上所說的那樣:’基於 MCP 開發智慧代理,就像在 2010 年開發手機 App。’ 這種比喻突顯了 MCP 對未來 AI 應用程式的潛在影響。
了解 MCP
如果您還不熟悉 MCP,您可能已經遇到過 ‘Agent’(或智慧代理)這個詞。 中國新創公司 Manus 在 2025 年初的迅速竄紅,將這個概念推到了最前沿。
Agent 吸引力的關鍵在於其有效執行任務的能力。 與早期主要用作對話介面的大型語言模型(LLM)不同,Agent 旨在主動執行任務,利用外部工具和資料來源。 傳統的 LLM 受其訓練資料的限制,並且需要複雜的流程才能存取外部資源。
MCP 對於實現 Agent 的願景至關重要,它允許 LLM 與支援 MCP 協定的外部工具無縫互動。 這使它們能夠執行更具體和複雜的任務。
目前,包括 Amap 和微信閱讀在內的幾個應用程式已經啟動了官方 MCP Server。 這使開發人員能夠通過選擇首選的 LLM 並將其與 Amap 或微信閱讀等 MCP Server 整合來創建 AI 應用程式。 這允許 LLM 執行諸如地圖查詢和從書籍中檢索資訊等任務。
MCP 浪潮始於 2024 年 2 月,並已迅速在全世界範圍內獲得發展勢頭。
包括 OpenAI、Google、Meta、阿里巴巴、騰訊、字節跳動和百度在內的主要參與者,都已宣布支援 MCP 協定並啟動了自己的 MCP 平台,邀請開發人員和應用程式服務提供者加入。
MCP:統一 AI 生態系統
‘超級 App’ 的概念在 2024 年的 AI 領域是一個熱門話題,人們期望 AI 應用程式能夠迅速普及。 然而,AI 創新生態系統仍然是分散的。
MCP 的出現可以比作秦始皇統一中國,他統一了文字、交通和測量系統。 這種標準化極大地促進了經濟活動和貿易。
許多市場分析師認為,採用 MCP 和類似協定將為 2025 年 AI 應用程式的顯著增長鋪平道路。
本質上,MCP 充當 AI 的 ‘超級外掛程式’,能夠與各種外部工具和資料來源無縫整合。
MCP 的技術基礎
MCP,或模型情境協定,最初由 Anthropic 於 2024 年 11 月推出。
作為一個開放標準,MCP 允許 AI 應用程式與外部資料來源和工具進行通訊。
將 MCP 視為 LLM 的通用適配器,定義一個標準的 ‘USB 介面’。
這個介面允許開發人員以更標準化和更有組織的方式創建應用程式,連接到各種資料來源和工作流程。
克服 AI 應用程式開發的障礙
在 MCP 興起之前,開發 AI 應用程式是一個具有挑戰性和複雜性的過程。
例如,開發 AI 旅行助手需要 LLM 執行諸如存取地圖、搜索旅行指南以及根據用戶偏好創建個性化行程等任務。
為了使 LLM 能夠查詢地圖和搜索指南,開發人員面臨以下挑戰:
- 每個 AI 提供商(OpenAI、Anthropic 等)以不同的方式實現 Function Calling。 在 LLM 之間切換需要開發人員重寫適配程式碼,本質上是為 LLM 創建一個使用外部工具的 ‘用戶手冊’。 否則,模型輸出的準確性將顯著降低。
- LLM 與外部世界互動缺乏統一的標準,導致程式碼可重用性低,阻礙了 AI 應用程式生態系統的發展。
根據阿里巴巴雲 ModelScope 的演算法技術專家陳子謙的說法:’在 MCP 之前,開發人員需要了解 LLM 並執行二次開發,才能將外部工具嵌入到他們的應用程式中。 如果工具的效能不佳,開發人員必須調查問題是出在應用程式本身還是工具上。’
前面提到的 AI 新創公司 Manus 就是一個很好的例子。 在之前的評估中,發現 Manus 需要調用十多個工具才能撰寫一篇簡單的新聞文章,包括打開瀏覽器、瀏覽和抓取網頁、寫作、驗證和交付最終結果。
如果 Manus 選擇在每個步驟中調用外部工具,它需要編寫一個 ‘函數’ 來安排外部工具的運行方式。 結果,Manus 經常因為超載而終止任務並消耗過多的 token。
MCP 的優勢
有了 MCP,開發人員不再需要負責外部工具的效能。 相反,他們可以專注於維護和除錯應用程式本身,從而大大減少了開發工作量。
生態系統內的各個 Server,例如支付寶和 Amap,可以維護其 MCP 服務、更新到最新版本,並等待開發人員連接。
MCP 的局限性和挑戰
儘管 MCP 具有潛力,但 MCP 生態系統仍處於早期階段,並面臨一些挑戰。
一些開發人員認為 MCP 是一個不必要的複雜層,他們認為 API 是一個更簡單的解決方案。 LLM 已經可以通過各種協定調用 API,這使得 MCP 顯得多餘。
目前,大型公司發布的大多數 MCP 服務都是由公司自己定義的,它們決定了 LLM 可以調用哪些功能以及如何安排這些功能。 然而,這引發了人們的擔憂,即公司可能不會提供對其最關鍵和即時資訊的存取權限。
此外,如果 MCP Server 沒有正式啟動或維護良好,MCP 連接的安全性和穩定性可能會受到質疑。
獨立開發者唐雙分享了一個地圖 MCP Server 的例子,該 Server 只有不到 20 個工具。 這些工具中有五個需要緯度和經度,而一個天氣工具需要一個行政區劃 ID,但沒有提供有關如何獲取這些 ID 的說明。 唯一的解決方案是讓用戶返回到服務提供者的生態系統,並按照步驟獲取資訊和許可權。
雖然 MCP 的受歡迎程度顯而易見,但其根本動態卻很複雜。 儘管 LLM 供應商願意提供 MCP 服務,但他們保留控制權並且不願讓其他生態系統受益。 如果服務沒有得到妥善維護,開發人員可能會面臨工作量增加,從而破壞了生態系統的目的。
開源的勝利
為什麼 MCP 現在越來越受歡迎?
最初,MCP 在 Anthropic 推出後並沒有受到太多關注。 只有少數應用程式,例如 Anthropic 的 Claude Desktop,支援 MCP 協定。 開發人員缺乏統一的 AI 開發生態系統,並且主要是在孤立的環境中工作。
開發人員採用 MCP 已逐漸使其走向前台。 從 2025 年 2 月開始,包括 Cursor、VSCode 和 Cline 在內的幾款流行的 AI 編程應用程式宣布支援 MCP 協定,從而顯著提高了其知名度。
在開發人員社群採用之後,LLM 供應商整合 MCP 一直是其廣泛採用的關鍵因素。
OpenAI 於 3 月 27 日宣布支援 MCP,隨後 Google 也宣布支援,這是一個關鍵步驟。
Google CEO Sundar Pichai 在 X 上表達了他對 MCP 的矛盾心理,他說:’使用 MCP 還是不使用 MCP,這是一個問題。’ 然而,就在發布這條推文的四天後,Google 也宣布支援 MCP。
AI 行業主要參與者迅速採用 MCP,突顯了其改變 AI 應用程式開發和部署方式的潛力。
MCP 的前進道路
隨著 MCP 生態系統的不斷發展,解決現有的局限性和挑戰至關重要。 這包括:
- 標準化: 開發一個更標準化的 MCP 協定,該協定獨立於個別供應商。
- 安全性: 實施強大的安全措施,以確保 MCP 連接的安全性和可靠性。
- 可維護性: 鼓勵開發和維護高品質的 MCP Server。
- 可存取性: 使所有技能水平的開發人員都能更輕鬆地存取 MCP。
通過解決這些挑戰,MCP 有可能開啟 AI 創新的新時代,從而可以創建更強大、用途更廣泛且用戶友好的 AI 應用程式。
總之,雖然 MCP 仍處於早期階段,但其改變 AI 格局的潛力是不可否認的。 通過培養一個更開放、更標準化和協作的生態系統,MCP 可以為 AI 更加普及並造福每個人的未來鋪平道路。