AI界新寵:模型上下文協定 (MCP) 重塑格局

在人工智慧 (AI) 領域中,縮寫 MCP 正引起廣泛關注。但它究竟是什麼?又為什麼會突然變得如此受歡迎?此外,使用它可能有哪些潛在的優點和缺點?

當 Anthropic 決定在 11 月開放原始碼模型上下文協定 (Model Context Protocol, MCP) 時,他們可能沒有預料到它會被如此廣泛地採用。如今,各式各樣的供應商都在提供對 MCP 的支援,或開發創新的方法來增強其安全性、擴展其功能,或提高其靈活性。是什麼解釋了 MCP 的成功故事?使用它是否存在任何固有的風險或限制?

有趣的是,儘管 MCP 是在相對較近期才推出的,但它已迅速被包括 Google 和 OpenAI 在內的主要 AI 參與者所採用。這表明 MCP 的價值主張從一開始就引起了強烈的共鳴。對 MCP 最全面的解釋可以在其官方文件中找到:’MCP 是一個開放協定,它標準化了應用程式如何向 LLM 提供上下文。將 MCP 視為 AI 應用程式的 USB-C 連接埠。’

MCP:AI 的 USB-C

將其比作 USB-C 特別具有洞察力。正如 Anthropic 所解釋的那樣,’正如 USB-C 提供了一種標準化的方式,將您的設備連接到各種外設和配件一樣,MCP 提供了一種標準化的方式,將 AI 模型連接到各種資料來源和工具。’

建立 LLM 與各種資料來源和應用程式之間的無縫連接,對於充分實現代理型 AI (Agentic AI) 的潛力至關重要。代理型 AI 指的是將 AI 用於比簡單的文字或圖像生成更複雜的任務。這些模型的固有架構使得在新的資料上訓練它們的成本過高,即使有大量的計算資源可用。此外,LLM 主要生成輸出,並非天生就被設計來控制應用程式。要實現這種控制,需要額外的開發工作。MCP 提供了一種標準化的方法,讓模型可以連接到資料,從而解決了這個挑戰。

有了 MCP,如果一個應用程式有一個 API 端點,它就可以很容易地被用於 MCP 伺服器。這代表著朝著實現代理型 AI 邁出了重要的一步,後者可以查閱公司資料並根據這些資料採取行動。這第一步為後續的進展鋪平了道路。正如 USB-C 協定是開發 Thunderbolt 3、4 和 5 作為筆記型電腦和外設的全面連接的必要先決條件一樣,MCP 為未來的 AI 創新奠定了基礎。

一位 Anthropic 員工恰如其分地總結了 MCP 的本質:’它的要點是:您有一個 LLM 應用程式,例如 Claude Desktop。您希望讓它與您擁有的某些系統互動(讀取或寫入)。MCP 解決了這個問題。’

MCP 主要包括一個負責檢索特定資料的 MCP 伺服器。MCP 客戶端在 AI 應用程式中運行,並連接到一個或多個 MCP 伺服器。MCP 主機指的是一個包含具有代理能力的 LLM 或元件的 AI 應用程式。最後,資料或服務本身由 MCP 元件的組合操作控制。模型上下文協定仔細地定義了每個元件應如何與其他元件通信。通信是透過 SSE (HTTP) 或 STDIO (本地伺服器) 進行的。

MCP 的主要影響

MCP 促進了與 AI 的特別直觀的互動。例如,無需配置單獨的工具來建立 LinkedIn 貼文。只需授予對滑鼠和鍵盤的控制權,系統就可以自動導航到 Chrome,存取 LinkedIn 網站,並建立貼文。這種方法提供了一種替代 Anthropic 的 Claude Computer Use 和 OpenAI Operator 的方案,允許在選擇 AI 模型時有更大的靈活性。

雖然 Anthropic 的競爭對手最初並未立即採用,但像 Cursor 和 Zed 這樣的獨立工具在 MCP 發佈後不久就整合了它。該協定也在國際上獲得了吸引力,中國的阿里巴巴和百度等公司也紛紛採用 MCP。這種不斷增長的採用使得像 OpenAI 和 Google 這樣的組織更容易證明他們自己整合 MCP 的合理性。

目前,MCP 佔據著與技術堆疊中其他廣泛接受的標準相似的位置,例如 Kubernetes 或 OAuth,它們分別起源於 Google 和 Twitter。隨著時間的推移,這些標準的起源變得不太重要。這樣的協定或最佳實踐通常會在’正確的時間’和’正確的地點’出現,它們的存在對於實現 AI 的廣泛採用至關重要。

對 MCP 的批評

雖然 MCP 解決了一個重要的需求,但它並非沒有受到批評。圍繞 MCP 的許多擔憂都與安全性有關,或者更確切地說,是與人們認為的安全性不足有關。最初的規範缺乏定義的身份驗證機制(儘管後來添加了這個機制,但它並未被普遍採用)。輸入通常被隱含地信任,而 LLM 仍然容易出錯,這可能會產生潛在的嚴重後果。遠端程式碼執行可能會在不需要 RMM 工具的情況下損害整台電腦。攻擊者可以簡單地指示 LLM 導航到特定的位置,竊取資料,並將其透過電子郵件發送到其他地方。

與 Kubernetes 類似,MCP 很可能依賴於外部安全措施。但是,開發人員可能並不總是優先考慮安全考量,而可能主要關注這種 AI 工具的潛力。因此,由於該協定本身缺乏安全功能,因此很難預防因採用 MCP 而引起的安全事件。

這種批評不應被理解為過於苛刻。新的協定和標準很少從一開始就納入’預設安全’原則。當它們這樣做時,往往會阻礙快速採用。如果 Anthropic 最初專注於最大限度地提高其安全性,MCP 可能根本不會獲得任何關注。

相反,MCP 也受到了安全公司的歡迎。例如,Wiz 開發了自己的 MCP 伺服器,該伺服器具有全面的雲端可見性、上下文情報,以及圍繞資料來源的統一安全措施。儘管如此,該公司仍然對該協定持批評態度,理由是其擔憂範圍從 RCE 到提示注入和命令劫持。解決這些問題可能需要專門的解決方案。

MCP 的未來取決於社群

既然 MCP 已經成為 GenAI 連接的標準,那麼它的成熟取決於社群的集體努力,而不僅僅是 Anthropic。這種協作過程已經獲得了動力。例如,Docker 旨在使 MCP 像它使用容器一樣容易使用,並使其達到生產就緒的狀態。Docker MCP Catalog 和 MCP Toolkit 代表了一個以容器化 MCP 應用程式為中心的生態系統的開端。Docker 強調了 Stripe、Elastic、Heroku、Pulumi 和 Grafana Labs 等早期採用者是重要的貢獻者。

看起來,使用 MCP 的熱情正在超過它目前的成熟程度。儘管如此,它的廣泛採用表明,改進可能會定期出現,範圍從圍繞 MCP 的更強大的安全措施到新穎的用例。MCP 未來的開發和完善將是一項協作努力,它將受到更廣泛的 AI 社群的需求和創新的推動。

隨著模型上下文協定日益受到重視,了解其複雜性、潛在優勢和固有風險至關重要。以下各節將更深入地探討 MCP 的各個方面,從而提供對這項開創性技術的全面概述。

了解 MCP 的技術基礎

從本質上講,模型上下文協定是一組規範,它定義了不同的軟體元件如何互動,從而為大型語言模型提供上下文。這種上下文對於 LLM 有效地執行任務至關重要,因為它允許它們存取和利用外部資料和工具。

MCP 的關鍵元件包括:

  • MCP 伺服器: 此元件充當外部資料來源和工具的閘道。它公開 API,允許 LLM 檢索資訊或執行動作。

  • MCP 客戶端: 此元件駐留在 LLM 應用程式中,並與 MCP 伺服器通信,以請求資料或觸發動作。

  • MCP 主機: 這是 LLM 和 MCP 元件運行的整體環境。它提供它們正常運行所需的基礎設施和資源。

這些元件之間的通信通常透過 HTTP 等標準網路協定進行,使用 JSON 等格式進行資料交換。這種標準化允許不同的 LLM 和外部資料來源之間實現互通性,從而促進一個更加開放和協作的 AI 生態系統。

探索 MCP 的優勢

採用 MCP 為使用 LLM 的開發人員和組織提供了許多優勢。一些關鍵優勢包括:

  • 簡化的整合: MCP 簡化了將 LLM 連接到外部資料來源和工具的過程,從而降低了整合的複雜性和所需的時間。

  • 增強的靈活性: MCP 允許開發人員輕鬆地在不同的 LLM 和資料來源之間切換,而無需修改底層應用程式程式碼。

  • 改進的可擴展性: MCP 使 LLM 能夠存取大量資料並利用各種工具,從而增強了它們的可擴展性和效能。

  • 提高的安全性: 雖然安全性是一個令人擔憂的問題,但 MCP 提供了一個實施安全措施的框架,以保護資料並防止未經授權的存取。

  • 加速的創新: 透過標準化 LLM 與外部資源互動的方式,MCP 促進了 AI 社群內部的創新和協作。

應對 MCP 的安全挑戰

如前所述,安全性是 MCP 的一個關鍵問題。缺乏內建的安全功能可能會使系統容易受到各種攻擊。但是,開發人員可以採取幾個步驟來降低這些風險:

  • 實施身份驗證: 強化身份驗證機制,以驗證存取 MCP 資源的使用者和應用程式的身份。

  • 驗證輸入: 仔細驗證所有輸入資料,以防止提示注入攻擊和其他形式的惡意輸入。

  • 限制存取: 根據使用者角色和權限,限制對敏感資料和工具的存取。

  • 監控活動: 監控 MCP 活動,以發現可疑模式和潛在的安全漏洞。

  • 使用安全工具: 將 MCP 與防火牆和入侵檢測系統等安全工具整合,以增強保護。

透過實施這些安全措施,開發人員可以顯著降低使用 MCP 帶來的風險,並確保其 AI 系統的安全性和完整性。

MCP 的實際應用

MCP 的潛在應用非常廣泛,涵蓋各行各業。以下是 MCP 在實踐中被使用的一些範例:

  • 客戶服務: 將 LLM 連接到 CRM 系統,以提供個人化的客戶支援並更有效地解決問題。

  • 財務分析: 將 LLM 與財務資料來源整合,以分析市場趨勢並提出投資建議。

  • 醫療保健: 將 LLM 連接到電子健康記錄,以協助醫生診斷疾病並制定治療計畫。

  • 教育: 將 LLM 連接到教育資源,以提供學生個人化的學習體驗。

  • 製造業: 將 LLM 與工業控制系統整合,以最佳化生產流程並提高品質控制。

這些只是 MCP 被用於增強 AI 功能並解決實際問題的眾多方式中的幾個範例。隨著技術的成熟並被更廣泛地採用,我們可以預期會出現更多創新的應用。

MCP 和 AI 整合的未來

模型上下文協定有望在 AI 整合的未來中發揮關鍵作用。隨著 LLM 變得越來越強大和複雜,對標準化方式將它們連接到外部資源的需求只會增加。MCP 為這種整合提供了堅實的基礎,使開發人員能夠建構更強大和更通用的 AI 系統。

在未來的幾年中,我們可以預期 MCP 會不斷發展並適應 AI 社群不斷變化的需求。這種發展可能涉及:

  • 改進的安全功能: 添加更強大的安全功能,以解決當前的漏洞並確保 AI 系統的安全。

  • 增強的效能: 最佳化以提高 MCP 的效能和可擴展性,使其能夠處理更大的資料量和更複雜的任務。

  • 擴展的支援: 增加對不同 LLM、資料來源和工具的支援,使 MCP 對更廣泛的開發人員更易於存取。

  • 社群驅動的開發: 轉向更社群驅動的開發模式,使開發人員能夠為 MCP 的發展做出貢獻並根據其特定需求對其進行客製化。

隨著 MCP 不斷發展,它無疑將在塑造 AI 的未來及其與我們生活各個方面的整合方面發揮至關重要的作用。它提供的標準化和互通性將促進創新,加速開發,並最終釋放人工智慧的全部潛力。