在人工智慧迅速發展的時代,一種新型的模型互動標準正在嶄露頭角。模型上下文協定 (Model Context Protocol, MCP) 是由 Anthropic 於 2024 年 11 月推出的一項開放標準,迅速成為開發者和企業關注的焦點。MCP 的主要目標是建立大型語言模型 (Large Language Models, LLM) 與各種資料來源之間安全、雙向的連結,從而解決工具實作中的不一致性,並促進跨模型共享。
MCP 作為產業標準的興起
短短幾個月內,MCP 在人工智慧社群中獲得了顯著的關注。在 4 月 25 日舉行的 Create2025 百度 AI 開發者大會上,百度創始人李彥宏發布了兩款突破性的模型:文心大模型 4.5 Turbo 和深度思考模型 X1 Turbo。伴隨這些模型的是各種 AI 應用,標誌著百度致力於幫助開發者充分擁抱 MCP。
對 MCP 的支持不僅限於百度,還包括 OpenAI、Google、Microsoft、Amazon、Anthropic、Alibaba 和 Tencent 等主要參與者。這種廣泛的採用表明 MCP 正在成為 ‘AI 世界的 HTTP’,為模型和資料來源之間的互動設定通用標準。
在會議期間,百度智能雲正式發布了中國首個企業級 MCP 服務。該服務為企業和開發者提供了對 1,000 多個 MCP 伺服器的訪問權限。此外,該平台允許開發者在百度 AI 開發平台千帆上建立自己的 MCP 伺服器,並將其發布到 MCP Square,通過百度搜索提供免費託管和索引。
百度雲的企業導向策略
雖然各家廠商都在擁抱 MCP,但他們的方法各不相同。百度智能雲專注於企業市場,旨在儘早讓儘可能多的開發者參與進來。這種策略包括豐富 MCP Square 並利用百度搜索來推動流量,從而培養一個穩健的 MCP 生態系統。
百度對其 MCP 產品所採用的方法,是以企業客戶的需求以及他們會作何反應為中心。該公司在利用其現有的企業客戶基礎,將他們帶入 MCP 的世界方面,處於有利地位。
AI 領域中 MCP 的必要性
MCP 的出現解決了部署 LLM 的關鍵挑戰,尤其是在企業環境中。以前,LLM 的應用主要僅限於聊天機器人式的場景。更廣泛的企業應用需要大量的客製化,即使使用百度智能雲等供應商提供的工具鏈,也使得開發過程複雜且資源密集。
2025 年被譽為 AI Agent 年,LLM 預計將從僅僅思考發展到自主規劃和執行任務。在這種範例中,LLM 充當 ‘大腦’,需要 ‘四肢’ 和 ‘感官’ 來完成特定任務。
傳統的客製化每個 AI 應用程式的方法,需要整合 ‘M×N’ 個工具,其中每個 AI 應用程式都必須與眾多工具介接。MCP 通過標準化 LLM 和工具之間的互動來簡化這一點,將複雜性降低到 ‘M+N’。這種標準化對於在各種企業功能中擴展 AI 應用程式至關重要。
精簡企業級 AI 應用程式
百度集團執行副總裁兼百度智能雲事業群總裁沈抖強調,應用 LLM 不僅僅是簡單的調用。’它需要連接各種組件和工具,並執行複雜的協調。通常,需要對模型進行進一步的精煉和客製化,以提高效能,’ 他指出。
沈抖進一步解釋說,構建企業級應用程式需要仔細考慮計算效能、穩定性、可擴展性和安全性。他將應用程式的部署視為一個 ‘系統’ 建構過程。
與消費者級應用程式相比,企業應用程式需要更高的標準和更低的錯誤容忍度。一位行業專家表示,應用程式開發消耗了 90% 的專案時間,因為雖然模型是標準化的,但應用程式卻是高度可變的。
這些努力通常涉及四個關鍵任務:補充專業知識、協調業務流程、擴展智能工具和整合企業系統。通過將這些任務封裝到一個提供開箱即用功能的平台中,企業可以利用 RAG (Retrieval-Augmented Generation,檢索增強生成) 來整合專家知識,使用工作流程來協調業務流程,並使用智能代理與 MCP 結合來利用現有系統和資產。
MCP 有望滿足行業對簡化 LLM 在實際應用中部署的期望。
彌合企業級代理中的差距
正如沈抖指出的那樣,LLM 的部署需要完整的系統級支持,涵蓋從底層計算能力到應用程式。這包括高效能硬體和叢集優化,以及靈活的開發工具鏈和基於場景的解決方案。
百度智能雲的系統級能力包括一個計算能力層,包括新發布的 30,000 張卡的崑崙芯叢集和升級後的百舸 GPU 計算平台。模型開發層在千帆平台上擁有 100 多個模型,包括百度的文心 4.5Turbo 和文心 X1 Turbo,以及 DeepSeek、Ilama 和 Vidu 等第三方模型。
在應用程式開發層,百度智能雲提供千帆企業級代理和 MCP 服務,提高了代理解決複雜問題的能力。這些服務由一個全面的模型開發工具鏈補充,該工具鏈支持深度思考模型和多模態模型的客製化和微調。
百度智能雲專注於應用程式開發層,千帆平台的企業級代理開發工具鏈進行了重大更新。該平台推出了新的基於推理的智能代理 Intelligent Agent Pro,它增強了從快速問答到深度審議的能力,支持每個企業的客製化智能代理。
百度 MCP 生態系統的實際應用
以 Sewage Treasure 為例,它使用千帆 Agentic RAG 能力將企業特定的資料和知識庫結合起來。這使得代理能夠根據對任務的理解來制定檢索策略,從而顯著減少模型幻覺。
Intelligent Agent Pro 還支持深度研究模式,使代理能夠自主地規劃複雜的任務,過濾和組織資訊,並通過瀏覽網頁來收集探索性知識。它還支持使用各種工具來創建圖表、編寫報告和生成結構化和資訊豐富的專業報告。
MCP 使開發者和企業能夠在開發代理時更好地利用行業資料和工具,從而解決企業級代理能力中的關鍵差距。
開發者可以通過兩種方式擁抱 MCP:以 MCP 格式提供他們的資源、資料和能力,供 AI 應用程式使用,或者在開發 AI 應用程式時利用現有的 MCP 伺服器資源。這兩種方法都可以減少開發工作量並顯著增強能力。
百度智能雲的千帆平台是首個支持 MCP 的大型模型平台。在 MCP 之前,大型模型和工具分散且缺乏標準化。MCP 促進了互連互通,並促進了生態系統的繁榮。
MCP 的競爭格局
MCP 以及一般的大型模型,代表了平台和生態系統之間的競爭。在新技術的早期階段,各種範例都不成熟,需要端到端的優化才能實現最佳效能。這解釋了為什麼大型模型應用程式的部署在很大程度上依賴於領先的供應商。
對於這些供應商來說,挑戰不在於在某個領域表現出色,而在於沒有明顯的弱點。他們必須構建強大的平台能力並培養蓬勃發展的生態系統,以吸引更多的參與者,從而使一個大型模型生態系統與另一個生態系統競爭。
百度在 MCP 領域的策略涉及三個步驟。
- 啟動 MCP 伺服器:百度是最早啟動 MCP 伺服器的公司之一,包括全球首個電子商務交易 MCP 和搜索 MCP。開發者可以將百度 AI 搜索和百度優選的 MCP 伺服器添加到百度智能雲千帆平台上的 ‘通用智能代理助理’ 中,使智能代理能夠完成從資訊查詢和產品推薦到直接下訂單的整個過程。這將電子商務交易支持與頂級搜索能力結合起來。
- 支持 MCP 服務開發:百度智能雲千帆平台正式啟動了中國首個企業級 MCP 服務,為企業和開發者提供 1,000 多個 MCP 伺服器。開發者可以在千帆上建立自己的 MCP 伺服器,將其發布到 MCP Square,享受免費託管,並通過百度搜索獲得曝光和使用機會。
- AI 開放計畫:百度搜索開放平台啟動了 ‘AI 開放計畫’ (sai.baidu.com),通過各種內容和服務分發機制,為智能代理、H5 應用程式、小程序和獨立應用程式的開發者提供流量和商業化機會。該計畫還允許用戶輕鬆發現和使用最新的 AI 服務。
通過使更多的企業和開發者能夠通過 MCP 開放他們的能力,百度正在培養其生態系統,同時使其合作夥伴能夠實現商業價值。大型模型競賽的最終贏家可能不一定是技術最先進的供應商,而是擁有最繁榮的生態系統的供應商。