MCP 革命:重塑 AI 格局,緩解企業焦慮

MCP 的崛起與企業 AI 焦慮的緩解

自 ChatGPT 問世以來,對大型語言模型 (LLMs) 的不斷追求一直是 AI 領域的顯著特徵。最初的重點放在參數規模上,但已逐漸轉向實際應用,然而,對於尋求利用 AI 力量的企業而言,仍然存在重大挑戰。與運算能力相關的高成本以及 AI 應用生態系統的碎片化仍然是關鍵的痛點。公司經常發現他們在 AI 上的大量投資並未轉化為預期的回報,導致持續存在 ‘投資報酬率困境’。

MCP 與 A2A 的曙光:典範轉移

2025 年模型上下文協議 (Model Context Protocol, MCP) 和 Agent2Agent (A2A) 協議的出現標誌著 AI 應用開發的關鍵時刻。 MCP 旨在標準化接口以打破數據孤島,使 LLMs 能夠有效地訪問外部資源,並促進跨系統和平台之間的無縫數據流。 A2A 進一步促進代理之間的無縫交互,促進協作和通信,形成有凝聚力、整合的系統。

從 MCP 到 A2A 的轉變強調了 ‘開放性’ 作為 AI 應用生態系統中關鍵驅動因素的重要性。這種開放性包括技術互操作性和協作精神。從更廣泛的角度來看,這種轉變反映了技術發展的自然進程:從最初的興奮到實際應用,從孤立的創新到協作生態系統的演變。

歷史上,LLMs 的價值不成比例地歸因於參數規模和獨立能力。今天,MCP 和 A2A 解決了 AI 應用之間互連的關鍵問題,並重塑了 LLM 生態系統的競爭動態。 AI 應用開發正在從 ‘孤狼’ 模式演變為互連的模式。這需要 CTO 重新評估 AI 價值,將重點從僅僅追求模型大小和 ‘全押’ 策略轉向利用連接各種 AI 功能的平台。目標是有機地將 AI 嵌入到現有的業務流程和生產系統中,通過協作和標準化提高整體效率,以最少的計算資源解決關鍵問題,並克服 ‘投資報酬率困境’。

浪費的計算資源和錯配的應用場景

長期以來,無法克服高投入、低產出的瓶頸一直困擾著 LLMs 的應用。這種現象反映了 AI 開發中根深蒂固的矛盾。首先,存在大量的計算資源浪費。數據表明,企業級通用計算中心的利用率僅為 10-15%,導致大量計算資源閒置。其次,存在應用場景錯配的問題,模型性能無法滿足實際的業務需求。

一個常見的問題是使用大型模型進行輕量級任務的 ‘過度殺傷’。有些企業過度依賴通用 LLMs 進行簡單的應用。此外,業務場景的獨特性也帶來了難題。使用大型模型會產生高昂的計算成本和較長的推斷時間。選擇較小的模型可能無法滿足業務需求。這種衝突在需要專業領域知識的業務場景中尤為明顯。

以招聘行業的人才-職位匹配場景為例。公司需要具有深入推理能力的模型來理解簡歷和職位描述之間複雜的關係,同時也需要快速的響應時間。通用 LLMs 的較長推斷時間會顯著降低用戶體驗,尤其是在高併發用戶需求下。

為了平衡性能和效率,模型蒸餾近年來越來越受到關注。今年早些時候 DeepSeek-R1 的發布進一步突顯了這種技術的價值。在處理複雜的推理任務時,模型蒸餾捕獲了 DeepSeek-R1 的 ‘思維鏈’ 模式,使輕量級學生模型能夠繼承其推理能力,而不僅僅是模仿輸出結果。

例如,領先的招聘平台 Zhaopin 採用 DeepSeek-R1(6000 億以上參數)作為教師模型,以蒸餾人才-職位匹配任務中使用的思維鏈和決策邏輯。他們使用百度 AI 雲千帆模型開發平台來蒸餾教師模型,並將其轉移到 ERNIE Speed 模型(100 億以上參數),即學生模型。這種方法實現了與教師模型相當的性能(DeepSeek-R1 在推理鏈接結果中達到 85% 的準確率,而學生模型達到 81% 以上),將推斷速度提高到可接受的水平,並將成本降低到原來的 30%,同時實現了比完全成熟的 DeepSeek-R1 快 1 倍的速度。

目前,企業通常採用兩種方法進行模型蒸餾:從基礎設施和 GPU 到訓練框架構建完整的技術系統,或者使用基於平台的解決方案,如千帆模型開發平台或其他供應商。 Zhaopin 的 AI 應用專家 Yao Sijia 表示,雖然 Zhaopin 有自己的訓練框架,但他們選擇千帆模型開發平台進行模型蒸餾,主要有三個考慮因素:

  • 全面的支持: 千帆模型開發平台為模型蒸餾提供行業領先的支持,圍繞蒸餾場景深入優化整個技術鏈。
  • 成本控制: 與獨立購買和維護硬件相比,千帆模型開發平台在成本控制和更靈活的資源分配方面具有顯著優勢。
  • 對業務場景的深刻理解: 百度專業的解決方案團隊深入了解招聘領域 ‘精準匹配’ 和 ‘高併發響應’ 等核心需求,並與公司合作探索解決方案。

Yao Sijia 補充說,Zhaopin 將繼續開創 AI+ 招聘場景,使用千帆的強化學習微調 (Reinforcement Learning Fine-Tuning, RFT) 技術進一步提高模型性能。他們計劃探索是否可以進一步增強教師模型,以及是否可以通過更好的獎勵機制來優化已經蒸餾的學生模型以提高準確率。 千帆是中國第一個將 RFT 和 GRPO 等領先的強化學習方法產品化的平台。 通過將這些前沿的強化學習方法轉化為可實施的解決方案,千帆為像 Zhaopin 這樣的公司提供了更多優化模型性能的可能性。

然而,模型蒸餾僅優化單個模型的性能。在複雜的業務場景中,有必要將不同的 AI 能力與場景精準匹配。

考慮一下智能手機。在諸如呼叫助手等意圖識別場景中,通常使用輕量級模型來快速識別用戶問題。對於諸如天氣查詢和新聞檢索等通用知識問答場景,通常使用中型模型來快速提供準確且信息豐富的答案。在需要深度思考的數據分析和邏輯推理場景中,通常使用大型模型。

這意味著智能手機需要在不同的用戶需求場景中靈活地調用多個 LLMs。對於手機製造商而言,這帶來了諸如模型選擇成本高和由於不同的模型接口協議導致的調用過程複雜等挑戰。

為了應對這些行業痛點,千帆模型開發平台將模型路由接口產品化。與直接使用原始工廠模型相比,它提供了自定義開發和開箱即用的 API 調用產品能力,幫助公司節省工程工作量和開發時間,同時降低成本。此外,千帆模型開發平台支持大規模用戶的靈活調用,即使在高頻和高併發調用需求下也能確保速度和穩定性。

在模型層面,模型蒸餾和多模型調用等技術能力正在幫助越來越多的公司優化資源分配,使 AI 能力能夠精準匹配業務場景,同時降低成本。在應用層面,MCP 和 A2A 引起了業界的廣泛關注,進一步降低了 AI 試錯成本,幫助公司優化應用協作模式,並改變了傳統代理開發中效率低下的 ‘重複發明輪子’ 模式。

從模型到應用程序的 ‘組合拳’ 是幫助 LLMs 克服 ‘投資報酬率困境’ 的完美答案。

從封閉到開放:降低 AI 實驗的門檻

自 2023 年以來,AI 應用實現的關鍵字已逐漸轉移到 Agent。到 2024 年,幾乎所有公司都在討論 Agent 應用和開發。然而,當時的 Agents 缺乏真正的規劃能力,主要基於工作流程的視角,通過專家驅動的規則將 LLMs 與基本應用程序連接起來,通過拼接或程序化組件。

隨著最近 MCP 和 A2A 協議的興起,2025 年已成為真正的 ‘Agent 元年’。特別是,MCP 對 AI 領域的影響可與 TCP/IP 協議對互聯網的影響相提並論。

Biyao Technology 首席執行官 Zhou Ze’an 在接受 InfoQ 採訪時表示,MCP 對 AI 領域的核心價值體現在三個方面:

  • LLM 工具調用的標準化: 過去,每家公司都有自己的 Function Call 實現,它們之間存在顯著差異。 MCP 建立了一個統一的訪問標準,使客戶端和服務器之間的應用程序調度方案真正實現標準化。此外,MCP 不僅能夠在支持 Function Call 的 LLMs 之間進行交互,還能與沒有此功能的 LLMs 進行交互。
  • 解決工具協作挑戰: MCP 協議的統一標準使 Agent 服務的構建更加多樣化。開發人員不僅需要考慮自己的 Agents 和 MCP 服務,還需要考慮如何集成外部功能以實現更強大的 Agent 功能。
  • 通過 LLMs 控制整個上下文,從而實現更友好的用戶交互: 在構建流程時,它可以使用更廣泛的數據源來解決以前不可能的複雜任務。

‘總體而言,MCP 協議顯著降低了公司採用 AI 技術的門檻。過去,訪問 Agents 的技術集成過程非常複雜。現在,公司不再需要深入了解複雜的技術實現細節,而只需要闡明他們的業務需求’,Zhou Ze’an 說道。 Biyao Technology 已通過 MCP 協議完全開放了其自主開發的人力資源行業垂直 LLM ‘Bole’ 的文檔處理能力,包括合同、簡歷和 PPT,並成為首批在千帆應用開發平台上推出 MCP 組件的企業開發者之一。目前,任何企業或個人開發者都可以在千帆平台上直接調用其專業能力。

‘百度將幫助開發人員積極全面地擁抱 MCP。’ 在 4 月 25 日舉行的 Create2025 百度 AI 開發者大會上,千帆平台正式推出了企業級 MCP 服務。百度創始人李彥宏展示了千帆平台擁抱 MCP 的案例,允許開發人員在創建 Agents 時靈活訪問 1000 個 MCP 服務器,包括百度 AI 搜索、地圖和文庫。此外,千帆還推出了一款用於創建 MCP 服務器的低代碼工具,允許開發人員輕鬆地在千帆上開發自己的 MCP 服務器,並一鍵將其發布到千帆 MCP Square。這些 MCP 服務器也將被百度搜索及時索引,允許更多開發人員發現和使用它們。

事實上,在 MCP 協議興起之前,千帆一直在不斷解決 AI 實現的最後一公里問題,幫助公司高效且低門檻地享受 AI 技術的好處,並為多個行業提供成熟的解決方案。

例如,在智能家居行業,公司通常面臨一個常見問題:如何為海量產品型號提供準確的智能服務?隨著 LLMs 的加速應用,越來越多的公司使用 Agents 快速為用戶提供準確且個性化的答案。然而,這也帶來了一個新的挑戰:如何開發和管理眾多 Agents?智能家居品牌通常有許多不同的產品類別和型號。為每個產品單獨構建一個 Agent 不僅會導致高昂的開發成本,而且還會導致後期階段的大量管理和維護成本。

例如,一家領先的智能家居品牌使用百度 AI 雲千帆應用開發平台將文件名視為獨立的切片,並將文件名切片信息嵌入到每個細粒度切片中。他們不需要為每個產品單獨構建一個 Agent,而只需要整理出相應的知識庫並定義產品型號名稱。然後,他們可以使用千帆平台的 RAG 框架自動解析策略來實現產品型號和知識點的精準匹配。

千帆應用開發平台還為該品牌提供了一套運營工具,以構建一個不斷發展的智能中心。通過數據回流功能,所有用戶交互記錄都轉化為優化材料。運營人員可以實時查看高頻問題,並立即介入未發現的知識點,形成一個 ‘運營 - 反饋 - 優化’ 的閉環。此外,千帆應用開發平台和小度 AI 助手共同構建了一個語音交互框架。依靠此框架,該品牌可以使硬件直接與用戶 ‘對話’,從而實現更自然、高效和個性化的互動體驗。

從 MCP 到 A2A,開放性已成為 LLM 應用生態系統中的一個新關鍵字。開放性也是千帆平台的初衷。自 2023 年發布的第一天起,千帆就採用最開放的姿態來訪問豐富的第三方 LLMs。目前,千帆已訪問來自 30 多家模型供應商的 100 多個模型,涵蓋文本、圖像和深度推理等 11 種類型的能力,包括 DeepSeek、LLaMA、Tongyi 和 Vidu 等第三方模型。它還提供全方位的文心 LLMs,包括新發布的文心 4.5 Turbo 原生多模態模型和文心 X1 Turbo 深度思考模型,以及之前發布的文心 X1 深度思考模型。

對於想要快速實現 AI 技術的公司來說,百度 AI 雲正在逐漸成為首選。市場數據是最好的證明。目前,千帆平台服務超過 40 萬客戶,在中央企業中的滲透率超過 60%。根據《中國大模型招投標項目監測與洞察報告 (2025Q1)》,百度在第一季度的大模型招投標項目數量和中標金額方面均實現雙第一:中標 19 個大模型招投標項目,公開項目金額超過 4.5 億元人民幣,中標的大模型項目幾乎全部來自能源和金融等行業的中央國有企業客戶。

百度 AI 雲的成績單也向外界發出了一個信號:在這場長期 AI 技術實現的戰役中,只有那些真正了解行業痛點並能幫助公司降低試錯成本的解決方案才是最關鍵的。