MCP革命:AIの再構築と企業不安の軽減

MCPとA2Aの夜明け:パラダイムシフト

2025年のModel Context Protocol (MCP) と Agent2Agent (A2A) プロトコルの登場は、AIアプリケーション開発の進化における重要な転換点となります。MCPは、インターフェースを標準化し、データサイロを解消することで、LLMが外部リソースに効率的にアクセスできるようにし、システムやプラットフォーム全体でのシームレスなデータフローを促進することを目指しています。A2Aは、エージェント間のシームレスなインタラクションをさらに促進し、協調とコミュニケーションを促進して、結束力のある統合システムを形成します。

MCPからA2Aへの移行は、AIアプリケーションエコシステムの重要な推進力として、「オープン性」への関心が高まっていることを示しています。このオープン性は、技術的な相互運用性と協力的な精神の両方を包含しています。より広い視点から見ると、この変革は技術開発における自然な進歩を反映しています。それは、当初の興奮から実用的な実装へ、そして孤立したイノベーションから協調的なエコシステムの進化への移行です。

これまで、LLMの価値は、パラメータの規模とスタンドアロンの機能に不均衡に帰されてきました。今日、MCPとA2Aは、AIアプリケーション間の相互接続性という重要な問題に対処し、LLMエコシステムの競争力学を再構築します。AIアプリケーション開発は、「一匹狼」のアプローチから相互接続性のモデルへと進化しています。これには、CTOのAI価値の再評価が必要となり、単にモデルサイズや「オールイン」戦略を追求するのではなく、多様なAI機能を接続するプラットフォームを活用することに焦点を移す必要があります。その目標は、AIを既存のビジネスプロセスや生産システムに有機的に組み込み、コラボレーションと標準化を通じて全体的な効率を向上させ、最小限の計算リソースで重要な問題を解決し、「ROIジレンマ」を克服することです。

無駄な計算とずれのあるシナリオの災い

高投資、低出力のボトルネックを克服できないことは、長い間LLMの実装を悩ませてきました。この現象は、AI開発における根深い矛盾を反映しています。第一に、計算能力の大きな無駄があります。データによると、エンタープライズレベルの汎用コンピューティングセンターは、わずか10〜15%の稼働率でしか動作しておらず、膨大な量の計算リソースがアイドル状態になっています。第二に、モデルのパフォーマンスがビジネスシナリオの実際のニーズを満たしていないシナリオのずれがあります。

一般的な問題の1つは、軽量タスクに大規模モデルを使用する「オーバースペック」です。一部の企業は、単純なアプリケーションに汎用LLMを過度に使用しています。さらに、ビジネスシナリオの独自性により、ジレンマが生じます。大規模モデルを使用すると、計算コストが高く、推論時間が長くなります。小型モデルを選択しても、ビジネス要件を満たせない場合があります。この対立は、専門的なドメイン知識を必要とするビジネスシナリオで特に顕著です。

採用業界における才能と仕事のマッチングシナリオを考えてみましょう。企業は、履歴書と職務記述の間の複雑な関係を理解するために、深い推論能力を備えたモデルを必要とする一方で、迅速な応答時間も要求しています。汎用LLMの長い推論時間は、特に同時実行ユーザーの要求が高い場合、ユーザーエクスペリエンスを大幅に低下させる可能性があります。

パフォーマンスと効率のバランスを取るために、モデル蒸留が近年注目を集めています。今年の初めにDeepSeek-R1が発売されたことで、この手法の価値がさらに強調されました。複雑な推論タスクを処理する際、モデル蒸留はDeepSeek-R1の「思考の連鎖」パターンを捉え、軽量な学生モデルが出力結果を模倣するだけでなく、その推論能力を継承できるようにします。

たとえば、大手採用プラットフォームであるZhaopinは、才能と仕事のマッチングタスクで使用される思考の連鎖と意思決定ロジックを蒸留するために、教師モデルとしてDeepSeek-R1(6000億以上のパラメータ)を採用しました。彼らは、教師モデルを蒸留し、学生モデルであるERNIE Speedモデル(100億以上のパラメータ)に転送するために、Baidu AI Cloud Qianfanモデル開発プラットフォームを使用しました。このアプローチにより、教師モデルに匹敵するパフォーマンス(DeepSeek-R1は推論リンクの結果で85%の精度を達成し、学生モデルは81%以上を達成)を実現し、推論速度を許容可能なレベルに向上させ、コストを元の30%に削減しながら、本格的なDeepSeek-R1よりも1倍高速な速度を達成しました。

現在、企業は通常、モデル蒸留に2つのアプローチを採用しています。インフラストラクチャとGPUからトレーニングフレームワークまでの完全な技術システムを構築するか、Qianfanモデル開発プラットフォームやその他のベンダーのようなプラットフォームベースのソリューションを使用します。ZhaopinのAIアプリケーションエキスパートであるYao Sijia氏は、Zhaopinは独自のトレーニングフレームワークを持っていますが、主に3つの考慮事項から、モデル蒸留にQianfanモデル開発プラットフォームを選択したと述べています。

  • 包括的なサポート: Qianfanモデル開発プラットフォームは、モデル蒸留に業界をリードするサポートを提供し、蒸留シナリオを中心とした技術チェーン全体を深く最適化します。
  • コスト管理: ハードウェアを個別に購入および保守するのと比較して、Qianfanモデル開発プラットフォームは、コスト管理とより柔軟なリソース割り当てにおいて大きな利点を提供します。
  • ビジネスシナリオの深い理解: Baiduのプロフェッショナルソリューションチームは、採用ドメインにおける「正確なマッチング」や「高並行応答」などのコア要件を深く理解しており、企業と協力してソリューションを模索しています。

Yao Sijia氏は、ZhaopinはAI +採用シナリオを開拓し続け、Qianfanの強化学習ファインチューニング(RFT)テクノロジーを使用して、モデルのパフォーマンスをさらに向上させると付け加えました。彼らは、教師モデルをさらに強化できるかどうか、より優れた報酬メカニズムが既に蒸留された学生モデルを最適化して精度を向上させることができるかどうかを検討する予定です。Qianfanは、RFTやGRPOなどの主要な強化学習手法を製品化した中国初のプラットフォームです。 これらの最先端の強化学習手法を実装可能なソリューションに変換することで、QianfanはZhaopinのような企業にモデルのパフォーマンスを最適化する可能性をさらに広げます。

ただし、モデル蒸留は、単一モデルのパフォーマンスのみを最適化します。複雑なビジネスシナリオでは、多様なAI機能をシナリオと正確に一致させる必要があります。

スマートフォンを考えてみましょう。通話アシスタントのような意図認識シナリオでは、通常、軽量モデルを使用してユーザーの問題を迅速に特定します。天気クエリやニュース検索のような一般的な知識Q&Aシナリオでは、通常、中規模モデルを使用して、正確で有益な回答を迅速に提供します。深い思考を必要とするデータ分析や論理的推論シナリオでは、通常、大規模モデルを使用します。

これは、スマートフォンが異なるユーザー要求シナリオで複数のLLMを柔軟に呼び出す必要があることを意味します。電話メーカーにとって、これは、モデルの選択コストが高いことや、異なるモデルインターフェイスプロトコルによる複雑な呼び出しプロセスなどの課題を提示します。

これらの業界の課題に対処するために、Qianfanモデル開発プラットフォームはモデルルーティングインターフェイスを製品化しました。元のファクトリーモデルを直接使用するのと比較して、カスタム開発とすぐに使用できるAPI呼び出しの製品機能を提供し、企業がエンジニアリングワークロードと開発時間を節約しながら、コストを削減できるように支援します。さらに、Qianfanモデル開発プラットフォームは、大規模ユーザー向けの柔軟な呼び出しをサポートし、高頻度および高並行の呼び出し要求下でも速度と安定性を保証します。

モデルレベルでは、モデル蒸留やマルチモデル呼び出しなどの技術機能が、ますます多くの企業がリソース割り当てを最適化し、AI機能がビジネスシナリオに正確に一致するように支援すると同時に、コストを削減しています。アプリケーションレベルでは、業界で大きな注目を集めているMCPおよびA2Aは、AIの試行錯誤コストをさらに削減し、企業がアプリケーションのコラボレーションパラダイムを最適化し、従来のエージェント開発における非効率的な「車輪の再発明」モデルを変えるのに役立ちます。

モデルからアプリケーションへの「コンビネーションパンチ」は、LLMが「ROIジレンマ」を克服するのに役立つ完璧な答えです。

クローズドからオープンへ:AI実験への障壁を下げる

2023年以来、AIアプリケーションの実装のキーワードは徐々にエージェントに移行してきました。2024年までに、ほぼすべての企業がエージェントのアプリケーションと開発について議論しています。ただし、当時のエージェントは真の計画能力を欠いており、主にワークフローの視点に基づいており、専門家主導のルールを通じてコンポーネントをステッチまたは手順化することにより、LLMを基本的なアプリケーションに接続していました。

最近のMCPおよびA2Aプロトコルの台頭により、2025年は真の「エージェント元年」になりました。特に、AI分野に対するMCPの影響は、インターネットに対するTCP/IPプロトコルの影響に匹敵します。

Biyao TechnologyのCEOであるZhou Ze’an氏は、InfoQとのインタビューで、AI分野におけるMCPのコアバリューは、次の3つの次元で反映されていると述べています。

  • LLMツール呼び出しの標準化: 過去には、各企業が独自のFunction Call実装を持っており、それらの間には大きな違いがありました。MCPは、統合されたアクセス標準を確立し、クライアントとサーバー間のアプリケーションスケジューリングスキームの真の標準化を可能にします。さらに、MCPはFunction CallをサポートするLLMだけでなく、この機能を持たないLLMとのインタラクションも可能にします。
  • ツールコラボレーションの課題の解決: MCPプロトコルの統一標準により、エージェントサービスの構築がより多様になります。開発者は、独自のエージェントとMCPサービスだけでなく、より強力なエージェント機能を達成するために外部機能を統合する方法も検討する必要があります。
  • LLMを通じてコンテキスト全体を制御し、よりユーザーフレンドリーなインタラクションを実現: プロセスを構築する場合、以前は不可能だった複雑なタスクを解決するために、より幅広いデータソースを使用できます。

「一般的に、MCPプロトコルは企業がAI技術を採用する障壁を大幅に下げます。過去には、エージェントにアクセスするための技術統合プロセスは複雑でした。現在、企業は複雑な技術実装の詳細を深く理解する必要がなくなり、ビジネスニーズを明確にするだけで済みます」とZhou Ze’an氏は述べています。Biyao Technologyは、契約書、履歴書、PPTなど、自社開発の人材業界垂直LLM「Bole」のドキュメント処理機能をMCPプロトコルを通じて完全にオープンにし、Qianfanアプリケーション開発プラットフォームでMCPコンポーネントを最初に立ち上げたエンタープライズ開発者の1つになりました。現在、企業または個人の開発者は、Qianfanプラットフォームでその専門機能を直接呼び出すことができます。

「Baiduは、開発者がMCPを積極的に包括的に採用できるように支援します。」 4月25日に開催されたCreate2025 Baidu AI Developer Conferenceで、Qianfanプラットフォームは公式にエンタープライズレベルのMCPサービスを開始しました。Baiduの創業者であるLi Yanhong氏は、開発者がエージェントを作成する際に、Baidu AI検索、マップ、Wenkuを含む1000個のMCPサーバーに柔軟にアクセスできるように、QianfanプラットフォームがMCPを採用した事例を紹介しました。さらに、QianfanはMCPサーバーを作成するためのローコードツールを立ち上げ、開発者がQianfanで独自のMCPサーバーを簡単に開発し、ワンクリックでQianfan MCP Squareに公開できるようにしました。これらのMCPサーバーは、Baidu検索によって迅速にインデックス付けされ、より多くの開発者によって発見され、使用されるようになります。

実際、QianfanはMCPプロトコルの台頭前からAI実装の最後のマイルの問題を継続的に解決し、企業がAI技術の恩恵を効率的に低障壁で享受できるように支援し、複数の業界に成熟したソリューションを提供してきました。

たとえば、スマートホーム業界では、企業は一般的に共通の問題に直面しています。膨大な製品モデルに正確なインテリジェントサービスを提供する方法です。LLMの実装が加速するにつれて、ますます多くの企業がエージェントを使用して、ユーザーに正確でパーソナライズされた回答を迅速に提供しています。ただし、これにより、新しい課題も生じます。多数のエージェントを開発および管理する方法です。スマートホームブランドは通常、多くの異なる製品カテゴリとモデルを持っています。製品ごとにエージェントを個別に構築すると、開発コストが高くなるだけでなく、後期の管理および保守コストも大幅に増加します。

たとえば、大手スマートホームブランドは、Baidu AI Cloud Qianfanアプリケーション開発プラットフォームを使用して、ファイル名を独立したスライスとして扱い、ファイル名スライス情報を各詳細スライスに埋め込みました。製品ごとにエージェントを個別に構築する代わりに、対応する知識ベースを整理し、製品モデル名を定義するだけで済みました。次に、QianfanプラットフォームのRAGフレームワーク自動解析戦略を使用して、製品モデルと知識ポイントの正確なマッチングを実現できます。

Qianfanアプリケーション開発プラットフォームは、ブランドに継続的に進化するインテリジェントハブを構築するための一連の運用ツールも提供します。データバックフロー機能を通じて、すべてのユーザーインタラクションレコードが最適化資料に変換されます。運用担当者は、高頻度の問題をリアルタイムで表示し、未公開の知識ポイントにすぐ介入し、「運用-フィードバック-最適化」のクローズドループを形成できます。さらに、Qianfanアプリケーション開発プラットフォームとXiaodu AI Assistantは共同で音声インタラクションフレームワークを構築しました。このフレームワークに依存することで、ブランドはハードウェアがユーザーと直接「会話」できるようにし、より自然で効率的でパーソナライズされたインタラクティブエクスペリエンスを実現できます。

MCPからA2Aまで、オープン性はLLMアプリケーションエコシステムの新しいキーワードになっています。オープン性もQianfanプラットフォームの本来の意図です。2023年のリリース初日から、Qianfanは最もオープンな姿勢を採用し、豊富なサードパーティLLMにアクセスしています。現在、Qianfanは30を超えるモデルベンダーの100以上のモデルにアクセスしており、テキスト、画像、深い推論など、11種類の機能をカバーしています。これには、DeepSeek、LLaMA、Tongyi、Viduなどのサードパーティモデルが含まれます。また、新しくリリースされたネイティブマルチモーダルモデルWenxin 4.5 Turboと深い思考モデルWenxin X1 Turbo、および以前にリリースされた深い思考モデルWenxin X1を含む、Wenxin LLMの全範囲も提供します。

AI技術を迅速に実装したい企業にとって、Baidu AI Cloudは徐々に第一の選択肢になりつつあります。市場データが最高の証拠です。現在、Qianfanプラットフォームは40万を超える顧客にサービスを提供しており、中央企業の浸透率は60%を超えています。中国大規模モデル入札プロジェクトモニタリングおよびインサイトレポート(2025Q1)によると、Baiduは、第1四半期の大規模モデル入札プロジェクトの数と落札額で2つの1位を獲得しました。 19件の大規模モデル入札プロジェクトを落札し、開示されたプロジェクト額は4億5000万元を超え、落札された大規模モデルプロジェクトは、エネルギーや金融などの業界の中央国有企業顧客からのものがほとんどでした。

Baidu AI Cloudのレポートカードはまた、外部にシグナルを送信します。AI技術の実装のためのこの長期的な戦いでは、業界の課題を真に理解し、企業が試行錯誤コストを削減するのに役立つソリューションのみが最も重要です。