MCP 혁명: AI 지형 재편 및 기업 불안 해소

MCP와 A2A의 새벽: 패러다임 전환

2025년 Model Context Protocol (MCP)과 Agent2Agent (A2A) 프로토콜의 출현은 AI 애플리케이션 개발의 중요한 전환점이었습니다. MCP는 인터페이스를 표준화하여 데이터 사일로를 해체하고, LLM이 외부 리소스에 효율적으로 액세스할 수 있도록 지원하며, 시스템과 플랫폼 간의 원활한 데이터 흐름을 촉진하는 것을 목표로 합니다. A2A는 에이전트 간의 원활한 상호 작용을 더욱 촉진하여 협업과 커뮤니케이션을 장려하고, 응집력 있고 통합된 시스템을 형성합니다.

MCP에서 A2A로의 전환은 AI 애플리케이션 생태계에서 핵심 동인으로서 ‘개방성’에 대한 강조가 커지고 있음을 보여줍니다. 이러한 개방성은 기술적 상호 운용성과 협력 정신을 모두 포괄합니다. 보다 넓은 관점에서 볼 때, 이러한 변화는 기술 개발의 자연스러운 발전, 즉 초기 흥분에서 실제 구현으로, 그리고 고립된 혁신에서 협력적 생태계 진화로의 전환을 반영합니다.

역사적으로 LLM의 가치는 매개변수 규모와 독립 실행형 기능에 불균형하게 기인했습니다. 오늘날 MCP와 A2A는 AI 애플리케이션 간의 상호 연결성이라는 중요한 문제를 해결하고 LLM 생태계의 경쟁 역학을 재편합니다. AI 애플리케이션 개발은 ‘외로운 늑대’ 접근 방식에서 상호 연결성의 모델로 진화하고 있습니다. CTO는 AI 가치를 재평가하여 모델 크기와 ‘올인’ 전략을 단순히 추구하는 것에서 벗어나 다양한 AI 기능을 연결하는 플랫폼을 활용하는 데 초점을 맞춰야 합니다. 목표는 AI를 기존 비즈니스 프로세스 및 생산 시스템에 유기적으로 통합하고, 협업과 표준화를 통해 전반적인 효율성을 개선하고, 최소한의 컴퓨팅 리소스로 중요한 문제를 해결하고, ‘ROI 딜레마’를 극복하는 것입니다.

낭비되는 컴퓨팅과 잘못된 시나리오의 맹습

높은 투자, 낮은 산출 병목 현상을 극복하지 못하는 것은 오랫동안 LLM 구현을 괴롭혀 왔습니다. 이 현상은 AI 개발의 뿌리 깊은 모순을 반영합니다. 첫째, 컴퓨팅 파워 낭비가 심각합니다. 데이터에 따르면 엔터프라이즈급 범용 컴퓨팅 센터는 10~15%의 가동률로 운영되어 막대한 양의 컴퓨팅 리소스가 유휴 상태로 남습니다. 둘째, 모델 성능이 비즈니스 시나리오의 실제 요구 사항을 충족하지 못하는 시나리오의 불일치가 있습니다.

일반적인 문제는 경량 작업에 대규모 모델을 사용하는 ‘과잉 살상’입니다. 일부 기업은 간단한 애플리케이션에 범용 LLM에 과도하게 의존합니다. 또한 비즈니스 시나리오의 고유한 특성은 딜레마를 만듭니다. 대규모 모델을 사용하면 높은 컴퓨팅 비용과 긴 추론 시간이 발생합니다. 더 작은 모델을 선택하면 비즈니스 요구 사항을 충족하지 못할 수 있습니다. 이러한 갈등은 전문적인 도메인 지식이 필요한 비즈니스 시나리오에서 특히 분명합니다.

채용 산업의 인재-직무 매칭 시나리오를 고려해 보세요. 기업은 이력서와 직무 설명 간의 복잡한 관계를 이해하기 위해 깊은 추론 능력을 갖춘 모델을 요구하는 동시에 빠른 응답 시간을 요구합니다. 범용 LLM의 긴 추론 시간은 특히 높은 동시성 사용자 요구 사항에서 사용자 경험을 크게 저하시킬 수 있습니다.

성능과 효율성의 균형을 맞추기 위해 최근 몇 년 동안 모델 증류가 주목을 받았습니다. 올해 초 DeepSeek-R1의 출시는 이 기술의 가치를 더욱 강조했습니다. 복잡한 추론 작업을 처리할 때 모델 증류는 DeepSeek-R1의 ‘사고의 연쇄’ 패턴을 캡처하여 경량 학생 모델이 단순히 출력 결과를 모방하는 것이 아니라 추론 능력을 상속할 수 있도록 합니다.

예를 들어, 선도적인 채용 플랫폼인 Zhaopin은 DeepSeek-R1(6천억 개 이상의 매개변수)을 교사 모델로 사용하여 인재-직무 매칭 작업에 사용되는 사고 및 의사 결정 논리 연쇄를 증류했습니다. Baidu AI Cloud Qianfan 모델 개발 플랫폼을 사용하여 교사 모델을 증류하고 학생 모델인 ERNIE Speed 모델(100억 개 이상의 매개변수)로 전송했습니다. 이 접근 방식은 교사 모델과 유사한 성능을 달성하고(DeepSeek-R1은 추론 링크 결과에서 85%의 정확도를 달성한 반면 학생 모델은 81% 이상을 달성했습니다.), 추론 속도를 허용 가능한 수준으로 개선하고, 전체 DeepSeek-R1보다 1배 빠른 속도를 달성하면서 비용을 원래 비용의 30%로 줄였습니다.

현재 기업은 일반적으로 인프라 및 GPU에서 교육 프레임워크에 이르기까지 완전한 기술 시스템을 구축하거나 Qianfan 모델 개발 플랫폼 또는 기타 공급업체와 같은 플랫폼 기반 솔루션을 사용하는 두 가지 접근 방식을 채택합니다. Zhaopin의 AI 애플리케이션 전문가인 Yao Sijia는 Zhaopin이 자체 교육 프레임워크를 가지고 있지만 세 가지 주요 고려 사항으로 인해 모델 증류를 위해 Qianfan 모델 개발 플랫폼을 선택했다고 밝혔습니다.

  • 종합적인 지원: Qianfan 모델 개발 플랫폼은 모델 증류에 대한 업계 최고의 지원을 제공하여 증류 시나리오를 중심으로 전체 기술 체인을 심층적으로 최적화합니다.
  • 비용 관리: Qianfan 모델 개발 플랫폼은 하드웨어를 독립적으로 구매하고 유지 관리하는 것에 비해 비용 관리에서 상당한 이점을 제공하고 보다 유연한 리소스 할당을 제공합니다.
  • 비즈니스 시나리오에 대한 깊은 이해: Baidu의 전문 솔루션 팀은 채용 도메인에서 ‘정확한 매칭’ 및 ‘높은 동시성 응답’과 같은 핵심 요구 사항을 깊이 이해하고 기업과 협력하여 솔루션을 모색합니다.

Yao Sijia는 Zhaopin이 Qianfan의 강화 학습 미세 조정(RFT) 기술을 사용하여 모델 성능을 더욱 개선하기 위해 AI+ 채용 시나리오를 계속 개척할 것이라고 덧붙였습니다. 그들은 교사 모델을 더욱 개선할 수 있는지, 더 나은 보상 메커니즘이 이미 증류된 학생 모델을 최적화하여 정확도를 향상시킬 수 있는지 여부를 탐구할 계획입니다. Qianfan은 RFT 및 GRPO와 같은 선도적인 강화 학습 방법을 제품화한 중국 최초의 플랫폼입니다. 이러한 최첨단 강화 학습 방법을 구현 가능한 솔루션으로 전환함으로써 Qianfan은 Zhaopin과 같은 기업에 모델 성능 최적화를 위한 더 많은 가능성을 제공합니다.

그러나 모델 증류는 단일 모델의 성능만 최적화합니다. 복잡한 비즈니스 시나리오에서는 다양한 AI 기능을 시나리오와 정확하게 일치시켜야 합니다.

스마트폰을 생각해 보세요. 통화 도우미와 같은 의도 인식 시나리오에서는 일반적으로 가벼운 모델을 사용하여 사용자 문제를 빠르게 식별합니다. 날씨 쿼리 및 뉴스 검색과 같은 일반적인 지식 Q&A 시나리오에서는 일반적으로 중간 크기의 모델을 사용하여 정확하고 유익한 답변을 빠르게 제공합니다. 깊은 사고가 필요한 데이터 분석 및 논리적 추론 시나리오에서는 일반적으로 대규모 모델을 사용합니다.

이는 스마트폰이 다양한 사용자 요구 시나리오에서 여러 LLM을 유연하게 호출해야 함을 의미합니다. 휴대폰 제조업체의 경우 이는 높은 모델 선택 비용과 다른 모델 인터페이스 프로토콜로 인한 복잡한 호출 프로세스와 같은 문제를 야기합니다.

이러한 업계 문제점을 해결하기 위해 Qianfan 모델 개발 플랫폼은 모델 라우팅 인터페이스를 제품화했습니다. 원래 공장 모델을 직접 사용하는 것과 비교하여 맞춤형 개발 및 즉시 사용 가능한 API 호출 제품 기능을 제공하여 기업이 엔지니어링 작업량과 개발 시간을 절약하는 동시에 비용을 절감할 수 있도록 지원합니다. 또한 Qianfan 모델 개발 플랫폼은 대규모 사용자를 위한 유연한 호출을 지원하여 고빈도 및 고동시성 호출 요구 사항에서도 속도와 안정성을 보장합니다.

모델 수준에서 모델 증류 및 다중 모델 호출과 같은 기술 기능은 점점 더 많은 기업이 리소스 할당을 최적화하는 데 도움이 되어 AI 기능이 비즈니스 시나리오와 정확하게 일치하는 동시에 비용을 절감할 수 있도록 합니다. 애플리케이션 수준에서 업계의 상당한 관심을 받고 있는 MCP 및 A2A는 AI 시행착오 비용을 더욱 줄이고, 기업이 애플리케이션 협업 패러다임을 최적화하고, 기존 에이전트 개발에서 비효율적인 ‘바퀴 재발명’ 모델을 변경할 수 있도록 지원합니다.

모델에서 애플리케이션에 이르기까지의 ‘결합 펀치’는 LLM이 ‘ROI 딜레마’를 극복하는 데 도움이 되는 완벽한 솔루션입니다.

폐쇄에서 개방으로: AI 실험 장벽 낮추기

2023년부터 AI 애플리케이션 구현의 핵심 단어는 점차 에이전트로 바뀌었습니다. 2024년까지 거의 모든 기업이 에이전트 애플리케이션과 개발에 대해 논의하고 있습니다. 그러나 당시의 에이전트는 진정한 계획 기능이 부족했고 주로 워크플로 관점을 기반으로 하여 전문가 주도의 규칙을 통해 구성 요소를 스티칭하거나 절차화하여 LLM을 기본 애플리케이션과 연결했습니다.

최근 MCP 및 A2A 프로토콜의 부상으로 2025년은 진정한 ‘에이전트 제로의 해’가 되었습니다. 특히 AI 분야에 대한 MCP의 영향은 인터넷에 대한 TCP/IP 프로토콜의 영향과 비슷합니다.

Biyao Technology의 CEO인 Zhou Ze’an은 InfoQ와의 인터뷰에서 AI 분야에 대한 MCP의 핵심 가치는 다음 세 가지 차원에서 반영된다고 말했습니다.

  • LLM 도구 호출 표준화: 과거에는 각 기업이 자체 함수 호출 구현을 가지고 있었고 그 사이에 상당한 차이가 있었습니다. MCP는 통합 액세스 표준을 확립하여 클라이언트와 서버 간의 애플리케이션 스케줄링 체계의 진정한 표준화를 가능하게 합니다. 또한 MCP는 함수 호출을 지원하는 LLM뿐만 아니라 이 기능이 없는 LLM과의 상호 작용도 가능하게 합니다.
  • 도구 협업 문제 해결: MCP 프로토콜의 통합 표준은 에이전트 서비스 구축을 더욱 다양하게 만듭니다. 개발자는 자체 에이전트 및 MCP 서비스뿐만 아니라 보다 강력한 에이전트 기능을 달성하기 위해 외부 기능을 통합하는 방법도 고려해야 합니다.
  • LLM을 통한 전체 컨텍스트 제어, 결과적으로 보다 사용자 친화적인 상호 작용: 프로세스를 구축할 때 더 광범위한 데이터 소스를 사용하여 이전에는 불가능했던 복잡한 작업을 해결할 수 있습니다.

“일반적으로 MCP 프로토콜은 기업이 AI 기술을 채택하는 장벽을 크게 낮춥니다. 과거에는 에이전트에 액세스하기 위한 기술 통합 프로세스가 복잡했습니다. 이제 기업은 복잡한 기술 구현 세부 사항을 깊이 이해할 필요가 없지만 비즈니스 요구 사항을 명확히 하기만 하면 됩니다.”라고 Zhou Ze’an은 말했습니다. Biyao Technology는 계약, 이력서 및 PPT를 포함하여 MCP 프로토콜을 통해 자체 개발한 인적 자원 산업 수직 LLM ‘Bole’의 문서 처리 기능을 완전히 개방했으며 Qianfan 애플리케이션 개발 플랫폼에서 MCP 구성 요소를 출시한 최초의 엔터프라이즈 개발자 중 하나가 되었습니다. 현재 모든 기업 또는 개인 개발자는 Qianfan 플랫폼에서 전문 기능을 직접 호출할 수 있습니다.

‘Baidu는 개발자가 MCP를 적극적이고 포괄적으로 수용하도록 지원할 것입니다.’ 4월 25일에 개최된 Create2025 Baidu AI 개발자 컨퍼런스에서 Qianfan 플랫폼은 공식적으로 엔터프라이즈급 MCP 서비스를 출시했습니다. Baidu 설립자 Li Yanhong은 Qianfan 플랫폼이 MCP를 수용하는 사례를 시연하여 개발자가 에이전트를 만들 때 Baidu AI 검색, 지도 및 Wenku를 포함하여 1000개의 MCP 서버에 유연하게 액세스할 수 있도록 했습니다. 또한 Qianfan은 MCP 서버 생성을 위한 로우 코드 도구를 출시하여 개발자가 Qianfan에서 자체 MCP 서버를 쉽게 개발하고 클릭 한 번으로 Qianfan MCP Square에 게시할 수 있도록 했습니다. 이러한 MCP 서버는 Baidu 검색에서 즉시 색인화되어 더 많은 개발자가 검색하고 사용할 수 있습니다.

사실 Qianfan은 MCP 프로토콜이 부상하기 전에 AI 구현의 마지막 마일 문제를 지속적으로 해결하여 기업이 AI 기술의 이점을 효율적이고 낮은 장벽으로 누리고 여러 산업에 대한 성숙한 솔루션을 제공할 수 있도록 지원했습니다.

예를 들어, 스마트 홈 산업에서 기업은 일반적으로 수많은 제품 모델에 대해 정확한 지능형 서비스를 제공하는 방법이라는 공통적인 문제에 직면해 있습니다. LLM 구현이 가속화됨에 따라 점점 더 많은 기업이 에이전트를 사용하여 사용자에게 정확하고 개인화된 답변을 신속하게 제공하고 있습니다. 그러나 이는 또한 새로운 과제를 야기합니다. 수많은 에이전트를 개발하고 관리하는 방법은 무엇일까요? 스마트 홈 브랜드는 일반적으로 다양한 제품 범주와 모델을 가지고 있습니다. 각 제품에 대해 별도로 에이전트를 구축하면 개발 비용이 높을 뿐만 아니라 나중에 상당한 관리 및 유지 관리 비용이 발생합니다.

예를 들어, 선도적인 스마트 홈 브랜드는 Baidu AI Cloud Qianfan 애플리케이션 개발 플랫폼을 사용하여 파일 이름을 독립적인 슬라이스로 취급하고 파일 이름 슬라이스 정보를 각 세분화된 슬라이스에 임베드했습니다. 각 제품에 대해 별도로 에이전트를 구축하는 대신 해당 지식 베이스를 분류하고 제품 모델 이름을 정의하기만 하면 되었습니다. 그런 다음 Qianfan 플랫폼의 RAG 프레임워크 자동 구문 분석 전략을 사용하여 제품 모델과 지식 포인트를 정확하게 일치시킬 수 있었습니다.

Qianfan 애플리케이션 개발 플랫폼은 또한 브랜드에 지속적으로 진화하는 지능형 허브를 구축하기 위한 일련의 운영 도구를 제공합니다. 데이터 백플로우 기능을 통해 모든 사용자 상호 작용 기록이 최적화 자료로 변환됩니다. 운영 담당자는 고빈도 문제를 실시간으로 보고 공개되지 않은 지식 포인트에 즉시 개입하여 “운영 - 피드백 - 최적화” 폐쇄 루프를 형성할 수 있습니다. 또한 Qianfan 애플리케이션 개발 플랫폼과 Xiaodu AI Assistant는 공동으로 음성 상호 작용 프레임워크를 구축했습니다. 이 프레임워크에 의존하여 브랜드는 하드웨어가 사용자와 직접 ‘대화’할 수 있도록 지원하여 보다 자연스럽고 효율적이며 개인화된 대화형 경험을 달성할 수 있습니다.

MCP에서 A2A로, 개방성은 LLM 애플리케이션 생태계에서 새로운 핵심 단어가 되었습니다. 개방성은 또한 Qianfan 플랫폼의 원래 의도입니다. 2023년에 처음 출시된 날부터 Qianfan은 가장 개방적인 자세를 채택하여 풍부한 타사 LLM에 액세스했습니다. 현재 Qianfan은 DeepSeek, LLaMA, Tongyi 및 Vidu와 같은 타사 모델을 포함하여 30개 이상의 모델 공급업체의 100개 이상의 모델에 액세스하여 텍스트, 이미지 및 심층 추론과 같은 11가지 유형의 기능을 다루고 있습니다. 또한 새로 출시된 네이티브 다중 모드 모델 Wenxin 4.5 Turbo와 심층적 사고 모델 Wenxin X1 Turbo, 그리고 이전에 출시된 심층적 사고 모델 Wenxin X1을 포함한 Wenxin LLM의 전체 범위를 제공합니다.

AI 기술을 신속하게 구현하려는 기업의 경우 Baidu AI Cloud가 점차 첫 번째 선택이 되고 있습니다. 시장 데이터가 최고의 증거입니다. 현재 Qianfan 플랫폼은 400,000명 이상의 고객에게 서비스를 제공하고 있으며 중앙 기업에서 60% 이상의 침투율을 보이고 있습니다. China Large Model Bidding Project Monitoring and Insight Report(2025Q1)에 따르면, Baidu는 1분기에 대규모 모델 입찰 프로젝트 수와 낙찰 금액에서 두 배로 1위를 달성했습니다. 공개된 프로젝트 금액이 4억 5천만 위안이 넘는 19개의 대규모 모델 입찰 프로젝트를 낙찰받았고, 낙찰된 대규모 모델 프로젝트는 거의 모두 에너지 및 금융과 같은 산업의 중앙 국영 기업 고객이었습니다.

Baidu AI Cloud의 성적표는 또한 외부 세계에 신호를 보냅니다. AI 기술 구현을 위한 이 장기적인 전투에서 업계 문제점을 진정으로 이해하고 기업이 시행착오 비용을 줄이는 데 도움이 될 수 있는 솔루션만이 가장 중요합니다.