Fajar MCP dan A2A: Pergeseran Paradigma
Kemunculan Model Context Protocol (MCP) dan protokol Agent2Agent (A2A) pada tahun 2025 menandai momen penting dalam evolusi pengembangan aplikasi AI. MCP bertujuan untuk menstandarisasi antarmuka untuk memecah silo data, memungkinkan LLM mengakses sumber daya eksternal secara efisien dan memfasilitasi aliran data yang lancar di seluruh sistem dan platform. A2A lebih lanjut mempromosikan interaksi yang lancar antar agen, mendorong kolaborasi dan komunikasi untuk membentuk sistem yang kohesif dan terintegrasi.
Pergeseran dari MCP ke A2A menggarisbawahi meningkatnya penekanan pada ‘keterbukaan’ sebagai pendorong utama dalam ekosistem aplikasi AI. Keterbukaan ini mencakup interoperabilitas teknis dan semangat kolaboratif. Dari perspektif yang lebih luas, transformasi ini mencerminkan perkembangan alami dalam pengembangan teknologi: transisi dari kegembiraan awal ke implementasi praktis, dan dari inovasi terisolasi ke evolusi ekosistem kolaboratif.
Secara historis, nilai LLM secara tidak proporsional dikaitkan dengan skala parameter dan kemampuan yang berdiri sendiri. Saat ini, MCP dan A2A mengatasi masalah kritis interkonektivitas antara aplikasi AI dan membentuk kembali dinamika kompetitif ekosistem LLM. Pengembangan aplikasi AI berkembang dari pendekatan ‘serigala tunggal’ menjadi model saling berhubungan. Ini memerlukan penilaian kembali nilai AI untuk CTO, mengalihkan fokus dari sekadar mengejar ukuran model dan strategi ‘all-in’ menjadi memanfaatkan platform yang menghubungkan beragam kemampuan AI. Tujuannya adalah untuk secara organik menanamkan AI ke dalam proses bisnis dan sistem produksi yang ada, meningkatkan efisiensi keseluruhan melalui kolaborasi dan standarisasi, memecahkan masalah kritis dengan sumber daya komputasi minimal, dan mengatasi ‘dilema ROI’.
Momok Pemborosan Komputasi dan Skenario yang Tidak Selaras
Ketidakmampuan untuk mengatasi kemacetan investasi tinggi dan output rendah telah lama menghantui implementasi LLM. Fenomena ini mencerminkan kontradiksi yang mengakar dalam pengembangan AI. Pertama, ada pemborosan yang signifikan dalam daya komputasi. Data menunjukkan bahwa pusat komputasi tujuan umum tingkat perusahaan hanya beroperasi pada pemanfaatan 10-15%, meninggalkan sejumlah besar sumber daya komputasi yang menganggur. Kedua, ada ketidakselarasan skenario di mana kinerja model tidak memenuhi kebutuhan aktual skenario bisnis.
Satu masalah umum adalah ‘overkill’ penggunaan model besar untuk tugas-tugas ringan. Beberapa bisnis terlalu mengandalkan LLM tujuan umum untuk aplikasi sederhana. Selain itu, sifat unik dari skenario bisnis menciptakan dilema. Menggunakan model besar menimbulkan biaya komputasi yang tinggi dan waktu inferensi yang lama. Memilih model yang lebih kecil mungkin tidak memenuhi persyaratan bisnis. Konflik ini sangat jelas dalam skenario bisnis yang membutuhkan pengetahuan domain khusus.
Pertimbangkan skenario pencocokan bakat-pekerjaan di industri perekrutan. Perusahaan membutuhkan model dengan kemampuan penalaran yang mendalam untuk memahami hubungan kompleks antara resume dan deskripsi pekerjaan sambil juga menuntut waktu respons yang cepat. Waktu inferensi yang lama dari LLM tujuan umum dapat secara signifikan menurunkan pengalaman pengguna, terutama di bawah permintaan pengguna dengan konkurensi tinggi.
Untuk menyeimbangkan kinerja dan efisiensi, model distillation telah mendapatkan daya tarik dalam beberapa tahun terakhir. Peluncuran DeepSeek-R1 awal tahun ini semakin menyoroti nilai teknik ini. Dalam menangani tugas penalaran kompleks, model distillation menangkap pola ‘rantai pemikiran’ dari DeepSeek-R1, memungkinkan model siswa yang ringan untuk mewarisi kemampuan penalarannya daripada sekadar meniru hasil keluaran.
Misalnya, Zhaopin, platform perekrutan terkemuka, menggunakan DeepSeek-R1 (600+ miliar parameter) sebagai model guru untuk menyuling rantai pemikiran dan logika pengambilan keputusan yang digunakan dalam tugas pencocokan bakat-pekerjaan. Mereka menggunakan platform pengembangan model Qianfan AI Cloud Baidu untuk menyuling model guru dan mentransfernya ke model ERNIE Speed (10+ miliar parameter), model siswa. Pendekatan ini mencapai kinerja yang sebanding dengan model guru (DeepSeek-R1 mencapai akurasi 85% dalam hasil tautan penalaran, sementara model siswa mencapai lebih dari 81%), meningkatkan kecepatan inferensi ke tingkat yang dapat diterima, dan mengurangi biaya menjadi 30% dari aslinya sambil mencapai kecepatan 1x lebih cepat daripada DeepSeek-R1 yang lengkap.
Saat ini, bisnis biasanya mengadopsi dua pendekatan untuk model distillation: membangun sistem teknis lengkap dari infrastruktur dan GPU ke kerangka pelatihan, atau menggunakan solusi berbasis platform seperti platform pengembangan model Qianfan atau vendor lain. Yao Sijia, seorang ahli aplikasi AI di Zhaopin, menyatakan bahwa meskipun Zhaopin memiliki kerangka pelatihan sendiri, mereka memilih platform pengembangan model Qianfan untuk model distillation karena tiga pertimbangan utama:
- Dukungan komprehensif: Platform pengembangan model Qianfan memberikan dukungan terdepan di industri untuk model distillation, mengoptimalkan secara mendalam seluruh rantai teknis di sekitar skenario distillation.
- Pengendalian biaya: Dibandingkan dengan membeli dan memelihara perangkat keras secara independen, platform pengembangan model Qianfan menawarkan keuntungan yang signifikan dalam pengendalian biaya dan alokasi sumber daya yang lebih fleksibel.
- Pemahaman mendalam tentang skenario bisnis: Tim solusi profesional Baidu sangat memahami persyaratan inti seperti ‘pencocokan akurat’ dan ‘respons konkurensi tinggi’ di domain perekrutan dan berkolaborasi dengan perusahaan untuk mengeksplorasi solusi.
Yao Sijia menambahkan bahwa Zhaopin akan terus mempelopori skenario AI+ perekrutan, menggunakan teknologi Reinforcement Learning Fine-Tuning (RFT) Qianfan untuk lebih meningkatkan kinerja model. Mereka berencana untuk mengeksplorasi apakah model guru dapat ditingkatkan lebih lanjut dan apakah mekanisme hadiah yang lebih baik dapat mengoptimalkan model siswa yang sudah disuling untuk meningkatkan akurasi. Qianfan adalah platform pertama di China yang memproduktifikasi metode reinforcement learning terkemuka seperti RFT dan GRPO. Dengan mengubah metode reinforcement learning mutakhir ini menjadi solusi yang dapat diterapkan, Qianfan menawarkan perusahaan seperti Zhaopin lebih banyak kemungkinan untuk mengoptimalkan kinerja model.
Namun, model distillation hanya mengoptimalkan kinerja satu model. Dalam skenario bisnis yang kompleks, perlu untuk secara tepat mencocokkan beragam kemampuan AI dengan skenario.
Pertimbangkan sebuah smartphone. Dalam skenario pengenalan niat seperti asisten panggilan, model ringan biasanya digunakan untuk dengan cepat mengidentifikasi masalah pengguna. Untuk skenario tanya jawab pengetahuan umum seperti kueri cuaca dan pengambilan berita, model berukuran sedang biasanya digunakan untuk dengan cepat memberikan jawaban yang akurat dan informatif. Dalam analisis data dan skenario penalaran logis yang membutuhkan pemikiran mendalam, model besar biasanya digunakan.
Ini berarti bahwa smartphone perlu secara fleksibel memanggil beberapa LLM dalam skenario permintaan pengguna yang berbeda. Untuk produsen ponsel, ini menghadirkan tantangan seperti biaya pemilihan model yang tinggi dan proses panggilan yang kompleks karena protokol antarmuka model yang berbeda.
Untuk mengatasi masalah industri ini, platform pengembangan model Qianfan memproduktifikasi antarmuka perutean model. Dibandingkan dengan langsung menggunakan model pabrik asli, ia menyediakan kemampuan pengembangan khusus dan panggilan API siap pakai, membantu perusahaan menghemat beban kerja teknik dan waktu pengembangan sambil mengurangi biaya. Selain itu, platform pengembangan model Qianfan mendukung panggilan fleksibel untuk pengguna skala besar, memastikan kecepatan dan stabilitas bahkan di bawah permintaan panggilan frekuensi tinggi dan konkurensi tinggi.
Pada tingkat model, kemampuan teknis seperti model distillation dan multi-model calling membantu semakin banyak perusahaan mengoptimalkan alokasi sumber daya, memungkinkan kemampuan AI untuk secara tepat mencocokkan skenario bisnis sambil mengurangi biaya. Pada tingkat aplikasi, MCP dan A2A, yang telah mengumpulkan perhatian industri yang signifikan, selanjutnya mengurangi biaya trial and error AI, membantu perusahaan mengoptimalkan paradigma kolaborasi aplikasi, dan mengubah model ‘menciptakan kembali roda’ yang tidak efisien dalam pengembangan agen tradisional.
‘Pukulan kombinasi’ dari model ke aplikasi adalah jawaban yang sempurna untuk membantu LLM mengatasi ‘dilema ROI’.
Dari Tertutup ke Terbuka: Menurunkan Hambatan untuk Eksperimen AI
Sejak tahun 2023, kata kunci untuk implementasi aplikasi AI secara bertahap bergeser ke Agen. Pada tahun 2024, hampir semua perusahaan mendiskusikan aplikasi dan pengembangan Agen. Namun, Agen pada saat itu tidak memiliki kemampuan perencanaan yang sebenarnya dan terutama didasarkan pada perspektif alur kerja, menghubungkan LLM dengan aplikasi dasar dengan menjahit atau memprosedurkan komponen melalui aturan yang digerakkan oleh ahli.
Dengan munculnya protokol MCP dan A2A baru-baru ini, 2025 telah menjadi ‘Tahun Nol Agen’ yang sebenarnya. Secara khusus, dampak MCP pada bidang AI sebanding dengan dampak protokol TCP/IP pada Internet.
Zhou Ze’an, CEO Biyao Technology, menyatakan dalam sebuah wawancara dengan InfoQ bahwa nilai inti MCP untuk bidang AI tercermin dalam tiga dimensi:
- Standarisasi panggilan alat LLM: Di masa lalu, setiap perusahaan memiliki implementasi Function Call sendiri, dengan perbedaan signifikan di antara mereka. MCP menetapkan standar akses terpadu, memungkinkan standarisasi sebenarnya dari skema penjadwalan aplikasi antara klien dan server. Selain itu, MCP memungkinkan interaksi tidak hanya antara LLM yang mendukung Function Call tetapi juga dengan LLM yang tidak memiliki fitur ini.
- Memecahkan tantangan kolaborasi alat: Standar terpadu dari protokol MCP membuat konstruksi layanan Agen lebih beragam. Pengembang perlu mempertimbangkan tidak hanya Agen dan layanan MCP mereka sendiri tetapi juga bagaimana mengintegrasikan kemampuan eksternal untuk mencapai fungsi Agen yang lebih kuat.
- Mengendalikan seluruh konteks melalui LLM, menghasilkan interaksi yang lebih ramah pengguna: Saat membangun proses, ia dapat menggunakan berbagai sumber data yang lebih luas untuk memecahkan tugas kompleks yang sebelumnya tidak mungkin.
‘Secara umum, protokol MCP secara signifikan menurunkan hambatan bagi perusahaan untuk mengadopsi teknologi AI. Di masa lalu, proses integrasi teknis untuk mengakses Agen sangat kompleks. Sekarang, perusahaan tidak perlu lagi memahami secara mendalam detail implementasi teknis yang kompleks tetapi hanya perlu mengklarifikasi kebutuhan bisnis mereka,’ kata Zhou Ze’an. Biyao Technology telah sepenuhnya membuka kemampuan pemrosesan dokumen dari LLM vertikal industri sumber daya manusia yang dikembangkan sendiri ‘Bole’ melalui protokol MCP, termasuk kontrak, resume, dan PPT, dan menjadi salah satu pengembang perusahaan pertama yang meluncurkan komponen MCP di platform pengembangan aplikasi Qianfan. Saat ini, setiap perusahaan atau pengembang individu dapat langsung memanggil kemampuan profesionalnya di platform Qianfan.
‘Baidu akan membantu pengembang secara aktif dan komprehensif merangkul MCP.’ Pada Konferensi Pengembang AI Baidu Create2025 yang diadakan pada 25 April, platform Qianfan secara resmi meluncurkan layanan MCP tingkat perusahaan. Pendiri Baidu Li Yanhong mendemonstrasikan kasus platform Qianfan yang merangkul MCP, memungkinkan pengembang untuk secara fleksibel mengakses 1000 Server MCP, termasuk pencarian AI Baidu, peta, dan Wenku, saat membuat Agen. Selain itu, Qianfan meluncurkan alat kode rendah untuk membuat Server MCP, memungkinkan pengembang untuk dengan mudah mengembangkan Server MCP mereka sendiri di Qianfan dan mempublikasikannya ke Qianfan MCP Square dengan satu klik. Server MCP ini juga akan segera diindeks oleh pencarian Baidu, memungkinkan mereka untuk ditemukan dan digunakan oleh lebih banyak pengembang.
Faktanya, Qianfan terus-menerus memecahkan masalah mil terakhir implementasi AI sebelum munculnya protokol MCP, membantu perusahaan secara efisien dan dengan hambatan rendah untuk menikmati manfaat teknologi AI dan menyediakan solusi matang untuk berbagai industri.
Misalnya, di industri rumah pintar, perusahaan umumnya menghadapi masalah umum: bagaimana memberikan layanan cerdas yang akurat untuk model produk yang masif? Dengan percepatan implementasi LLM, semakin banyak perusahaan menggunakan Agen untuk dengan cepat memberikan jawaban yang akurat dan personal kepada pengguna. Namun, ini juga membawa tantangan baru: bagaimana mengembangkan dan mengelola banyak Agen? Merek rumah pintar biasanya memiliki banyak kategori dan model produk yang berbeda. Membangun Agen untuk setiap produk secara terpisah tidak hanya akan menghasilkan biaya pengembangan yang tinggi tetapi juga biaya pengelolaan dan pemeliharaan yang signifikan di tahap selanjutnya.
Misalnya, merek rumah pintar terkemuka menggunakan platform pengembangan aplikasi Qianfan AI Cloud Baidu untuk memperlakukan nama file sebagai irisan independen dan menyematkan informasi irisan nama file ke dalam setiap irisan halus. Alih-alih membangun Agen untuk setiap produk secara terpisah, mereka hanya perlu memilah basis pengetahuan yang sesuai dan menentukan nama model produk. Kemudian, mereka dapat menggunakan strategi penguraian otomatis kerangka RAG platform Qianfan untuk mencapai pencocokan yang tepat dari model produk dan poin pengetahuan.
Platform pengembangan aplikasi Qianfan juga menyediakan merek dengan serangkaian alat operasi untuk membangun hub cerdas yang terus berkembang. Melalui fungsi backflow data, semua catatan interaksi pengguna diubah menjadi bahan optimasi. Personel operasi dapat melihat masalah frekuensi tinggi secara real time dan segera melakukan intervensi pada poin pengetahuan yang belum ditemukan, membentuk lingkaran tertutup ‘operasi - umpan balik - optimasi’. Selain itu, platform pengembangan aplikasi Qianfan dan Asisten AI Xiaodu bersama-sama membangun kerangka interaksi suara. Mengandalkan kerangka kerja ini, merek dapat memungkinkan perangkat keras untuk ‘berbicara’ langsung dengan pengguna, mencapai pengalaman interaktif yang lebih alami, efisien, dan personal.
Dari MCP ke A2A, keterbukaan telah menjadi kata kunci baru dalam ekosistem aplikasi LLM. Keterbukaan juga merupakan niat awal dari platform Qianfan. Sejak hari pertama perilisannya pada tahun 2023, Qianfan telah mengadopsi postur yang paling terbuka untuk mengakses banyak LLM pihak ketiga. Saat ini, Qianfan memiliki akses ke lebih dari 100 model dari lebih dari 30 vendor model, yang mencakup 11 jenis kemampuan seperti teks, gambar, dan penalaran mendalam, termasuk model pihak ketiga seperti DeepSeek, LLaMA, Tongyi, dan Vidu. Ini juga menyediakan berbagai LLM Wenxin, termasuk model multi-modal asli Wenxin 4.5 Turbo yang baru dirilis dan model pemikiran mendalam Wenxin X1 Turbo, serta model pemikiran mendalam Wenxin X1 yang dirilis sebelumnya.
Untuk perusahaan yang ingin dengan cepat menerapkan teknologi AI, Baidu AI Cloud secara bertahap menjadi pilihan pertama. Data pasar adalah bukti terbaik. Saat ini, platform Qianfan melayani lebih dari 400.000 pelanggan, dengan tingkat penetrasi lebih dari 60% di perusahaan pusat. Menurut Laporan Pemantauan dan Wawasan Proyek Penawaran Model Besar China (2025Q1), Baidu mencapai double first dalam jumlah proyek penawaran model besar dan jumlah tawaran yang menang di kuartal pertama: memenangkan 19 proyek penawaran model besar dengan jumlah proyek yang diungkapkan lebih dari 450 juta yuan, dan proyek model besar yang menang hampir semuanya dari pelanggan perusahaan milik negara pusat di industri seperti energi dan keuangan.
Kartu laporan Baidu AI Cloud juga mengirimkan sinyal ke dunia luar: dalam pertempuran jangka panjang untuk implementasi teknologi AI ini, hanya solusi yang benar-benar memahami masalah industri dan dapat membantu perusahaan mengurangi biaya trial and error yang paling penting.