Revolusi MCP: Membentuk Semula Landskap AI

Sejak kemunculan ChatGPT, usaha berterusan untuk kemajuan dalam model bahasa besar (LLM) telah menjadi ciri penentu landskap AI. Tumpuan awal pada saiz parameter secara beransur-ansur beralih ke aplikasi praktikal, namun cabaran besar masih wujud bagi perniagaan yang ingin memanfaatkan kuasa AI. Kos tinggi yang berkaitan dengan kuasa pengkomputeran dan sifat ekosistem aplikasi AI yang berpecah-belah kekal sebagai punca kesakitan yang kritikal. Syarikat sering mendapati bahawa pelaburan besar mereka dalam AI tidak diterjemahkan kepada pulangan yang diharapkan, yang membawa kepada ‘dilema ROI’ yang berterusan.

Kemunculan MCP dan A2A: Anjakan Paradigma

Kemunculan Protokol Konteks Model (MCP) dan protokol Agent2Agent (A2A) pada tahun 2025 menandakan detik penting dalam evolusi pembangunan aplikasi AI. MCP bertujuan untuk menyeragamkan antara muka untuk memecahkan silo data, membolehkan LLM mengakses sumber luaran dengan cekap dan memudahkan aliran data yang lancar merentas sistem dan platform. A2A seterusnya menggalakkan interaksi lancar antara ejen, memupuk kerjasama dan komunikasi untuk membentuk sistem bersepadu yang padu.

Peralihan daripada MCP kepada A2A menggariskan penekanan yang semakin meningkat pada ‘keterbukaan’ sebagai pemacu utama dalam ekosistem aplikasi AI. Keterbukaan ini merangkumi kedua-dua interoperabiliti teknikal dan semangat kerjasama. Dari perspektif yang lebih luas, transformasi ini mencerminkan perkembangan semula jadi dalam pembangunan teknologi: peralihan daripada keterujaan awal kepada pelaksanaan praktikal, dan daripada inovasi terpencil kepada evolusi ekosistem kolaboratif.

Dari segi sejarah, nilai LLM telah dikaitkan secara tidak seimbang dengan skala parameter dan keupayaan kendiri. Hari ini, MCP dan A2A menangani isu kritikal saling hubungan antara aplikasi AI dan membentuk semula dinamik persaingan ekosistem LLM. Pembangunan aplikasi AI berkembang daripada pendekatan ‘serigala tunggal’ kepada model saling berkaitan. Ini memerlukan penilaian semula nilai AI untuk CTO, mengalihkan tumpuan daripada hanya mengejar saiz model dan strategi ‘all-in’ kepada memanfaatkan platform yang menghubungkan pelbagai keupayaan AI. Matlamatnya adalah untuk secara organik membenamkan AI ke dalam proses perniagaan dan sistem pengeluaran sedia ada, meningkatkan kecekapan keseluruhan melalui kerjasama dan penyeragaman, menyelesaikan masalah kritikal dengan sumber pengkomputeran yang minimum, dan mengatasi ‘dilema ROI’.

Belenggu Pengkomputeran yang Terbazir dan Senario yang Tidak Selaras

Ketidakupayaan untuk mengatasi kesesakan pelaburan tinggi, output rendah telah lama menghantui pelaksanaan LLM. Fenomena ini mencerminkan percanggahan yang mendalam dalam pembangunan AI. Pertama, terdapat pembaziran yang ketara dalam kuasa pengkomputeran. Data menunjukkan bahawa pusat pengkomputeran tujuan umum peringkat perusahaan beroperasi pada hanya 10-15% penggunaan, meninggalkan sejumlah besar sumber pengkomputeran yang terbiar. Kedua, terdapat salah penjajaran senario di mana prestasi model tidak memenuhi keperluan sebenar senario perniagaan.

Satu isu biasa ialah ‘berlebihan’ menggunakan model besar untuk tugas yang ringan. Sesetengah perniagaan terlalu bergantung pada LLM tujuan umum untuk aplikasi mudah. Selain itu, sifat unik senario perniagaan mewujudkan dilema. Menggunakan model besar menimbulkan kos pengkomputeran yang tinggi dan masa inferens yang lama. Memilih model yang lebih kecil mungkin tidak memenuhi keperluan perniagaan. Konflik ini amat ketara dalam senario perniagaan yang memerlukan pengetahuan domain khusus.

Pertimbangkan senario padanan bakat-pekerjaan dalam industri pengambilan pekerja. Syarikat memerlukan model dengan keupayaan penaakulan yang mendalam untuk memahami hubungan kompleks antara resume dan penerangan kerja sambil turut menuntut masa tindak balas yang cepat. Masa inferens yang panjang bagi LLM tujuan umum boleh merendahkan pengalaman pengguna dengan ketara, terutamanya di bawah permintaan pengguna konkurensi tinggi.

Untuk mengimbangi prestasi dan kecekapan, penyulingan model telah mendapat tarikan dalam beberapa tahun kebelakangan ini. Pelancaran DeepSeek-R1 awal tahun ini telah menyerlahkan lagi nilai teknik ini. Dalam mengendalikan tugas penaakulan yang kompleks, penyulingan model menangkap corak ‘rantai pemikiran’ DeepSeek-R1, membolehkan model pelajar ringan mewarisi keupayaan penaakulannya dan bukannya hanya meniru hasil output.

Sebagai contoh, Zhaopin, platform pengambilan pekerja yang terkemuka, menggunakan DeepSeek-R1 (600+ bilion parameter) sebagai model guru untuk menyuling rantai pemikiran dan logik membuat keputusan yang digunakan dalam tugas padanan bakat-pekerjaan. Mereka menggunakan platform pembangunan model Baidu AI Cloud Qianfan untuk menyuling model guru dan memindahkannya ke model ERNIE Speed (10+ bilion parameter), model pelajar. Pendekatan ini mencapai prestasi yang setanding dengan model guru (DeepSeek-R1 mencapai 85% ketepatan dalam hasil pautan penaakulan, manakala model pelajar mencapai lebih 81%), meningkatkan kelajuan inferens ke tahap yang boleh diterima, dan mengurangkan kos kepada 30% daripada yang asal sambil mencapai 1x kelajuan yang lebih pantas daripada DeepSeek-R1 yang serba lengkap.

Pada masa ini, perniagaan biasanya menggunakan dua pendekatan untuk penyulingan model: membina sistem teknikal lengkap daripada infrastruktur dan GPU kepada rangka kerja latihan, atau menggunakan penyelesaian berasaskan platform seperti platform pembangunan model Qianfan atau vendor lain. Yao Sijia, seorang pakar aplikasi AI di Zhaopin, menyatakan bahawa walaupun Zhaopin mempunyai rangka kerja latihannya sendiri, mereka memilih platform pembangunan model Qianfan untuk penyulingan model kerana tiga pertimbangan utama:

  • Sokongan menyeluruh: Platform pembangunan model Qianfan menyediakan sokongan terkemuka industri untuk penyulingan model, mengoptimumkan secara mendalam keseluruhan rantaian teknikal di sekitar senario penyulingan.
  • Kawalan kos: Berbanding dengan membeli dan menyelenggara perkakasan secara bebas, platform pembangunan model Qianfan menawarkan kelebihan yang ketara dalam kawalan kos dan peruntukan sumber yang lebih fleksibel.
  • Pemahaman mendalam tentang senario perniagaan: Pasukan penyelesaian profesional Baidu sangat memahami keperluan teras seperti ‘padanan tepat’ dan ‘tindak balas konkurensi tinggi’ dalam domain pengambilan pekerja dan bekerjasama dengan syarikat untuk meneroka penyelesaian.

Yao Sijia menambah bahawa Zhaopin akan terus mempelopori senario AI+ pengambilan pekerja, menggunakan teknologi Penalaan Halus Pembelajaran Pengukuhan (RFT) Qianfan untuk meningkatkan lagi prestasi model. Mereka merancang untuk meneroka sama ada model guru boleh dipertingkatkan lagi dan sama ada mekanisme ganjaran yang lebih baik boleh mengoptimumkan model pelajar yang telah disuling untuk meningkatkan ketepatan. Qianfan ialah platform pertama di China yang menghasilkan kaedah pembelajaran pengukuhan terkemuka seperti RFT dan GRPO. Dengan mengubah kaedah pembelajaran pengukuhan canggih ini menjadi penyelesaian yang boleh dilaksanakan, Qianfan menawarkan syarikat seperti Zhaopin lebih banyak kemungkinan untuk mengoptimumkan prestasi model.

Walau bagaimanapun, penyulingan model hanya mengoptimumkan prestasi satu model. Dalam senario perniagaan yang kompleks, adalah perlu untuk memadan dengan tepat pelbagai keupayaan AI dengan senario.

Pertimbangkan telefon pintar. Dalam senario pengecaman niat seperti pembantu panggilan, model ringan biasanya digunakan untuk mengenal pasti isu pengguna dengan cepat. Untuk senario Soal Jawab pengetahuan am seperti pertanyaan cuaca dan pengambilan berita, model bersaiz sederhana biasanya digunakan untuk memberikan jawapan yang tepat dan bermaklumat dengan cepat. Dalam senario analisis data dan penaakulan logik yang memerlukan pemikiran yang mendalam, model besar biasanya digunakan.

Ini bermakna telefon pintar perlu memanggil berbilang LLM secara fleksibel dalam senario permintaan pengguna yang berbeza. Bagi pengeluar telefon, ini membentangkan cabaran seperti kos pemilihan model yang tinggi dan proses panggilan yang kompleks disebabkan oleh protokol antara muka model yang berbeza.

Untuk menangani punca kesakitan industri ini, platform pembangunan model Qianfan menghasilkan antara muka penghalaan model. Berbanding dengan menggunakan model kilang asal secara langsung, ia menyediakan pembangunan tersuai dan keupayaan produk panggilan API luar kotak, membantu syarikat menjimatkan beban kerja kejuruteraan dan masa pembangunan sambil mengurangkan kos. Di samping itu, platform pembangunan model Qianfan menyokong panggilan fleksibel untuk pengguna berskala besar, memastikan kelajuan dan kestabilan walaupun di bawah permintaan panggilan frekuensi tinggi dan konkurensi tinggi.

Di peringkat model, keupayaan teknikal seperti penyulingan model dan panggilan berbilang model membantu semakin banyak syarikat mengoptimumkan peruntukan sumber, membolehkan keupayaan AI memadankan senario perniagaan dengan tepat sambil mengurangkan kos. Di peringkat aplikasi, MCP dan A2A, yang telah mendapat perhatian industri yang ketara, mengurangkan lagi kos percubaan dan ralat AI, membantu syarikat mengoptimumkan paradigma kerjasama aplikasi, dan mengubah model ‘mencipta semula roda’ yang tidak cekap dalam pembangunan ejen tradisional.

‘Gabungan pukulan’ daripada model kepada aplikasi ialah jawapan yang sempurna untuk membantu LLM mengatasi ‘dilema ROI’.

Daripada Tertutup kepada Terbuka: Merendahkan Halangan kepada Percubaan AI

Sejak 2023, kata kunci untuk pelaksanaan aplikasi AI telah beransur-ansur beralih kepada Ejen. Menjelang 2024, hampir semua syarikat membincangkan aplikasi dan pembangunan Ejen. Walau bagaimanapun, Ejen pada masa itu kekurangan keupayaan perancangan sebenar dan terutamanya berdasarkan perspektif aliran kerja, menghubungkan LLM dengan aplikasi asas dengan menjahit atau memperproseskan komponen melalui peraturan yang dipacu pakar.

Dengan kebangkitan protokol MCP dan A2A baru-baru ini, 2025 telah menjadi ‘Tahun Sifar Ejen’ yang sebenar. Khususnya, kesan MCP pada bidang AI adalah setanding dengan protokol TCP/IP pada Internet.

Zhou Ze’an, CEO Biyao Technology, menyatakan dalam temu bual dengan InfoQ bahawa nilai teras MCP untuk bidang AI dicerminkan dalam tiga dimensi:

  • Penyelarasan panggilan alat LLM: Pada masa lalu, setiap syarikat mempunyai pelaksanaan Panggilan Fungsinya sendiri, dengan perbezaan ketara antara mereka. MCP mewujudkan standard akses bersatu, membolehkan penyelarasan sebenar skim penjadualan aplikasi antara pelanggan dan pelayan. Selain itu, MCP membolehkan interaksi bukan sahaja antara LLM yang menyokong Panggilan Fungsi tetapi juga dengan LLM yang tidak mempunyai ciri ini.
  • Menyelesaikan cabaran kerjasama alat: Standard bersatu protokol MCP menjadikan pembinaan perkhidmatan Ejen lebih pelbagai. Pembangun perlu mempertimbangkan bukan sahaja Ejen dan perkhidmatan MCP mereka sendiri tetapi juga cara untuk mengintegrasikan keupayaan luaran untuk mencapai fungsi Ejen yang lebih berkuasa.
  • Mengawal keseluruhan konteks melalui LLM, menghasilkan interaksi yang lebih mesra pengguna: Apabila membina proses, ia boleh menggunakan pelbagai sumber data yang lebih luas untuk menyelesaikan tugas kompleks yang sebelum ini mustahil.

‘Secara amnya, protokol MCP menurunkan halangan bagi syarikat untuk menerima pakai teknologi AI dengan ketara. Pada masa lalu, proses integrasi teknikal untuk mengakses Ejen adalah kompleks. Kini, syarikat tidak lagi perlu memahami secara mendalam butiran pelaksanaan teknikal yang kompleks tetapi hanya perlu menjelaskan keperluan perniagaan mereka,’ kata Zhou Ze’an. Biyao Technology telah membuka sepenuhnya keupayaan pemprosesan dokumen bagi LLM menegak industri sumber manusianya yang dibangunkan sendiri ‘Bole’ melalui protokol MCP, termasuk kontrak, resume dan PPT, dan menjadi salah satu pembangun perusahaan pertama yang melancarkan komponen MCP pada platform pembangunan aplikasi Qianfan. Pada masa ini, mana-mana perusahaan atau pembangun individu boleh memanggil terus keupayaan profesionalnya pada platform Qianfan.

‘Baidu akan membantu pembangun menerima MCP secara aktif dan menyeluruh.’ Pada Persidangan Pembangun AI Baidu Create2025 yang diadakan pada 25 April, platform Qianfan secara rasmi melancarkan perkhidmatan MCP peringkat perusahaan. Pengasas Baidu, Li Yanhong menunjukkan kes platform Qianfan menerima MCP, membolehkan pembangun mengakses secara fleksibel 1000 Pelayan MCP, termasuk carian AI Baidu, peta dan Wenku, apabila mencipta Ejen. Di samping itu, Qianfan melancarkan alat kod rendah untuk mencipta Pelayan MCP, membolehkan pembangun membangunkan Pelayan MCP mereka sendiri dengan mudah di Qianfan dan menerbitkannya ke Qianfan MCP Square dengan satu klik. Pelayan MCP ini juga akan diindeks dengan segera oleh carian Baidu, membolehkan ia ditemui dan digunakan oleh lebih ramai pembangun.

Malah, Qianfan telah terus menyelesaikan masalah batu terakhir pelaksanaan AI sebelum kebangkitan protokol MCP, membantu syarikat dengan cekap dan dengan halangan yang rendah untuk menikmati faedah teknologi AI dan menyediakan penyelesaian matang untuk pelbagai industri.

Sebagai contoh, dalam industri rumah pintar, syarikat secara amnya menghadapi masalah biasa: bagaimana untuk menyediakan perkhidmatan pintar yang tepat untuk model produk yang besar? Dengan pelaksanaan LLM yang dipercepatkan, semakin banyak syarikat menggunakan Ejen untuk memberikan pengguna jawapan yang tepat dan diperibadikan dengan cepat. Walau bagaimanapun, ini juga membawa cabaran baharu: bagaimana untuk membangun dan mengurus banyak Ejen? Jenama rumah pintar biasanya mempunyai banyak kategori dan model produk yang berbeza. Membina Ejen untuk setiap produk secara berasingan bukan sahaja akan menghasilkan kos pembangunan yang tinggi tetapi juga kos pengurusan dan penyelenggaraan yang ketara di peringkat kemudian.

Sebagai contoh, jenama rumah pintar yang terkemuka menggunakan platform pembangunan aplikasi Baidu AI Cloud Qianfan untuk menganggap nama fail sebagai kepingan bebas dan membenamkan maklumat kepingan nama fail ke dalam setiap kepingan halus. Daripada membina Ejen untuk setiap produk secara berasingan, mereka hanya perlu menyusun pangkalan pengetahuan yang sepadan dan mentakrifkan nama model produk. Kemudian, mereka boleh menggunakan strategi penghuraian automatik rangka kerja RAG platform Qianfan untuk mencapai padanan tepat model produk dan mata pengetahuan.

Platform pembangunan aplikasi Qianfan juga menyediakan jenama itu dengan satu set alat operasi untuk membina hab pintar yang sentiasa berkembang. Melalui fungsi backflow data, semua rekod interaksi pengguna diubah menjadi bahan pengoptimuman. Kakitangan operasi boleh melihat masalah frekuensi tinggi dalam masa nyata dan campur tangan dengan segera pada mata pengetahuan yang tidak dilindungi, membentuk gelung tertutup ‘operasi - maklum balas - pengoptimuman’. Di samping itu, platform pembangunan aplikasi Qianfan dan Pembantu AI Xiaodu bersama-sama membina rangka kerja interaksi suara. Bergantung pada rangka kerja ini, jenama boleh membolehkan perkakasan ‘bercakap’ secara langsung dengan pengguna, mencapai pengalaman interaktif yang lebih semula jadi, cekap dan diperibadikan.

Daripada MCP kepada A2A, keterbukaan telah menjadi kata kunci baharu dalam ekosistem aplikasi LLM. Keterbukaan juga merupakan niat asal platform Qianfan. Dari hari pertama pelancarannya pada tahun 2023, Qianfan telah menerima pakai pendirian yang paling terbuka untuk mengakses kekayaan LLM pihak ketiga. Pada masa ini, Qianfan mempunyai akses kepada lebih daripada 100 model daripada lebih 30 vendor model, meliputi 11 jenis keupayaan seperti teks, imej dan penaakulan mendalam, termasuk model pihak ketiga seperti DeepSeek, LLaMA, Tongyi dan Vidu. Ia juga menyediakan pelbagai LLM Wenxin, termasuk model berbilang mod asli Wenxin 4.5 Turbo yang baru dikeluarkan dan model pemikiran mendalam Wenxin X1 Turbo, serta model pemikiran mendalam Wenxin X1 yang dikeluarkan sebelum ini.

Bagi syarikat yang ingin melaksanakan teknologi AI dengan cepat, Baidu AI Cloud secara beransur-ansur menjadi pilihan pertama. Data pasaran ialah bukti terbaik. Pada masa ini, platform Qianfan berkhidmat kepada lebih 400,000 pelanggan, dengan kadar penembusan lebih daripada 60% dalam perusahaan pusat. Menurut Laporan Pemantauan dan Wawasan Projek Bidaan Model Besar China (2025Q1), Baidu mencapai dua pertama dalam bilangan projek bidaan model besar dan jumlah bidaan yang menang pada suku pertama: memenangi 19 projek bidaan model besar dengan jumlah projek yang didedahkan lebih daripada 450 juta yuan, dan projek model besar yang menang hampir semuanya daripada pelanggan perusahaan milik negara pusat dalam industri seperti tenaga dan kewangan.

Kad laporan Baidu AI Cloud juga menghantar isyarat kepada dunia luar: dalam pertempuran jangka panjang untuk pelaksanaan teknologi AI ini, hanya penyelesaian yang benar-benar memahami punca kesakitan industri dan boleh membantu syarikat mengurangkan kos percubaan dan ralat adalah yang paling penting.