Pada awal tahun 2025, dunia kecerdasan buatan (AI) menyaksikan satu peristiwa penting: pelancaran DeepSeek-R1 oleh pasukan China, DeepSeek. Model bahasa sumber terbuka (open-source) dengan 671 bilion parameter ini dengan pantas membuktikan dirinya sebagai pesaing yang hebat, menyaingi model terkemuka OpenAI dalam bidang penting seperti matematik, pengaturcaraan, dan penaakulan logik. Keupayaan DeepSeek-R1 untuk menangani masalah yang rumit amat ketara, disebabkan penggunaan pembelajaran pengukuhan (reinforcement learning). Lesen MIT model ini seterusnya mengganggu landskap dengan meruntuhkan halangan komersial. Kesan pelancaran DeepSeek-R1 dirasai di seluruh dunia teknologi dan juga di pasaran kewangan, yang dilaporkan mencetuskan kemerosotan ketara dalam saham AI dalam tempoh seminggu selepas pelancarannya.
DeepSeek-R1 menandakan lonjakan besar ke hadapan untuk gerakan AI sumber terbuka China dalam bidang model bahasa mewah. Cabaran yang tidak dijangka ini telah mendorong pemimpin AI global dari Amerika Syarikat dan China untuk mempercepatkan inisiatif mereka, mendedahkan strategi mereka dalam kedua-dua teknologi dan kedudukan pasaran. Ini telah memulakan perlumbaan AI di sekitar model DeepSeek-R1.
Mari kita kaji bagaimana pemain utama dalam arena AI – Meta, Google, OpenAI, Anthropic, Alibaba, dan Baidu – telah bertindak balas terhadap persaingan baharu ini.
Meta: Memanfaatkan Skala dan Kecekapan dengan LLaMA 4
Meta, peneraju dalam komuniti model sumber terbuka, bertindak balas terhadap DeepSeek R1 dengan memperkenalkan LLaMA 4. Pada April 2025, Meta melancarkan LLaMA 4, modelnya yang paling berkuasa setakat ini, menyediakan akses API melalui platform seperti Cloudflare. LLaMA 4 menggunakan seni bina Mixture-of-Experts (MoE), yang membahagikan model kepada sub-model dan hanya mengaktifkan sebahagian daripadanya semasa setiap inferens. Reka bentuk ini mengimbangi parameter berskala besar dengan kecekapan inferens.
Siri LLaMA 4 menampilkan beberapa sub-model, termasuk “Scout,” dengan 109 bilion jumlah parameter dan hanya 17 bilion parameter aktif, membolehkannya berjalan pada satu kad H100. Model “Maverick” mempunyai 400 bilion jumlah parameter (128 pakar) tetapi masih hanya 17 bilion parameter aktif, memerlukan kluster DGX. Reka bentuk ini membolehkan LLaMA 4 menyokong tetingkap konteks sehingga 10 juta token, menjadikannya antara model sumber terbuka pertama yang menawarkan keupayaan ini. Ini amat berguna untuk meringkaskan dokumen panjang dan menganalisis repositori kod yang besar.
LLaMA 4 mengekalkan masa tindak balas yang pantas dan menyokong input multimodal untuk imej, audio, dan video, terima kasih kepada seni bina MoE. Meta telah memilih strategi kecekapan, mengukuhkan keupayaan multimodalnya dan menyelaraskan operasinya, untuk mengukuhkan kedudukannya dalam sektor sumber terbuka sementara DeepSeek memberi tumpuan kepada keupayaan inferens.
Google: Evolusi Gemini Menuju Ejen Pintar Autonomi
Menghadapi tekanan gabungan daripada OpenAI dan DeepSeek, Google telah memilih strategi inovasi teknologi. Pada Februari 2025, Google memperkenalkan siri Gemini 2.0, yang menampilkan versi Flash, Pro, dan Lite, menandakan langkah ke arah keupayaan “ejen pintar”.
Keupayaan ejen Gemini 2.0 mewakili kemajuan yang ketara. Model ini boleh memahami pelbagai modaliti dan secara aktif menggunakan enjin carian, kotak pasir kod, dan pelayaran web. Projek Mariner Google membenarkan operasi pelayar Chrome yang dipacu AI, membolehkan AI mengisi borang dan mengklik butang.
Google juga telah memperkenalkan protokol Agent2Agent, yang membolehkan ejen pintar yang berbeza berkomunikasi dan bekerjasama, untuk menyokong ekosistem ejennya. Selain itu, ia telah mencipta Agent Garden, alat dan kit pembangunan untuk menggalakkan pembangun pihak ketiga untuk mengambil bahagian.
Google mentakrifkan semula senario teras era seterusnya dengan menumpukan pada kerjasama ejen pintar apabila AI berkembang ke arah keupayaan berasaskan alat dan autonomi, berbanding dengan menumpukan pada perlumbaan parameter dengan DeepSeek dan OpenAI. Evolusi Gemini mewakili perubahan strategik dan bukan hanya peningkatan model.
OpenAI: Mengulang Model dan Mengintegrasikan Ekosistem untuk Kebolehpercayaan dan Kepimpinan
OpenAI telah mempercepatkan lelaran model dan penggunaan produknya sebagai tindak balas kepada DeepSeek R1. Pada Februari 2025, OpenAI melancarkan GPT-4.5, versi sementara GPT-4, yang meningkatkan ketekalan logik dan ketepatan fakta, sambil membuka jalan untuk GPT-5.
GPT-4.5 dianggap sebagai model utama terakhir yang tidak menyertakan penaakulan rantai-pemikiran. GPT-5 akan menggabungkan ciri-ciri model penaakulan eksperimen o3-mini dan siri GPT untuk mencipta “model kognitif umum” yang bersatu. OpenAI juga telah menyatakan bahawa GPT-5 akan mempunyai tahap kecerdasan dan keupayaan penggunaan alat yang sangat boleh laras.
OpenAI memutuskan untuk membenarkan pengguna percuma ChatGPT menggunakan versi asas GPT-5, manakala pengguna berbayar akan mempunyai akses kepada ciri yang lebih maju untuk mengurangkan risiko pengguna bertukar kepada alternatif sumber terbuka. Strategi ini bertujuan untuk memastikan pengguna terlibat dengan liputan yang luas.
OpenAI juga menyepadukan keupayaan seperti pemalam, pelayar, dan pelaksana kod ke dalam model teras GPT, dan bukannya menyimpannya secara berasingan, untuk mencipta “AI berciri penuh.” OpenAI bertindak balas terhadap cabaran R1 dengan menyepadukan dan meningkatkan ketumpatan kecerdasan secara sistematik.
Anthropic: Memperdalam Kecerdasan Teguh dengan Penaakulan Campuran dan Bajet Pemikiran
Anthropic memperkenalkan Claude 3.7 Sonnet pada Februari 2025, yang memfokuskan pada “penaakulan campuran” dan “bajet pemikiran.” Pengguna boleh memilih “mod standard” untuk respons pantas atau mengaktifkan “mod lanjutan” untuk pemikiran langkah demi langkah yang lebih mendalam.
Kaedah ini serupa dengan “berfikir lebih banyak” apabila orang menghadapi tugas yang sukar, kerana ia membenarkan AI mengambil masa yang lebih lama untuk menaakul untuk meningkatkan ketepatan. Anthropic juga membenarkan pengguna menetapkan “masa berfikir” untuk mengimbangi kedalaman penaakulan dan kos panggilan.
Claude 3.7 mengatasi pendahulunya, 3.5, dalam tugas yang mencabar seperti pengaturcaraan dan penaakulan, dan merupakan salah satu daripada beberapa model dalam industri yang memberi tumpuan kepada ketelusan proses penaakulan. Keupayaan kodnya juga mencapai kadar ketepatan 70.3% dalam penilaian terkini.
Claude 3.7 menunjukkan komitmen Anthropic terhadap “kecerdasan terkawal” dengan memfokuskan pada penciptaan model dengan corak pemikiran yang boleh dijelaskan, stabil, dan boleh disesuaikan, berbanding dengan mengejar penimbunan parameter. Anthropic terus maju pada kadar sendiri dalam “perlumbaan penaakulan” yang didorong oleh R1.
Alibaba: Membina Ekosistem Sumber Terbuka China dengan Qwen
Akademi Damo Alibaba dengan cepat mengemas kini keluarga model Qwennya hanya seminggu selepas DeepSeek R1 dikeluarkan, mengeluarkan siri Qwen 2.5 pada Februari 2025 dan siri Qwen 3 baharu pada akhir April, menunjukkan responsif produk yang kukuh dan visi strategik.
Siri Qwen 3 termasuk versi model yang terdiri daripada 600 juta hingga 235 bilion parameter. Ia menggunakan seni bina MoE untuk mengekalkan prestasi model sambil menggunakan sumber pengkomputeran yang lebih sedikit. Model utama, Qwen3-235B-A22B, hanya memerlukan empat GPU berprestasi tinggi untuk penggunaan dengan mengoptimumkan parameter pengaktifan, dengan ketara menurunkan halangan untuk perniagaan melaksanakan model besar. Dalam beberapa ujian standard, prestasi keseluruhan Qwen 3 melebihi model antarabangsa teratas seperti DeepSeek R1, OpenAI o1, dan Gemini 2.5 Pro.
Alibaba meletakkan penekanan yang kuat pada pembinaan ekosistem sumber terbuka, sebagai tambahan kepada daya saing teknologi. Qwen 3 dibuka sepenuhnya sumbernya di bawah lesen Apache 2.0, dengan berat terbuka, kod latihan, dan alat penggunaan, menyokong aplikasi berbilang bahasa (119 bahasa) dan multimodal, dengan matlamat untuk mencipta model asas yang boleh digunakan dan disesuaikan secara langsung oleh pembangun global.
Strategi “teknologi + ekosistem” Alibaba melengkapi gaya kejayaan ringan DeepSeek. Satu menekankan lelaran pantas dan inferens terkemuka, manakala yang lain menekankan pembinaan ekosistem dan mengimbangi skala dan kepelbagaian. Qwen secara beransur-ansur mengukuhkan dirinya sebagai “hab ekosistem” model besar sumber terbuka di pasaran domestik, tindak balas yang mantap terhadap gangguan industri yang disebabkan oleh DeepSeek.
Baidu: Meningkatkan Multimodaliti dan Alat Pemalam dengan Peningkatan ERNIE Bot
Baidu meningkatkan dengan ketara model utamanya, ERNIE Bot, pada bulan Mac, mengeluarkan ERNIE Bot 4.5 dan ERNIE X1 untuk ujian awam. ERNIE X1 diletakkan sebagai “model pemikiran mendalam,” yang memfokuskan pada peningkatan keupayaan AI untuk memahami, merancang, dan melaksanakan tugas yang kompleks.
ERNIE 4.5 ialah model besar multimodal asli pertama Baidu, menyokong pemodelan bersama teks, imej, audio, dan video. Versi ini juga mengurangkan penjanaan halusinasi dengan ketara dan meningkatkan pemahaman kod dan penaakulan logik, mengatasi tahap GPT-4.5 dalam pelbagai tugas senario Cina.
Baidu sedang membina “ekosistem alat AI” yang lebih berguna. Model X1 boleh menggunakan carian, soalan dan jawapan dokumen, bacaan PDF, pelaksanaan kod, pengecaman imej, akses web, dan fungsi pertanyaan maklumat perniagaan untuk benar-benar merealisasikan “keupayaan praktikal” AI, mengulangi laluan ejen Google Gemini.
Baidu juga mengumumkan bahawa ia akan membuka sumber beberapa parameter model ERNIE menjelang akhir Jun 2025 dan seterusnya mengembangkan penyepaduan aplikasi dengan pelanggan peringkat perusahaan. Siri ERNIE sedang beralih daripada produk gelung tertutup kepada ekosistem platform, menarik pembangun dan perniagaan melalui API dan sistem pemalam.
Daripada bersaing secara langsung dengan R1 dan Qwen dalam ruang sumber terbuka, Baidu memanfaatkan pengumpulan mendalamnya dalam kandungan Cina, perkhidmatan carian, dan graf pengetahuan untuk menyepadukan model dengan mendalam dengan senario produk seperti carian, pejabat, dan aliran maklumat, mewujudkan portfolio produk AI yang lebih setempat.
Ringkasnya, keluaran DeepSeek R1 adalah lebih daripada sekadar kejayaan teknologi; ia adalah pemangkin dalam arena AI global. Ia telah memaksa gergasi untuk meningkatkan prestasi inferens, merangsang syarikat domestik untuk bersaing untuk sumber terbuka, dan mendorong syarikat Amerika untuk mempercepatkan pembangunan ejen, penyepaduan, dan multimodaliti.
Walaupun tindak balas gergasi AI China dan Amerika berbeza, matlamat mereka adalah sama: untuk mencipta model besar yang lebih kukuh, lebih dipercayai, dan lebih fleksibel dan memenangi persaingan tiga kali ganda teknologi, ekosistem, dan pengguna. Proses ini masih jauh dari selesai. Apabila GPT-5, Gemini 3, Claude 4, dan juga DeepSeek R2 dan Qwen 4 dikeluarkan satu demi satu, AI global memasuki tahap baharu “kenaikan lingkaran.”
Bagi pengguna dan pembangun perusahaan, persaingan ini akan membawa lebih banyak pilihan, kos yang lebih rendah, dan alat model besar yang lebih berkuasa. Keupayaan AI global merebak dan didemokrasikan pada kadar yang belum pernah terjadi sebelumnya, dan kejayaan teknologi yang menentukan seterusnya mungkin sudah dalam perjalanan.