Medan Pertempuran AI: DeepSeek R1 Memicu Respons Global

Pada awal tahun 2025, terjadi peristiwa seismik di ranah kecerdasan buatan: peluncuran DeepSeek-R1 oleh tim Tiongkok, DeepSeek. Model bahasa open-source dengan 671 miliar parameter ini dengan cepat memantapkan dirinya sebagai pesaing yang tangguh, menyaingi model-model terkemuka OpenAI di bidang-bidang penting seperti matematika, pemrograman, dan penalaran logis. Kemampuan DeepSeek-R1 untuk mengatasi masalah yang rumit sangat penting, karena penggunaan pembelajaran penguatan (reinforcement learning). Lisensi MIT model ini semakin mengganggu lanskap dengan membongkar hambatan komersial. Getaran debut DeepSeek-R1 terasa di seluruh dunia teknologi dan bahkan di pasar keuangan, dilaporkan memicu penurunan signifikan pada saham-saham AI dalam waktu seminggu setelah perilisannya.

DeepSeek-R1 menandai lompatan yang cukup besar ke depan bagi gerakan AI open-source Tiongkok di ranah model bahasa kelas atas. Tantangan tak terduga ini telah memacu para pemimpin AI global dari Amerika Serikat dan Tiongkok untuk mempercepat inisiatif mereka, mengungkapkan strategi mereka baik dalam teknologi maupun posisi pasar. Ini telah memulai perlombaan AI di sekitar model DeepSeek-R1.

Mari kita periksa bagaimana para pemain utama di arena AI – Meta, Google, OpenAI, Anthropic, Alibaba, dan Baidu – telah menanggapi persaingan baru ini.

Meta: Memanfaatkan Skala dan Efisiensi dengan LLaMA 4

Meta, pelopor dalam komunitas model open-source, menanggapi DeepSeek R1 dengan memperkenalkan LLaMA 4. Pada April 2025, Meta meluncurkan LLaMA 4, modelnya yang paling kuat hingga saat ini, menyediakan akses API melalui platform seperti Cloudflare. LLaMA 4 menggunakan arsitektur Mixture-of-Experts (MoE), yang membagi model menjadi sub-model dan hanya mengaktifkan sebagian kecil dari mereka selama setiap inferensi. Desain ini menyeimbangkan parameter skala besar dengan efisiensi inferensi.

Seri LLaMA 4 menampilkan beberapa sub-model, termasuk "Scout," dengan total 109 miliar parameter dan hanya 17 miliar parameter aktif, memungkinkannya berjalan pada satu kartu H100. Model "Maverick" memiliki total 400 miliar parameter (128 pakar) tetapi masih hanya 17 miliar parameter aktif, yang membutuhkan kluster DGX. Desain ini memungkinkan LLaMA 4 untuk mendukung jendela konteks hingga 10 juta token, menjadikannya salah satu model open-source pertama yang menawarkan kemampuan ini. Ini sangat berguna untuk meringkas dokumen panjang dan menganalisis repositori kode besar.

LLaMA 4 mempertahankan waktu respons yang cepat dan mendukung input multimodal untuk gambar, audio, dan video, berkat arsitektur MoE-nya. Meta telah memilih strategi efisiensi, memperkuat kemampuan multimodalnya dan merampingkan operasinya, untuk memperkuat posisinya di sektor open-source sementara DeepSeek berfokus pada kemampuan inferensi.

Google: Evolusi Gemini Menuju Agen Cerdas Otonom

Dihadapkan dengan tekanan gabungan dari OpenAI dan DeepSeek, Google telah memilih strategi inovasi teknologi. Pada Februari 2025, Google memperkenalkan seri Gemini 2.0, yang menampilkan versi Flash, Pro, dan Lite, menandakan langkah menuju kemampuan "agen cerdas."

Kemampuan agen Gemini 2.0 merupakan kemajuan yang signifikan. Model ini dapat memahami berbagai modalitas dan secara aktif menggunakan mesin pencari, sandbox kode, dan penjelajahan web. Proyek Mariner Google memungkinkan operasi browser Chrome yang digerakkan oleh AI, memungkinkan AI untuk mengisi formulir dan mengklik tombol.

Google juga telah memperkenalkan protokol Agent2Agent, yang memungkinkan agen cerdas yang berbeda untuk berkomunikasi dan bekerja sama, untuk mendukung ekosistem agennya. Selain itu, ia telah menciptakan Agent Garden, alat dan perangkat pengembangan untuk mendorong pengembang pihak ketiga untuk berpartisipasi.

Google mendefinisikan ulang skenario inti era berikutnya dengan berkonsentrasi pada kolaborasi agen cerdas saat AI berkembang menuju kemampuan berbasis alat dan otonom, sebagai lawan dari berfokus pada perlombaan parameter dengan DeepSeek dan OpenAI. Evolusi Gemini mewakili pergeseran strategis dan bukan hanya peningkatan model.

OpenAI: Mengulangi Model dan Mengintegrasikan Ekosistem untuk Keandalan dan Kepemimpinan

OpenAI telah mempercepat iterasi model dan penyebaran produknya sebagai tanggapan terhadap DeepSeek R1. Pada Februari 2025, OpenAI meluncurkan GPT-4.5, versi sementara GPT-4, yang meningkatkan konsistensi logis dan akurasi faktual, sekaligus membuka jalan bagi GPT-5.

GPT-4.5 dianggap sebagai model utama terakhir yang tidak menyertakan penalaran chain-of-thought. GPT-5 akan menggabungkan fitur-fitur dari model penalaran eksperimental o3-mini dan seri GPT untuk membuat "model kognitif umum" yang terpadu. OpenAI juga telah menyatakan bahwa GPT-5 akan memiliki tingkat kecerdasan dan kemampuan penggunaan alat yang sangat dapat disesuaikan.

OpenAI memutuskan untuk mengizinkan pengguna gratis ChatGPT untuk menggunakan versi dasar GPT-5, sementara pengguna berbayar akan memiliki akses ke fitur yang lebih canggih untuk mengurangi risiko pengguna beralih ke alternatif open-source. Strategi ini bertujuan untuk membuat pengguna tetap terlibat dengan cakupan yang luas.

OpenAI juga mengintegrasikan kemampuan seperti plugin, browser, dan eksekutor kode ke dalam model inti GPT, sebagai lawan dari membiarkannya terpisah, untuk membuat "AI berfitur lengkap." OpenAI menanggapi tantangan R1 dengan secara sistematis mengintegrasikan dan meningkatkan kepadatan kecerdasan.

Anthropic: Memperdalam Kecerdasan yang Kuat dengan Penalaran Campuran dan Anggaran Berpikir

Anthropic memperkenalkan Claude 3.7 Sonnet pada Februari 2025, yang berfokus pada "penalaran campuran" dan "anggaran berpikir." Pengguna dapat memilih "mode standar" untuk respons cepat atau mengaktifkan "mode diperpanjang" untuk pemikiran langkah demi langkah yang lebih dalam.

Metode ini mirip dengan "berpikir lebih banyak" ketika orang menghadapi tugas-tugas sulit, karena memungkinkan AI untuk membutuhkan waktu lebih lama untuk bernalar guna meningkatkan akurasi. Anthropic juga memungkinkan pengguna untuk mengatur "waktu berpikir" untuk menyeimbangkan kedalaman penalaran dan biaya panggilan.

Claude 3.7 mengungguli pendahulunya, 3.5, dalam tugas-tugas yang menantang seperti pemrograman dan penalaran, dan merupakan salah satu dari sedikit model di industri yang berfokus pada transparansi proses penalaran. Kemampuan kodenya juga mencapai tingkat akurasi 70,3% dalam evaluasi terbaru.

Claude 3.7 menunjukkan komitmen Anthropic terhadap "kecerdasan yang dapat dikendalikan" dengan berfokus pada pembuatan model dengan pola berpikir yang dapat dijelaskan, stabil, dan dapat disesuaikan, sebagai lawan dari mengejar penumpukan parameter. Anthropic terus maju dengan mantap dengan kecepatannya sendiri dalam "perlombaan penalaran" yang didorong oleh R1.

Alibaba: Membangun Ekosistem Open-Source Tiongkok dengan Qwen

Damo Academy Alibaba dengan cepat memperbarui keluarga model Qwen-nya hanya seminggu setelah DeepSeek R1 dirilis, merilis seri Qwen 2.5 pada Februari 2025 dan seri Qwen 3 baru pada akhir April, menunjukkan responsivitas produk yang kuat dan visi strategis.

Seri Qwen 3 mencakup versi model mulai dari 600 juta hingga 235 miliar parameter. Ia menggunakan arsitektur MoE untuk mempertahankan kinerja model sambil menggunakan lebih sedikit sumber daya komputasi. Model unggulan, Qwen3-235B-A22B, hanya membutuhkan empat GPU berperforma tinggi untuk penyebaran dengan mengoptimalkan parameter aktivasi, sangat menurunkan hambatan masuk bagi bisnis untuk mengimplementasikan model besar. Dalam beberapa pengujian standar, kinerja keseluruhan Qwen 3 melebihi kinerja model internasional teratas seperti DeepSeek R1, OpenAI o1, dan Gemini 2.5 Pro.

Alibaba menempatkan penekanan kuat pada pembangunan ekosistem open-source, selain daya saing teknologi. Qwen 3 sepenuhnya open-source di bawah lisensi Apache 2.0, dengan bobot terbuka, kode pelatihan, dan alat penyebaran, mendukung aplikasi multibahasa (119 bahasa) dan multimodal, dengan tujuan menciptakan model dasar yang dapat digunakan dan disesuaikan secara langsung oleh pengembang global.

Strategi "teknologi + ekosistem" Alibaba melengkapi gaya terobosan ringan DeepSeek. Yang satu menekankan iterasi cepat dan inferensi terkemuka, sementara yang lain menekankan pembangunan ekosistem dan menyeimbangkan skala dan keragaman. Qwen secara bertahap memantapkan dirinya sebagai "hub ekosistem" dari model besar open-source di pasar domestik, respons yang stabil terhadap gangguan industri yang disebabkan oleh DeepSeek.

Baidu: Meningkatkan Multimodalitas dan Alat Plugin dengan Peningkatan ERNIE Bot

Baidu secara signifikan meningkatkan model unggulannya, ERNIE Bot, pada bulan Maret, merilis ERNIE Bot 4.5 dan ERNIE X1 untuk pengujian publik. ERNIE X1 diposisikan sebagai "model berpikir mendalam," berfokus pada peningkatan kemampuan AI untuk memahami, merencanakan, dan mengeksekusi tugas-tugas kompleks.

ERNIE 4.5 adalah model besar multimodal asli pertama Baidu, yang mendukung pemodelan bersama teks, gambar, audio, dan video. Versi ini juga secara signifikan mengurangi generasi halusinasi dan meningkatkan pemahaman kode dan penalaran logis, melampaui tingkat GPT-4.5 dalam beberapa tugas skenario Tiongkok.

Baidu sedang membangun "ekosistem alat AI" yang lebih berguna. Model X1 dapat menggunakan fungsi pencarian, Tanya Jawab dokumen, pembacaan PDF, eksekusi kode, pengenalan gambar, akses web, dan kueri informasi bisnis untuk benar-benar mewujudkan "kemampuan langsung" AI, yang menggemakan rute agen Google Gemini.

Baidu juga mengumumkan bahwa mereka akan membuka sumber beberapa parameter model ERNIE pada akhir Juni 2025 dan lebih memperluas integrasi aplikasi dengan pelanggan tingkat perusahaan. Seri ERNIE bertransisi dari produk loop tertutup ke ekosistem platform, menarik pengembang dan bisnis melalui API dan sistem plugin.

Alih-alih bersaing secara langsung dengan R1 dan Qwen di ruang open-source, Baidu memanfaatkan akumulasi mendalamnya dalam konten Tiongkok, layanan pencarian, dan grafik pengetahuan untuk mengintegrasikan model secara mendalam dengan skenario produk seperti pencarian, kantor, dan aliran informasi, menciptakan portofolio produk AI yang lebih terlokalisasi.

Singkatnya, rilis DeepSeek R1 lebih dari sekadar terobosan teknologi; itu adalah katalis di arena AI global. Ini telah memaksa raksasa untuk meningkatkan kinerja inferensi, menstimulasi perusahaan domestik untuk bersaing untuk open source, dan mendorong perusahaan Amerika untuk mempercepat pengembangan agen, integrasi, dan multimodalitas.

Meskipun tanggapan dari raksasa AI Tiongkok dan Amerika berbeda, tujuan mereka sama: untuk menciptakan model besar yang lebih kuat, lebih andal, dan lebih fleksibel dan memenangkan kompetisi tiga kali lipat dari teknologi, ekosistem, dan pengguna. Proses ini masih jauh dari selesai. Saat GPT-5, Gemini 3, Claude 4, dan bahkan DeepSeek R2 dan Qwen 4 dirilis satu demi satu, AI global memasuki tahap baru "kenaikan spiral."

Bagi pengguna dan pengembang perusahaan, persaingan ini akan membawa lebih banyak pilihan, biaya lebih rendah, dan alat model besar yang lebih kuat. Kemampuan AI global menyebar dan mengalami demokratisasi pada tingkat yang belum pernah terjadi sebelumnya, dan terobosan teknologi yang menentukan berikutnya mungkin sudah dalam perjalanan.