Taruhan Tinggi dalam Perlombaan Perangkat Keras AI Global
Lanskap pengembangan kecerdasan buatan (AI) semakin ditentukan tidak hanya oleh terobosan algoritmik tetapi juga oleh akses ke perangkat keras canggih yang diperlukan untuk melatih dan menjalankan model masif. Inti dari persamaan perangkat keras ini terletak pada unit pemrosesan grafis (GPU), komponen yang awalnya dirancang untuk merender gambar tetapi kini sangat diperlukan untuk tuntutan pemrosesan paralel AI. Selama bertahun-tahun, Nvidia Corporation telah berdiri sebagai raksasa tak terbantahkan di arena ini, GPU canggihnya menjadi standar emas, mendorong inovasi di seluruh Silicon Valley dan sekitarnya. Namun, dominasi ini telah menempatkan perusahaan, dan pelanggannya, tepat di tengah-tengah ketegangan geopolitik.
Pemberlakuan kontrol ekspor yang ketat oleh Washington yang bertujuan membatasi akses Tiongkok ke teknologi semikonduktor mutakhir telah secara fundamental membentuk kembali pasar. Pembatasan ini secara khusus menargetkan GPU berkinerja tinggi, seperti yang diproduksi oleh Nvidia, yang dianggap penting untuk aplikasi AI canggih, termasuk yang berpotensi digunakan untuk keperluan militer. Efek langsungnya adalah perebutan di dalam sektor teknologi Tiongkok yang sedang berkembang pesat. Perusahaan-perusahaan yang banyak berinvestasi di AI, dari raksasa mapan hingga perusahaan rintisan yang ambisius, menghadapi prospek tiba-tiba terputus dari alat-alat penting yang mendorong gelombang kemajuan teknologi berikutnya. Hal ini menciptakan keharusan mendesak: temukan alternatif yang layak atau berisiko tertinggal dalam bidang yang kompetitif secara global. Tantangannya bukan hanya tentang mengganti satu chip dengan yang lain; ini melibatkan navigasi jaringan kompleks perbedaan kinerja, masalah kompatibilitas perangkat lunak, dan skala besar yang diperlukan untuk melatih model dengan ratusan miliar, atau bahkan triliunan, parameter.
Ant Group Merintis Jalan Menuju Kemandirian Komputasi
Dengan latar belakang ketidakpastian rantai pasokan dan persaingan teknologi yang meningkat ini, Ant Group, raksasa fintech yang berafiliasi dengan Alibaba Group Holding, telah menandakan langkah signifikan menuju kemandirian komputasi yang lebih besar. Pengungkapan baru-baru ini, yang dirinci dalam makalah penelitian oleh tim Ling perusahaan – divisi yang mempelopori inisiatif model bahasa besar (LLM) – menunjukkan penyimpangan yang berhasil dari jalur yang berpusat pada Nvidia. Inti dari pencapaian ini terletak pada kemampuan mereka untuk secara efektif melatih model AI canggih menggunakan GPU yang diproduksi di dalam negeri.
Model yang dimaksud, bernama Ling-Plus-Base, bukanlah model ringan. Model ini dirancang menggunakan arsitektur Mixture-of-Experts (MoE), sebuah teknik yang mendapatkan daya tarik karena efisiensinya dalam meningkatkan skala LLM. Dengan 300 miliar parameter yang substansial, Ling-Plus-Base beroperasi dalam liga yang sebanding dengan model global terkemuka lainnya. Namun, pembeda utamanya adalah perangkat keras yang mendukung pelatihannya. Menurut temuan penelitian, model yang kuat ini dapat dikembangkan hingga matang pada apa yang digambarkan tim sebagai ‘perangkat berkinerja lebih rendah’. Frasa yang dipilih dengan cermat ini menunjuk langsung pada pemanfaatan unit pemrosesan yang berada di luar cakupan pembatasan ekspor AS, yang sangat menyiratkan penggunaan chip yang dirancang dan diproduksi di Tiongkok.
Perkembangan ini lebih dari sekadar solusi teknis; ini mewakili potensi poros strategis. Dengan menunjukkan kapasitas untuk melatih model canggih tanpa bergantung secara eksklusif pada perangkat keras asing tingkat tertinggi yang dibatasi, Ant Group tidak hanya mengurangi risiko rantai pasokan tetapi juga berpotensi membuka efisiensi biaya yang signifikan.
Persamaan Ekonomi: Memangkas Biaya Pelatihan
Salah satu angka paling menarik yang muncul dari penelitian tim Ling adalah pengurangan biaya komputasi sebesar 20 persen yang dilaporkan selama fase pra-pelatihan kritis model Ling-Plus-Base. Pra-pelatihan terkenal padat sumber daya, melibatkan pemberian dataset besar kepada model untuk mempelajari pola bahasa, konteks, dan pengetahuan. Ini merupakan bagian utama dari keseluruhan biaya yang terkait dengan pengembangan LLM dasar. Oleh karena itu, mencapai pengurangan biaya seperlima dalam fase ini berarti penghematan besar, berpotensi membebaskan modal untuk penelitian, pengembangan, atau penerapan lebih lanjut dalam skala besar.
Bagaimana penghematan biaya ini dicapai? Meskipun makalah tersebut tidak merinci perincian biaya yang tepat, beberapa faktor kemungkinan berkontribusi:
- Pengadaan Perangkat Keras: GPU yang diproduksi di dalam negeri, meskipun secara individual kurang bertenaga dibandingkan penawaran teratas Nvidia, mungkin datang dengan harga pembelian yang lebih rendah atau menawarkan diskon volume yang lebih menguntungkan di pasar Tiongkok, terutama mengingat pasokan chip Nvidia kelas atas yang terbatas.
- Efisiensi Energi: Meskipun tidak dinyatakan secara eksplisit, mengoptimalkan pelatihan untuk chip domestik yang berpotensi lebih hemat daya (meskipun mungkin kurang berkinerja per unit) dapat berkontribusi pada biaya energi operasional yang lebih rendah, faktor signifikan dalam menjalankan pusat data besar.
- Optimalisasi Algoritmik dan Arsitektur: Penggunaan arsitektur MoE itu sendiri adalah kuncinya. Model MoE hanya mengaktifkan sub-jaringan ‘ahli’ tertentu untuk input tertentu, daripada melibatkan seluruh model seperti arsitektur padat. Kelangkaan inheren ini dapat secara signifikan mengurangi beban komputasi selama pelatihan dan inferensi, memungkinkan pencapaian hasil yang baik bahkan dengan daya pemrosesan mentah per chip yang lebih sedikit. Keberhasilan Ant menunjukkan perangkat lunak canggih dan penyetelan algoritmik untuk memaksimalkan efisiensi perangkat keras domestik yang tersedia.
Pengurangan biaya ini bukan hanya manfaat akuntansi; ini menurunkan hambatan masuk untuk mengembangkan model skala besar dan dapat mempercepat laju inovasi AI di dalam perusahaan dan berpotensi di seluruh ekosistem teknologi Tiongkok yang lebih luas jika metode tersebut terbukti dapat direplikasi.
Paritas Kinerja: Menjembatani Kesenjangan Perangkat Keras?
Penghematan biaya memang menarik, tetapi tidak banyak berarti jika model AI yang dihasilkan berkinerja jauh di bawah standar. Tim Ling Ant mengatasi hal ini secara langsung, menyatakan bahwa Ling-Plus-Base mencapai kinerja yang sebanding dengan model lain yang dihormati di bidangnya. Secara khusus, mereka membandingkan ciptaan mereka dengan model seperti Qwen2.5-72B-Instruct (dikembangkan oleh perusahaan induk Alibaba) dan DeepSeek-V2.5-1210-Chat, LLM Tiongkok terkemuka lainnya.
Klaim ‘kinerja sebanding’ meskipun menggunakan ‘perangkat berkinerja lebih rendah’ patut diperhatikan. Ini menunjukkan bahwa Ant berpotensi menemukan cara efektif untuk mengkompensasi defisit komputasi mentah melalui:
- Arsitektur Model Tingkat Lanjut: Desain MoE berperan penting di sini, mendistribusikan beban kerja secara efisien.
- Optimalisasi Perangkat Lunak: Menyesuaikan tumpukan perangkat lunak pelatihan (seperti kerangka kerja paralelisasi dan pustaka numerik) secara khusus untuk arsitektur GPU domestik yang digunakan sangat penting. Ini seringkali melibatkan upaya rekayasa yang signifikan.
- Kurasi Data dan Teknik Pelatihan: Metode canggih untuk memilih data pelatihan dan menyempurnakan proses pelatihan itu sendiri dapat secara signifikan memengaruhi kualitas model akhir, terkadang mengkompensasi keterbatasan perangkat keras.
Penting untuk mendekati klaim kinerja dengan nuansa. ‘Sebanding’ dapat mencakup berbagai hasil di berbagai tolok ukur (misalnya, pemahaman bahasa, penalaran, generasi, pengkodean). Tanpa akses ke hasil tolok ukur terperinci di beberapa tes standar, perbandingan yang tepat tetap menantang. Namun, pernyataan itu sendiri menandakan keyakinan Ant bahwa pendekatannya tidak memerlukan trade-off yang melumpuhkan antara biaya/aksesibilitas dan kemampuan. Ini menunjukkan jalur untuk mempertahankan daya saing bahkan dalam batasan yang diberlakukan oleh pembatasan perangkat keras.
Para peneliti sendiri menyoroti implikasi yang lebih luas: ‘Hasil ini menunjukkan kelayakan melatih model MoE skala besar yang canggih pada perangkat keras yang kurang bertenaga, memungkinkan pendekatan yang lebih fleksibel dan hemat biaya untuk pengembangan model dasar sehubungan dengan pemilihan sumber daya komputasi.’ Ini menunjuk ke arah semacam demokratisasi, memungkinkan pengembangan AI mutakhir untuk terus berlanjut bahkan ketika akses ke puncak absolut daya pemrosesan terbatas.
Memahami Keunggulan Mixture-of-Experts (MoE)
Arsitektur Mixture-of-Experts adalah inti dari keberhasilan yang dilaporkan Ant Group. Ini mewakili penyimpangan dari model jaringan saraf ‘padat’ tradisional di mana setiap input mengaktifkan setiap parameter. Dalam model MoE:
- Model ini terdiri dari banyak jaringan ‘ahli’ yang lebih kecil dan terspesialisasi.
- Mekanisme ‘jaringan gerbang’ atau ‘router’ belajar mengarahkan data yang masuk (token, dalam kasus LLM) ke ahli yang paling relevan untuk diproses.
- Hanya ahli yang dipilih – seringkali hanya satu atau dua dari potensi ratusan – yang melakukan komputasi untuk bagian data spesifik tersebut.
Pendekatan ini menawarkan beberapa keuntungan utama, terutama relevan dalam konteks kendala perangkat keras:
- Skalabilitas: MoE memungkinkan model tumbuh hingga jumlah parameter yang sangat besar (triliunan menjadi layak) tanpa peningkatan proporsional dalam biaya komputasi untuk memproses setiap token input selama inferensi atau bahkan selama langkah pelatihan. Ini karena hanya sebagian kecil dari total parameter yang aktif pada waktu tertentu.
- Efisiensi Pelatihan: Meskipun melatih model MoE memiliki kompleksitasnya sendiri (seperti penyeimbangan beban di seluruh ahli), pengurangan komputasi per token dapat diterjemahkan menjadi waktu pelatihan yang lebih cepat atau, seperti yang ditunjukkan Ant, kemampuan untuk melatih secara efektif pada perangkat keras yang kurang bertenaga dalam jangka waktu yang wajar.
- Spesialisasi: Setiap ahli berpotensi berspesialisasi dalam berbagai jenis data, tugas, atau domain pengetahuan, berpotensi menghasilkan output berkualitas lebih tinggi di area tertentu.
Laboratorium AI terkemuka di seluruh dunia telah mengadopsi MoE, termasuk Google (GShard, Switch Transformer), Mistral AI (model Mixtral), dan di Tiongkok, perusahaan seperti DeepSeek dan Alibaba (yang model Qwen-nya menggabungkan elemen MoE). Ling-Plus-Base Ant dengan tegas menempatkannya di barisan depan ini, memanfaatkan inovasi arsitektur untuk menavigasi realitas perangkat keras.
Ekosistem Perangkat Keras Domestik: Mengisi Kekosongan Nvidia
Meskipun makalah penelitian Ant menahan diri untuk tidak menyebutkan secara eksplisit perangkat keras yang digunakan, laporan selanjutnya, terutama oleh Bloomberg, menunjukkan bahwa pencapaian tersebut melibatkan chip yang dirancang di dalam negeri. Ini termasuk prosesor yang berpotensi berasal dari afiliasi Ant, Alibaba, yang memiliki unit desain chip sendiri T-Head (memproduksi CPU seperti Yitian 710 dan sebelumnya mengeksplorasi akselerator AI), dan yang terpenting, Huawei Technologies.
Huawei, meskipun menghadapi sanksi AS yang intens, telah secara agresif mengembangkan seri akselerator AI Ascend (seperti Ascend 910B) sebagai alternatif langsung untuk penawaran Nvidia di pasar Tiongkok. Chip ini dilaporkan diadopsi oleh perusahaan teknologi besar Tiongkok. Kemampuan Ant Group untuk secara efektif memanfaatkan perangkat keras semacam itu untuk model sebesar Ling-Plus-Base akan mewakili validasi signifikan dari alternatif domestik ini.
Penting untuk dicatat bahwa Ant Group belum sepenuhnya meninggalkan Nvidia. Laporan menunjukkan bahwa chip Nvidia tetap menjadi bagian dari perangkat pengembangan AI Ant, kemungkinan digunakan untuk tugas-tugas di mana karakteristik kinerja spesifik mereka atau ekosistem perangkat lunak yang matang (seperti CUDA) menawarkan keuntungan, atau untuk sistem warisan. Langkah ini tidak selalu tentang penggantian total dalam semalam tetapi tentang membangun jalur paralel yang layak yang mengurangi kerentanan strategis dan mengendalikan biaya. Pendekatan hibrida ini memungkinkan perusahaan untuk memanfaatkan alat terbaik yang tersedia sambil menumbuhkan kemandirian. Ant Group sendiri mempertahankan tingkat kebijaksanaan perusahaan, menolak berkomentar secara resmi tentang chip spesifik yang digunakan.
Tren Lebih Luas: Dorongan Kolektif Tiongkok untuk Kemandirian AI
Inisiatif Ant Group tidak terjadi secara terpisah. Ini mencerminkan dorongan strategis yang lebih luas di seluruh sektor teknologi Tiongkok untuk berinovasi mengatasi keterbatasan yang diberlakukan oleh kontrol ekspor AS. ‘Perang teknologi’ telah mengkatalisasi upaya untuk mencapai kemandirian yang lebih besar dalam teknologi kritis, terutama semikonduktor dan AI.
Pemain utama lainnya mengejar tujuan serupa:
- ByteDance: Perusahaan induk TikTok juga dilaporkan bekerja untuk mengamankan dan memanfaatkan chip alternatif, termasuk opsi domestik, untuk ambisi AI-nya, yang mencakup algoritma rekomendasi, AI generatif, dan banyak lagi.
- DeepSeek: Perusahaan rintisan AI ini, yang dikenal dengan model sumber terbukanya yang kuat, secara eksplisit menyebutkan efisiensi pelatihan dan telah mengembangkan model menggunakan arsitektur MoE, sejalan dengan strategi yang kurang bergantung pada armada besar GPU paling kuat saja.
- Baidu, Tencent, dan lainnya: Semua perusahaan cloud dan teknologi besar Tiongkok berinvestasi besar-besaran di AI dan tak terhindarkan mengeksplorasi strategi diversifikasi perangkat keras, termasuk mengoptimalkan untuk chip domestik dan berpotensi mengembangkan silikon kustom mereka sendiri.
Pesan kolektifnya jelas: sementara akses ke produk tingkat atas Nvidia tetap diinginkan, industri teknologi Tiongkok secara aktif mengembangkan dan memvalidasi solusi alternatif. Ini melibatkan pendekatan multi-cabang: merangkul arsitektur model yang efisien seperti MoE, optimalisasi perangkat lunak yang intens untuk backend perangkat keras yang berbeda, dan mendukung pengembangan serta adopsi chip yang diproduksi di dalam negeri.
Melampaui Model Bahasa: Ekspansi AI Ant di Sektor Kesehatan
Upaya AI Ant Group melampaui LLM dasar. Bersamaan dengan berita tentang efisiensi pelatihannya, perusahaan meluncurkan peningkatan signifikan pada rangkaian solusi AI yang disesuaikan untuk sektor kesehatan. Inisiatif ini memanfaatkan model AI yang berpusat pada kesehatan yang berbeda dan dikembangkan sendiri.
Solusi yang ditingkatkan menampilkan kemampuan multimodal (memproses berbagai jenis data seperti teks, gambar, dan berpotensi data medis lainnya) dan penalaran medis yang canggih. Ini diintegrasikan ke dalam apa yang digambarkan Ant sebagai ‘mesin all-in-one’, mungkin perangkat atau platform yang dirancang untuk pengaturan klinis atau manajemen kesehatan.
Meskipun tampaknya terpisah dari berita LLM Ling-Plus-Base, ada potensi hubungan mendasar. Kemampuan untuk melatih model AI yang kuat secara lebih hemat biaya, berpotensi menggunakan campuran perangkat keras termasuk opsi domestik, dapat menopang kelayakan ekonomi pengembangan dan penerapan model khusus untuk sektor seperti perawatan kesehatan. Menurunkan biaya dasar pengembangan AI memungkinkan sumber daya disalurkan ke aplikasi khusus domain, berpotensi mempercepat peluncuran alat AI praktis di industri kritis. Dorongan perawatan kesehatan ini menggarisbawahi ambisi Ant untuk menerapkan keahlian AI-nya secara luas, bergerak melampaui akar fintech-nya.
Implikasi untuk Masa Depan: Persimpangan Jalan AI?
Pelatihan sukses Ant Group atas model MoE skala besar menggunakan GPU non-Nvidia, kemungkinan domestik, membawa implikasi signifikan:
- Validasi untuk Chip Domestik: Ini berfungsi sebagai bukti penting bagi kelayakan akselerator AI rancangan Tiongkok seperti Ascend Huawei, berpotensi meningkatkan adopsi mereka di Tiongkok.
- Lanskap Kompetitif: Ini menunjukkan bahwa perusahaan Tiongkok dapat tetap kompetitif dalam pengembangan AI mutakhir meskipun ada pembatasan, memanfaatkan inovasi arsitektur dan perangkat lunak.
- Dinamika Biaya: Pengurangan biaya 20% menyoroti potensi keunggulan kompetitif bagi perusahaan yang mampu secara efektif memanfaatkan perangkat keras alternatif, berpotensi memengaruhi harga dan aksesibilitas AI global.
- Posisi Nvidia: Sementara Nvidia tetap dominan secara global, tren ini menggarisbawahi tantangan yang dihadapinya di pasar Tiongkok yang signifikan karena peraturan dan munculnya pesaing lokal. Ini dapat mempercepat pengembangan chip Nvidia yang sesuai dengan ekspor yang disesuaikan untuk Tiongkok, tetapi juga memvalidasi jalur alternatif.
- Bifurkasi Teknologi?: Dalam jangka panjang, divergensi berkelanjutan dalam akses perangkat keras dan optimalisasi perangkat lunak dapat mengarah pada ekosistem AI yang sebagian berbeda, dengan model dan alat yang dioptimalkan untuk silikon dasar yang berbeda.
Perjalanan yang dilakukan oleh tim Ling Ant Group merupakan lambang dari daya akal yang didorong oleh kendala geopolitik. Dengan secara cerdik menggabungkan arsitektur model canggih seperti MoE dengan kemauan untuk mengoptimalkan dan memanfaatkan perangkat keras domestik yang tersedia, mereka telah memetakan jalur yang memastikan kemajuan berkelanjutan di bidang kritis kecerdasan buatan, berpotensi membentuk kembali struktur biaya dan ketergantungan strategis yang mendefinisikan industri. Ini adalah bukti gagasan bahwa inovasi seringkali berkembang paling pesat di bawah tekanan.