Langkah Cip Domestik Ant Group dalam Komputasi AI

Pertaruhan Tinggi dalam Perlumbaan Perkakasan AI Global

Landskap pembangunan kecerdasan buatan (AI) semakin ditentukan bukan sahaja oleh penemuan algoritma tetapi juga oleh akses kepada perkakasan canggih yang diperlukan untuk melatih dan menjalankan model berskala besar. Di tengah-tengah persamaan perkakasan ini terletak unit pemprosesan grafik (GPU), komponen yang pada mulanya direka untuk pemaparan imej tetapi kini amat diperlukan untuk tuntutan pemprosesan selari AI. Selama bertahun-tahun, Nvidia Corporation telah berdiri sebagai gergasi yang tidak dapat dipertikaikan dalam arena ini, GPU canggihnya menjadi standard emas, memacu inovasi di seluruh Silicon Valley dan seterusnya. Walau bagaimanapun, penguasaan ini telah meletakkan syarikat itu, dan pelanggannya, secara langsung dalam sasaran ketegangan geopolitik.

Pengenaan kawalan eksport yang ketat oleh Washington yang bertujuan untuk menyekat akses China kepada teknologi semikonduktor termaju telah membentuk semula pasaran secara asas. Sekatan ini secara khusus menyasarkan GPU berprestasi tinggi, seperti yang dihasilkan oleh Nvidia, yang dianggap kritikal untuk aplikasi AI lanjutan, termasuk yang berpotensi untuk kegunaan ketenteraan. Kesan serta-merta ialah perebutan dalam sektor teknologi China yang sedang berkembang pesat. Syarikat-syarikat yang banyak melabur dalam AI, daripada gergasi mapan hingga syarikat pemula yang bercita-cita tinggi, menghadapi prospek tiba-tiba terputus daripada alat penting yang memacu gelombang kemajuan teknologi seterusnya. Ini mewujudkan satu keharusan yang mendesak: cari alternatif yang berdaya maju atau berisiko ketinggalan dalam bidang yang kompetitif di peringkat global. Cabarannya bukan sekadar menggantikan satu cip dengan yang lain; ia melibatkan navigasi jaringan kompleks perbezaan prestasi, isu keserasian perisian, dan skala semata-mata yang diperlukan untuk melatih model dengan ratusan bilion, atau bahkan trilion, parameter.

Ant Group Merangka Haluan Menuju Kebebasan Komputasi

Berlatarbelakangkan ketidakpastian rantaian bekalan dan persaingan teknologi yang semakin memuncak ini, Ant Group, gergasi teknologi kewangan yang bergabung dengan Alibaba Group Holding, telah memberi isyarat langkah penting ke arah kebebasan pengkomputeran yang lebih besar. Pendedahan terkini, yang diperincikan dalam kertas penyelidikan oleh pasukan Ling syarikat itu – bahagian yang menerajui inisiatif model bahasa besar (LLM) – menunjukkan penyimpangan yang berjaya daripada laluan berpusatkan Nvidia. Teras pencapaian ini terletak pada keupayaan mereka untuk melatih model AI yang canggih dengan berkesan menggunakan GPU yang dihasilkan di dalam negara.

Model yang dimaksudkan, dinamakan Ling-Plus-Base, bukanlah model yang ringan. Ia direka menggunakan seni bina Mixture-of-Experts (MoE), satu teknik yang semakin mendapat perhatian kerana kecekapannya dalam meningkatkan skala LLM. Mempunyai 300 bilion parameter yang besar, Ling-Plus-Base beroperasi dalam liga yang setanding dengan model global terkemuka yang lain. Walau bagaimanapun, pembeza utama ialah perkakasan yang menyokong latihannya. Menurut penemuan penyelidikan, model berkuasa ini boleh dipupuk sehingga matang pada apa yang digambarkan oleh pasukan sebagai ‘peranti berprestasi rendah’. Frasa yang dipilih dengan teliti ini secara langsung menunjuk ke arah penggunaan unit pemprosesan yang berada di luar skop sekatan eksport AS, yang secara kuat membayangkan penggunaan cip yang direka dan dihasilkan di China.

Perkembangan ini lebih daripada sekadar penyelesaian teknikal; ia mewakili potensi pangsi strategik. Dengan menunjukkan keupayaan untuk melatih model terkini tanpa bergantung secara eksklusif pada perkakasan asing peringkat tertinggi yang disekat, Ant Group bukan sahaja mengurangkan risiko rantaian bekalan tetapi juga berpotensi membuka kunci kecekapan kos yang ketara.

Persamaan Ekonomi: Mengurangkan Kos Latihan

Salah satu angka yang paling menarik yang muncul daripada penyelidikan pasukan Ling ialah laporan pengurangan 20 peratus dalam kos pengkomputeran semasa fasa pra-latihan kritikal model Ling-Plus-Base. Pra-latihan terkenal sebagai intensif sumber, melibatkan pemberian set data yang luas kepada model untuk mempelajari corak bahasa, konteks, dan pengetahuan. Ia merupakan sebahagian besar daripada perbelanjaan keseluruhan yang berkaitan dengan pembangunan LLM asas. Oleh itu, mencapai pengurangan kos satu perlima dalam fasa ini diterjemahkan kepada penjimatan yang besar, berpotensi membebaskan modal untuk penyelidikan lanjut, pembangunan, atau penggunaan pada skala besar.

Bagaimanakah penjimatan kos ini dicapai? Walaupun kertas itu tidak memperincikan pecahan kos yang tepat, beberapa faktor mungkin menyumbang:

  1. Perolehan Perkakasan: GPU yang dihasilkan di dalam negara, walaupun kurang berkuasa secara individu berbanding tawaran teratas Nvidia, mungkin datang pada harga pembelian yang lebih rendah atau menawarkan diskaun volum yang lebih baik dalam pasaran China, terutamanya memandangkan bekalan cip Nvidia mewah yang terhad.
  2. Kecekapan Tenaga: Walaupun tidak dinyatakan secara eksplisit, mengoptimumkan latihan untuk cip domestik yang berpotensi kurang menggunakan kuasa (walaupun mungkin kurang berprestasi per unit) boleh menyumbang kepada kos tenaga operasi yang lebih rendah, faktor penting dalam menjalankan pusat data yang besar.
  3. Pengoptimuman Algoritma dan Seni Bina: Penggunaan seni bina MoE itu sendiri adalah kunci. Model MoE hanya mengaktifkan sub-rangkaian ‘pakar’ tertentu untuk input yang diberikan, bukannya melibatkan keseluruhan model seperti seni bina padat. Kejarangan yang wujud ini dapat mengurangkan beban pengkomputeran dengan ketara semasa latihan dan inferens, menjadikannya mungkin untuk mencapai hasil yang baik walaupun dengan kuasa pemprosesan mentah per cip yang kurang. Kejayaan Ant mencadangkan perisian canggih dan penalaan algoritma untuk memaksimumkan kecekapan perkakasan domestik yang tersedia.

Pengurangan kos ini bukan sekadar faedah perakaunan; ia menurunkan halangan kemasukan untuk membangunkan model berskala besar dan boleh mempercepatkan kadar inovasi AI dalam syarikat dan berpotensi merentasi ekosistem teknologi China yang lebih luas jika kaedah tersebut terbukti boleh direplikasi.

Pariti Prestasi: Merapatkan Jurang Perkakasan?

Penjimatan kos memang menarik, tetapi ia tidak bermakna jika model AI yang terhasil menunjukkan prestasi yang jauh lebih rendah. Pasukan Ling Ant menangani perkara ini secara langsung, menegaskan bahawa Ling-Plus-Base mencapai prestasi yang setanding dengan model lain yang dihormati dalam bidang ini. Secara khusus, mereka menanda aras ciptaan mereka terhadap model seperti Qwen2.5-72B-Instruct (dibangunkan oleh syarikat induk Alibaba) dan DeepSeek-V2.5-1210-Chat, satu lagi LLM China yang terkemuka.

Dakwaan ‘prestasi setanding’ walaupun menggunakan ‘peranti berprestasi rendah’ adalah penting. Ia menunjukkan bahawa Ant berpotensi telah menemui cara yang berkesan untuk mengimbangi sebarang defisit pengkomputeran mentah melalui:

  • Seni Bina Model Lanjutan: Reka bentuk MoE memainkan peranan penting di sini, mengagihkan beban kerja dengan cekap.
  • Pengoptimuman Perisian: Menyesuaikan tindanan perisian latihan (seperti rangka kerja paralelisasi dan perpustakaan berangka) khusus untuk seni bina GPU domestik yang digunakan adalah penting. Ini sering melibatkan usaha kejuruteraan yang signifikan.
  • Kurasi Data dan Teknik Latihan: Kaedah canggih untuk memilih data latihan dan memperhalusi proses latihan itu sendiri boleh memberi kesan ketara kepada kualiti model akhir, kadang-kadang mengimbangi batasan perkakasan.

Adalah penting untuk mendekati tuntutan prestasi dengan nuansa. ‘Setanding’ boleh merangkumi pelbagai hasil merentasi pelbagai penanda aras (cth., pemahaman bahasa, penaakulan, penjanaan, pengekodan). Tanpa akses kepada hasil penanda aras terperinci merentasi pelbagai ujian standard, perbandingan yang tepat masih mencabar. Walau bagaimanapun, penegasan itu sendiri menandakan keyakinan Ant bahawa pendekatannya tidak memerlukan pertukaran yang melumpuhkan antara kos/kebolehcapaian dan keupayaan. Ia menunjukkan laluan untuk mengekalkan daya saing walaupun dalam kekangan yang dikenakan oleh sekatan perkakasan.

Para penyelidik sendiri menonjolkan implikasi yang lebih luas: ‘Hasil ini menunjukkan kebolehlaksanaan melatih model MoE berskala besar yang terkini pada perkakasan yang kurang berkuasa, membolehkan pendekatan yang lebih fleksibel dan kos efektif untuk pembangunan model asas berkenaan dengan pemilihan sumber pengkomputeran.’ Ini menunjuk ke arah sejenis pendemokrasian, membolehkan pembangunan AI termaju diteruskan walaupun akses kepada puncak mutlak kuasa pemprosesan adalah terhad.

Memahami Kelebihan Mixture-of-Experts (MoE)

Seni bina Mixture-of-Experts (MoE) adalah pusat kepada kejayaan yang dilaporkan oleh Ant Group. Ia mewakili penyimpangan daripada model rangkaian neural ‘padat’ tradisional di mana setiap input mengaktifkan setiap parameter. Dalam model MoE:

  • Model ini terdiri daripada banyak rangkaian ‘pakar’ yang lebih kecil dan khusus.
  • Mekanisme ‘rangkaian get’ atau ‘penghala’ belajar untuk mengarahkan data masuk (token, dalam kes LLM) kepada pakar yang paling relevan untuk diproses.
  • Hanya pakar yang dipilih – selalunya hanya satu atau dua daripada berpotensi ratusan – melakukan pengiraan untuk bahagian data tertentu itu.

Pendekatan ini menawarkan beberapa kelebihan utama, terutamanya relevan dalam konteks kekangan perkakasan:

  1. Kebolehskalaan: MoE membolehkan model berkembang kepada kiraan parameter yang sangat besar (trilion menjadi mungkin) tanpa peningkatan berkadar dalam kos pengkomputeran untuk memproses setiap token input semasa inferens atau bahkan semasa langkah latihan. Ini kerana hanya sebahagian kecil daripada jumlah parameter yang aktif pada bila-bila masa.
  2. Kecekapan Latihan: Walaupun melatih model MoE mempunyai kerumitannya sendiri (seperti pengimbangan beban merentasi pakar), pengurangan pengiraan per token boleh diterjemahkan kepada masa latihan yang lebih cepat atau, seperti yang ditunjukkan oleh Ant, keupayaan untuk melatih dengan berkesan pada perkakasan yang kurang berkuasa dalam jangka masa yang munasabah.
  3. Pengkhususan: Setiap pakar berpotensi mengkhusus dalam pelbagai jenis data, tugas, atau domain pengetahuan, berpotensi membawa kepada output berkualiti tinggi dalam bidang tertentu.

Makmal AI terkemuka di seluruh dunia telah menerima pakai MoE, termasuk Google (GShard, Switch Transformer), Mistral AI (model Mixtral), dan di China, syarikat seperti DeepSeek dan Alibaba (yang model Qwennya menggabungkan elemen MoE). Ling-Plus-Base Ant dengan tegas meletakkannya dalam barisan hadapan ini, memanfaatkan inovasi seni bina untuk menavigasi realiti perkakasan.

Ekosistem Perkakasan Domestik: Mengisi Kekosongan Nvidia

Walaupun kertas penyelidikan Ant menahan diri daripada menamakan perkakasan yang digunakan secara eksplisit, laporan seterusnya, terutamanya oleh Bloomberg, menunjukkan bahawa pencapaian itu melibatkan cip yang direka bentuk di dalam negara. Ini termasuk pemproses yang berpotensi berasal dari ahli gabungan Ant, Alibaba, yang mempunyai unit reka bentuk cipnya sendiri T-Head (menghasilkan CPU seperti Yitian 710 dan sebelum ini meneroka pemecut AI), dan yang penting, Huawei Technologies.

Huawei, walaupun menghadapi sekatan AS yang sengit, telah secara agresif membangunkan siri pemecut AI Ascend (seperti Ascend 910B) sebagai alternatif langsung kepada tawaran Nvidia dalam pasaran China. Cip ini dilaporkan sedang diguna pakai oleh firma teknologi utama China. Keupayaan Ant Group untuk menggunakan perkakasan sedemikian dengan berkesan untuk model sebesar Ling-Plus-Base akan mewakili pengesahan penting bagi alternatif domestik ini.

Adalah penting untuk diperhatikan bahawa Ant Group tidak sepenuhnya meninggalkan Nvidia. Laporan mencadangkan bahawa cip Nvidia kekal sebagai sebahagian daripada kit alat pembangunan AI Ant, mungkin digunakan untuk tugas di mana ciri prestasi khusus mereka atau ekosistem perisian matang (seperti CUDA) menawarkan kelebihan, atau untuk sistem legasi. Langkah itu tidak semestinya mengenai penggantian sepenuhnya semalaman tetapi mengenai membina laluan selari yang berdaya maju yang mengurangkan kelemahan strategik dan mengawal kos. Pendekatan hibrid ini membolehkan syarikat memanfaatkan alat terbaik yang tersedia sambil memupuk kebebasan. Ant Group sendiri mengekalkan tahap budi bicara korporat, enggan mengulas secara rasmi mengenai cip khusus yang digunakan.

Trend Lebih Luas: Dorongan Kolektif China untuk Berdikari AI

Inisiatif Ant Group tidak berlaku secara terpencil. Ia mencerminkan dorongan strategik yang lebih luas di seluruh sektor teknologi China untuk berinovasi mengatasi batasan yang dikenakan oleh kawalan eksport AS. ‘Perang teknologi’ telah memangkin usaha untuk mencapai kebebasan yang lebih besar dalam teknologi kritikal, terutamanya semikonduktor dan AI.

Pemain utama lain sedang mengejar matlamat yang sama:

  • ByteDance: Syarikat induk TikTok juga dilaporkan berusaha untuk mendapatkan dan menggunakan cip alternatif, termasuk pilihan domestik, untuk cita-cita AI-nya, yang merangkumi algoritma cadangan, AI generatif, dan banyak lagi.
  • DeepSeek: Syarikat pemula AI ini, yang terkenal dengan model sumber terbukanya yang berkuasa, secara eksplisit menyebut kecekapan latihan dan telah membangunkan model menggunakan seni bina MoE, sejajar dengan strategi yang kurang bergantung pada memiliki armada besar hanya GPU yang paling berkuasa.
  • Baidu, Tencent, dan lain-lain: Semua syarikat awan dan teknologi utama China melabur secara besar-besaran dalam AI dan tidak dapat dielakkan meneroka strategi kepelbagaian perkakasan, termasuk mengoptimumkan untuk cip domestik dan berpotensi membangunkan silikon tersuai mereka sendiri.

Mesej kolektifnya jelas: walaupun akses kepada produk peringkat teratas Nvidia tetap diingini, industri teknologi China secara aktif membangunkan dan mengesahkan penyelesaian alternatif. Ini melibatkan pendekatan pelbagai serampang: menerima pakai seni bina model yang cekap seperti MoE, pengoptimuman perisian yang intensif untuk backend perkakasan yang berbeza, dan menyokong pembangunan dan penggunaan cip yang dihasilkan di dalam negara.

Melangkaui Model Bahasa: Pengembangan AI Ant dalam Penjagaan Kesihatan

Usaha AI Ant Group melangkaui LLM asas. Serentak dengan berita mengenai kecekapan latihannya, syarikat itu mendedahkan peningkatan ketara kepada rangkaian penyelesaian AI yang disesuaikan untuk sektor penjagaan kesihatan. Inisiatif ini memanfaatkan model AI berpusatkan penjagaan kesihatan yang berbeza dan dibangunkan sendiri.

Penyelesaian yang dinaik taraf menampilkan keupayaan multimodal (memproses pelbagai jenis data seperti teks, imej, dan berpotensi data perubatan lain) dan penaakulan perubatan yang canggih. Ini disepadukan ke dalam apa yang digambarkan oleh Ant sebagai ‘mesin semua-dalam-satu’, mungkin peranti atau platform yang direka untuk tetapan klinikal atau pengurusan kesihatan.

Walaupun kelihatan berasingan daripada berita LLM Ling-Plus-Base, terdapat potensi hubungan asas. Keupayaan untuk melatih model AI yang berkuasa dengan lebih kos efektif, berpotensi menggunakan campuran perkakasan termasuk pilihan domestik, boleh menyokong daya maju ekonomi untuk membangunkan dan menggunakan model khusus untuk sektor seperti penjagaan kesihatan. Menurunkan kos asas pembangunan AI membolehkan sumber disalurkan ke dalam aplikasi khusus domain, berpotensi mempercepatkan pelancaran alat AI praktikal dalam industri kritikal. Dorongan penjagaan kesihatan ini menggariskan cita-cita Ant untuk menerapkan kepakaran AI-nya secara meluas, bergerak melangkaui akar teknologi kewangannya.

Implikasi untuk Masa Depan: Persimpangan Jalan dalam AI?

Kejayaan latihan Ant Group bagi model MoE berskala besar menggunakan GPU bukan Nvidia, kemungkinan domestik, membawa implikasi penting:

  • Pengesahan untuk Cip Domestik: Ia berfungsi sebagai bukti penting untuk kebolehlaksanaan pemecut AI rekaan China seperti Ascend Huawei, berpotensi meningkatkan penggunaannya di China.
  • Landskap Kompetitif: Ia menunjukkan bahawa syarikat China boleh kekal berdaya saing dalam pembangunan AI termaju walaupun terdapat sekatan, memanfaatkan inovasi seni bina dan perisian.
  • Dinamik Kos: Pengurangan kos 20% menonjolkan potensi kelebihan daya saing bagi syarikat yang mampu menggunakan perkakasan alternatif dengan berkesan, berpotensi mempengaruhi harga dan kebolehcapaian AI global.
  • Kedudukan Nvidia: Walaupun Nvidia kekal dominan di peringkat global, trend ini menggariskan cabaran yang dihadapinya dalam pasaran China yang signifikan disebabkan oleh peraturan dan kebangkitan pesaing tempatan. Ia mungkin mempercepatkan pembangunan cip patuh eksport Nvidia yang disesuaikan untuk China, tetapi juga mengesahkan laluan alternatif.
  • Pemisahan Teknologi?: Dalam jangka panjang, perbezaan berterusan dalam akses perkakasan dan pengoptimuman perisian boleh membawa kepada ekosistem AI yang sebahagiannya berbeza, dengan model dan alat dioptimumkan untuk silikon asas yang berbeza.

Perjalanan yang ditempuhi oleh pasukan Ling Ant Group melambangkan kepintaran yang didorong oleh kekangan geopolitik. Dengan menggabungkan seni bina model termaju seperti MoE secara bijak dengan kesediaan untuk mengoptimumkan dan menggunakan perkakasan domestik yang tersedia, mereka telah merangka laluan yang memastikan kemajuan berterusan dalam bidang kritikal kecerdasan buatan, berpotensi membentuk semula struktur kos dan kebergantungan strategik yang mentakrifkan industri. Ia adalah bukti kepada idea bahawa inovasi sering berkembang paling pesat di bawah tekanan.