Tantangan DeepSeek
Peluncuran DeepSeek-R1 pada bulan Januari memicu minat yang besar di kalangan komunitas teknologi. Model bahasa Mandarin sebelumnya, seperti Ernie dari Baidu dan Doubao dari ByteDance, menunjukkan potensi dalam aplikasi bahasa Mandarin, matematika, dan pengkodean, tetapi terbatas oleh kemampuan bahasa Inggris yang lebih lemah dan aksesibilitas yang terbatas. Namun, DeepSeek-R1 menandai tonggak penting sebagai LLM Mandarin pertama yang mendapatkan pengakuan internasional.
Salah satu aspek yang paling mencolok dari DeepSeek-R1 adalah biaya pengembangannya yang dilaporkan rendah. Berbeda dengan GPT-4o dari OpenAI, yang diduga menelan biaya lebih dari US$100 juta untuk pelatihan, para peneliti DeepSeek mengklaim chatbot mereka dikembangkan hanya dengan US$5,6 juta. Lebih lanjut memperkuat narasi efisiensi, para insinyur DeepSeek melatih model R1 menggunakan CPU kelas menengah seperti Nvidia H800, daripada chip kelas atas yang digunakan dalam model seperti GPT-4o atau Claude dari Anthropic. Meskipun ada pembatasan AS pada ekspor chip berkinerja tinggi ke Tiongkok, DeepSeek-R1 berhasil mengungguli bot terkemuka lainnya hanya dengan menggunakan 2.048 prosesor yang tersebar di 256 server.
Efisiensi luar biasa dan biaya pengembangan yang lebih rendah ini sebagian besar disebabkan oleh teknik pemrograman yang canggih, termasuk PTX, bahasa seperti assembly yang memungkinkan pengembang untuk menyempurnakan kinerja dan memaksimalkan penggunaan perangkat keras.
Tak lama setelah dirilis, aplikasi DeepSeek-R1 melonjak ke puncak peringkat unduhan gratis App Store Apple AS, melampaui ChatGPT, TikTok, dan platform media sosial Meta. Nasdaq mengalami penurunan, dan saham Nvidia anjlok setelah debut DeepSeek-R1.
Mempertanyakan Klaim DeepSeek
Meskipun antusiasme awal, banyak pengamat telah mengajukan pertanyaan tentang validitas klaim DeepSeek mengenai LLM-nya. Analis menduga bahwa angka yang disebutkan kemungkinan hanya memperhitungkan biaya komputasi, sementara mengecualikan atau meremehkan biaya infrastruktur, perangkat keras, dan sumber daya manusia.
Wesley Kuo, pendiri dan CEO Ubitus, penyedia layanan AI generatif dan cloud gaming yang berbasis di Taipei, menyuarakan kekhawatiran ini, menyatakan bahwa biaya sebenarnya kemungkinan jauh lebih tinggi daripada yang dilaporkan. Ubitus, dengan dukungan dari Nvidia, mendukung Project TAME, LLM lokal yang menggunakan karakter tradisional Tiongkok. Mereka menyediakan CPU H100 dan data game. Ubitus juga bekerja sama dengan Foxlink dan Shinfox Energy untuk mendirikan Ubilink.AI, membangun pusat layanan superkomputer AI bertenaga energi hijau terbesar di Taiwan bekerja sama dengan Asus.
Kuo menekankan keterlibatan perusahaan dalam mengembangkan aplikasi dan model LLM untuk pemerintah, termasuk pemerintah Jepang, di berbagai sektor seperti game, pariwisata, dan ritel, menyoroti potensi AI untuk mengatasi kekurangan tenaga kerja dan populasi yang menua.
Kekhawatiran Integritas Data
Kuo sejalan dengan OpenAI dan Microsoft dalam menduga bahwa DeepSeek mungkin telah memperoleh data melalui distilasi model. Proses ini melibatkan pelatihan model bahasa yang lebih kecil untuk meniru keluaran model yang lebih besar. OpenAI dan Microsoft menuduh bahwa DeepSeek menggunakan antarmuka pemrograman aplikasi OpenAI untuk memfasilitasi pengembangannya.
Kuo menegaskan bahwa DeepSeek memperoleh data dari OpenAI dan bahwa ada kesalahpahaman seputar klaim perusahaan tentang efisiensi. Dia menunjukkan bahwa DeepSeek-R1, dengan 670 miliar parameter, secara signifikan lebih besar daripada Llama 3.1 405B dari Meta AI. Parameter adalah nilai numerik internal yang dipelajari model selama pelatihan untuk membuat prediksi. Kuo juga menduga bahwa model DeepSeek mungkin telah didistilasi dari Llama 3.1.
Di luar bantahan ini, kekhawatiran juga muncul mengenai kemampuan DeepSeek-R1. Para ahli menduga bahwa, seperti pendahulunya, R1 unggul dalam fungsi khusus yang spesifik untuk tugas tetapi tertinggal dari versi GPT-4o dalam kinerja tujuan umum.
Keterbatasan utama model DeepSeek adalah pembatasan pada akses gratis ke informasi. Pengguna menemukan bahwa pertanyaan tentang topik politik sensitif dijawab dengan jawaban yang menghindar. Pada topik seperti status minoritas Uyghur Xinjiang dan Taiwan, tanggapan DeepSeek mencerminkan posisi resmi Partai Komunis Tiongkok. Penelitian menunjukkan bahwa sebagian besar keluaran DeepSeek disensor untuk menekan informasi terkait dengan demokrasi, hak asasi manusia, dan klaim kedaulatan Tiongkok yang diperebutkan.
Alternatif Taiwan: TAIDE dan Lainnya
Sebagai tanggapan, LLM yang dikembangkan di Taiwan, seperti TAME, telah muncul sebagai alternatif untuk DeepSeek di dalam Sinosphere. Trustworthy AI Dialogue Engine (TAIDE), yang diluncurkan pada Juni 2023 oleh National Institute of Applied Research, bertujuan untuk mengembangkan model yang selaras dengan norma sosial, budaya, dan linguistik Taiwan.
Meskipun pekerjaan pada TAIDE tampaknya telah terhenti, itu berfungsi sebagai tolok ukur penting untuk Project TAME. TAME, yang dikembangkan oleh Machine Intelligence and Understanding Laboratory (MiuLab) di National Taiwan University, dengan pendanaan dari berbagai organisasi, dilatih pada 500 miliar token. Itu mengungguli pesaing, termasuk GPT-4o, di 39 evaluasi, mencapai skor lebih tinggi pada ujian masuk universitas, bar, dan pengobatan tradisional Tiongkok.
Salah satu tujuan TAME adalah untuk mempromosikan budaya lokal. Membuka kemampuan bahasa lokal adalah langkah signifikan. Kuo menyebutkan pengembangan LLM suara Taiwan berdasarkan Whisper, yang telah mencapai hasil positif dalam memahami bahasa Taiwan lisan. Upaya sedang dilakukan untuk mengembangkan pengenalan bahasa Hakka.
Upaya ini telah diterima dengan baik oleh lembaga-lembaga di wilayah di mana bahasa-bahasa ini lazim. Ada juga upaya untuk melatih model dalam pengenalan bahasa asli, tetapi data terbatas tetap menjadi kendala. Melatih AI untuk mempelajari bahasa baru membutuhkan sejumlah besar rekaman suara yang dipasangkan dengan teks.
Mengakses data historis di arsip pemerintah menghadirkan peluang lain. Namun, beberapa data dilindungi oleh hak cipta. Munculnya kecerdasan umum buatan menawarkan potensi untuk membantu menghidupkan kembali bahasa-bahasa yang terancam punah dan punah.
Mengejar Kedaulatan AI
Persimpangan bahasa dan budaya menggarisbawahi pentingnya kedaulatan AI sebagai sarana untuk memperkuat identitas Taiwan, mengomunikasikan narasi Taiwan, dan melindungi lingkungan informasinya.
Julian Chu, seorang konsultan industri dan direktur di Market Intelligence & Consulting Institute (MIC), menekankan potensi bias dalam model LLM dan data pelatihan. Dia mencatat bahwa bahkan ketika menggunakan karakter tradisional, keluaran LLM dapat mencerminkan gaya Republik Rakyat Tiongkok dan gagal menangkap budaya Taiwan. Tujuannya adalah agar perusahaan Taiwan menggunakan bahasa atau data Taiwan untuk melatih LLM dan membangun kedaulatan AI.
Chu menyebutkan Formosa Foundation Model (FFM-Llama2) sebagai LLM Taiwan menjanjikan lainnya. Dirilis pada September 2023 oleh Taiwan Web Service, itu bertujuan untuk mendemokratisasi AI. Foxconn juga meluncurkan LLM-nya, FoxBrain, pada bulan Maret. Namun, beberapa komentator tetap skeptis tentang usaha perusahaan besar ke dalam LLM.
Lin Yen-ting, anggota tim MiuLab yang mengembangkan TAME, menekankan perlunya mengatasi kesenjangan dalam lingkungan informasi mengenai Taiwan. Dia mencatat bahwa DeepSeek-R1 dan LLM Tiongkok lainnya menyajikan pandangan yang menyimpang tentang Taiwan. Model yang dikembangkan di AS juga kadang-kadang dapat salah menggambarkan Taiwan. Model sumber terbuka mungkin tidak memprioritaskan Taiwan, dan data pelatihan didominasi oleh Tiongkok.
Oleh karena itu, penting untuk secara selektif menggabungkan konten Taiwan dan melatihnya kembali ke dalam model. Pendekatan proaktif ini memastikan bahwa lanskap budaya dan linguistik unik Taiwan terwakili secara akurat di ranah digital, membina rasa identitas nasional dan melestarikan warisannya yang berbeda dalam menghadapi perkembangan AI global. Dedikasi untuk melestarikan identitas Taiwan ini memastikan bahwa budaya dan nilai-nilai unik negara pulau itu tidak dibayangi oleh narasi dominan.
Tantangan yang melekat dalam upaya ini sangat besar. Membangun model AI yang benar-benar representatif membutuhkan investasi sumber daya yang signifikan, termasuk akses ke dataset konten lokal yang luas dan keahlian dalam pemrosesan bahasa alami. Selain itu, kebutuhan berkelanjutan untuk melawan disinformasi dan informasi yang bias memerlukan proses penyempurnaan dan adaptasi yang berkelanjutan.
Meskipun ada tantangan ini, komitmen Taiwan terhadap kedaulatan AI tetap teguh. Pengembangan TAME dan LLM lokal lainnya merupakan langkah penting untuk memastikan bahwa masa depan kecerdasan buatan mencerminkan identitas budaya, nilai-nilai demokrasi, dan komitmen yang tak tergoyahkan untuk melestarikan tempatnya yang berbeda di dunia. Dengan memprioritaskan kedaulatan AI, Taiwan tidak hanya menjaga warisan budayanya tetapi juga memposisikan dirinya sebagai pemain kunci dalam lanskap AI global, menunjukkan bahwa kemajuan teknologi dapat selaras dengan pelestarian identitas budaya dan prinsip-prinsip demokrasi.
Melanjutkan Perjalanan
Perjalanan menuju kedaulatan AI yang lengkap sedang berlangsung. Penelitian, pengembangan, dan kolaborasi lebih lanjut sangat penting untuk mengatasi tantangan dan memastikan keberhasilan jangka panjang dari inisiatif ini. Dengan terus memprioritaskan kedaulatan AI, Taiwan dapat menciptakan lanskap digital yang benar-benar mencerminkan identitas budaya dan nilai-nilai demokrasi yang unik, menetapkan contoh bagi negara-negara lain yang berjuang untuk mempertahankan tempat mereka yang berbeda di dunia yang semakin saling terhubung.