Beberapa isu yang membelenggu DeepSeek, model AI buatan China, telah menarik perhatian ramai pihak, terutamanya selepas kritikan yang dilontarkan oleh Robin Li, Pengerusi dan CEO Baidu. Walaupun model ini pada awalnya dipuji kerana potensinya, Li menyuarakan keraguan yang mendalam mengenai keupayaan sebenar DeepSeek semasa Persidangan Pembangun AI Baidu pada 25 April. Antara isu utama yang dibangkitkan termasuklah batasan dalam memproses pelbagai format media, prestasi yang perlahan, kos operasi yang tinggi, dan kecenderungan untuk menjana maklumat yang tidak tepat, menjadikannya tidak boleh dipercayai untuk penggunaan yang meluas.
Debut Kontroversi DeepSeek
Menurut laporan daripada Guancha.cn dan Sina.com, Li menekankan landskap yang sentiasa berubah bagi model AI berskala besar semasa persidangan tersebut. Beliau menyoroti persaingan sengit di kalangan pembangun model, sering digambarkan sebagai ‘perlumbaan tikus,’ dan kekeliruan serta keraguan yang timbul dalam kalangan pembangun untuk mencipta aplikasi dengan yakin.
Li menegaskan bahawa ‘Tanpa aplikasi, cip dan model tidak bernilai.’ Beliau menunjukkan kos yang tinggi dan tidak praktikal dalam menggunakan model berskala besar semasa sebagai halangan utama bagi pembangun yang ingin membina aplikasi AI.
DeepSeek, sebuah syarikat permulaan yang berpangkalan di Hangzhou, China, melancarkan model penaakulan sumber terbukanya, R1, pada bulan Januari. Pada masa itu, media kerajaan memuji DeepSeek sebagai mengatasi pesaing seperti OpenAI. Walau bagaimanapun, siasatan seterusnya oleh pengguna dan penyelidik mendedahkan kekurangan, kerentanan keselamatan dan potensi risiko. Banyak kerajaan, termasuk Taiwan, Jepun, Korea Selatan, Amerika Syarikat, Kanada, Itali, Australia, dan Belanda, bersama-sama dengan ratusan syarikat, telah melarang penggunaan DeepSeek pada peranti kerajaan dan korporat.
Pada 8 Februari, pakar keselamatan AI berkongsi hasil ujian keselamatan mendalam ke atas DeepSeek dengan media. Mereka mendapati bahawa DeepSeek lebih mudah terdedah kepada ‘jailbreaking’ berbanding ChatGPT, Gemini dan Claude. Kerentanan ini membolehkan pengguna memintas sekatan keselamatan asal AI, menjadikannya lebih mudah untuk mendapatkan kandungan yang berpotensi berbahaya, memudaratkan atau menyalahi undang-undang.
Pada bulan Mac, ‘Luchen Technology,’ sebuah syarikat infrastruktur AI yang mempunyai hubungan dengan Universiti Tsinghua, yang merupakan antara yang pertama menyepadukan model DeepSeek untuk menyediakan API dan perkhidmatan cermin awan, mengumumkan penggantungan perkhidmatan berkaitan. Pengasas syarikat itu, You Yang, mendedahkan dalam satu hantaran bahawa kos sebenar yang berkaitan dengan DeepSeek adalah jauh lebih tinggi daripada kos teori. Berikutan tindak balas dalam talian, beliau secara terbuka menyatakan bahawa DeepSeek tidak boleh beroperasi tanpa menggunakan teknologi Amerika dalam jangka pendek, mempersoalkan mengapa realiti ini tidak boleh diakui secara terbuka.
Menurut laporan oleh Sina Technology pada 4 Mac, DeepSeek mengumumkan margin keuntungan kos teori sebanyak 545% untuk sistem dalam taliannya pada 1 Mac pada 17:02. Selepas itu, Luchen Technology mengumumkan bahawa ia akan menghentikan penyediaan perkhidmatan API DeepSeek dalam masa seminggu, menggesa pengguna untuk menggunakan baki mereka yang tinggal.
Laporan itu menyatakan bahawa Luchen Technology tidak mendedahkan secara terbuka sebab khusus untuk menghentikan perkhidmatan API DeepSeek. Walau bagaimanapun, analisis meluas pengasas mengenai kos DeepSeek pada platform seperti Zhihu mencadangkan bahawa kos adalah faktor utama dalam keputusan untuk berhenti menyediakan perkhidmatan API.
Kebimbangan Terhadap Keselamatan Negara
Hubungan antara DeepSeek dan kerajaan China berpotensi lebih langsung daripada yang difikirkan pada mulanya. Feroot Security, sebuah firma keselamatan siber Kanada, menemui hubungan yang ketara antara halaman log masuk laman web DeepSeek dan China Mobile, sebuah syarikat milik kerajaan China yang sebelum ini dikenakan sekatan oleh kerajaan AS.
Dalam beberapa bulan kebelakangan ini, kebimbangan terhadap keselamatan negara telah membawa kepada peningkatan gesaan untuk melarang DeepSeek.
Pada 24 April, beberapa ahli Dewan Perwakilan AS menghantar surat kepada DeepSeek, menyatakan kebimbangan tentang hubungan syarikat itu dengan Parti Komunis China (PKC) dan meminta maklumat mengenai data AS yang digunakan untuk melatih model AInya.
Wakil Brett Guthrie, Pengerusi Jawatankuasa Tenaga dan Perdagangan Dewan, dan Wakil Gus Bilirakis, Pengerusi Subjawatankuasa Inovasi, Data dan Perdagangan, bersama-sama dengan sepuluh ahli subjawatankuasa yang lain, mengemukakan surat kepada DeepSeek yang menyatakan kebimbangan tentang ‘pengumpulan data peribadi rakyat Amerika’ dan risiko keselamatan negara yang berkaitan.
Dalam surat itu, Guthrie dan Bilirakis menyatakan bahawa ‘DeepSeek mengakui menghantar data peribadi pengguna Amerika ke pelayan di China, di mana maklumat itu pasti akan diakses oleh pegawai yang bergabung dengan Parti Komunis China. Kami bimbang bahawa hubungan agensi ini dengan musuh utama kami membahayakan data dan keselamatan negara kita.
‘Untuk memastikan bahawa pengguna Amerika dan perniagaan mereka dilindungi daripada campur tangan asing, kami melancarkan siasatan ke atas DeepSeek dan ancaman yang ditimbulkannya kepada negara kita.’
Surat itu selanjutnya menyatakan, ‘Menurut laporan media, syarikat itu juga berkongsi maklumat peribadi pengguna dengan entiti lain yang bergabung dengan Parti Komunis China, termasuk ByteDance.
‘Pada masa yang sama, penyelidik telah menemui kerentanan kritikal dalam kawalan keselamatan dan perlindungan model DeepSeek yang dikatakan. Sebagai tindak balas kepada risiko ini, semakin banyak negeri, termasuk New York, Texas dan Virginia, telah melarang penggunaan DeepSeek pada peranti kerajaan, dan peguam negara telah menyeru untuk larangan yang lebih luas.’
Pada 16 April, Jawatankuasa Pilihan Dewan AS mengenai Parti Komunis China mengeluarkan laporan yang menekankan bahawa DeepSeek menimbulkan ancaman yang ketara kepada keselamatan negara AS. Laporan itu menuduh DeepSeek mengumpul data pengguna untuk PKC dan secara diam-diam memanipulasi keputusan, menjadi alat terbaharu untuk PKC untuk mencantikkan dirinya, memantau warga asing, dan mencuri serta menjejaskan sekatan kawalan eksport AS.
Laporan itu menegaskan bahawa walaupun DeepSeek mungkin kelihatan seperti chatbot AI lain yang menyediakan cara kepada pengguna untuk menjana teks dan menjawab soalan, pemeriksaan yang lebih teliti mendedahkan bahawa DeepSeek secara diam-diam menghantar data peribadi yang diperoleh kepada China Mobile, yang mempunyai hubungan dengan tentera China, mewujudkan kerentanan keselamatan untuk pengguna. AS telah pun menghalang China Mobile daripada beroperasi di Amerika Syarikat.
Analisis Mendalam Tentang Kelemahan Yang Didakwa DeepSeek
Walaupun gembar-gembur awal di sekeliling DeepSeek menggambarkan gambaran keajaiban AI yang bersedia untuk merevolusikan pelbagai sektor, penelitian yang lebih teliti telah mendedahkan realiti yang lebih bernuansa dan kompleks. Kebimbangan yang dibangkitkan oleh CEO Baidu, Robin Li, dan siasatan seterusnya oleh pakar keselamatan siber dan badan kerajaan, menyoroti beberapa bidang kritikal di mana DeepSeek gagal memenuhi jangkaan dan menimbulkan potensi risiko.
Keupayaan Multimodal Terhad
Salah satu kritikan utama yang dilemparkan terhadap DeepSeek ialah keupayaannya yang terhad untuk memproses kandungan multimodal. Tidak seperti model AI yang lebih maju yang boleh menyepadukan dan memahami pelbagai bentuk data dengan lancar, termasuk teks, imej, audio dan video, DeepSeek dilaporkan bergelut untuk memahami apa-apa di luar input teks asas. Batasan ini menyekat dengan ketara kebolehgunaannya dalam senario dunia sebenar di mana maklumat sering dibentangkan dalam gabungan format. Sebagai contoh, DeepSeek mungkin bergelut untuk menganalisis hantaran media sosial yang merangkumi kedua-dua teks dan imej, atau untuk menyalin dan memahami persidangan video.
Isu Prestasi: Kelajuan dan Kos
Di sebalik batasannya dalam mengendalikan media yang pelbagai, DeepSeek juga menghadapi cabaran yang berkaitan dengan prestasinya. Menurut Robin Li, model ini dicirikan oleh kelajuannya yang ‘perlahan’ dan kosnya yang ‘tinggi’, menjadikannya kurang menarik kepada pembangun yang ingin membina aplikasi AI yang berskala dan kos efektif. Sumber pengkomputeran yang tinggi yang diperlukan untuk menjalankan DeepSeek boleh diterjemahkan kepada perbelanjaan yang ketara untuk perniagaan, terutamanya yang mempunyai penggunaan berskala besar. Selain itu, kelajuan pemprosesan yang perlahan boleh menghalang aplikasi masa nyata, seperti chatbot atau pembantu maya, di mana responsif adalah penting untuk pengalaman pengguna yang positif.
Masalah ‘Kadar Halusinasi’
Satu lagi kebimbangan utama yang menyelubungi DeepSeek ialah ‘kadar halusinasi’ yang tinggi, merujuk kepada kecenderungan model untuk menjana maklumat yang tidak tepat atau tidak masuk akal. Isu ini menimbulkan cabaran yang ketara untuk aplikasi yang memerlukan output yang boleh dipercayai dan dipercayai. Dalam domain kritikal, seperti penjagaan kesihatan atau kewangan, di mana ketepatan adalah terpenting, risiko DeepSeek menghasilkan maklumat palsu atau mengelirukan boleh membawa akibat yang serius. ‘Kadar halusinasi’ menjejaskan kredibiliti model dan mengehadkan kebolehgunaannya dalam konteks sensitif.
Kerentanan Keselamatan dan Jailbreaking
Pendedahan bahawa DeepSeek lebih mudah terdedah kepada ‘jailbreaking’ daripada model AI terkemuka yang lain menimbulkan kebimbangan keselamatan yang ketara. ‘Jailbreaking’ merujuk kepada proses memintas sekatan keselamatan AI untuk mendapatkan kandungan yang berbahaya, tidak beretika atau menyalahi undang-undang. Hakikat bahawa DeepSeek boleh dimanipulasi dengan lebih mudah dengan cara ini menunjukkan kelemahan dalam seni bina keselamatan asasnya. Kerentanan ini boleh dieksploitasi oleh pelakon berniat jahat untuk menjana maklumat salah, menyebarkan propaganda, atau terlibat dalam aktiviti berbahaya yang lain.
Privasi Data dan Risiko Keselamatan Negara
Hubungan yang didakwa antara DeepSeek dan kerajaan China, terutamanya amalan perkongsian datanya dengan China Mobile, telah mencetuskan penggera tentang privasi data dan keselamatan negara. Penghantaran data peribadi pengguna Amerika ke pelayan di China, di mana ia boleh diakses oleh pegawai yang bergabung dengan PKC, menimbulkan kebimbangan serius tentang potensi pengawasan, pengintipan dan kompromi maklumat sensitif. Pemeriksaan kerajaan AS terhadap DeepSeek menggariskan kesedaran yang semakin meningkat tentang potensi risiko yang berkaitan dengan model AI yang dibangunkan oleh entiti asing yang mempunyai hubungan rapat dengan kerajaan musuh.
Implikasi Yang Lebih Luas
Kebimbangan di sekeliling DeepSeek melangkaui batasan dan kerentanan khusus model AI tertentu ini. Ia mencerminkan cabaran dan risiko yang lebih luas yang berkaitan dengan pembangunan dan penggunaan teknologi AI yang pesat. Kes DeepSeek menyoroti kepentingan:
- Ujian dan Penilaian Rapi: Ujian dan penilaian yang teliti adalah penting untuk mengenal pasti dan menangani potensi kelemahan, berat sebelah dan kerentanan keselamatan dalam model AI sebelum ia digunakan secara meluas.
- Ketelusan dan Akauntabiliti: Pembangun harus telus tentang data yang digunakan untuk melatih model mereka dan algoritma yang mereka gunakan. Mereka juga harus bertanggungjawab terhadap output dan akibat sistem AI mereka.
- Privasi Data dan Perlindungan Keselamatan: Privasi data dan langkah keselamatan yang kukuh diperlukan untuk melindungi maklumat peribadi pengguna daripada akses, penyalahgunaan atau eksploitasi tanpa kebenaran.
- Kerjasama Antarabangsa: Kerjasama antarabangsa adalah penting untuk mewujudkan piawaian dan peraturan biasa untuk pembangunan dan penggunaan AI, memastikan bahawa teknologi ini digunakan secara bertanggungjawab dan beretika.
- Pemikiran Kritis dan Celik Media: Pengguna harus digalakkan untuk menilai secara kritis maklumat yang dijana oleh model AI dan untuk membangunkan kemahiran celik media untuk membezakan antara kandungan yang tepat dan mengelirukan.
Kontroversi DeepSeek berfungsi sebagai kisah amaran, mengingatkan kita bahawa usaha inovasi AI mesti diseimbangkan dengan pertimbangan yang teliti terhadap potensi risiko dan implikasi masyarakat.