Model kecerdasan buatan (AI) baharu daripada syarikat permulaan China, DeepSeek, sedang menghadapi penelitian berikutan laporan daripada seorang pembangun tentang peningkatan penapisan, terutamanya apabila menyentuh topik sensitif berkaitan kerajaan China. Kritikan ini menyoroti cabaran berterusan dalam mengimbangkan keupayaan AI dengan prinsip kebebasan bersuara.
Kebimbangan Berhubung DeepSeek R1-0528
Kontroversi ini bermula apabila seorang pembangun, yang dikenali dalam talian sebagai “xlr8harder,” berkongsi pemerhatian di X mengenai DeepSeek R1-0528, model bahasa sumber terbuka yang baru dikeluarkan. Ujian pembangun mendedahkan penurunan ketara dalam kesediaan AI untuk membincangkan isu kebebasan bersuara yang kontroversi berbanding versi sebelumnya.
Menurut xlr8harder, model baharu ini mewakili “kemunduran besar bagi kebebasan bersuara.” Walaupun terdapat kritikan, pembangun mengakui sifat sumber terbuka model itu, yang membolehkan komuniti menangani isu penapisan.
Sekatan Model AI ke atas Topik Berkaitan China
Salah satu contoh utama yang dikongsi oleh pembangun melibatkan keengganan model AI untuk berhujah memihak kepada kem tahanan, terutamanya mengenai wilayah Xinjiang China. Model itu mengakui kewujudan pencabulan hak asasi manusia di rantau itu tetapi mengelakkan kritikan langsung terhadap kerajaan China.
Kem tahanan Xinjiang telah menjadi titik pertikaian yang ketara, dengan kumpulan hak asasi manusia, kerajaan dan wartawan mendokumentasikannya sebagai kemudahan tahanan untuk Muslim Uyghur dan etnik minoriti lain. Laporan telah muncul memperincikan buruh paksa, indoktrinasi dan penderaan di dalam kem ini.
Walaupun mengakui pelanggaran hak asasi manusia, model DeepSeek nampaknya mengelakkan kritikan langsung terhadap kerajaan China. Pembangun mendakwa bahawa model itu adalah versi “paling ditapis” dari segi respons yang mengkritik kerajaan China berdasarkan ujian penilaian penapisan.
Apabila ditanya secara langsung tentang kem tahanan Xinjiang, model AI memberikan ulasan tertapis, walaupun sebelum ini mengakui pelanggaran hak asasi manusia yang berlaku di kem tersebut.
"Menarik, walaupun tidak mengejutkan, bahawa ia dapat menghasilkan kem sebagai contoh pencabulan hak asasi manusia, tetapi menafikan apabila ditanya secara langsung," kata xlr8harder.
Tuntutan DeepSeek tentang Keupayaan yang Dipertingkatkan
Tuntutan penapisan itu muncul selepas pengumuman DeepSeek pada 29 Mei mengenai kemas kini model, yang mempromosikan keupayaan penaakulan dan inferens yang dipertingkatkan. DeepSeek mendakwa bahawa prestasi keseluruhan model menghampiri tahap model terkemuka seperti ChatGPT versi o3 OpenAI dan Gemini 2.5 Pro. Menurut syarikat itu, AI kini menawarkan logik, matematik dan kemahiran pengaturcaraan yang dipertingkatkan, dengan kadar halusinasi yang dikurangkan.
Implikasi Lebih Luas Penapisan AI
Kontroversi di sekeliling model AI DeepSeek menimbulkan soalan yang lebih luas tentang peranan AI dalam masyarakat dan potensi untuk penapisan. Memandangkan model AI menjadi lebih canggih dan disepadukan ke dalam pelbagai aspek kehidupan, isu berat sebelah dan penapisan menjadi semakin penting.
Keupayaan model AI untuk membentuk dan mempengaruhi pendapat umum adalah membimbangkan. Jika model AI diprogramkan untuk mengelakkan topik tertentu atau untuk memihak kepada sudut pandangan tertentu, ia berpotensi digunakan untuk memanipulasi atau mengawal maklumat.
Isu penapisan AI amat sensitif dalam konteks China, di mana kerajaan mempunyai sejarah menyekat kebebasan bersuara dan bersuara. Hakikat bahawa DeepSeek ialah sebuah syarikat China menimbulkan persoalan tentang sejauh mana kerajaan mungkin terlibat dalam dasar penapisan model AI.
Perspektif Alternatif tentang Penapisan AI
Adalah penting untuk mengakui bahawa terdapat perspektif yang berbeza mengenai isu penapisan AI. Sesetengah berpendapat bahawa perlu untuk menapis model AI untuk mengelakkannya daripada menjana kandungan yang berbahaya atau menyinggung perasaan. Yang lain berpendapat bahawa penapisan adalah cerun licin yang boleh membawa kepada penindasan kebebasan bersuara dan pengawalan maklumat.
Tidak ada jawapan mudah kepada soalan sama ada model AI harus ditapis atau tidak. Akhirnya, keputusan sama ada menapis model AI atau tidak bergantung pada konteks khusus dan potensi risiko serta faedah yang terlibat.
Masa Depan AI dan Kebebasan Bersuara
Kontroversi di sekeliling model AI DeepSeek menyoroti keperluan untuk dialog dan perdebatan berterusan tentang peranan AI dalam masyarakat dan potensi untuk penapisan. Memandangkan model AI terus berkembang, adalah penting untuk memastikan bahawa ia digunakan dengan cara yang menggalakkan kebebasan bersuara dan pertukaran idea yang terbuka.
Satu penyelesaian yang mungkin adalah untuk membangunkan model AI yang telus dan bertanggungjawab. Ini melibatkan menjadikan kod model AI dan data latihan tersedia secara umum supaya orang lain boleh meneliti mereka untuk berat sebelah dan penapisan. Ia juga melibatkan mewujudkan mekanisme untuk pengguna melaporkan dan mencabar contoh penapisan.
Satu lagi penyelesaian yang mungkin adalah untuk membangunkan model AI yang direka untuk menjadi neutral dan tidak berat sebelah. Ini melibatkan melatih model AI pada set data yang pelbagai dan mewakili serta melaksanakan algoritma yang menghalang model AI daripada memihak kepada sudut pandangan tertentu.
Akhirnya, masa depan AI dan kebebasan bersuara bergantung pada pilihan yang kita buat hari ini. Dengan melibatkan diri dalam dialog yang terbuka dan jujur, kita boleh memastikan bahawa AI digunakan dengan cara yang menggalakkan kebebasan bersuara dan pertukaran idea yang terbuka.
Cabaran Mengimbangi Pembangunan AI dan Pertimbangan Etika
Pembangunan teknologi AI berkembang pesat, tetapi ia juga membentangkan pertimbangan etika yang ketara. Salah satu cabaran paling mendesak ialah mengimbangi usaha inovasi teknologi dengan keperluan untuk melindungi hak asasi, seperti kebebasan bersuara.
Model AI dilatih pada sejumlah besar data, yang boleh mencerminkan berat sebelah dan prasangka yang sedia ada dalam masyarakat. Akibatnya, model AI boleh mengekalkan dan memperkuatkan berat sebelah ini, membawa kepada hasil yang tidak adil atau diskriminasi.
Di samping itu, model AI boleh digunakan untuk menjana berita palsu, propaganda dan bentuk maklumat salah yang lain. Ini boleh memberi kesan yang ketara kepada pendapat umum dan proses demokrasi.
Adalah penting untuk menangani pertimbangan etika ini apabila teknologi AI terus berkembang. Ini memerlukan pendekatan pelbagai aspek yang melibatkan kerjasama antara penyelidik, pembuat dasar dan orang ramai.
Peranan Model AI Sumber Terbuka
Model AI sumber terbuka, seperti DeepSeek R1-0528, menawarkan peluang dan cabaran dalam menangani isu penapisan AI. Di satu pihak, model sumber terbuka boleh diteliti dan diubah suai oleh komuniti, membolehkan pengenalpastian dan pembetulan berat sebelah dan mekanisme penapisan. Di sisi lain, model sumber terbuka boleh digunakan untuk tujuan jahat, seperti menjana berita palsu atau propaganda.
Tanggungjawab utama untuk memastikan model AI digunakan secara beretika terletak pada pembangun dan organisasi yang mencipta dan menggunakannya. Mereka mesti komited terhadap ketelusan, akauntabiliti dan keadilan.
Kepentingan Kesedaran dan Pendidikan Awam
Kesedaran dan pendidikan awam adalah penting untuk menangani cabaran penapisan AI. Orang ramai perlu dimaklumkan tentang potensi risiko dan faedah teknologi AI, serta cara model AI boleh berat sebelah atau ditapis.
Ini memerlukan usaha untuk mendidik orang ramai tentang teknologi AI, serta untuk menggalakkan pemikiran kritis dan kemahiran literasi media. Dengan memperkasakan orang ramai untuk memahami dan menilai model AI, kita boleh memastikan bahawa AI digunakan dengan cara yang memberi manfaat kepada masyarakat secara keseluruhan.
Respons DeepSeek dan Tindakan Masa Depan
Walaupun DeepSeek belum mengeluarkan kenyataan rasmi yang menangani tuntutan khusus penapisan, tindakan masa depan mereka akan menjadi penentu dalam menentukan hala tuju syarikat dan komitmennya terhadap prinsip kebebasan bersuara. Sifat sumber terbuka model ini memberi peluang kepada syarikat untuk bekerjasama dengan komuniti dan menangani kebimbangan yang dibangkitkan oleh pembangun dan penyelidik.
Tindakan yang mungkin boleh diambil oleh DeepSeek termasuk:
- Mengeluarkan penjelasan terperinci tentang dasar penapisan model: Ini akan memberikan ketelusan dan membenarkan komuniti memahami alasan di sebalik keputusan yang dibuat.
- Bekerjasama dengan komuniti untuk mengenal pasti dan menangani berat sebelah dan mekanisme penapisan: Ini akan menunjukkan komitmen terhadap keterbukaan dan kerjasama.
- Membangunkan mekanisme untuk pengguna melaporkan dan mencabar contoh penapisan: Ini akan memperkasakan pengguna untuk memegang syarikat bertanggungjawab.
- Melabur dalam penyelidikan mengenai etika AI dan pengurangan berat sebelah: Ini akan menunjukkan komitmen untuk membangunkan model AI yang adil dan tidak berat sebelah.
Kesimpulan: Menavigasi Landskap Kompleks AI dan Kebebasan Bersuara
Kontroversi di sekeliling model AI DeepSeek adalah peringatan tentang landskap AI dan kebebasan bersuara yang kompleks. Tiada penyelesaian mudah untuk cabaran mengimbangi inovasi teknologi dengan keperluan untuk melindungi hak asasi.
Dengan melibatkan diri dalam dialog yang terbuka dan jujur, dan dengan komited terhadap ketelusan, akauntabiliti dan keadilan, kita boleh memastikan bahawa AI digunakan dengan cara yang memberi manfaat kepada masyarakat secara keseluruhan. Situasi DeepSeek berfungsi sebagai kajian kes untuk komuniti AI dan menonjolkan kepentingan penilaian dan penyesuaian berterusan kepada kebimbangan etika apabila teknologi AI terus berkembang.
Memandangkan AI semakin disepadukan ke dalam kehidupan kita, adalah penting untuk kita menangani cabaran etika ini secara proaktif dan memastikan bahawa AI digunakan untuk menggalakkan kebebasan bersuara, dialog terbuka dan masyarakat yang lebih termaklum dan saksama.