Startup China Sand AI nampaknya melaksanakan langkah-langkah untuk menyekat imej sensitif politik tertentu daripada alat penjanaan video dalam taliannya. Pemerhatian ini datang selepas ujian oleh TechCrunch, menunjukkan bahawa syarikat itu menapis versi yang dihoskan modelnya untuk mengelakkan imej yang mungkin mencetuskan pengawal selia China.
Sand AI baru-baru ini melancarkan Magi-1, model AI penjanaan video berlesen terbuka. Model ini telah dipuji oleh tokoh-tokoh seperti Kai-Fu Lee, pengarah pengasas Microsoft Research Asia, menonjolkan potensi dan inovasinya dalam bidang ini. Magi-1 beroperasi dengan ‘autoregressively’ meramalkan urutan bingkai untuk menjana video. Sand AI menegaskan bahawa Magi-1 boleh menghasilkan rakaman berkualiti tinggi dan terkawal yang menangkap fizik dengan tepat, mengatasi model terbuka lain di pasaran.
Spesifikasi Teknikal dan Kebolehcapaian Magi-1
Aplikasi praktikal Magi-1 adalah terhad oleh keperluan perkakasan yang mencabarnya. Model ini mempunyai 24 bilion parameter dan memerlukan antara empat dan lapan GPU Nvidia H100 untuk berfungsi. Ini menjadikan platform Sand AI sebagai tempat utama, dan selalunya satu-satunya, yang boleh diakses oleh ramai pengguna untuk menguji keupayaan Magi-1.
Proses penjanaan video pada platform bermula dengan imej ‘prompt’. Walau bagaimanapun, tidak semua imej diterima. Siasatan TechCrunch mendedahkan bahawa sistem Sand AI menyekat muat naik imej yang menggambarkan Xi Jinping, Dataran Tiananmen dan insiden ‘Tank Man’, bendera Taiwan, dan simbol yang berkaitan dengan gerakan pembebasan Hong Kong. Sistem penapisan ini nampaknya beroperasi pada peringkat imej, kerana hanya menamakan semula fail imej tidak memintas sekatan.
Perbandingan dengan Platform AI China Lain
Sand AI bukan satu-satunya startup China yang menyekat muat naik imej sensitif politik ke alat penjanaan videonya. Hailuo AI, platform media generatif MiniMax yang berpangkalan di Shanghai, juga menyekat imej Xi Jinping. Walau bagaimanapun, mekanisme penapisan Sand AI nampaknya lebih ketat. Contohnya, Hailuo AI membenarkan imej Dataran Tiananmen, yang tidak dilakukan oleh Sand AI.
Keperluan untuk kawalan ketat ini berakar umbi dalam peraturan China. Seperti yang dilaporkan oleh Wired pada bulan Januari, model AI di China diamanahkan untuk mematuhi kawalan maklumat yang ketat. Undang-undang 2023 secara eksplisit melarang model AI daripada menjana kandungan yang ‘merosakkan perpaduan negara dan keharmonian sosial.’ Definisi luas ini boleh merangkumi sebarang kandungan yang bercanggah dengan naratif sejarah dan politik kerajaan. Untuk mematuhi peraturan ini, startup China sering menggunakan penapis peringkat segera atau memperhalusi model mereka untuk menapis kandungan yang berpotensi bermasalah.
Membandingkan Pendekatan Penapisan: Kandungan Politik vs. Pornografi
Menariknya, walaupun model AI China sering ditapis dengan berat mengenai ucapan politik, mereka kadangkala mempunyai kurang sekatan pada kandungan pornografi berbanding rakan-rakan Amerika mereka. Laporan baru-baru ini oleh 404 menunjukkan bahawa banyak penjana video daripada syarikat China tidak mempunyai perlindungan asas untuk mengelakkan penjanaan imej bogel tanpa kerelaan.
Tindakan Sand AI dan syarikat teknologi China yang lain menggariskan interaksi kompleks antara inovasi teknologi, kawalan politik dan pertimbangan etika dalam sektor AI. Memandangkan teknologi AI terus berkembang, perdebatan mengenai penapisan, kebebasan bersuara, dan tanggungjawab pembangun AI pasti akan meningkat.
Menyelidiki Lebih Dalam Aspek Teknikal Magi-1
Magi-1 mewakili kemajuan yang ketara dalam teknologi penjanaan video, terutamanya kerana pendekatan autoregresifnya. Kaedah ini melibatkan model yang meramalkan urutan bingkai, yang membolehkan output video yang lebih bernuansa dan koheren. Dakwaan bahawa Magi-1 boleh menangkap fizik dengan lebih tepat daripada model terbuka saingan adalah amat penting. Ia mencadangkan bahawa model itu mampu menjana video yang mempamerkan pergerakan dan interaksi yang realistik, menjadikannya alat yang berharga untuk pelbagai aplikasi, termasuk hiburan, pendidikan, dan visualisasi saintifik.
Keupayaan model yang mengagumkan juga dicerminkan dalam saiz dan keperluan perkakasannya. Dengan 24 bilion parameter, Magi-1 ialah model yang kompleks dan intensif pengiraan. Keperluan untuk berbilang GPU mewah seperti Nvidia H100s menggariskan sumber yang ketara yang diperlukan untuk menjalankannya dengan berkesan. Batasan ini bermakna walaupun Magi-1 ialah model sumber terbuka, kebolehcapaiannya kepada pengguna individu dan organisasi yang lebih kecil adalah terhad. Platform Sand AI, oleh itu, berfungsi sebagai pintu masuk penting bagi ramai orang untuk mengalami dan bereksperimen dengan teknologi canggih ini.
Implikasi Penapisan terhadap Pembangunan AI
Amalan penapisan yang dilaksanakan oleh Sand AI dan syarikat AI China yang lain menimbulkan persoalan penting tentang masa depan pembangunan AI dan impaknya terhadap masyarakat. Walaupun keperluan untuk mematuhi peraturan tempatan adalah difahami, tindakan menapis kandungan yang sensitif dari segi politik boleh membawa akibat yang meluas.
Pertama, ia boleh menyekat inovasi dengan mengehadkan skop perkara yang boleh dicipta oleh model AI. Apabila pembangun terpaksa mengelakkan topik atau perspektif tertentu, ia boleh menghalang keupayaan mereka untuk meneroka idea baharu dan menolak sempadan perkara yang mungkin dengan AI. Ini akhirnya boleh melambatkan kemajuan teknologi AI dan mengehadkan potensi manfaatnya.
Kedua, penapisan boleh menghakis kepercayaan dalam sistem AI. Apabila pengguna tahu bahawa model AI sedang dimanipulasi untuk mematuhi agenda politik tertentu, mereka mungkin kurang berkemungkinan untuk mempercayai outputnya atau bergantung padanya untuk mendapatkan maklumat. Ini boleh membawa kepada keraguan dan ketidakpercayaan, yang boleh menjejaskan penerimaan dan penerimaan teknologi AI dalam masyarakat.
Ketiga, penapisan boleh mewujudkan pandangan realiti yang herot. Dengan menapis maklumat dan perspektif secara terpilih, model AI boleh membentangkan gambaran dunia yang berat sebelah atau tidak lengkap. Ini boleh memberi impak yang ketara terhadap pendapat umum dan malah boleh digunakan untuk memanipulasi kepercayaan dan tingkah laku orang ramai.
Konteks yang Lebih Luas: Peraturan AI di China
Persekitaran kawal selia di China memainkan peranan penting dalam membentuk pembangunan dan penggunaan teknologi AI. Undang-undang 2023 yang melarang model AI daripada menjana kandungan yang ‘merosakkan perpaduan negara dan keharmonian sosial’ hanyalah satu contoh usaha kerajaan untuk mengawal aliran maklumat dan mengekalkan kestabilan sosial.
Peraturan ini mempunyai impak yang ketara terhadap syarikat AI yang beroperasi di China. Mereka mesti berhati-hati menavigasi keperluan yang kompleks dan selalunya samar-samar untuk mengelakkan daripada melanggar undang-undang. Ini boleh menjadi tugas yang mencabar, kerana definisi tentang apa yang dianggap sebagai kandungan yang ‘merosakkan’ atau ‘berbahaya’ sering terbuka kepada tafsiran.
Selain itu, peraturan boleh mewujudkan kesan yang menyejukkan terhadap inovasi. Pembangun AI mungkin teragak-agak untuk meneroka topik tertentu atau bereksperimen dengan idea baharu kerana takut menarik perhatian yang tidak diingini daripada pihak berkuasa. Ini boleh menyekat kreativiti dan mengehadkan potensi teknologi AI untuk menangani beberapa cabaran paling mendesak di dunia.
Dilema Etika Penapisan AI
Amalan penapisan AI menimbulkan beberapa dilema etika. Salah satu yang paling mendesak ialah persoalan siapa yang harus memutuskan kandungan apa yang boleh diterima dan apa yang tidak. Dalam kes China, kerajaan telah memainkan peranan utama dalam menetapkan piawaian ini. Walau bagaimanapun, ini menimbulkan kebimbangan tentang potensi berat sebelah politik dan penindasan suara yang berbeza pendapat.
Dilema etika lain ialah persoalan ketelusan. Haruskah syarikat AI telus tentang amalan penapisan mereka? Haruskah mereka mendedahkan kriteria yang mereka gunakan untuk menapis kandungan dan alasan untuk keputusan mereka? Ketelusan adalah penting untuk membina kepercayaan dan memastikan bahawa sistem AI digunakan secara bertanggungjawab. Walau bagaimanapun, ia juga boleh menjadi mencabar untuk dilaksanakan dalam amalan, kerana ia mungkin memerlukan syarikat untuk mendedahkan maklumat sensitif tentang algoritma dan data mereka.
Dilema etika selanjutnya ialah persoalan akauntabiliti. Siapa yang harus bertanggungjawab apabila sistem AI melakukan kesilapan atau menyebabkan kemudaratan? Haruskah ia pembangun, pengendali atau pengguna? Mewujudkan garis akauntabiliti yang jelas adalah penting untuk memastikan sistem AI digunakan secara beretika dan bertanggungjawab.
Masa Depan AI dan Penapisan
Memandangkan teknologi AI terus maju, perdebatan mengenai penapisan mungkin akan meningkat. Ketegangan antara keinginan untuk mengawal maklumat dan keperluan untuk memupuk inovasi akan terus membentuk pembangunan dan penggunaan sistem AI.
Satu masa depan yang mungkin ialah dunia di mana sistem AI ditapis dan dikawal dengan berat oleh kerajaan. Dalam senario ini, teknologi AI digunakan untuk mengukuhkan struktur kuasa sedia ada dan menindas perbezaan pendapat. Ini boleh membawa kepada penyekatan inovasi dan penurunan kebebasan individu.
Satu lagi masa depan yang mungkin ialah dunia di mana sistem AI lebih terbuka dan telus. Dalam senario ini, teknologi AI digunakan untuk memperkasakan individu dan menggalakkan demokrasi. Ini boleh membawa kepada perkembangan kreativiti dan inovasi, serta rasa kepercayaan dan akauntabiliti yang lebih besar.
Masa depan AI dan penapisan akan bergantung pada pilihan yang kita buat hari ini. Adalah penting untuk terlibat dalam perdebatan yang bernas dan bermaklumat tentang implikasi etika, sosial dan politik teknologi AI. Dengan bekerjasama, kita boleh memastikan bahawa AI digunakan untuk mewujudkan dunia yang lebih adil dan saksama.
Menavigasi Kerumitan Peraturan Kandungan AI
Kes Sand AI menonjolkan cabaran rumit yang mengelilingi peraturan kandungan AI, terutamanya dalam konteks dengan kawalan politik dan sosial yang ketat. Keseimbangan antara memupuk inovasi, mematuhi keperluan peraturan, dan menegakkan prinsip etika adalah yang halus. Memandangkan AI terus menembusi pelbagai aspek kehidupan kita, perbincangan mengenai peraturannya mestilah pelbagai rupa, merangkumi pertimbangan undang-undang, etika dan teknikal.
Kerajaan di seluruh dunia sedang bergelut dengan tugas mewujudkan rangka kerja yang sesuai untuk tadbir urus AI. Rangka kerja ini bertujuan untuk menangani kebimbangan seperti berat sebelah, privasi, keselamatan dan akauntabiliti. Walau bagaimanapun, kadar pembangunan AI yang pesat menyukarkan untuk memastikan peraturan dikemas kini dan relevan.
Tambahan pula, sifat global AI membentangkan kerumitan tambahan. Negara yang berbeza mempunyai nilai dan keutamaan yang berbeza, yang boleh membawa kepada peraturan dan piawaian yang bercanggah. Ini menimbulkan cabaran bagi syarikat AI yang beroperasi merentas sempadan, kerana mereka mesti menavigasi rangkaian keperluan undang-undang dan etika yang kompleks.
Peranan Pembangun AI dalam Membentuk Masa Depan
Pembangun AI mempunyai peranan penting dalam membentuk masa depan AI. Mereka adalah orang yang mereka bentuk dan membina sistem AI, dan mereka mempunyai tanggungjawab untuk memastikan bahawa sistem ini digunakan secara beretika dan bertanggungjawab.
Ini termasuk berhati-hati dengan potensi berat sebelah dalam algoritma AI dan mengambil langkah untuk mengurangkannya. Ia juga termasuk ketelusan tentang cara sistem AI berfungsi dan menyediakan pengguna dengan penjelasan yang jelas tentang keputusan mereka.
Tambahan pula, pembangun AI harus terlibat secara aktif dalam perdebatan mengenai peraturan AI. Mereka mempunyai pandangan dan kepakaran yang berharga yang boleh membantu penggubal dasar membuat keputusan termaklum.
Dengan bekerjasama, pembangun AI, penggubal dasar, dan orang ramai boleh memastikan bahawa AI digunakan untuk mewujudkan masa depan yang lebih baik untuk semua.
Kesimpulan
Kisah Sand AI dan amalan penapisannya berfungsi sebagai peringatan tentang cabaran kompleks dan pertimbangan etika yang timbul dalam pembangunan dan penggunaan teknologi AI. Memandangkan AI terus berkembang, adalah penting untuk terlibat dalam perbincangan terbuka dan jujur tentang potensi manfaat dan risikonya. Dengan bekerjasama, kita boleh memastikan bahawa AI digunakan untuk mewujudkan dunia yang lebih adil, saksama dan makmur.