Gemini 2.5 Pro Google Berdepan Kritikan Kerana Laporan Keselamatan Hilang
Pelancaran model AI Gemini 2.5 Pro oleh Google baru-baru ini telah mencetuskan kontroversi kerana ketiadaan laporan keselamatan yang penting. Peninggalan ini nampaknya bercanggah dengan janji-janji yang dibuat oleh Google kepada kerajaan A.S. dan di sidang kemuncak antarabangsa, menimbulkan kebimbangan tentang komitmen syarikat terhadap ketelusan dan pembangunan AI yang bertanggungjawab. Pakar kini mempersoalkan sama ada Google dan makmal AI terkemuka lain berundur daripada janji mereka untuk memaklumkan kepada orang ramai tentang keupayaan dan potensi risiko yang berkaitan dengan model AI mereka.
Janji-Janji Yang Dimungkiri dan Komitmen Yang Tidak Dipenuhi
Kegagalan Google untuk menyediakan laporan penyelidikan keselamatan bersama pelancaran Gemini 2.5 Pro dilihat sebagai pelanggaran komitmen terdahulu. Pada Julai 2023, Google mengambil bahagian dalam mesyuarat Rumah Putih yang dianjurkan oleh pentadbiran Biden, di mana ia menyertai syarikat AI terkemuka lain dalam menandatangani satu siri ikrar. Komitmen utama ialah penerbitan laporan untuk semua pelancaran model awam utama yang melepasi keadaan AI terkini pada masa itu. Memandangkan kemajuannya, Gemini 2.5 Pro hampir pasti termasuk dalam skop Komitmen Rumah Putih ini.
Pada masa itu, Google bersetuju bahawa laporan ini harus merangkumi:
- Penilaian keselamatan yang dijalankan, termasuk penilaian keupayaan berbahaya.
- Batasan prestasi yang ketara yang boleh memberi kesan kepada kes penggunaan yang sesuai.
- Perbincangan tentang kesan model terhadap risiko masyarakat seperti keadilan dan berat sebelah.
- Keputusan ujian permusuhan untuk menilai kesesuaian model untuk penggunaan.
Berikutan mesyuarat G7 di Hiroshima, Jepun, pada Oktober 2023, Google dan syarikat lain berikrar untuk mematuhi kod tatakelakuan sukarela untuk pembangunan AI termaju. Kod G7 ini menekankan kepentingan melaporkan secara terbuka keupayaan, batasan dan aplikasi yang sesuai dan tidak sesuai bagi sistem AI termaju. Matlamatnya adalah untuk meningkatkan ketelusan dan akauntabiliti dalam bidang AI.
Pada Mei 2024, di sidang kemuncak antarabangsa mengenai keselamatan AI yang diadakan di Seoul, Korea Selatan, Google mengulangi komitmennya. Syarikat itu berjanji untuk mendedahkan secara terbuka keupayaan model, batasan, kes penggunaan yang sesuai dan tidak sesuai, dan untuk memberikan ketelusan mengenai penilaian risiko dan hasilnya.
Respons Google dan Ketelusan Tertunda
Sebagai respons kepada pertanyaan tentang laporan keselamatan yang hilang, seorang jurucakap Google DeepMind, bahagian yang bertanggungjawab untuk membangunkan model Gemini, menyatakan bahawa Gemini yang terbaru telah menjalani ujian pra-pelancaran. Ini termasuk penilaian pembangunan dalaman dan penilaian jaminan yang dijalankan sebelum pelancaran model. Jurucakap itu juga menyatakan bahawa laporan dengan maklumat keselamatan tambahan dan kad model akan ‘datang’. Walau bagaimanapun, walaupun kenyataan awal dikeluarkan pada 2 April, tiada kad model telah diterbitkan sehingga kini.
Trend Lebih Luas Mengabaikan Pelaporan Keselamatan
Google tidak bersendirian dalam menghadapi kritikan mengenai komitmennya terhadap keselamatan AI. Awal tahun ini, OpenAI juga menghadapi kritikan kerana gagal mengeluarkan kad model yang tepat pada masanya untuk model Penyelidikan Dalamnya. Sebaliknya, mereka menerbitkan kad sistem beberapa minggu selepas pelancaran awal projek. Begitu juga, laporan keselamatan Meta baru-baru ini untuk Llama 4 telah dikritik kerana terlalu ringkas dan kurang terperinci.
Contoh-contoh ini menyerlahkan trend yang membimbangkan dalam industri AI, di mana beberapa makmal utama tidak mengutamakan pelaporan keselamatan selaras dengan pelancaran model mereka. Ini amat membimbangkan memandangkan komitmen sukarela yang dibuat oleh syarikat-syarikat ini kepada kerajaan A.S. dan masyarakat global untuk menghasilkan laporan sedemikian. Komitmen ini pada mulanya dibuat kepada pentadbiran Biden pada 2023 dan kemudiannya diperkukuh melalui ikrar untuk mematuhi kod tatakelakuan AI yang diterima pakai oleh negara-negara G7 di sidang kemuncak AI mereka di Hiroshima.
Kevin Bankston, seorang penasihat mengenai tadbir urus AI di Pusat Demokrasi dan Teknologi, menyatakan kekecewaannya, dengan menyatakan bahawa kegagalan ini menjejaskan kredibiliti syarikat yang terlibat dan menimbulkan persoalan tentang komitmen mereka terhadap pembangunan AI yang bertanggungjawab.
Soalan Yang Tidak Dijawab dan Penilaian Luaran
Kenyataan jurucakap Google juga gagal menangani soalan khusus tentang sama ada Gemini 2.5 Pro telah diserahkan untuk penilaian luaran oleh Institut Keselamatan AI U.K. atau Institut Keselamatan AI A.S. Sebelum ini, Google telah menyediakan generasi awal model Gemininya kepada Institut Keselamatan AI U.K. untuk penilaian.
Di Sidang Kemuncak Keselamatan Seoul, Google menandatangani ‘Komitmen Keselamatan AI Sempadan,’ yang termasuk ikrar untuk memberikan ketelusan awam mengenai pelaksanaan penilaian keselamatan. Satu-satunya pengecualian ialah kes di mana berbuat demikian akan meningkatkan risiko atau mendedahkan maklumat komersial sensitif ke tahap yang tidak seimbang dengan manfaat masyarakat. Ikrar itu juga menyatakan bahawa maklumat yang lebih terperinci yang tidak boleh dikongsi secara terbuka masih perlu dikongsi dengan kerajaan negara di mana syarikat itu berpangkalan, iaitu A.S. dalam kes Google.
Syarikat-syarikat itu juga komited untuk menjelaskan bagaimana pelakon luaran, seperti kerajaan, masyarakat sivil, ahli akademik dan orang ramai, terlibat dalam proses menilai risiko model AI mereka. Kegagalan Google untuk menjawab soalan langsung tentang sama ada ia telah menyerahkan Gemini 2.5 Pro kepada penilai kerajaan A.S. atau U.K. berpotensi melanggar komitmen ini juga.
Mengutamakan Penggunaan Berbanding Ketelusan
Ketiadaan laporan keselamatan telah menimbulkan kebimbangan bahawa Google mungkin mengutamakan penggunaan pantas berbanding ketelusan dan penilaian keselamatan yang teliti. Sandra Wachter, seorang profesor dan penyelidik kanan di Institut Internet Oxford, menekankan kepentingan ketelusan dalam penyelidikan dan inovasi yang bertanggungjawab. Beliau membuat analogi dengan industri lain, dengan menyatakan bahawa ‘Jika ini adalah kereta atau pesawat, kami tidak akan berkata: mari kita bawa ini ke pasaran secepat mungkin dan kami akan melihat aspek keselamatan kemudian.’ Wachter menyatakan kebimbangan bahawa terdapat sikap yang berleluasa dalam bidang AI generatif untuk ‘meletakkan ini di luar sana dan bimbang, menyiasat dan membetulkan isu-isu dengannya kemudian.’
Peralihan Politik dan Tekanan Persaingan
Perubahan politik baru-baru ini, ditambah pula dengan persaingan yang semakin sengit di kalangan syarikat Teknologi Besar, mungkin menyumbang kepada peralihan daripada komitmen keselamatan sebelumnya apabila syarikat berlumba untuk menggunakan model AI. Wachter menyatakan bahawa ‘Titik tekanan bagi syarikat-syarikat ini untuk menjadi lebih pantas, menjadi lebih cepat, menjadi yang pertama, menjadi yang terbaik, menjadi dominan, adalah lebih lazim daripada sebelumnya,’ sambil menambah bahawa piawaian keselamatan semakin merosot di seluruh industri.
Piawaian yang merosot ini boleh didorong oleh kebimbangan yang semakin meningkat di kalangan negara-negara teknologi dan beberapa kerajaan bahawa prosedur keselamatan AI menghalang inovasi. Di A.S., pentadbiran Trump telah menyatakan niatnya untuk menerima pakai pendekatan yang kurang ketat terhadap peraturan AI berbanding pentadbiran Biden. Pentadbiran baharu itu telah membatalkan perintah eksekutif era Biden mengenai AI dan telah menjalin hubungan yang lebih erat dengan pemimpin teknologi. Di sidang kemuncak AI baru-baru ini di Paris, Naib Presiden A.S. JD Vance menyatakan bahawa ‘dasar AI pro-pertumbuhan’ harus diutamakan berbanding keselamatan, dan bahawa AI adalah ‘peluang yang tidak akan disia-siakan oleh pentadbiran Trump.’
Di sidang kemuncak yang sama, kedua-dua U.K. dan A.S. enggan menandatangani perjanjian antarabangsa mengenai kecerdasan buatan yang mempromosikan pendekatan ‘terbuka’, ‘inklusif’ dan ‘beretika’ terhadap pembangunan teknologi itu.
Keperluan untuk Keperluan Ketelusan Yang Jelas
Bankston menekankan bahawa ‘Jika kita tidak boleh bergantung kepada syarikat-syarikat ini untuk memenuhi walaupun komitmen keselamatan dan ketelusan paling asas mereka apabila mengeluarkan model baharu—komitmen yang mereka sendiri buat secara sukarela—maka mereka jelas mengeluarkan model terlalu cepat dalam perlumbaan kompetitif mereka untuk menguasai bidang itu.’ Beliau menambah bahawa kerana pembangun AI terus goyah dalam komitmen ini, ia akan menjadi tanggungjawab penggubal undang-undang untuk membangunkan dan menguatkuasakan keperluan ketelusan yang jelas yang tidak boleh dielakkan oleh syarikat.
Implikasi Yang Lebih Luas untuk Tadbir Urus AI
Kontroversi yang mengelilingi Gemini 2.5 Pro Google dan laporan keselamatan yang hilang menggariskan keperluan kritikal untuk rangka kerja tadbir urus AI yang teguh. Rangka kerja ini harus menangani isu-isu utama seperti:
- Ketelusan: Memastikan bahawa pembangun AI telus tentang keupayaan, batasan dan potensi risiko model mereka.
- Akauntabiliti: Mewujudkan barisan akauntabiliti yang jelas untuk pembangunan dan penggunaan sistem AI.
- Keselamatan: Melaksanakan ujian keselamatan dan prosedur penilaian yang ketat untuk meminimumkan risiko bahaya.
- Pertimbangan etika: Mengintegrasikan prinsip etika ke dalam reka bentuk dan pembangunan sistem AI.
- Penglibatan awam: Melibatkan diri dengan orang ramai untuk memupuk pemahaman yang lebih luas tentang AI dan implikasinya.
- Kerjasama antarabangsa: Bekerjasama di peringkat antarabangsa untuk membangunkan piawaian dan amalan terbaik yang sama untuk tadbir urus AI.
Kekurangan ketelusan yang mengelilingi Gemini 2.5 Pro menyerlahkan potensi akibat mengabaikan aspek penting tadbir urus AI ini. Tanpa ketelusan dan akauntabiliti yang mencukupi, adalah sukar untuk menilai impak sebenar sistem AI dan untuk memastikan bahawa ia dibangunkan dan digunakan secara bertanggungjawab dan beretika.
Melangkah Ke Hadapan: Seruan untuk Tanggungjawab Yang Lebih Besar
Industri AI berada di persimpangan kritikal. Apabila teknologi AI menjadi semakin berkuasa dan meluas, adalah penting bahawa pembangun mengutamakan keselamatan, ketelusan dan pertimbangan etika. Kontroversi yang mengelilingi Gemini 2.5 Pro berfungsi sebagai peringatan bahawa komitmen sukarela tidak selalu mencukupi. Kerajaan dan badan pengawal selia mesti memainkan peranan yang lebih aktif dalam mewujudkan piawaian yang jelas dan menguatkuasakan pematuhan.
Selain itu, adalah penting bagi pembangun AI untuk melibatkan diri dengan orang ramai dan memupuk pemahaman yang lebih luas tentang AI dan implikasinya. Ini termasuk bersikap telus tentang batasan dan potensi risiko sistem AI, serta langkah-langkah yang diambil untuk mengurangkan risiko tersebut. Dengan bekerjasama, industri AI, kerajaan dan orang ramai boleh memastikan bahawa teknologi AI dibangunkan dan digunakan dengan cara yang memberi manfaat kepada masyarakat secara keseluruhan.