Gemini 2.5 Pro: Laporan Keamanan Hilang?

Kontroversi muncul seputar rilis terbaru model AI Gemini 2.5 Pro dari Google karena tidak adanya laporan keamanan yang penting. Kelalaian ini tampaknya bertentangan dengan janji-janji yang dibuat oleh Google kepada pemerintah AS dan di pertemuan puncak internasional, yang menimbulkan kekhawatiran tentang komitmen perusahaan terhadap transparansi dan pengembangan AI yang bertanggung jawab. Para ahli sekarang mempertanyakan apakah Google dan laboratorium AI terkemuka lainnya menarik kembali janji mereka untuk memberi tahu publik tentang kemampuan dan potensi risiko yang terkait dengan model AI mereka.

Janji yang Dilanggar dan Komitmen yang Tidak Terpenuhi

Kegagalan Google untuk memberikan laporan penelitian keamanan bersamaan dengan rilis Gemini 2.5 Pro dipandang sebagai pelanggaran terhadap komitmen sebelumnya. Pada Juli 2023, Google berpartisipasi dalam pertemuan Gedung Putih yang diselenggarakan oleh pemerintahan Biden, di mana ia bergabung dengan perusahaan AI terkemuka lainnya dalam menandatangani serangkaian janji. Komitmen utama adalah publikasi laporan untuk semua rilis model publik utama yang melampaui AI canggih saat ini pada saat itu. Mengingat kemajuannya, Gemini 2.5 Pro hampir pasti termasuk dalam cakupan Komitmen Gedung Putih ini.

Pada saat itu, Google setuju bahwa laporan ini harus mencakup:

  • Evaluasi keamanan yang dilakukan, termasuk penilaian kemampuan berbahaya.
  • Keterbatasan kinerja signifikan yang dapat memengaruhi kasus penggunaan yang sesuai.
  • Diskusi tentang efek model pada risiko sosial seperti keadilan dan bias.
  • Hasil pengujian adverserial untuk mengevaluasi kesesuaian model untuk penyebaran.

Menyusul pertemuan G7 di Hiroshima, Jepang, pada Oktober 2023, Google dan perusahaan lain berjanji untuk mematuhi kode etik sukarela untuk pengembangan AI canggih. Kode G7 ini menekankan pentingnya melaporkan secara publik kemampuan, batasan, dan aplikasi yang sesuai dan tidak sesuai dari sistem AI canggih. Tujuannya adalah untuk meningkatkan transparansi dan akuntabilitas di bidang AI.

Pada Mei 2024, pada pertemuan puncak internasional tentang keselamatan AI yang diadakan di Seoul, Korea Selatan, Google menegaskan kembali komitmennya. Perusahaan berjanji untuk mengungkapkan secara publik kemampuan model, batasan, kasus penggunaan yang sesuai dan tidak sesuai, dan untuk memberikan transparansi seputar penilaian risiko dan hasilnya.

Tanggapan Google dan Keterlambatan Transparansi

Menanggapi pertanyaan tentang laporan keamanan yang hilang, seorang juru bicara Google DeepMind, divisi yang bertanggung jawab untuk mengembangkan model Gemini, menyatakan bahwa Gemini terbaru telah menjalani pengujian pra-rilis. Ini termasuk evaluasi pengembangan internal dan evaluasi jaminan yang dilakukan sebelum rilis model. Juru bicara itu juga mengindikasikan bahwa laporan dengan informasi keselamatan tambahan dan kartu model akan ‘segera hadir’. Namun, meskipun pernyataan awal dikeluarkan pada 2 April, tidak ada kartu model yang dipublikasikan hingga saat ini.

Tren yang Lebih Luas Mengabaikan Pelaporan Keselamatan

Google tidak sendirian dalam menghadapi kritik mengenai komitmennya terhadap keselamatan AI. Awal tahun ini, OpenAI juga menghadapi pengawasan karena gagal merilis kartu model tepat waktu untuk model Riset Dalamnya. Sebaliknya, mereka menerbitkan kartu sistem beberapa minggu setelah rilis awal proyek. Demikian pula, laporan keselamatan Meta baru-baru ini untuk Llama 4 telah dikritik karena terlalu singkat dan kurang detail.

Contoh-contoh ini menyoroti tren yang mengkhawatirkan dalam industri AI, di mana beberapa laboratorium besar tidak memprioritaskan pelaporan keselamatan sejalan dengan rilis model mereka. Ini sangat mengganggu mengingat komitmen sukarela yang dibuat perusahaan-perusahaan ini kepada pemerintah AS dan komunitas global untuk menghasilkan laporan semacam itu. Komitmen ini awalnya dibuat untuk pemerintahan Biden pada tahun 2023 dan selanjutnya diperkuat melalui janji untuk mematuhi kode etik AI yang diadopsi oleh negara-negara G7 pada pertemuan puncak AI mereka di Hiroshima.

Kevin Bankston, seorang penasihat tentang tata kelola AI di Pusat Demokrasi dan Teknologi, menyatakan kekecewaannya, menyatakan bahwa kegagalan ini merusak kredibilitas perusahaan yang terlibat dan menimbulkan pertanyaan tentang komitmen mereka terhadap pengembangan AI yang bertanggung jawab.

Pertanyaan yang Tidak Terjawab dan Evaluasi Eksternal

Pernyataan juru bicara Google juga gagal menjawab pertanyaan spesifik tentang apakah Gemini 2.5 Pro telah diserahkan untuk evaluasi eksternal oleh Institut Keamanan AI Inggris atau Institut Keselamatan AI AS. Sebelumnya, Google telah menyediakan generasi model Gemini sebelumnya ke Institut Keselamatan AI Inggris untuk evaluasi.

Pada KTT Keselamatan Seoul, Google menandatangani “Komitmen Keselamatan AI Perbatasan,” yang mencakup janji untuk memberikan transparansi publik tentang implementasi evaluasi keselamatan. Satu-satunya pengecualian adalah kasus-kasus di mana melakukannya akan meningkatkan risiko atau mengungkapkan informasi komersial sensitif ke tingkat yang tidak sepadan dengan manfaat sosial. Janji itu juga menyatakan bahwa informasi yang lebih rinci yang tidak dapat dibagikan secara publik masih harus dibagikan dengan pemerintah negara-negara tempat perusahaan itu berada, yang akan menjadi AS dalam kasus Google.

Perusahaan juga berkomitmen untuk menjelaskan bagaimana aktor eksternal, seperti pemerintah, masyarakat sipil, akademisi, dan publik, terlibat dalam proses penilaian risiko model AI mereka. Kegagalan Google untuk menjawab pertanyaan langsung tentang apakah mereka telah menyerahkan Gemini 2.5 Pro ke evaluator pemerintah AS atau Inggris berpotensi melanggar komitmen ini juga.

Memprioritaskan Penyebaran daripada Transparansi

Tidak adanya laporan keselamatan telah menimbulkan kekhawatiran bahwa Google mungkin memprioritaskan penyebaran cepat daripada transparansi dan penilaian keselamatan yang menyeluruh. Sandra Wachter, seorang profesor dan peneliti senior di Oxford Internet Institute, menekankan pentingnya transparansi dalam penelitian dan inovasi yang bertanggung jawab. Dia membuat analogi dengan industri lain, yang menyatakan bahwa “Jika ini adalah mobil atau pesawat, kita tidak akan mengatakan: mari kita bawa ini ke pasar secepat mungkin dan kita akan melihat aspek keselamatan nanti.” Wachter menyatakan kekhawatiran bahwa ada sikap yang berlaku dalam bidang AI generatif untuk “menempatkan ini di luar sana dan mengkhawatirkan, menyelidiki, dan memperbaiki masalah dengan itu nanti.”

Pergeseran Politik dan Tekanan Kompetitif

Perubahan politik baru-baru ini, ditambah dengan persaingan yang semakin intensif di antara perusahaan Big Tech, dapat berkontribusi pada pergeseran dari komitmen keselamatan sebelumnya karena perusahaan berlomba untuk menyebarkan model AI. Wachter mencatat bahwa “Titik tekanan bagi perusahaan-perusahaan ini untuk menjadi lebih cepat, lebih cepat, menjadi yang pertama, menjadi yang terbaik, menjadi dominan, lebih lazim daripada sebelumnya,” menambahkan bahwa standar keselamatan menurun di seluruh industri.

Standar yang melorot ini dapat didorong oleh meningkatnya kekhawatiran di antara negara-negara teknologi dan beberapa pemerintah bahwa prosedur keselamatan AI menghambat inovasi. Di AS, pemerintahan Trump telah mengindikasikan niatnya untuk mengadopsi pendekatan yang kurang ketat untuk regulasi AI dibandingkan dengan pemerintahan Biden. Pemerintahan baru telah mencabut perintah eksekutif era Biden tentang AI dan telah membina hubungan yang lebih dekat dengan para pemimpin teknologi. Pada pertemuan puncak AI baru-baru ini di Paris, Wakil Presiden AS JD Vance menyatakan bahwa “kebijakan AI pro-pertumbuhan” harus diprioritaskan daripada keselamatan, dan bahwa AI adalah “peluang yang tidak akan disia-siakan oleh pemerintahan Trump.”

Pada pertemuan puncak yang sama, baik Inggris maupun AS menolak untuk menandatangani perjanjian internasional tentang kecerdasan buatan yang mempromosikan pendekatan “terbuka,” “inklusif,” dan “etis” untuk pengembangan teknologi tersebut.

Kebutuhan akan Persyaratan Transparansi yang Jelas

Bankston menekankan bahwa “Jika kita tidak dapat mengandalkan perusahaan-perusahaan ini untuk memenuhi bahkan komitmen keselamatan dan transparansi paling dasar mereka ketika merilis model baru — komitmen yang mereka buat sendiri secara sukarela — maka mereka jelas-jelas merilis model terlalu cepat dalam perlombaan kompetitif mereka untuk mendominasi bidang ini.” Dia menambahkan bahwa karena pengembang AI terus goyah dalam komitmen ini, itu akan menjadi kewajiban pembuat undang-undang untuk mengembangkan dan menegakkan persyaratan transparansi yang jelas yang tidak dapat dihindari oleh perusahaan.

Implikasi yang Lebih Luas untuk Tata Kelola AI

Kontroversi seputar Gemini 2.5 Pro Google dan laporan keamanan yang hilang menggarisbawahi kebutuhan penting akan kerangka kerja tata kelola AI yang kuat. Kerangka kerja ini harus mengatasi masalah-masalah utama seperti:

  • Transparansi: Memastikan bahwa pengembang AI transparan tentang kemampuan, batasan, dan potensi risiko model mereka.
  • Akuntabilitas: Menetapkan garis akuntabilitas yang jelas untuk pengembangan dan penerapan sistem AI.
  • Keselamatan: Menerapkan pengujian keselamatan dan prosedur evaluasi yang ketat untuk meminimalkan risiko bahaya.
  • Pertimbangan etis: Mengintegrasikan prinsip-prinsip etika ke dalam desain dan pengembangan sistem AI.
  • Keterlibatan publik: Terlibat dengan publik untuk menumbuhkan pemahaman yang lebih luas tentang AI dan implikasinya.
  • Kerja sama internasional: Berkolaborasi secara internasional untuk mengembangkan standar umum dan praktik terbaik untuk tata kelola AI.

Kurangnya transparansi seputar Gemini 2.5 Pro menyoroti potensi konsekuensi dari mengabaikan aspek-aspek penting dari tata kelola AI ini. Tanpa transparansi dan akuntabilitas yang memadai, menjadi sulit untuk menilai dampak sebenarnya dari sistem AI dan untuk memastikan bahwa sistem tersebut dikembangkan dan diterapkan secara bertanggung jawab dan etis.

Melangkah Maju: Seruan untuk Tanggung Jawab yang Lebih Besar

Industri AI berada pada titik kritis. Karena teknologi AI menjadi semakin kuat dan meresap, penting bagi pengembang untuk memprioritaskan keselamatan, transparansi, dan pertimbangan etis. Kontroversi seputar Gemini 2.5 Pro berfungsi sebagai pengingat bahwa komitmen sukarela tidak selalu cukup. Pemerintah dan badan pengatur harus memainkan peran yang lebih aktif dalam menetapkan standar yang jelas dan menegakkan kepatuhan.

Selain itu, penting bagi pengembang AI untuk terlibat dengan publik dan menumbuhkan pemahaman yang lebih luas tentang AI dan implikasinya. Ini termasuk transparan tentang batasan dan potensi risiko sistem AI, serta langkah-langkah yang diambil untuk mengurangi risiko tersebut. Dengan bekerja sama, industri AI, pemerintah, dan publik dapat memastikan bahwa teknologi AI dikembangkan dan diterapkan dengan cara yang menguntungkan masyarakat secara keseluruhan.