AI di Lab Virus: Risiko Biohazard Meningkat

Meningkatnya Kemampuan AI di Laboratorium Virologi Memicu Kekhawatiran Biohazard

Sebuah studi inovatif mengungkapkan bahwa model kecerdasan buatan (AI) canggih, termasuk yang mendukung platform seperti ChatGPT dan Claude, kini menunjukkan kemampuan memecahkan masalah di laboratorium basah virologi yang melampaui kemampuan ahli virologi berpengalaman yang memegang gelar PhD. Penemuan ini, meskipun menyimpan potensi besar untuk memajukan pencegahan penyakit, juga menimbulkan kekhawatiran signifikan tentang potensi penyalahgunaan AI untuk menciptakan senjata biologis mematikan, terutama oleh individu yang tidak memiliki keahlian dan pertimbangan etis yang diperlukan.

Pedang Bermata Dua AI dalam Virologi

Studi ini, yang secara eksklusif dibagikan kepada TIME, merupakan upaya kolaboratif yang melibatkan para peneliti dari Center for AI Safety, MIT’s Media Lab, UFABC (universitas Brasil), dan SecureBio, sebuah organisasi nirlaba yang didedikasikan untuk pencegahan pandemi. Tim peneliti berkonsultasi dengan para ahli virologi terkemuka untuk merancang tes praktis yang sangat menantang yang menilai kemampuan model AI untuk secara efektif memecahkan masalah prosedur dan protokol laboratorium kompleks yang umum digunakan dalam penelitian virologi.

Hasil tes tersebut sangat mencolok. Para ahli virologi tingkat PhD, meskipun memiliki pelatihan dan pengalaman yang luas, mencapai skor akurasi rata-rata hanya 22,1% di bidang keahlian mereka yang dinyatakan. Sebaliknya, model o3 OpenAI mencapai akurasi yang mengesankan sebesar 43,8%, sedangkan Gemini 2.5 Pro Google mencetak 37,6%. Temuan ini menunjukkan bahwa model AI dengan cepat memperoleh pengetahuan dan keterampilan yang diperlukan untuk melakukan tugas-tugas kompleks di laboratorium virologi, yang berpotensi melampaui kemampuan para ahli manusia di bidang-bidang tertentu.

Kekhawatiran Tentang Pembuatan Senjata Biologis

Seth Donoughe, seorang ilmuwan peneliti di SecureBio dan salah satu penulis studi tersebut, menyatakan kekhawatirannya tentang implikasi dari temuan ini. Dia mencatat bahwa, untuk pertama kalinya dalam sejarah, hampir semua orang dengan akses ke model AI ini dapat memiliki ahli virologi AI yang tidak menghakimi yang siap membantu mereka, yang berpotensi membimbing mereka melalui proses laboratorium kompleks yang diperlukan untuk membuat senjata biologis.

Donoughe menekankan bahwa sepanjang sejarah, banyak upaya telah dilakukan untuk mengembangkan senjata biologis, tetapi banyak dari upaya ini gagal karena kurangnya akses ke keahlian yang diperlukan. Dia memperingatkan bahwa ketersediaan luas model AI yang mampu memberikan keahlian ini menimbulkan kekhawatiran serius tentang potensi penyalahgunaan dan kebutuhan untuk berhati-hati dalam bagaimana kemampuan ini didistribusikan.

  • Risiko penyalahgunaan oleh non-ahli.
  • Potensi pembuatan senjata biologis mematikan.
  • Kebutuhan untuk berhati-hati dalam mendistribusikan keahlian virologi AI.

Laboratorium AI Menanggapi Kekhawatiran

Menanggapi temuan studi tersebut, para penulis membagikan hasilnya dengan laboratorium AI besar, mendorong beberapa di antaranya untuk mengambil tindakan. xAI, misalnya, menerbitkan kerangka kerja manajemen risiko yang menguraikan niatnya untuk menerapkan perlindungan virologi dalam versi mendatang dari model AI Grok-nya. OpenAI memberi tahu TIME bahwa mereka telah ‘menerapkan mitigasi tingkat sistem baru untuk risiko biologis’ untuk model barunya yang dirilis minggu lalu. Anthropic memasukkan hasil kinerja model pada makalah dalam kartu sistem baru-baru ini, tetapi tidak mengusulkan tindakan mitigasi khusus. Gemini Google menolak berkomentar kepada TIME.

Tanggapan ini menunjukkan meningkatnya kesadaran di antara para pengembang AI tentang potensi risiko yang terkait dengan meningkatnya kemampuan AI dalam virologi dan kebutuhan untuk menerapkan perlindungan untuk mencegah penyalahgunaan.

Janji AI dalam Memerangi Penyakit

Terlepas dari kekhawatiran tentang pembuatan senjata biologis, AI juga menyimpan janji besar untuk memajukan penelitian virologi dan memerangi penyakit menular. Para pemimpin AI telah lama mengakui potensi AI untuk merevolusi biomedis dan mempercepat pengembangan perawatan dan penyembuhan baru.

CEO OpenAI Sam Altman, misalnya, menyatakan di Gedung Putih pada bulan Januari bahwa ‘seiring kemajuan teknologi ini, kita akan melihat penyakit sembuh pada tingkat yang belum pernah terjadi sebelumnya.’ Optimisme ini didukung oleh tanda-tanda kemajuan yang menggembirakan di bidang ini. Awal tahun ini, para peneliti di Emerging Pathogens Institute Universitas Florida mengembangkan algoritma yang mampu memprediksi varian virus corona mana yang mungkin menyebar paling cepat.

Mengevaluasi Kemampuan AI untuk Melakukan Pekerjaan Laboratorium Virologi

Sementara AI telah menunjukkan janji dalam memberikan informasi bergaya akademik yang terkait dengan virologi, kesenjangan besar tetap ada dalam memahami kemampuannya untuk benar-benar melakukan pekerjaan laboratorium virologi. Untuk mengatasi kesenjangan ini, Donoughe dan rekan-rekannya merancang tes khusus untuk pertanyaan-pertanyaan sulit yang tidak dapat dicari di Google yang memerlukan bantuan praktis dan interpretasi gambar dan informasi yang biasanya tidak ditemukan dalam makalah akademis.

Pertanyaan-pertanyaan itu dirancang untuk meniru tantangan yang dihadapi oleh para ahli virologi dalam pekerjaan sehari-hari mereka, seperti memecahkan masalah yang dihadapi saat mengkultur virus dalam jenis dan kondisi sel tertentu.

Formatnya dirancang sebagai berikut:

  • Menyajikan skenario tertentu.
  • Memberikan rincian tentang pengaturan percobaan.
  • Meminta AI untuk mengidentifikasi masalah yang paling mungkin terjadi.

AI Mengungguli Ahli Virologi pada Tes Praktis

Hasil tes mengungkapkan bahwa hampir setiap model AI mengungguli ahli virologi tingkat PhD, bahkan di bidang keahlian mereka sendiri. Temuan ini menunjukkan bahwa model AI tidak hanya mampu mengakses dan memproses sejumlah besar pengetahuan virologi tetapi juga menerapkan pengetahuan ini untuk memecahkan masalah praktis di laboratorium.

Para peneliti juga mengamati bahwa model menunjukkan peningkatan yang signifikan dari waktu ke waktu, menunjukkan bahwa mereka terus belajar dan menyempurnakan keterampilan mereka dalam virologi. Misalnya, Claude 3.5 Sonnet dari Anthropic melonjak dari akurasi 26,9% menjadi 33,6% dari model Juni 2024 ke model Oktober 2024. Dan pratinjau GPT 4.5 OpenAI pada bulan Februari mengungguli GPT-4o dengan hampir 10 poin persentase.

Implikasi dari Meningkatnya Kemampuan AI

Dan Hendrycks, direktur Center for AI Safety, menekankan bahwa model AI sekarang memperoleh sejumlah besar pengetahuan praktis yang mengkhawatirkan. Jika model AI memang mampu di lingkungan laboratorium basah seperti yang disarankan oleh penelitian tersebut, implikasinya sangat luas.

Di satu sisi, AI dapat memberikan bantuan yang tak ternilai kepada para ahli virologi berpengalaman dalam pekerjaan penting mereka melawan virus, mempercepat garis waktu pengembangan obat-obatan dan vaksin, dan meningkatkan uji klinis dan deteksi penyakit. Tom Inglesby, direktur Johns Hopkins Center for Health Security, mencatat bahwa AI dapat memberdayakan para ilmuwan di berbagai belahan dunia, terutama mereka yang kekurangan keterampilan atau sumber daya khusus, untuk melakukan pekerjaan sehari-hari yang berharga pada penyakit yang terjadi di negara mereka.

  • Mempercepat pengembangan obat-obatan dan vaksin.
  • Meningkatkan uji klinis dan deteksi penyakit.
  • Memberdayakan para ilmuwan di lingkungan dengan sumber daya terbatas.

Risiko Penyalahgunaan oleh Aktor Jahat

Di sisi lain, penelitian ini menimbulkan kekhawatiran serius tentang potensi penyalahgunaan AI oleh aktor jahat yang dapat menggunakan model ini untuk mempelajari cara membuat virus tanpa memerlukan pelatihan dan akses tipikal yang diperlukan untuk memasuki laboratorium Biosafety Level 4 (BSL-4), yang menangani agen infeksius yang paling berbahaya dan eksotis. Inglesby memperingatkan bahwa AI dapat memberdayakan lebih banyak orang dengan pelatihan yang lebih sedikit untuk mengelola dan memanipulasi virus, yang berpotensi menyebabkan konsekuensi yang dahsyat.

Hendrycks mendesak perusahaan AI untuk menerapkan pagar pembatas untuk mencegah jenis penggunaan ini, menunjukkan bahwa gagal melakukannya dalam waktu enam bulan akan menjadi sembrono. Dia mengusulkan bahwa salah satu solusinya adalah membuat model ini tertutup, sehingga hanya pihak ketiga tepercaya dengan alasan yang sah untuk memanipulasi virus mematikan, seperti para peneliti di departemen biologi MIT, yang memiliki akses ke versi yang tidak difilter.

  • Mencegah penyalahgunaan dengan menerapkan pagar pembatas.
  • Mengunci model untuk membatasi akses ke pihak-pihak tepercaya.
  • Memastikan bahwa hanya peneliti yang berwenang yang memiliki akses ke kemampuan sensitif.

Kelayakan Regulasi Mandiri Industri

Hendrycks percaya bahwa secara teknologi layak bagi perusahaan AI untuk mengatur diri sendiri dan menerapkan jenis perlindungan ini. Namun, dia menyatakan kekhawatiran tentang apakah beberapa perusahaan akan menyeret kaki mereka atau hanya gagal mengambil langkah-langkah yang diperlukan.

xAI, laboratorium AI Elon Musk, mengakui makalah tersebut dan memberi sinyal bahwa perusahaan akan ‘berpotensi memanfaatkan’ perlindungan tertentu di sekitar menjawab pertanyaan virologi, termasuk melatih Grok untuk menolak permintaan berbahaya dan menerapkan filter input dan output.

OpenAI menyatakan bahwa model terbarunya, o3 dan o4-mini, dikerahkan dengan serangkaian perlindungan terkait risiko biologis, termasuk memblokir output berbahaya. Perusahaan juga melaporkan bahwa mereka menjalankan kampanye red-teaming seribu jam di mana 98,7% percakapan terkait bio yang tidak aman berhasil ditandai dan diblokir.

  • Melatih model AI untuk menolak permintaan berbahaya.
  • Menerapkan filter input dan output untuk memblokir konten berbahaya.
  • Melakukan latihan red-teaming untuk mengidentifikasi dan mengurangi risiko.

Kebutuhan Akan Kebijakan dan Regulasi

Terlepas dari upaya ini, Inglesby berpendapat bahwa regulasi mandiri industri tidak cukup dan menyerukan kepada para pembuat undang-undang dan pemimpin politik untuk mengembangkan pendekatan kebijakan untuk mengatur risiko bio AI. Dia menekankan bahwa sementara beberapa perusahaan menginvestasikan waktu dan uang untuk mengatasi risiko ini, yang lain mungkin tidak, menciptakan situasi di mana publik tidak memiliki wawasan tentang apa yang terjadi.

Inglesby mengusulkan agar sebelum versi baru LLM dirilis, LLM tersebut harus dievaluasi untuk memastikan bahwa LLM tersebut tidak akan menghasilkan hasil tingkat pandemi. Ini akan membutuhkan pendekatan yang lebih komprehensif dan terkoordinasi untuk mengatur kemampuan AI dalam virologi, yang melibatkan pemangku kepentingan industri dan pemerintah.

  • Mengevaluasi LLM sebelum rilis untuk mencegah hasil tingkat pandemi.
  • Mengembangkan pendekatan kebijakan yang komprehensif untuk mengatur risiko bio AI.
  • Melibatkan pemangku kepentingan industri dan pemerintah dalam proses regulasi.

Menemukan Keseimbangan Antara Inovasi dan Keamanan

Tantangannya terletak pada menemukan keseimbangan antara mendorong inovasi dalam AI dan memastikan bahwa teknologi canggih ini tidak disalahgunakan untuk menciptakan senjata biologis mematikan. Ini membutuhkan pendekatan multi-segi yang mencakup:

  • Mengembangkan perlindungan yang kuat untuk mencegah penyalahgunaan.
  • Membatasi akses ke kemampuan sensitif ke pihak-pihak tepercaya.
  • Mengatur kemampuan AI dalam virologi.
  • Mempromosikan inovasi yang bertanggung jawab dan pertimbangan etis.

Dengan mengambil langkah-langkah ini, kita dapat memanfaatkan potensi besar AI untuk memajukan penelitian virologi dan memerangi penyakit menular sambil mengurangi risiko yang terkait dengan penyalahgunaannya. Masa depan AI dalam virologi bergantung pada kemampuan kita untuk menavigasi lanskap yang kompleks ini secara bertanggung jawab dan memastikan bahwa teknologi canggih ini digunakan untuk kepentingan umat manusia.