Meningkatnya Kecekapan AI di Makmal Virologi Mencetuskan Kebimbangan Biobahaya
Satu kajian baharu mendedahkan bahawa model kecerdasan buatan (AI) yang canggih, termasuk platform seperti ChatGPT dan Claude, kini menunjukkan keupayaan menyelesaikan masalah dalam makmal basah virologi yang melampaui ahli virologi berpengalaman yang memegang PhD. Pendedahan ini, walaupun memegang potensi besar untuk memajukan pencegahan penyakit, juga menimbulkan kebimbangan yang ketara mengenai potensi penyalahgunaan AI untuk mencipta senjata biologi yang mematikan, terutamanya oleh individu yang kekurangan kepakaran dan pertimbangan etika yang diperlukan.
Pedang Bermata Dua AI dalam Virologi
Kajian yang dikongsi secara eksklusif dengan TIME, adalah usaha sama yang melibatkan penyelidik dari Center for AI Safety, MIT’s Media Lab, UFABC (universiti Brazil), dan SecureBio, sebuah organisasi bukan untung yang didedikasikan untuk pencegahan pandemik. Pasukan penyelidik berunding dengan ahli virologi terkemuka untuk mereka bentuk ujian praktikal yang sangat mencabar yang menilai keupayaan model AI untuk menyelesaikan masalah secara berkesan prosedur dan protokol makmal kompleks yang biasa digunakan dalam penyelidikan virologi.
Keputusan ujian itu sangat ketara. Ahli virologi peringkat PhD, walaupun latihan dan pengalaman mereka yang luas, mencapai skor ketepatan purata hanya 22.1% dalam bidang kepakaran mereka yang diisytiharkan. Sebaliknya, model o3 OpenAI mencapai ketepatan yang mengagumkan sebanyak 43.8%, manakala Gemini 2.5 Pro Google menjaringkan 37.6%. Penemuan ini menunjukkan bahawa model AI dengan cepat memperoleh pengetahuan dan kemahiran yang diperlukan untuk melaksanakan tugas kompleks di makmal virologi, berpotensi melebihi keupayaan pakar manusia dalam bidang tertentu.
Kebimbangan Mengenai Penciptaan Senjata Biologi
Seth Donoughe, seorang saintis penyelidik di SecureBio dan pengarang bersama kajian itu, menyatakan kebimbangannya tentang implikasi penemuan ini. Beliau menyatakan bahawa, buat pertama kalinya dalam sejarah, hampir sesiapa sahaja yang mempunyai akses kepada model AI ini boleh mempunyai pakar virologi AI yang tidak menghakimi yang boleh membimbing mereka melalui proses makmal yang kompleks yang diperlukan untuk mencipta senjata biologi.
Donoughe menekankan bahawa sepanjang sejarah, banyak percubaan telah dibuat untuk membangunkan senjata biologi, tetapi banyak daripada percubaan ini telah gagal kerana kekurangan akses kepada kepakaran yang diperlukan. Beliau memberi amaran bahawa ketersediaan meluas model AI yang mampu menyediakan kepakaran ini menimbulkan kebimbangan serius mengenai potensi penyalahgunaan dan keperluan untuk berhati-hati dalam cara keupayaan ini diedarkan.
- Risiko penyalahgunaan oleh bukan pakar.
- Potensi untuk mencipta senjata biologi yang mematikan.
- Keperluan untuk berhati-hati dalam mengedarkan kepakaran virologi AI.
Makmal AI Bertindak Balas Terhadap Kebimbangan
Sebagai tindak balas kepada penemuan kajian itu, penulis berkongsi hasilnya dengan makmal AI utama, mendorong beberapa pihak untuk mengambil tindakan. xAI, sebagai contoh, menerbitkan rangka kerja pengurusan risiko yang menggariskan niatnya untuk melaksanakan perlindungan virologi dalam versi masa depan model AI Grok. OpenAI memaklumkan TIME bahawa ia telah ‘menggunakan mitigasi peringkat sistem baharu untuk risiko biologi’ untuk model baharunya yang dikeluarkan minggu lepas. Anthropic menyertakan keputusan prestasi model pada kertas kerja dalam kad sistem baru-baru ini, tetapi tidak mencadangkan langkah mitigasi khusus. Gemini Google enggan mengulas kepada TIME.
Tindak balas ini menunjukkan kesedaran yang semakin meningkat di kalangan pembangun AI tentang potensi risiko yang berkaitan dengan peningkatan keupayaan AI dalam virologi dan keperluan untuk melaksanakan perlindungan untuk mencegah penyalahgunaan.
Janji AI dalam Memerangi Penyakit
Walaupun terdapat kebimbangan tentang penciptaan senjata biologi, AI juga memegang janji besar untuk memajukan penyelidikan virologi dan memerangi penyakit berjangkit. Pemimpin AI telah lama menyedari potensi AI untuk merevolusikan biomedisin dan mempercepatkan pembangunan rawatan dan penawar baharu.
Ketua Pegawai Eksekutif OpenAI, Sam Altman, sebagai contoh, menyatakan di Rumah Putih pada bulan Januari bahawa ‘apabila teknologi ini berkembang, kita akan melihat penyakit disembuhkan pada kadar yang belum pernah terjadi sebelumnya.’ Keyakinan ini disokong oleh tanda-tanda kemajuan yang menggalakkan dalam bidang ini. Awal tahun ini, penyelidik di Institut Patogen Muncul Universiti Florida membangunkan algoritma yang mampu meramalkan varian koronavirus mana yang mungkin merebak paling cepat.
Menilai Keupayaan AI untuk Menjalankan Kerja Makmal Virologi
Walaupun AI telah menunjukkan janji dalam menyediakan maklumat gaya akademik yang berkaitan dengan virologi, jurang besar masih kekal dalam memahami keupayaannya untuk benar-benar menjalankan kerja makmal virologi. Untuk menangani jurang ini, Donoughe dan rakan-rakannya mereka bentuk ujian khusus untuk soalan sukar yang tidak boleh dicari di Google yang memerlukan bantuan praktikal dan tafsiran imej dan maklumat yang biasanya tidak terdapat dalam kertas akademik.
Soalan-soalan itu direka untuk meniru cabaran yang dihadapi oleh ahli virologi dalam kerja harian mereka, seperti menyelesaikan masalah yang dihadapi semasa mengultur virus dalam jenis dan keadaan sel tertentu.
Formatnya direka sedemikian:
- Membentangkan senario tertentu.
- Memberikan butiran tentang persediaan eksperimen.
- Meminta AI untuk mengenal pasti masalah yang paling mungkin.
AI Mengatasi Ahli Virologi pada Ujian Praktikal
Keputusan ujian mendedahkan bahawa hampir setiap model AI mengatasi ahli virologi peringkat PhD, walaupun dalam bidang kepakaran mereka sendiri. Penemuan ini menunjukkan bahawa model AI bukan sahaja mampu mengakses dan memproses sejumlah besar pengetahuan virologi tetapi juga menggunakan pengetahuan ini untuk menyelesaikan masalah praktikal di makmal.
Para penyelidik juga memerhatikan bahawa model menunjukkan peningkatan ketara dari masa ke masa, menunjukkan bahawa mereka terus belajar dan memperhalusi kemahiran mereka dalam virologi. Sebagai contoh, Claude 3.5 Sonnet Anthropic melonjak daripada 26.9% kepada 33.6% ketepatan daripada model Jun 2024 kepada model Oktober 2024. Dan pratonton GPT 4.5 OpenAI pada bulan Februari mengatasi GPT-4o dengan hampir 10 mata peratusan.
Implikasi Keupayaan AI yang Berkembang
Dan Hendrycks, pengarah Center for AI Safety, menekankan bahawa model AI kini memperoleh sejumlah besar pengetahuan praktikal yang membimbangkan. Jika model AI sememangnya berkebolehan dalam persekitaran makmal basah seperti yang dicadangkan oleh kajian itu, implikasinya adalah sangat luas.
Di satu pihak, AI boleh memberikan bantuan yang tidak ternilai kepada ahli virologi yang berpengalaman dalam kerja kritikal mereka memerangi virus, mempercepatkan garis masa perubatan dan pembangunan vaksin, dan meningkatkan ujian klinikal dan pengesanan penyakit. Tom Inglesby, pengarah Pusat Keselamatan Kesiatan Johns Hopkins, menyatakan bahawa AI boleh memperkasakan saintis di bahagian yang berlainan di dunia, terutamanya mereka yang kekurangan kemahiran atau sumber khusus, untuk menjalankan kerja harian yang berharga mengenai penyakit yang berlaku di negara mereka.
- Mempercepatkan perubatan dan pembangunan vaksin.
- Meningkatkan ujian klinikal dan pengesanan penyakit.
- Memperkasakan saintis dalam persekitaran yang kekurangan sumber.
Risiko Penyalahgunaan oleh Pelaku Niat Jahat
Sebaliknya, kajian itu menimbulkan kebimbangan serius tentang potensi penyalahgunaan AI oleh pelaku niat jahat yang boleh menggunakan model ini untuk mempelajari cara mencipta virus tanpa memerlukan latihan dan akses biasa yang diperlukan untuk memasuki makmal Tahap Biokeselamatan 4 (BSL-4), yang mengendalikan agen berjangkit yang paling berbahaya dan eksotik. Inglesby memberi amaran bahawa AI boleh memperkasakan lebih ramai orang dengan kurang latihan untuk mengurus dan memanipulasi virus, yang berpotensi membawa kepada akibat yang buruk.
Hendrycks menggesa syarikat AI untuk melaksanakan pagar pelindung untuk mencegah jenis penggunaan ini, mencadangkan bahawa gagal berbuat demikian dalam tempoh enam bulan adalah melulu. Beliau mencadangkan bahawa satu penyelesaian adalah untuk menjadikan model ini berpintu, supaya hanya pihak ketiga yang dipercayai dengan alasan yang sah untuk memanipulasi virus yang mematikan, seperti penyelidik di jabatan biologi MIT, mempunyai akses kepada versi mereka yang tidak ditapis.
- Mencegah penyalahgunaan dengan melaksanakan pagar pelindung.
- Model berpintu untuk menyekat akses kepada pihak yang dipercayai.
- Memastikan bahawa hanya penyelidik yang dibenarkan mempunyai akses kepada keupayaan sensitif.
Kebolehlaksanaan Peraturan Kendiri Industri
Hendrycks percaya bahawa ia adalah mungkin dari segi teknologi untuk syarikat AI mengawal sendiri dan melaksanakan jenis perlindungan ini. Walau bagaimanapun, beliau menyatakan kebimbangan tentang sama ada sesetengah syarikat akan mengheret kaki mereka atau hanya gagal mengambil langkah yang perlu.
xAI, makmal AI Elon Musk, mengakui kertas kerja itu dan memberi isyarat bahawa syarikat itu ‘berpotensi menggunakan’ perlindungan tertentu di sekitar menjawab soalan virologi, termasuk melatih Grok untuk menolak permintaan yang berbahaya dan menggunakan penapis input dan output.
OpenAI menyatakan bahawa model terbaharunya, o3 dan o4-mini, digunakan dengan pelbagai perlindungan berkaitan risiko biologi, termasuk menyekat output yang berbahaya. Syarikat itu juga melaporkan bahawa ia menjalankan kempen pasukan merah seribu jam di mana 98.7%perbualan berkaitan bio yang tidak selamat berjaya ditandakan dan disekat.
- Melatih model AI untuk menolak permintaan yang berbahaya.
- Menggunakan penapis input dan output untuk menyekat kandungan berbahaya.
- Menjalankan latihan pasukan merah untuk mengenal pasti dan mengurangkan risiko.
Keperluan untuk Dasar dan Peraturan
Walaupun terdapat usaha ini, Inglesby berhujah bahawa peraturan kendiri industri tidak mencukupi dan menyeru penggubal undang-undang dan pemimpin politik untuk membangunkan pendekatan dasar untuk mengawal risiko bio AI. Beliau menekankan bahawa walaupun sesetengah syarikat melaburkan masa dan wang untuk menangani risiko ini, yang lain mungkin tidak, mewujudkan keadaan di mana orang ramai tidak mempunyai pandangan tentang apa yang berlaku.
Inglesby mencadangkan bahawa sebelum versi baharu LLM dikeluarkan, ia harus dinilai untuk memastikan ia tidak akan menghasilkan hasil peringkat pandemik. Ini memerlukan pendekatan yang lebih komprehensif dan diselaraskan untuk mengawal keupayaan AI dalam virologi, melibatkan kedua-dua pihak berkepentingan industri dan kerajaan.
- Menilai LLM sebelum dikeluarkan untuk mencegah hasil peringkat pandemik.
- Membangunkan pendekatan dasar yang komprehensif untuk mengawal risiko bio AI.
- Melibatkan kedua-dua pihak berkepentingan industri dan kerajaan dalam proses kawal selia.
Mencapai Keseimbangan Antara Inovasi dan Keselamatan
Cabaran terletak pada mencapai keseimbangan antara memupuk inovasi dalam AI dan memastikan bahawa teknologi berkuasa ini tidak disalahgunakan untuk mencipta senjata biologi yang mematikan. Ini memerlukan pendekatan pelbagai aspek yang merangkumi:
- Membangunkan perlindungan yang teguh untuk mencegah penyalahgunaan.
- Menyekat akses kepada keupayaan sensitif kepada pihak yang dipercayai.
- Mengawal keupayaan AI dalam virologi.
- Menggalakkan inovasi yang bertanggungjawab dan pertimbangan etika.
Dengan mengambil langkah-langkah ini, kita boleh memanfaatkan potensi besar AI untuk memajukan penyelidikan virologi dan memerangi penyakit berjangkit sambil mengurangkan risiko yang berkaitan dengan penyalahgunaannya. Masa depan AI dalam virologi bergantung pada keupayaan kita untuk mengemudi landskap kompleks ini secara bertanggungjawab dan memastikan bahawa teknologi berkuasa ini digunakan untuk manfaat manusia.