AI và Rủi Ro Sinh Học Gia Tăng trong Các Phòng Thí Nghiệm Virus
Một nghiên cứu đột phá cho thấy các mô hình trí tuệ nhân tạo (AI) tiên tiến, bao gồm cả những mô hình cung cấp năng lượng cho các nền tảng như ChatGPT và Claude, hiện đang thể hiện khả năng giải quyết vấn đề trong các phòng thí nghiệm virus học vượt trội hơn so với các nhà virus học dày dạn kinh nghiệm có bằng Tiến sĩ. Tiết lộ này, mặc dù mang lại tiềm năng to lớn cho việc tăng cường phòng ngừa dịch bệnh, cũng làm dấy lên những lo ngại đáng kể về khả năng AI bị lạm dụng để tạo ra vũ khí sinh học chết người, đặc biệt là bởi những cá nhân thiếu kiến thức chuyên môn và cân nhắc đạo đức cần thiết.
Con Dao Hai Lưỡi của AI trong Virus Học
Nghiên cứu, được chia sẻ độc quyền với TIME, là một nỗ lực hợp tác giữa các nhà nghiên cứu từ Trung tâm An toàn AI, Phòng thí nghiệm Truyền thông của MIT, UFABC (một trường đại học của Brazil) và SecureBio, một tổ chức phi lợi nhuận chuyên về phòng ngừa đại dịch. Nhóm nghiên cứu đã tham khảo ý kiến của các nhà virus học hàng đầu để thiết kế một bài kiểm tra thực tế đầy thách thức, đánh giá khả năng của các mô hình AI trong việc khắc phục hiệu quả các quy trình và giao thức phòng thí nghiệm phức tạp thường được sử dụng trong nghiên cứu virus học.
Kết quả của bài kiểm tra thật đáng kinh ngạc. Các nhà virus học có trình độ Tiến sĩ, mặc dù được đào tạo và có kinh nghiệm sâu rộng, chỉ đạt được điểm chính xác trung bình là 22,1% trong các lĩnh vực chuyên môn đã tuyên bố của họ. Ngược lại, mô hình o3 của OpenAI đạt được độ chính xác ấn tượng là 43,8%, trong khi Gemini 2.5 Pro của Google đạt 37,6%. Những phát hiện này cho thấy rằng các mô hình AI đang nhanh chóng có được kiến thức và kỹ năng cần thiết để thực hiện các nhiệm vụ phức tạp trong các phòng thí nghiệm virus học, có khả năng vượt qua khả năng của các chuyên gia con người trong một số lĩnh vực nhất định.
Quan Ngại Về Việc Tạo Vũ Khí Sinh Học
Seth Donoughe, một nhà khoa học nghiên cứu tại SecureBio và là đồng tác giả của nghiên cứu, bày tỏ lo ngại về ý nghĩa của những phát hiện này. Ông lưu ý rằng, lần đầu tiên trong lịch sử, hầu như bất kỳ ai có quyền truy cập vào các mô hình AI này đều có thể có một chuyên gia virus học AI không phán xét theo ý của họ, có khả năng hướng dẫn họ thông qua các quy trình phòng thí nghiệm phức tạp cần thiết để tạo ra vũ khí sinh học.
Donoughe nhấn mạnh rằng trong suốt lịch sử, nhiều nỗ lực đã được thực hiện để phát triển vũ khí sinh học, nhưng nhiều nỗ lực trong số này đã thất bại do thiếu quyền truy cập vào kiến thức chuyên môn cần thiết. Ông cảnh báo rằng việc phổ biến rộng rãi các mô hình AI có khả năng cung cấp kiến thức chuyên môn này làm dấy lên những lo ngại nghiêm trọng về khả năng lạm dụng và sự cần thiết phải thận trọng trong cách phân phối các khả năng này.
- Nguy cơ lạm dụng bởi những người không có chuyên môn.
- Khả năng tạo ra vũ khí sinh học chết người.
- Sự cần thiết phải thận trọng trong việc phân phối kiến thức chuyên môn về virus học AI.
Các Phòng Thí Nghiệm AI Phản Ứng Trước Những Quan Ngại
Để đáp ứng các phát hiện của nghiên cứu, các tác giả đã chia sẻ kết quả với các phòng thí nghiệm AI lớn, thúc đẩy một số phòng thí nghiệm hành động. Ví dụ, xAI đã công bố một khuôn khổ quản lý rủi ro nêu rõ ý định thực hiện các biện pháp bảo vệ virus học trong các phiên bản tương lai của mô hình AI Grok. OpenAI thông báo với TIME rằng họ đã ‘triển khai các biện pháp giảm thiểu cấp hệ thống mới cho các rủi ro sinh học’ cho các mô hình mới được phát hành vào tuần trước. Anthropic đã đưa kết quả hiệu suất mô hình trên bài báo vào các thẻ hệ thống gần đây, nhưng không đề xuất các biện pháp giảm thiểu cụ thể. Gemini của Google từ chối bình luận với TIME.
Những phản hồi này cho thấy sự nhận thức ngày càng tăng giữa các nhà phát triển AI về những rủi ro tiềm ẩn liên quan đến khả năng ngày càng tăng của AI trong virus học và sự cần thiết phải thực hiện các biện pháp bảo vệ để ngăn chặn lạm dụng.
Hứa Hẹn của AI trong Việc Chống Lại Bệnh Tật
Mặc dù có những lo ngại về việc tạo vũ khí sinh học, AI cũng hứa hẹn rất nhiều cho việc thúc đẩy nghiên cứu virus học và chống lại các bệnh truyền nhiễm. Các nhà lãnh đạo AI từ lâu đã nhận ra tiềm năng của AI trong việc cách mạng hóa y sinh học và đẩy nhanh sự phát triển của các phương pháp điều trị và chữa bệnh mới.
Ví dụ, Giám đốc điều hành OpenAI Sam Altman, đã tuyên bố tại Nhà Trắng vào tháng Giêng rằng ‘khi công nghệ này tiến bộ, chúng ta sẽ thấy các bệnh được chữa khỏi với tốc độ chưa từng có’. Sự lạc quan này được hỗ trợ bởi các dấu hiệu tiến bộ đáng khích lệ trong lĩnh vực này. Đầu năm nay, các nhà nghiên cứu tại Viện Bệnh mới nổi của Đại học Florida đã phát triển một thuật toán có khả năng dự đoán biến thể coronavirus nào có thể lây lan nhanh nhất.
Đánh Giá Khả Năng của AI trong Việc Thực Hiện Công Việc Phòng Thí Nghiệm Virus Học
Trong khi AI đã cho thấy những hứa hẹn trong việc cung cấp thông tin theo phong cách học thuật liên quan đến virus học, thì một khoảng trống lớn vẫn còn trong việc hiểu khả năng thực tế tiến hành công việc phòng thí nghiệm virus học của nó. Để giải quyết khoảng trống này, Donoughe và các đồng nghiệp của ông đã thiết kế một bài kiểm tra đặc biệt cho các câu hỏi khó, không thể tìm kiếm được trên Google, đòi hỏi sự hỗ trợ thực tế và giải thích hình ảnh và thông tin thường không có trong các bài báo học thuật.
Các câu hỏi được thiết kế để mô phỏng những thách thức mà các nhà virus học phải đối mặt trong công việc hàng ngày của họ, chẳng hạn như khắc phục các vấn đề gặp phải khi nuôi cấy virus trong các loại tế bào và điều kiện cụ thể.
Định dạng được thiết kế như sau:
- Trình bày một kịch bản cụ thể.
- Cung cấp chi tiết về thiết lập thử nghiệm.
- Yêu cầu AI xác định vấn đề có khả năng xảy ra nhất.
AI Vượt Trội Các Nhà Virus Học trong Các Bài Kiểm Tra Thực Tế
Kết quả của bài kiểm tra cho thấy rằng hầu như mọi mô hình AI đều vượt trội hơn các nhà virus học có trình độ Tiến sĩ, ngay cả trong các lĩnh vực chuyên môn của họ. Phát hiện này cho thấy rằng các mô hình AI không chỉ có khả năng truy cập và xử lý một lượng lớn kiến thức về virus học mà còn có khả năng áp dụng kiến thức này để giải quyết các vấn đề thực tế trong phòng thí nghiệm.
Các nhà nghiên cứu cũng quan sát thấy rằng các mô hình đã cho thấy sự cải thiện đáng kể theo thời gian, cho thấy rằng chúng liên tục học hỏi và trau dồi các kỹ năng của mình trong virus học. Ví dụ, Claude 3.5 Sonnet của Anthropic đã tăng từ độ chính xác 26,9% lên 33,6% từ mô hình tháng 6 năm 2024 đến mô hình tháng 10 năm 2024. Và bản xem trước của GPT 4.5 của OpenAI vào tháng Hai đã vượt trội hơn GPT-4o gần 10 điểm phần trăm.
Ý Nghĩa của Khả Năng Phát Triển của AI
Dan Hendrycks, giám đốc của Trung tâm An toàn AI, nhấn mạnh rằng các mô hình AI hiện đang có được một lượng kiến thức thực tế đáng lo ngại. Nếu các mô hình AI thực sự có khả năng trong môi trường phòng thí nghiệm ướt như nghiên cứu gợi ý, thì ý nghĩa của nó là rất sâu rộng.
Một mặt, AI có thể cung cấp hỗ trợ vô giá cho các nhà virus học có kinh nghiệm trong công việc quan trọng của họ để chống lại virus, đẩy nhanh tiến độ phát triển thuốc và vắc-xin, đồng thời cải thiện các thử nghiệm lâm sàng và phát hiện bệnh. Tom Inglesby, giám đốc Trung tâm An ninh Y tế Johns Hopkins, lưu ý rằng AI có thể trao quyền cho các nhà khoa học ở các khu vực khác nhau trên thế giới, đặc biệt là những người thiếu kỹ năng hoặc nguồn lực chuyên môn, để tiến hành công việc hàng ngày có giá trị về các bệnh xảy ra ở quốc gia của họ.
- Đẩy nhanh việc phát triển thuốc và vắc-xin.
- Cải thiện các thử nghiệm lâm sàng và phát hiện bệnh.
- Trao quyền cho các nhà khoa học trong các môi trường thiếu nguồn lực.
Nguy Cơ Lạm Dụng bởi Những Kẻ Xấu
Mặt khác, nghiên cứu này làm dấy lên những lo ngại nghiêm trọng về khả năng lạm dụng AI bởi những kẻ xấu có thể sử dụng các mô hình này để tìm hiểu cách tạo ra virus mà không cần đào tạo và quyền truy cập điển hình cần thiết để vào phòng thí nghiệm Cấp độ An toàn Sinh học 4 (BSL-4), nơi xử lý các tác nhân lây nhiễm nguy hiểm và kỳ lạ nhất. Inglesby cảnh báo rằng AI có thể trao quyền cho nhiều người hơn với ít đào tạo hơn để quản lý và thao túng virus, có khả năng dẫn đến hậu quả thảm khốc.
Hendrycks kêu gọi các công ty AI thực hiện các biện pháp bảo vệ để ngăn chặn loại hình sử dụng này, cho rằng nếu không làm như vậy trong vòng sáu tháng sẽ là liều lĩnh. Ông đề xuất rằng một giải pháp là làm cho các mô hình này được kiểm soát, để chỉ các bên thứ ba đáng tin cậy có lý do chính đáng để thao túng các loại virus chết người, chẳng hạn như các nhà nghiên cứu tại khoa sinh học MIT, mới có quyền truy cập vào các phiên bản không được lọc của chúng.
- Ngăn chặn lạm dụng bằng cách thực hiện các biện pháp bảo vệ.
- Kiểm soát các mô hình để hạn chế quyền truy cập vào các bên đáng tin cậy.
- Đảm bảo rằng chỉ các nhà nghiên cứu được ủy quyền mới có quyền truy cập vào các khả năng nhạy cảm.
Tính Khả Thi của Tự Điều Chỉnh Ngành
Hendrycks tin rằng về mặt công nghệ, các công ty AI có thể tự điều chỉnh và thực hiện các loại biện pháp bảo vệ này. Tuy nhiên, ông bày tỏ lo ngại về việc liệu một số công ty sẽ kéo dài thời gian hay đơn giản là không thực hiện các bước cần thiết.
xAI, phòng thí nghiệm AI của Elon Musk, thừa nhận bài báo và báo hiệu rằng công ty sẽ ‘có khả năng sử dụng’ một số biện pháp bảo vệ xung quanh việc trả lời các câu hỏi về virus học, bao gồm đào tạo Grok để từ chối các yêu cầu có hại và áp dụng các bộ lọc đầu vào và đầu ra.
OpenAI tuyên bố rằng các mô hình mới nhất của họ, o3 và o4-mini, đã được triển khai với một loạt các biện pháp bảo vệ liên quan đến rủiro sinh học, bao gồm chặn các đầu ra có hại. Công ty cũng báo cáo rằng họ đã thực hiện một chiến dịch kiểm tra đỏ kéo dài hàng nghìn giờ, trong đó 98,7% các cuộc trò chuyện liên quan đến sinh học không an toàn đã được gắn cờ và chặn thành công.
- Đào tạo các mô hình AI để từ chối các yêu cầu có hại.
- Áp dụng các bộ lọc đầu vào và đầu ra để chặn nội dung nguy hiểm.
- Tiến hành các bài tập kiểm tra đỏ để xác định và giảm thiểu rủi ro.
Sự Cần Thiết của Chính Sách và Quy Định
Mặc dù có những nỗ lực này, Inglesby lập luận rằng tự điều chỉnh ngành là không đủ và kêu gọi các nhà lập pháp và các nhà lãnh đạo chính trị phát triển một cách tiếp cận chính sách để điều chỉnh các rủi ro sinh học của AI. Ông nhấn mạnh rằng trong khi một số công ty đang đầu tư thời gian và tiền bạc để giải quyết những rủi ro này, thì những công ty khác có thể không, tạo ra một tình huống mà công chúng không có cái nhìn sâu sắc về những gì đang xảy ra.
Inglesby đề xuất rằng trước khi một phiên bản mới của LLM được phát hành, nó nên được đánh giá để đảm bảo rằng nó sẽ không tạo ra kết quả ở cấp độ đại dịch. Điều này sẽ đòi hỏi một cách tiếp cận toàn diện và phối hợp hơn để điều chỉnh khả năng của AI trong virus học, liên quan đến cả các bên liên quan trong ngành và chính phủ.
- Đánh giá LLM trước khi phát hành để ngăn chặn các kết quả ở cấp độ đại dịch.
- Phát triển một cách tiếp cận chính sách toàn diện để điều chỉnh các rủi ro sinh học của AI.
- Liên quan đến cả các bên liên quan trong ngành và chính phủ trong quá trình điều chỉnh.
Cân Bằng Giữa Đổi Mới và An Toàn
Thách thức nằm ở việc cân bằng giữa thúc đẩy đổi mới trong AI và đảm bảo rằng các công nghệ mạnh mẽ này không bị lạm dụng để tạo ra vũ khí sinh học chết người. Điều này đòi hỏi một cách tiếp cận nhiều mặt bao gồm:
- Phát triển các biện pháp bảo vệ mạnh mẽ để ngăn chặn lạm dụng.
- Hạn chế quyền truy cập vào các khả năng nhạy cảm đối với các bên đáng tin cậy.
- Điều chỉnh khả năng của AI trong virus học.
- Thúc đẩy đổi mới có trách nhiệm và cân nhắc đạo đức.
Bằng cách thực hiện các bước này, chúng ta có thể khai thác tiềm năng to lớn của AI để thúc đẩy nghiên cứu virus học và chống lại các bệnh truyền nhiễm đồng thời giảm thiểu các rủi ro liên quan đến việc lạm dụng nó. Tương lai của AI trong virus học phụ thuộc vào khả năng điều hướng bối cảnh phức tạp này một cách có trách nhiệm và đảm bảo rằng các công nghệ mạnh mẽ này được sử dụng vì lợi ích của nhân loại.