Gemini 2.5 Pro của Google bị soi xét vì thiếu báo cáo an toàn
Việc phát hành gần đây mô hình AI Gemini 2.5 Pro của Google đã gây ra tranh cãi do thiếu một báo cáo an toàn quan trọng. Sự thiếu sót này dường như mâu thuẫn với những lời hứa mà Google đã đưa ra với chính phủ Hoa Kỳ và tại các hội nghị thượng đỉnh quốc tế, làm dấy lên lo ngại về cam kết của công ty đối với sự minh bạch và phát triển AI có trách nhiệm. Các chuyên gia hiện đang đặt câu hỏi liệu Google và các phòng thí nghiệm AI hàng đầu khác có đang rút lại cam kết thông báo cho công chúng về khả năng và rủi ro tiềm ẩn liên quan đến các mô hình AI của họ hay không.
Những lời hứa bị phá vỡ và các cam kết chưa được thực hiện
Việc Google không cung cấp báo cáo nghiên cứu an toàn cùng với bản phát hành Gemini 2.5 Pro được xem là vi phạm các cam kết trước đó. Vào tháng 7 năm 2023, Google đã tham gia một cuộc họp tại Nhà Trắng do chính quyền Biden triệu tập, nơi công ty đã cùng với các công ty AI nổi tiếng khác ký một loạt cam kết. Một cam kết quan trọng là xuất bản các báo cáo cho tất cả các bản phát hành mô hình công khai lớn vượt qua AI hiện đại vào thời điểm đó. Với những tiến bộ của nó, Gemini 2.5 Pro gần như chắc chắn sẽ thuộc phạm vi của các Cam kết của Nhà Trắng này.
Vào thời điểm đó, Google đã đồng ý rằng các báo cáo này nên bao gồm:
- Đánh giá an toàn được thực hiện, bao gồm đánh giá về các khả năng nguy hiểm.
- Những hạn chế hiệu suất đáng kể có thể ảnh hưởng đến các trường hợp sử dụng thích hợp.
- Thảo luận về tác động của mô hình đối với các rủi ro xã hội như công bằng và thiên vị.
- Kết quả kiểm tra đối kháng để đánh giá sự phù hợp của mô hình để triển khai.
Sau cuộc họp G7 tại Hiroshima, Nhật Bản, vào tháng 10 năm 2023, Google và các công ty khác đã cam kết tuân thủ quy tắc ứng xử tự nguyện để phát triển AI tiên tiến. Bộ quy tắc G7 này nhấn mạnh tầm quan trọng của việc báo cáo công khai về khả năng, hạn chế và các ứng dụng phù hợp và không phù hợp của các hệ thống AI tiên tiến. Mục đích là để tăng cường tính minh bạch và trách nhiệm giải trình trong lĩnh vực AI.
Vào tháng 5 năm 2024, tại một hội nghị thượng đỉnh quốc tế về an toàn AI được tổ chức tại Seoul, Hàn Quốc, Google đã nhắc lại các cam kết của mình. Công ty hứa sẽ công khai các khả năng, hạn chế, các trường hợp sử dụng phù hợp và không phù hợp của mô hình, đồng thời cung cấp tính minh bạch xung quanh các đánh giá và kết quả rủi ro của mình.
Phản hồi của Google và sự chậm trễ về tính minh bạch
Để đáp lại các câu hỏi về báo cáo an toàn bị thiếu, một người phát ngôn của Google DeepMind, bộ phận chịu trách nhiệm phát triển các mô hình Gemini, tuyên bố rằng Gemini mới nhất đã trải qua quá trình thử nghiệm trước khi phát hành. Điều này bao gồm các đánh giá phát triển nội bộ và đánh giá đảm bảo được thực hiện trước khi phát hành mô hình. Người phát ngôn cũng chỉ ra rằng một báo cáo với thông tin an toàn bổ sung và thẻ mô hình ‘sắp ra mắt’. Tuy nhiên, mặc dù tuyên bố ban đầu được đưa ra vào ngày 2 tháng 4, nhưng cho đến nay vẫn chưa có thẻ mô hình nào được xuất bản.
Xu hướng rộng hơn về việc bỏ bê báo cáo an toàn
Google không đơn độc trong việc đối mặt với những lời chỉ trích liên quan đến cam kết của mình đối với an toàn AI. Đầu năm nay, OpenAI cũng phải đối mặt với sự giám sát vì không phát hành thẻ mô hình kịp thời cho mô hình Nghiên cứu sâu của mình. Thay vào đó, họ đã xuất bản thẻ hệ thống vài tuần sau khi dự án được phát hành ban đầu. Tương tự, báo cáo an toàn gần đây của Meta cho Llama 4 đã bị chỉ trích vì quá ngắn gọn và thiếu chi tiết.
Những trường hợp này làm nổi bật một xu hướng đáng lo ngại trong ngành công nghiệp AI, nơi một số phòng thí nghiệm lớn không ưu tiên báo cáo an toàn phù hợp với việc phát hành mô hình của họ. Điều này đặc biệt đáng lo ngại khi xét đến những cam kết tự nguyện mà các công ty này đã thực hiện với chính phủ Hoa Kỳ và cộng đồng toàn cầu để đưa ra những báo cáo như vậy. Những cam kết này ban đầu được đưa ra cho chính quyền Biden vào năm 2023 và sau đó được củng cố thông qua các cam kết tuân thủ quy tắc ứng xử AI được các quốc gia G7 thông qua tại hội nghị thượng đỉnh AI của họ ở Hiroshima.
Kevin Bankston, một cố vấn về quản trị AI tại Trung tâm Dân chủ và Công nghệ, bày tỏ sự thất vọng của mình, nói rằng những thất bại này làm suy yếu uy tín của các công ty liên quan và đặt ra câu hỏi về cam kết của họ đối với phát triển AI có trách nhiệm.
Những câu hỏi chưa được trả lời và đánh giá bên ngoài
Tuyên bố của người phát ngôn Google cũng không đề cập đến những câu hỏi cụ thể về việc liệu Gemini 2.5 Pro có được gửi để đánh giá bên ngoài bởi Viện An ninh AI của Vương quốc Anh hay Viện An toàn AI của Hoa Kỳ hay không. Trước đây, Google đã cung cấp các thế hệ trước của các mô hình Gemini của mình cho Viện An toàn AI của Vương quốc Anh để đánh giá.
Tại Hội nghị thượng đỉnh An toàn Seoul, Google đã ký vào ‘Cam kết An toàn AI Tiên phong’, bao gồm cam kết cung cấp tính minh bạch công khai về việc thực hiện các đánh giá an toàn. Các trường hợp ngoại lệ duy nhất là các trường hợp làm như vậy sẽ làm tăng rủi ro hoặc tiết lộ thông tin thương mại nhạy cảm đến mức không tương xứng với lợi ích xã hội. Cam kết cũng nêu rõ rằng thông tin chi tiết hơn không thể chia sẻ công khai vẫn nên được chia sẻ với chính phủ của các quốc gia nơi các công ty đặt trụ sở, đó sẽ là Hoa Kỳ trong trường hợp của Google.
Các công ty cũng cam kết giải thích cách các tác nhân bên ngoài, chẳng hạn như chính phủ, xã hội dân sự, họcgiả và công chúng, tham gia vào quá trình đánh giá rủi ro của các mô hình AI của họ. Việc Google không trả lời các câu hỏi trực tiếp về việc liệu họ có gửi Gemini 2.5 Pro cho các nhà đánh giá của chính phủ Hoa Kỳ hoặc Vương quốc Anh hay không có khả năng vi phạm cam kết này.
Ưu tiên triển khai hơn tính minh bạch
Việc thiếu báo cáo an toàn đã làm dấy lên lo ngại rằng Google có thể đang ưu tiên triển khai nhanh chóng hơn tính minh bạch và đánh giá an toàn kỹ lưỡng. Sandra Wachter, một giáo sư và nhà nghiên cứu cấp cao tại Viện Internet Oxford, nhấn mạnh tầm quan trọng của tính minh bạch trong nghiên cứu và đổi mới có trách nhiệm. Bà đưa ra một phép tương tự cho các ngành công nghiệp khác, nói rằng ‘Nếu đây là một chiếc xe hơi hoặc một chiếc máy bay, chúng ta sẽ không nói: hãy đưa nó ra thị trường càng nhanh càng tốt và chúng ta sẽ xem xét các khía cạnh an toàn sau.’ Wachter bày tỏ lo ngại rằng có một thái độ phổ biến trong lĩnh vực AI tạo sinh là ‘đưa nó ra ngoài và lo lắng, điều tra và khắc phục các vấn đề sau.’
Thay đổi chính trị và áp lực cạnh tranh
Những thay đổi chính trị gần đây, cùng với sự cạnh tranh ngày càng gay gắt giữa các công ty Big Tech, có thể góp phần vào sự thay đổi khỏi các cam kết an toàn trước đó khi các công ty chạy đua để triển khai các mô hình AI. Wachter lưu ý rằng ‘Điểm áp lực đối với các công ty này là nhanh hơn, nhanh hơn, là người đầu tiên, là người giỏi nhất, là người thống trị, phổ biến hơn trước đây,’ và nói thêm rằng các tiêu chuẩn an toàn đang giảm trên toàn ngành.
Những tiêu chuẩn trượt này có thể được thúc đẩy bởi một mối lo ngại ngày càng tăng giữa các quốc gia công nghệ và một số chính phủ rằng các quy trình an toàn AI đang cản trở sự đổi mới. Tại Hoa Kỳ, chính quyền Trump đã chỉ ra ý định áp dụng một cách tiếp cận ít nghiêm ngặt hơn đối với quy định AI so với chính quyền Biden. Chính quyền mới đã thu hồi một lệnh hành pháp thời Biden về AI và đã nuôi dưỡng mối quan hệ chặt chẽ hơn với các nhà lãnh đạo công nghệ. Tại hội nghị thượng đỉnh AI gần đây ở Paris, Phó Tổng thống Hoa Kỳ JD Vance tuyên bố rằng ‘các chính sách AI thúc đẩy tăng trưởng’ nên được ưu tiên hơn an toàn và AI là ‘một cơ hội mà chính quyền Trump sẽ không lãng phí.’
Tại hội nghị thượng đỉnh tương tự, cả Vương quốc Anh và Hoa Kỳ đều từ chối ký một thỏa thuận quốc tế về trí tuệ nhân tạo, thúc đẩy một cách tiếp cận ‘cởi mở’, ‘bao trùm’ và ‘đạo đức’ đối với sự phát triển của công nghệ này.
Sự cần thiết của các yêu cầu minh bạch rõ ràng
Bankston nhấn mạnh rằng ‘Nếu chúng ta không thể tin tưởng các công ty này thực hiện ngay cả những cam kết an toàn và minh bạch cơ bản nhất của họ khi phát hành các mô hình mới—những cam kết mà chính họ đã tự nguyện thực hiện—thì rõ ràng họ đang phát hành các mô hình quá nhanh trong cuộc chạy đua cạnh tranh để thống trị lĩnh vực này.’ Ông nói thêm rằng khi các nhà phát triển AI tiếp tục thất bại trong các cam kết này, thì các nhà lập pháp sẽ phải phát triển và thực thi các yêu cầu minh bạch rõ ràng mà các công ty không thể trốn tránh.
Các ý nghĩa rộng hơn đối với quản trị AI
Những tranh cãi xung quanh Gemini 2.5 Pro của Google và báo cáo an toàn bị thiếu nhấn mạnh sự cần thiết quan trọng đối với các khuôn khổ quản trị AI mạnh mẽ. Các khuôn khổ này nên giải quyết các vấn đề chính như:
- Tính minh bạch: Đảm bảo rằng các nhà phát triển AI minh bạch về khả năng, hạn chế và rủi ro tiềm ẩn của các mô hình của họ.
- Trách nhiệm giải trình: Thiết lập các dòng trách nhiệm giải trình rõ ràng cho việc phát triển và triển khai các hệ thống AI.
- An toàn: Thực hiện các quy trình đánh giá và thử nghiệm an toàn nghiêm ngặt để giảm thiểu rủi ro gây hại.
- Các cân nhắc về đạo đức: Tích hợp các nguyên tắc đạo đức vào thiết kế và phát triển các hệ thống AI.
- Sự tham gia của công chúng: Tương tác với công chúng để thúc đẩy sự hiểu biết rộng hơn về AI và các tác động của nó.
- Hợp tác quốc tế: Hợp tác quốc tế để phát triển các tiêu chuẩn chung và các thông lệ tốt nhất cho quản trị AI.
Việc thiếu tính minh bạch xung quanh Gemini 2.5 Pro làm nổi bật những hậu quả tiềm ẩn của việc bỏ bê các khía cạnh quan trọng này của quản trị AI. Nếu không có tính minh bạch và trách nhiệm giải trình đầy đủ, sẽ rất khó để đánh giá tác động thực sự của các hệ thống AI và đảm bảo rằng chúng được phát triển và triển khai một cách có trách nhiệm và đạo đức.
Tiến lên phía trước: Lời kêu gọi trách nhiệm lớn hơn
Ngành công nghiệp AI đang ở một thời điểm quan trọng. Khi các công nghệ AI ngày càng trở nên mạnh mẽ và phổ biến, điều cần thiết là các nhà phát triển phải ưu tiên các cân nhắc về an toàn, minh bạch và đạo đức. Những tranh cãi xung quanh Gemini 2.5 Pro đóng vai trò như một lời nhắc nhở rằng các cam kết tự nguyện không phải lúc nào cũng đủ. Các chính phủ và cơ quan quản lý phải đóng vai trò tích cực hơn trong việc thiết lập các tiêu chuẩn rõ ràng và thực thi sự tuân thủ.
Hơn nữa, điều quan trọng là các nhà phát triển AI phải tương tác với công chúng và thúc đẩy sự hiểu biết rộng hơn về AI và các tác động của nó. Điều này bao gồm việc minh bạch về những hạn chế và rủi ro tiềm ẩn của các hệ thống AI, cũng như các bước đang được thực hiện để giảm thiểu những rủi ro đó. Bằng cách làm việc cùng nhau, ngành công nghiệp AI, các chính phủ và công chúng có thể đảm bảo rằng các công nghệ AI được phát triển và triển khai theo cách mang lại lợi ích cho toàn xã hội.