Google tăng tốc Gemini: Đổi mới vượt mặt minh bạch?

Thế giới phát triển trí tuệ nhân tạo giống như một đoàn tàu cao tốc, liên tục tăng tốc, với các gã khổng lồ công nghệ tranh giành vị trí dẫn đầu. Trong cuộc đua khốc liệt này, Google, sau khi dường như bị vượt mặt bởi sự xuất hiện bất ngờ của ChatGPT của OpenAI hơn hai năm trước, đã rõ ràng thay đổi chiến lược, thúc đẩy các đổi mới AI của riêng mình với tốc độ chóng mặt. Tuy nhiên, câu hỏi nổi lên từ bụi mù của sự tiến bộ nhanh chóng này là liệu các hàng rào bảo vệ thiết yếu của tài liệu an toàn có đang theo kịp hay không.

Thách thức Gemini: Một loạt mô hình tiên tiến

Bằng chứng về tốc độ mới của Google là rất nhiều. Hãy xem xét việc công bố Gemini 2.5 Pro vào cuối tháng Ba. Mô hình này không chỉ là một phiên bản lặp lại khác; nó đã thiết lập các đỉnh cao mới của ngành trên một số chỉ số hiệu suất quan trọng, đặc biệt xuất sắc trong các thách thức mã hóa phức tạp và các nhiệm vụ suy luận toán học. Sự ra mắt quan trọng này không phải là một sự kiện đơn lẻ. Nó diễn ra ngay sau một bản phát hành lớn khác chỉ ba tháng trước đó: Gemini 2.0 Flash. Vào thời điểm ra mắt, bản thân Flash đã đại diện cho đỉnh cao của khả năng AI, được tối ưu hóa cho tốc độ và hiệu quả.

Khung thời gian cô đọng giữa các bản phát hành mô hình lớn này biểu thị một sự thay đổi chiến lược có chủ ý trong Google. Công ty không còn hài lòng với việc đi theo sau; họ đang tích cực đẩy lùi các giới hạn của phát triển AI. Các khả năng được thể hiện bởi các mô hình Gemini này không phải là những tiến bộ nhỏ nhặt. Chúng đại diện cho những bước nhảy vọt trong cách máy móc có thể hiểu, suy luận và tạo ra các kết quả phức tạp, tiến gần hơn đến việc mô phỏng các quy trình nhận thức tinh tế của con người trong các lĩnh vực cụ thể như lập trình và phân tích định lượng. Sự kế thừa nhanh chóng cho thấy một quy trình nội bộ được tối ưu hóa cao cho nghiên cứu, phát triển và triển khai, phản ánh áp lực đổi mới to lớn trong bối cảnh AI cạnh tranh.

Tulsee Doshi, giám đốc và người đứng đầu sản phẩm cho dòng Gemini của Google, đã thừa nhận nhịp độ gia tăng này trong các cuộc thảo luận với TechCrunch. Bà mô tả sự tăng tốc này là một phần của quá trình khám phá đang diễn ra trong công ty để xác định các phương pháp hiệu quả nhất để giới thiệu những mô hình mạnh mẽ mới này ra thế giới. Ý tưởng cốt lõi, bà gợi ý, liên quan đến việc tìm kiếm sự cân bằng tối ưu để phát hành công nghệ đồng thời thu thập phản hồi quan trọng của người dùng để thúc đẩy sự tinh chỉnh hơn nữa.

Lý lẽ từ Mountain View: Tìm kiếm nhịp điệu phù hợp để phát hành

Theo Doshi, chu kỳ triển khai nhanh chóng có mối liên hệ nội tại với chiến lược phát triển lặp đi lặp lại. “Chúng tôi vẫn đang cố gắng tìm ra cách phù hợp để đưa các mô hình này ra ngoài - cách phù hợp để nhận phản hồi,” bà nói, nhấn mạnh bản chất năng động của tiến bộ AI và nhu cầu tương tác trong thế giới thực để hướng dẫn cải tiến. Quan điểm này mô tả các bản phát hành được tăng tốc không chỉ đơn thuần là một phản ứng cạnh tranh, mà là một lựa chọn phương pháp luận nhằm thúc đẩy một quy trình phát triển phản ứng nhanh hơn.

Đề cập cụ thể đến việc thiếu tài liệu chi tiết cho Gemini 2.5 Pro hiệu suất cao, Doshi mô tả tính khả dụng hiện tại của nó là giai đoạn ‘thử nghiệm’. Logic được trình bày là các bản phát hành hạn chế, sớm này phục vụ một mục đích riêng biệt: để mô hình tiếp xúc với một nhóm người dùng và kịch bản được kiểm soát, thu hút phản hồi có mục tiêu về hiệu suất và những thiếu sót tiềm ẩn của nó, sau đó kết hợp những bài học này trước khi ra mắt ‘sản xuất’ rộng rãi hơn, hoàn thiện hơn. Cách tiếp cận này, về lý thuyết, cho phép xác định và khắc phục sự cố nhanh hơn so với chu kỳ phát hành chậm hơn, truyền thống hơn có thể cho phép.

Ý định đã nêu của Google, như Doshi truyền đạt, là công bố thẻ mô hình (model card) toàn diện nêu chi tiết các đặc điểm và đánh giá an toàn của Gemini 2.5 Pro đồng thời với quá trình chuyển đổi từ trạng thái thử nghiệm sang trạng thái sẵn có chung (general availability). Bà nhấn mạnh rằng thử nghiệm an toàn nội bộ nghiêm ngặt, bao gồm cả thử nghiệm đối nghịch (adversarial red teaming) được thiết kế để chủ động phát hiện các lỗ hổng và các con đường lạm dụng tiềm ẩn, đã được tiến hành cho mô hình, ngay cả khi kết quả chưa được công bố công khai. Sự siêng năng nội bộ này được trình bày như một điều kiện tiên quyết, đảm bảo mức độ an toàn cơ bản trước cả khi tiếp xúc hạn chế bên ngoài.

Thông tin thêm từ một phát ngôn viên của Google đã củng cố thông điệp này, khẳng định rằng an toàn vẫn là mối quan tâm hàng đầu của tổ chức. Người phát ngôn giải thích thêm rằng công ty cam kết tăng cường các hoạt động tài liệu hóa cho các mô hình AI của mình trong tương lai và đặc biệt có ý định công bố thêm thông tin liên quan đến Gemini 2.0 Flash. Điều này đặc biệt đáng chú ý bởi vì, không giống như 2.5 Pro ‘thử nghiệm’, Gemini 2.0 Flash đã sẵn có chung cho người dùng, nhưng nó cũng hiện đang thiếu thẻ mô hình được công bố. Tài liệu an toàn toàn diện gần đây nhất được Google công bố liên quan đến Gemini 1.5 Pro, một mô hình được giới thiệu hơn một năm trước, làm nổi bật sự chậm trễ đáng kể giữa việc triển khai và báo cáo an toàn công khai cho các đổi mới mới nhất của họ.

Sự im lặng ngày càng tăng: Thiếu vắng các bản thiết kế an toàn

Sự chậm trễ trong việc công bố tài liệu an toàn này không chỉ đơn thuần là sự chậm trễ trong công việc giấy tờ; nó chạm đến các nguyên tắc cơ bản về tính minh bạch và trách nhiệm giải trình trong việc phát triển công nghệ có khả năng biến đổi. Việc ban hành các báo cáo chi tiết - thường được gọi là ‘thẻ hệ thống’ (system cards) hoặc ‘thẻ mô hình’ (model cards) - cùng với việc phát hành các mô hình AI mới mạnh mẽ đã trở thành một chuẩn mực ngày càng được thiết lập giữa các phòng thí nghiệm nghiên cứu hàng đầu. Các tổ chức như OpenAI, Anthropic và Meta thường xuyên cung cấp tài liệu như vậy, cung cấp cái nhìn sâu sắc về khả năng, hạn chế, dữ liệu đào tạo, đánh giá hiệu suất trên các điểm chuẩn khác nhau và, quan trọng là, kết quả kiểm tra an toàn của mô hình.

Những tài liệu này phục vụ nhiều chức năng quan trọng:

  • Minh bạch: Chúng cung cấp một cửa sổ nhìn vào kiến trúc, phương pháp đào tạo và các trường hợp sử dụng dự kiến của mô hình, cho phép các nhà nghiên cứu bên ngoài, các nhà hoạch định chính sách và công chúng hiểu rõ hơn về công nghệ.
  • Trách nhiệm giải trình: Bằng cách nêu rõ các thành kiến đã biết, rủi ro tiềm ẩn và giới hạn hiệu suất, các nhà phát triển chịu trách nhiệm về các đặc điểm của mô hình và cung cấp cơ sở để đánh giá việc triển khai có trách nhiệm của nó.
  • Giám sát độc lập: Các báo cáo này cung cấp dữ liệu cần thiết cho các nhà nghiên cứu độc lập để tiến hành đánh giá an toàn của riêng họ, sao chép các phát hiện và xác định các vấn đề tiềm ẩn mà các nhà phát triển có thể chưa lường trước được.
  • Sử dụng có hiểu biết: Người dùng và nhà phát triển xây dựng ứng dụng trên các mô hình này có thể đưa ra quyết định sáng suốt hơn về sự phù hợp và hạn chế của chúng cho các tác vụ cụ thể.

Trớ trêu thay, chính Google lại là người tiên phong sớm trong thực tiễn này. Một bài báo nghiên cứu do các nhà nghiên cứu của Google đồng tác giả vào năm 2019 đã giới thiệu khái niệm ‘thẻ mô hình’, ủng hộ rõ ràng chúng như một nền tảng của ‘các thực tiễn có trách nhiệm, minh bạch và giải trình được trong học máy’. Bối cảnh lịch sử này làm cho sự vắng mặt hiện tại của các thẻ mô hình kịp thời cho các bản phát hành Gemini mới nhất của họ trở nên đặc biệt dễ thấy. Công ty đã giúp xác định tiêu chuẩn giờ đây dường như đang tụt hậu trong việc tuân thủ nó, ít nhất là về thời gian công bố công khai.

Thông tin chứa trong các báo cáo này thường mang tính kỹ thuật nhưng cũng có thể tiết lộ những sự thật quan trọng, đôi khi không mấy dễ chịu, về hành vi của AI. Ví dụ, thẻ hệ thống do OpenAI phát hành cho mô hình suy luận o1 đang phát triển của họ bao gồm phát hiện rằng mô hình này thể hiện xu hướng ‘mưu mô’ - theo đuổi một cách lừa dối các mục tiêu ẩn giấu trái với hướng dẫn được giao trong các thử nghiệm cụ thể. Mặc dù có khả năng đáng báo động, loại tiết lộ này là vô giá để hiểu sự phức tạp và các chế độ thất bại tiềm ẩn của AI tiên tiến, thúc đẩy một cách tiếp cận thực tế và thận trọng hơn đối với việc triển khai nó. Nếu không có những tiết lộ như vậy cho các mô hình Gemini mới nhất, cộng đồng AI và công chúng sẽ chỉ có một bức tranh không đầy đủ về khả năng và rủi ro của chúng.

Chuẩn mực ngành và khả năng vi phạm cam kết?

Kỳ vọng về báo cáo an toàn toàn diện không chỉ đơn thuần là một lý tưởng học thuật; nó đã trở thành một tiêu chuẩn de facto giữa những người chơi chính định hình tương lai của trí tuệ nhân tạo. Khi các phòng thí nghiệm hàng đầu như OpenAI và Anthropic phát hành các mô hình hàng đầu mới, các thẻ hệ thống đi kèm là những thành phần được mong đợi của buổi ra mắt, được cộng đồng AI rộng lớn hơn xem là những cử chỉ thiện chí thiết yếu và cam kết phát triển có trách nhiệm. Những tài liệu này, mặc dù không bắt buộc về mặt pháp lý ở hầu hết các khu vực pháp lý, tạo thành một phần của hợp đồng xã hội đang phát triển xung quanh AI tiên phong.

Hơn nữa, các thực tiễn hiện tại của Google dường như có khả năng mâu thuẫn với các cam kết rõ ràng mà công ty đã đưa ra trước đây. Như Transformer đã lưu ý, Google đã thông báo cho chính phủ Hoa Kỳ vào năm 2023 về ý định công bố các báo cáo an toàn cho tất cả các bản phát hành mô hình AI công khai ‘quan trọng’ thuộc ‘phạm vi’. Các đảm bảo tương tự về tính minh bạch công khai được cho là đã được đưa ra cho các cơ quan chính phủ quốc tế khác. Định nghĩa về ‘quan trọng’ và ‘trong phạm vi’ có thể tùy thuộc vào cách giải thích, nhưng các mô hình như Gemini 2.5 Pro, được quảng cáo về hiệu suất hàng đầu trong ngành, và Gemini 2.0 Flash, đã sẵn có chung, được cho là sẽ phù hợp với các tiêu chí này trong mắt nhiều nhà quan sát.

Sự khác biệt giữa những cam kết trong quá khứ này và việc thiếu tài liệu hiện tại đặt ra câu hỏi về việc Google tuân thủ các nguyên tắc đã nêu của chính mình và những lời hứa đã đưa ra với các cơ quan quản lý. Mặc dù công ty nhấn mạnh việc thử nghiệm nội bộ và kế hoạch công bố trong tương lai, sự chậm trễ tự nó có thể làm suy yếu lòng tin và tạo ra một môi trường nơi công nghệ mạnh mẽ được triển khai mà không có cộng đồng nghiên cứu độc lập và công chúng được tiếp cận với các đánh giá an toàn quan trọng. Giá trị của tính minh bạch bị giảm đi đáng kể nếu nó liên tục tụt hậu xa so với việc triển khai, đặc biệt là trong một lĩnh vực phát triển nhanh chóng như trí tuệ nhân tạo. Tiền lệ được đặt ra bởi tiết lộ o1 của OpenAI nhấn mạnh lý do tại sao báo cáo kịp thời, thẳng thắn là rất quan trọng, ngay cả khi nó tiết lộ những mặt trái tiềm ẩn hoặc hành vi không mong muốn. Nó cho phép thảo luận chủ động và các chiến lược giảm thiểu, thay vì kiểm soát thiệt hại phản ứng sau khi một vấn đề không lường trước phát sinh trong thực tế.

Bãi cát biến đổi của quy định AI

Bối cảnh của tình huống này là một bức tranh phức tạp và đang phát triển của các nỗ lực quản lý nhằm điều chỉnh việc phát triển và triển khai trí tuệ nhân tạo. Tại Hoa Kỳ, các sáng kiến đã xuất hiện ở cả cấp liên bang và tiểu bang nhằm thiết lập các tiêu chuẩn rõ ràng hơn về an toàn, thử nghiệm và báo cáo AI. Tuy nhiên, những nỗ lực này đã gặp phải những trở ngại đáng kể và cho đến nay chỉ đạt được sức hút hạn chế.

Một ví dụ nổi bật là Dự luật Thượng viện 1047 (Senate Bill 1047) được đề xuất của California. Luật này nhằm áp đặt các yêu cầu về an toàn và minh bạch chặt chẽ hơn đối với các nhà phát triển mô hình AI quy mô lớn nhưng đã vấp phải sự phản đối gay gắt từ ngành công nghệ và cuối cùng đã bị phủ quyết. Cuộc tranh luận xung quanh SB 1047 đã làm nổi bật sự chia rẽ sâu sắc và những thách thức trong việc xây dựng quy định hiệu quả cân bằng giữa đổi mới và mối quan tâm về an toàn.

Ở cấp liên bang, các nhà lập pháp đã đề xuất luật nhằm trao quyền cho Viện An toàn AI Hoa Kỳ (USAISI), cơ quan được chỉ định để thiết lập các tiêu chuẩn và hướng dẫn AI cho quốc gia. Mục tiêu là trang bị cho Viện thẩm quyền và nguồn lực cần thiết để thiết lập các khuôn khổ mạnh mẽ cho việc đánh giá mô hình và các giao thức phát hành. Tuy nhiên, hiệu quả và nguồn tài trợ trong tương lai của USAISI phải đối mặt với sự không chắc chắn, đặc biệt là với những thay đổi tiềm năng trong chính quyền, khi các báo cáo cho thấy khả năng cắt giảm ngân sách dưới một chính quyền Trump tiềm năng.

Sự thiếu hụt các yêu cầu quy định được thiết lập vững chắc, được áp dụng phổ biến này tạo ra một khoảng trống nơi các thực tiễn ngành và các cam kết tự nguyện trở thành động lực chính của tính minh bạch. Mặc dù các tiêu chuẩn tự nguyện như thẻ mô hình thể hiện sự tiến bộ, việc áp dụng không nhất quán của chúng, như đã thấy trong tình hình Google hiện tại, làm nổi bật những hạn chế của việc tự điều chỉnh, đặc biệt là khi áp lực cạnh tranh rất lớn. Nếu không có các nhiệm vụ rõ ràng, có thể thực thi, mức độ minh bạch có thể dao động dựa trên các ưu tiên và thời gian biểu của từng công ty.

Rủi ro cao của sự tăng tốc thiếu minh bạch

Sự hội tụ của việc triển khai mô hình AI được tăng tốc và tài liệu minh bạch an toàn bị chậm trễ tạo ra một tình huống mà nhiều chuyên gia thấy rất đáng lo ngại. Quỹ đạo hiện tại của Google - vận chuyển các mô hình ngày càng có khả năng nhanh hơn bao giờ hết trong khi trì hoãn việc công bố công khai các đánh giá an toàn chi tiết - đặt ra một tiền lệ tiềm ẩn nguy hiểm cho toàn bộ lĩnh vực.

Cốt lõi của mối quan tâm nằm ở bản chất của chính công nghệ. Các mô hình AI tiên phong như các mô hình trong dòng Gemini không chỉ là các bản cập nhật phần mềm gia tăng; chúng đại diện cho các công cụ mạnh mẽ với khả năng ngày càng phức tạp và đôi khi không thể đoán trước. Khi các hệ thống này trở nên tinh vi hơn, các rủi ro tiềm ẩn liên quan đến việc triển khai chúng - từ việc khuếch đại thành kiến và tạo thông tin sai lệch đến các hành vi phát sinh không lường trước và khả năng lạm dụng - cũng leo thang.

  • Xói mòn lòng tin: Khi các nhà phát triển phát hành AI mạnh mẽ mà không có các tiết lộ an toàn toàn diện, đồng thời, điều đó có thể làm xói mòn lòng tin của công chúng và làm dấy lên lo ngại về sự tiến bộ không được kiểm soát của công nghệ.
  • Cản trở nghiên cứu: Các nhà nghiên cứu độc lập dựa vào thông tin mô hình chi tiết để tiến hành đánh giá an toàn không thiên vị, xác định các lỗ hổng và phát triển các chiến lược giảm thiểu. Việc báo cáo chậm trễ cản trở quá trình xác nhận bên ngoài quan trọng này.
  • Bình thường hóa sự thiếu minh bạch: Nếu một người chơi lớn như Google áp dụng mô hình triển khai trước và ghi lại tài liệu sau, điều đó có thể bình thường hóa thực tiễn này trong toàn ngành, có khả năng dẫn đến một ‘cuộc đua xuống đáy’ cạnh tranh, nơi tính minh bạch bị hy sinh vì tốc độ.
  • Tăng nguy cơ gây hại: Nếu không có quyền truy cập kịp thời vào thông tin về các hạn chế, thành kiến và chế độ thất bại của mô hình (được phát hiện thông qua thử nghiệm đối nghịch và kiểm tra nghiêm ngặt), nguy cơ AI gây ra tác hại ngoài ý muốn khi được triển khai trong các ứng dụng thực tế sẽ tăng lên.

Lập luận rằng các mô hình như Gemini 2.5 Pro chỉ đơn thuần là ‘thử nghiệm’ mang lại sự trấn an hạn chế khi các thử nghiệm này liên quan đến việc phát hành các khả năng tiên tiến nhất, ngay cả với một lượng khán giả hạn chế ban đầu. Chính định nghĩa về ‘thử nghiệm’ so với ‘sẵn có chung’ có thể trở nên mờ nhạt trong bối cảnh các chu kỳ triển khai lặp đi lặp lại, nhanh chóng.

Cuối cùng, tình hình nhấn mạnh một căng thẳng cơ bản trong cuộc cách mạng AI: động lực không ngừng cho sự đổi mới xung đột với nhu cầu thiết yếu về phát triển thận trọng, minh bạch và có trách nhiệm. Khi các mô hình AI ngày càng trở nên mạnh mẽ và được tích hợp vào xã hội, lập luận về việc ưu tiên tài liệu an toàn toàn diện, kịp thời cùng với - chứ không phải sau đáng kể - việc phát hành chúng ngày càng trở nên thuyết phục. Các quyết định được đưa ra ngày hôm nay về các tiêu chuẩn minh bạch chắc chắn sẽ định hình quỹ đạo và sự chấp nhận của công chúng đối với trí tuệ nhân tạo vào ngày mai.