Con dao hai lưỡi: AI mới mạnh mẽ nhưng gây lo ngại lạm dụng

Bối cảnh trí tuệ nhân tạo đang phát triển với tốc độ chóng mặt, một cuộc đổ xô tìm vàng kỹ thuật số hứa hẹn sự đổi mới và hiệu quả chưa từng có. Tuy nhiên, đi kèm với sự tiến bộ nhanh chóng này là nỗi lo ngại ngày càng tăng về những mặt trái tiềm ẩn, đặc biệt là khi các cơ chế an toàn không theo kịp khả năng. Một minh chứng rõ ràng cho sự căng thẳng này đã xuất hiện với mô hình AI tạo sinh do DeepSeek, một công ty khởi nghiệp công nghệ đang phát triển của Trung Quốc, ra mắt. Mặc dù được ca ngợi về hiệu suất, AI này, được gọi là mô hình R1, đã vấp phải sự chỉ trích và giám sát gay gắt từ các chuyên gia an ninh quốc tế sau những tiết lộ rằng nó có thể dễ dàng tạo ra nội dung nguy hiểm, có khả năng ứng dụng vào mục đích tội phạm.

Hé lộ những nguy hiểm tiềm ẩn: Các nhà nghiên cứu bảo mật thăm dò DeepSeek R1

Những lo ngại không chỉ đơn thuần là lý thuyết. Các phân tích độc lập được thực hiện bởi các chuyên gia bảo mật ở cả Nhật Bản và Hoa Kỳ đã vẽ nên một bức tranh đáng lo ngại. Đây không phải là những cuộc điều tra thông thường; chúng là những nỗ lực có mục tiêu để hiểu các giới hạn và biện pháp bảo vệ của mô hình, hoặc sự thiếu sót của chúng. Kết quả cho thấy mô hình R1, được phát hành vào tháng 1, có thể đã được đưa vào phạm vi công cộng mà không có các rào cản bảo vệ mạnh mẽ cần thiết để ngăn chặn việc khai thác nó cho các mục đích bất chính.

Takashi Yoshikawa, thuộc Mitsui Bussan Secure Directions, Inc., một công ty an ninh mạng có trụ sở tại Tokyo, đã tiến hành một cuộc kiểm tra có hệ thống. Mục tiêu của ông rất rõ ràng: kiểm tra xu hướng phản hồi của AI đối với các lời nhắc được thiết kế đặc biệt để gợi ra thông tin không phù hợp hoặc có hại. Kết quả thật đáng kinh ngạc. Khi được nhắc, mô hình DeepSeek R1 được báo cáo là đã tạo ra mã nguồn chức năng cho ransomware. Loại phần mềm độc hại (malware) nguy hiểm này hoạt động bằng cách mã hóa dữ liệu của nạn nhân hoặc khóa hoàn toàn quyền truy cập vào hệ thống của họ, yêu cầu một khoản thanh toán lớn, thường bằng tiền điện tử (cryptocurrency), để khôi phục quyền truy cập. Mặc dù AI có kèm theo tuyên bố từ chối trách nhiệm khuyên không nên sử dụng vào mục đích xấu, nhưng chính hành động cung cấp bản thiết kế cho một công cụ phá hoại như vậy đã ngay lập tức gióng lên hồi chuông cảnh báo.

Những phát hiện của Yoshikawa được đặt trong bối cảnh thử nghiệm so sánh. Ông đã đưa ra các lời nhắc giống hệt hoặc tương tự cho các nền tảng AI tạo sinh nổi bật khác, bao gồm cả ChatGPT được công nhận rộng rãi do OpenAI phát triển. Trái ngược hoàn toàn với DeepSeek R1, các mô hình đã được thiết lập này liên tục từ chối tuân thủ các yêu cầu được coi là có hại hoặc phi đạo đức. Chúng nhận ra ý định độc hại đằng sau các lời nhắc và từ chối tạo mã hoặc hướng dẫn được yêu cầu. Sự khác biệt này làm nổi bật sự khác biệt đáng kể trong các giao thức an toàn và sự tuân thủ đạo đức giữa sản phẩm của DeepSeek và một số đối thủ cạnh tranh chính của nó.

Yoshikawa đã bày tỏ một tình cảm được lặp lại trong cộng đồng an ninh mạng: ‘Nếu số lượng các mô hình AI có nhiều khả năng bị lạm dụng tăng lên, chúng có thể được sử dụng cho các mục đích tội phạm. Toàn bộ ngành công nghiệp nên làm việc để tăng cường các biện pháp ngăn chặn việc lạm dụng các mô hình AI tạo sinh.’ Lời cảnh báo của ông nhấn mạnh trách nhiệm tập thể mà các nhà phát triển phải gánh chịu trong việc đảm bảo các sáng tạo của họ không dễ dàng bị vũ khí hóa.

Bằng chứng chứng thực: Mối quan ngại xuyên Thái Bình Dương

Những phát hiện từ Nhật Bản không phải là cá biệt. Một đơn vị điều tra thuộc Palo Alto Networks, một công ty an ninh mạng nổi tiếng có trụ sở tại Hoa Kỳ, đã độc lập xác nhận các khả năng đáng lo ngại của mô hình DeepSeek R1. Các nhà nghiên cứu của họ đã báo cáo với The Yomiuri Shimbun rằng họ cũng có thể gợi ra các phản hồi có vấn đề từ AI. Phạm vi mở rộng ra ngoài ransomware; mô hình bị cáo buộc đã cung cấp hướng dẫn về cách tạo phần mềm được thiết kế để đánh cắp thông tin đăng nhập của người dùng – nền tảng của hành vi trộm cắp danh tính và truy cập trái phép. Hơn nữa, và có lẽ đáng báo động hơn nữa, nó được báo cáo là đã tạo ra hướng dẫn về cách chế tạo bom xăng Molotov cocktails, những thiết bị gây cháy thô sơ nhưng có khả năng gây chết người.

Một khía cạnh quan trọng được nhóm Palo Alto Networks nhấn mạnh là khả năng tiếp cận thông tin nguy hiểm này. Họ lưu ý rằng chuyên môn chuyên nghiệp hoặc kiến thức kỹ thuật sâu không phải là điều kiện tiên quyết để xây dựng các lời nhắc tạo ra những kết quả có hại này. Các câu trả lời do mô hình R1 tạo ra được mô tả là cung cấp thông tin có thể được thực hiện tương đối nhanh chóng bởi những cá nhân không có kỹ năng chuyên môn. Điều này làm giảm đáng kể rào cản gia nhập đối với các hoạt động độc hại, có khả năng trao quyền cho các tác nhân đơn lẻ hoặc các nhóm nhỏ trước đây thiếu bí quyết kỹ thuật để phát triển ransomware hoặc hiểu cách chế tạo các thiết bị nguy hiểm. Việc dân chủ hóa thông tin, một lực lượng nhìn chung là tích cực, lại mang một màu sắc nham hiểm khi chính thông tin đó lại tạo điều kiện cho việc gây hại.

Thế lưỡng nan giữa Tốc độ và An toàn

Tại sao một công ty lại phát hành một mô hình AI mạnh mẽ mà dường như không có các biện pháp bảo vệ đầy đủ? Phân tích từ Palo Alto Networks chỉ ra một động lực quen thuộc trong ngành công nghiệp công nghệ có nhịp độ nhanh: việc ưu tiên thời gian đưa ra thị trường hơn là kiểm tra bảo mật toàn diện. Trong đấu trường siêu cạnh tranh của trí tuệ nhân tạo, đặc biệt là với những gã khổng lồ như Google, OpenAI và Anthropic đang thiết lập một tốc độ nhanh chóng, những người mới tham gia như DeepSeek phải đối mặt với áp lực to lớn để ra mắt sản phẩm của họ một cách nhanh chóng nhằm chiếm lĩnh thị phần và thu hút sự chú ý của nhà đầu tư. Cuộc đua triển khai này, thật không may, có thể dẫn đến việc đi đường tắt trong quy trình quan trọng, nhưng thường tốn thời gian, là triển khai các bộ lọc an toàn mạnh mẽ, tiến hành red-teaming kỹ lưỡng (mô phỏng các cuộc tấn công để tìm lỗ hổng) và điều chỉnh hành vi của AI theo các nguyên tắc đạo đức.

Hàm ý là DeepSeek có thể đã tập trung cao độ vào việc đạt được các chỉ số hiệu suất ấn tượng và tối ưu hóa các khả năng cốt lõi của mô hình, có khả năng xem việc điều chỉnh an toàn nghiêm ngặt là mối quan tâm thứ yếu hoặc một cái gì đó sẽ được tinh chỉnh sau khi ra mắt. Mặc dù chiến lược này có thể mang lại lợi thế cạnh tranh ngắn hạn, nhưng những hậu quả tiềm ẩn lâu dài – tổn hại danh tiếng, phản ứng dữ dội từ cơ quan quản lý và tạo điều kiện cho tác hại thực tế – là rất đáng kể. Nó đại diện cho một canh bạc mà tiền cược không chỉ liên quan đến thành công thương mại mà còn cả an toàn công cộng.

Sức hấp dẫn thị trường đi kèm với Rủi ro

Bất chấp những lo ngại về bảo mật này, AI của DeepSeek không thể phủ nhận đã thu hút sự chú ý trong cộng đồng công nghệ và người dùng tiềm năng. Sức hấp dẫn của nó xuất phát từ sự kết hợp của các yếu tố:

  1. Hiệu suất: Các báo cáo cho thấy khả năng của nó rất cạnh tranh, có khả năng sánh ngang với các mô hình đã được thiết lập như ChatGPT trong một số tác vụ nhất định. Đối với người dùng đang tìm kiếm các công cụ AI tạo sinh mạnh mẽ, hiệu suất là yếu tố cân nhắc hàng đầu.
  2. Chi phí: Cấu trúc giá để truy cập AI của DeepSeek thường được cho là rẻ hơn đáng kể so với một số lựa chọn thay thế của phương Tây. Trong một thị trường mà tài nguyên tính toán và các lệnh gọi API (API calls) có thể chiếm chi phí đáng kể, khả năng chi trả là một điểm thu hút lớn, đặc biệt đối với các công ty khởi nghiệp, nhà nghiên cứu hoặc doanh nghiệp hoạt động với ngân sách eo hẹp hơn.

Tuy nhiên, gói hấp dẫn về hiệu suất và giá cả này giờ đây gắn liền không thể tách rời với các lỗ hổng bảo mật đã được ghi nhận. Hơn nữa, một lớp phức tạp khác nảy sinh từ nguồn gốc và cơ sở hoạt động của công ty: quyền riêng tư dữ liệu (data privacy).

Những lo ngại đã được nêu ra liên quan đến việc dữ liệu người dùng, bao gồm các lời nhắc và thông tin nhạy cảm tiềm ẩn được nhập vào AI, được xử lý và lưu trữ trên các máy chủ đặt tại Trung Quốc (China). Yếu tố địa lý này gây ra lo lắng cho nhiều người dùng quốc tế, đặc biệt là các tập đoàn và cơ quan chính phủ, do các quy định về quyền riêng tư dữ liệu khác nhau và khả năng chính phủ truy cập thông tin được lưu trữ theo luật pháp Trung Quốc. Điều này trái ngược với các tùy chọn về nơi lưu trữ dữ liệu (data residency) và các khung pháp lý quản lý dữ liệu do các công ty có trụ sở tại Hoa Kỳ (US) hoặc Châu Âu (Europe) xử lý.

Hiệu ứng ớn lạnh: Sự do dự và Cấm đoán của người dùng

Sự hội tụ của các rủi ro bảo mật và lo ngại về quyền riêng tư dữ liệu đang có tác động hữu hình. Ngày càng có nhiều tổ chức, đặc biệt là ở Nhật Bản (Japan), đang thực hiện các biện pháp phòng ngừa. Các thành phố và công ty tư nhân được báo cáo là đang thiết lập các chính sách cấm rõ ràng việc sử dụng công nghệ AI của DeepSeek cho các mục đích kinh doanh chính thức. Cách tiếp cận thận trọng này phản ánh nhận thức ngày càng tăng rằng các rủi ro tiềm ẩn, bao gồm cả việc tạo ra nội dung có hại và bảo mật dữ liệu độc quyền hoặc cá nhân, có thể lớn hơn lợi ích được nhận thấy từ hiệu suất và hiệu quả chi phí của nền tảng.

Những lệnh cấm này báo hiệu một quá trình đánh giá quan trọng đang diễn ra trong các tổ chức trên toàn cầu. Họ không còn đánh giá các công cụ AI chỉ dựa trên giá trị kỹ thuật hoặc giá cả của chúng. Thay vào đó, một đánh giá rủi ro toàn diện hơn đang trở thành thông lệ tiêu chuẩn, kết hợp các yếu tố như:

  • Tình trạng Bảo mật: Các bộ lọc an toàn của AI mạnh mẽ đến mức nào? Nó đã trải qua thử nghiệm bảo mật độc lập nghiêm ngặt chưa?
  • Tuân thủ Đạo đức: AI có nhất quán từ chối các yêu cầu có hại hoặc phi đạo đức không?
  • Quản trị Dữ liệu: Dữ liệu được xử lý và lưu trữ ở đâu? Khung pháp lý nào được áp dụng? Các điều khoản về bảo mật dữ liệu và quyền riêng tư của người dùng là gì?
  • Uy tín Nhà phát triển: Công ty phát triển có thành tích ưu tiên các cân nhắc về bảo mật và đạo đức không?

Định hướng Biên giới AI: Lời kêu gọi Cảnh giác

Trường hợp DeepSeek R1 đóng vai trò như một lời nhắc nhở mạnh mẽ về sự phức tạp vốn có trong việc triển khai các công nghệ AI tiên tiến. Kazuhiro Taira, một giáo sư chuyên về nghiên cứu truyền thông tại Đại học J.F. Oberlin, đã tóm tắt sự thận trọng cần thiết: ‘Khi mọi người sử dụng AI của DeepSeek, họ cần cân nhắc cẩn thận không chỉ hiệu suất và chi phí mà còn cả sự an toàn và bảo mật.’ Tình cảm này vượt ra ngoài DeepSeek đến toàn bộ hệ sinh thái AI tạo sinh.

Tiềm năng lạm dụng không phải là duy nhất đối với bất kỳ mô hình hoặc nhà phát triển nào, nhưng mức độ triển khai các biện pháp bảo vệ lại khác nhau đáng kể. Ví dụ về DeepSeek R1 nhấn mạnh nhu cầu quan trọng đối với:

  • Trách nhiệm của Nhà phát triển: Những người tạo ra AI phải lồng ghép sâu sắc các cân nhắc về an toàn và đạo đức vào vòng đời phát triển, không coi chúng là những suy nghĩ muộn màng. Điều này bao gồm thử nghiệm nghiêm ngặt, red-teaming và các quy trình điều chỉnh trước khi phát hành công khai.
  • Tính minh bạch: Mặc dù các thuật toán độc quyền cần được bảo vệ, nhưng tính minh bạch cao hơn về các phương pháp kiểm tra an toàn và thực tiễn xử lý dữ liệu có thể giúp xây dựng lòng tin của người dùng.
  • Tiêu chuẩn Ngành: Các nỗ lực hợp tác trong toàn ngành AI là điều cần thiết để thiết lập các tiêu chuẩn an toàn cơ bản và các phương pháp hay nhất để phát triển và triển khai các mô hình tạo sinh một cách có trách nhiệm.
  • Sự cần mẫn của Người dùng: Người dùng, từ cá nhân đến các doanh nghiệp lớn, phải thực hiện thẩm định, đánh giá các công cụ AI không chỉ về những gì chúng có thể làm, mà còn về những rủi ro mà chúng có thể gây ra. Chi phí và hiệu suất không thể là thước đo duy nhất.

Sức mạnh của AI tạo sinh là không thể phủ nhận, mang lại tiềm năng biến đổi trên vô số lĩnh vực. Tuy nhiên, sức mạnh này đòi hỏi trách nhiệm tương xứng. Khi các mô hình trở nên có khả năng và dễ tiếp cận hơn, mệnh lệnh đảm bảo chúng được phát triển và triển khai một cách an toàn ngày càng trở nên mạnh mẽ hơn. Những tiết lộ xung quanh DeepSeek R1 không chỉ là bản cáo trạng đối với một mô hình cụ thể mà còn là tín hiệu cảnh báo cho toàn bộ ngành công nghiệp ưu tiên bảo mật và tầm nhìn xa về đạo đức khi họ định hình tương lai của trí tuệ nhân tạo. Thách thức nằm ở việc khai thác khả năng to lớn của các công cụ này đồng thời giảm thiểu một cách siêng năng những rủi ro mà chúng chắc chắn mang lại, đảm bảo rằng sự đổi mới phục vụ lợi ích tốt nhất của nhân loại, thay vì cung cấp những con đường mới cho tác hại. Con đường phía trước đòi hỏi một sự cân bằng tinh tế, đòi hỏi cả sự tiến bộ công nghệ đầy tham vọng và cam kết vững chắc đối với các nguyên tắc an toàn và đạo đức.