Mô hình DeepSeek R1 AI cập nhật sau duyệt xét chặt chẽ hơn
Công ty khởi nghiệp trí tuệ nhân tạo Trung Quốc DeepSeek, mô hình trí tuệ nhân tạo mới nhất đã đạt được những thành tích đáng chú ý trong các bài kiểm tra chuẩn về mã hóa, toán học và kiến thức phổ thông, hầu như vượt qua mô hình o3 hàng đầu của OpenAI. Nhưng R1 được nâng cấp, còn được gọi là “R1-0528”, có thể không sẵn lòng trả lời các câu hỏi gây tranh cãi, đặc biệt là về các chủ đề mà chính phủ Trung Quốc cho là gây tranh cãi.
Theo các thử nghiệm được thực hiện bởi nhà phát triển ẩn danh đằng sau SpeechMap, R1-0528 có khả năng dung thứ đối với các chủ đề tự do ngôn luận gây tranh cãi thấp hơn nhiều so với các phiên bản trước của DeepSeek và là “mô hình DeepSeek kiểm duyệt các chỉ trích chính phủ Trung Quốc nghiêm ngặt nhất cho đến nay”. SpeechMap là một nền tảng so sánh cách các mô hình khác nhau xử lý các chủ đề nhạy cảm và gây tranh cãi.
Như Wired đã giải thích trong một bài báo tháng 1, các mô hình của Trung Quốc cần tuân thủ các biện pháp kiểm soát thông tin nghiêm ngặt. Một đạo luật năm 2023 cấm các mô hình tạo ra nội dung “gây tổn hại đến sự thống nhất quốc gia và hòa hợp xã hội”, điều này có thể được hiểu là trái ngược với lịch sử và các câu chuyện chính trị của chính phủ. Để tuân thủ các quy định, các công ty khởi nghiệp của Trung Quốc thường kiểm duyệt các mô hình của họ bằng cách sử dụng bộ lọc cấp độ gợi ý hoặc tinh chỉnh. Một nghiên cứu cho thấy R1 ban đầu của DeepSeek từ chối trả lời 85% câu hỏi về các chủ đề chính trị gây tranh cãi mà chính phủ Trung Quốc cho là như vậy.
Theo xlr8harder, R1-0528 kiểm duyệt các câu trả lời về các chủ đề như trại giam giữ ở khu vực Tân Cương của Trung Quốc, nơi hơn một triệu người Hồi giáo Duy Ngô Nhĩ bị giam giữ tùy tiện. Mặc dù đôi khi nó sẽ chỉ trích một số khía cạnh của chính sách của chính phủ Trung Quốc - trong các thử nghiệm của xlr8harder, nó đã đưa ra các trại Tân Cương như những ví dụ về vi phạm nhân quyền - nhưng mô hình này thường đưa ra lập trường chính thức của chính phủ Trung Quốc khi được hỏi trực tiếp các câu hỏi.
TechCrunch cũng đã quan sát thấy điều này trong các thử nghiệm ngắn gọn của chúng tôi.
Các mô hình trí tuệ nhân tạo có sẵn công khai của Trung Quốc, bao gồm cả các mô hình tạo video, trước đây đã bị chỉ trích vì kiểm duyệt các chủ đề nhạy cảm đối với chính phủ Trung Quốc, chẳng hạn như vụ thảm sát ở Quảng trường Thiên An Môn. Vào tháng 12, Clément Delangue, Giám đốc điều hành của nền tảng phát triển trí tuệ nhân tạo Hugging Face, đã cảnh báo về những hậu quả không mong muốn của các công ty phương Tây xây dựng trên trí tuệ nhân tạo của Trung Quốc được cấp phép công khai, hoạt động tốt.
Tác động của kiểm duyệt đối với các mô hình trí tuệ nhân tạo từ lâu đã là một vấn đề được quan tâm, đặc biệt là trong bối cảnh căng thẳng địa chính trị. Trường hợp DeepSeek R1-0528 nêu bật sự cân bằng phức tạp giữa việc theo đuổi tiến bộ công nghệ trí tuệ nhân tạo và duy trì tự do tư tưởng và khả năng tiếp cận thông tin. Cần phải khám phá sâu hơn về cách DeepSeek đối phó với những thách thức này và điều này có ý nghĩa gì đối với sự phát triển trong tương lai của ngành công nghiệp trí tuệ nhân tạo.
Định nghĩa và hình thức của chế độ kiểm duyệt
Chế độ kiểm duyệt, theo nghĩa rộng nhất, đề cập đến việc hạn chế hoặc ngăn chặn thông tin, có thể có nhiều hình thức. Trong lĩnh vực trí tuệ nhân tạo, chế độ kiểm duyệt thường được thể hiện như sau:
- Lọc nội dung: Ngăn mô hình tạo hoặc hiển thị một số loại nội dung nhất định, chẳng hạn như các chủ đề nhạy cảm về chính trị, bạo lực, phân biệt đối xử, v.v.
- Bóp méo thông tin: Thông tin do mô hình trình bày được sửa đổi hoặc bóp méo để phù hợp với một hệ tư tưởng hoặc quan điểm chính trị nào đó.
- Tránh câu trả lời: Mô hình từ chối trả lời một số câu hỏi nhất định hoặc đưa ra các câu trả lời mơ hồ.
- Kỹ thuật gợi ý: Thông qua các gợi ý được thiết kế cẩn thận, hướng dẫn mô hình đưa ra các câu trả lời phù hợp với một ý định cụ thể.
Trường hợp của DeepSeek R1-0528 cho thấy rằng mô hình có thể đã áp dụng nhiều phương pháp kiểm duyệt trên, đặc biệt là khi liên quan đến các chủ đề nhạy cảm của chính phủ Trung Quốc.
Lý do và động cơ của chế độ kiểm duyệt
Lý do và động cơ để kiểm duyệt các mô hình trí tuệ nhân tạo thường có nhiều mặt:
- Luật pháp và quy định: Một số quốc gia hoặc khu vực đã xây dựng luật pháp và quy định yêu cầu các mô hình trí tuệ nhân tạo phải tuân thủ các tiêu chuẩn kiểm soát thông tin cụ thể. Ví dụ, luật pháp liên quan của Trung Quốc cấm các mô hình tạo ra nội dung “gây tổn hại đến sự thống nhất quốc gia và hòa hợp xã hội”.
- Áp lực chính trị: Chính phủ hoặc các nhóm chính trị có thể gây áp lực lên các công ty trí tuệ nhân tạo, yêu cầu họ kiểm duyệt nội dung của mô hình để duy trì lợi ích chính trị của họ.
- Trách nhiệm xã hội: Các công ty trí tuệ nhân tạo có thể chủ động kiểm duyệt nội dung của mô hình vì lý do trách nhiệm xã hội để tránh lan truyền thông tin có hại hoặc gây ra bất ổn xã hội.
- Lợi ích thương mại: Để tránh xúc phạm chính phủ hoặc công chúng, các công ty trí tuệ nhân tạo có thể kiểm duyệt nội dung của mô hình để duy trì lợi ích thương mại của họ.
DeepSeek, với tư cách là một công ty trí tuệ nhân tạo của Trung Quốc, có thể phải đối mặt với nhiều cân nhắc từ luật pháp và quy định, áp lực chính trị và trách nhiệm xã hội, do đó buộc phải kiểm duyệt R1-0528.
Tác động tiềm tàng của chế độ kiểm duyệt
Chế độ kiểm duyệt mô hình trí tuệ nhân tạo có thể có những tác động tiềm tàng sau:
- Hạn chế khả năng tiếp cận thông tin: Chế độ kiểm duyệt sẽ hạn chế người dùng tiếp cận thông tin toàn diện và khách quan, do đó ảnh hưởng đến phán đoán và quyết định của họ.
- Bóp nghẹt sự đổi mới: Chế độ kiểm duyệt sẽ hạn chế sự phát triển của công nghệ trí tuệ nhân tạo, vì các nhà nghiên cứu có thể không tự do khám phá và kiểm tra nhiều ý tưởng khác nhau.
- Làm trầm trọng thêm sự chia rẽ xã hội: Chế độ kiểm duyệt có thể làm trầm trọng thêm sự chia rẽ xã hội, vì các nhóm khác nhau có thể chỉ tiếp cận được thông tin phù hợp với lập trường của họ.
- Làm tổn hại đến lòng tin: Nếu người dùng phát hiện ra rằng mô hình trí tuệ nhân tạo có hành vi kiểm duyệt, họ có thể mất lòng tin vào mô hình đó.
Trường hợp của DeepSeek R1-0528 cho thấy rằng chế độ kiểm duyệt có thể hạn chế người dùng tiếp cận thông tin về các chủ đề nhạy cảm của chính phủ Trung Quốc.
Các chiến lược đối phó với chế độ kiểm duyệt trí tuệ nhân tạo
Để đối phó với chế độ kiểm duyệt trí tuệ nhân tạo, có thể áp dụng các chiến lược sau:
- Các biện pháp kỹ thuật: Phát triển các công nghệ có thể phát hiện và vượt qua các bộ lọc kiểm duyệt.
- Kiện tụng pháp lý: Khởi kiện các hành vi kiểm duyệt vi phạm quyền tự do ngôn luận.
- Vận động công chúng: Nâng cao nhận thức của công chúng về chế độ kiểm duyệt trí tuệ nhân tạo và kêu gọi chính phủ và các doanh nghiệp hành động.
- Trí tuệ nhân tạo phi tập trung: Phát triển các nền tảng trí tuệ nhân tạo phi tập trung để giảm khả năng kiểm duyệt.
- Hợp tác nguồn mở: Khuyến khích hợp tác nguồn mở để cùng phát triển các mô hình trí tuệ nhân tạo minh bạch và cởi mở hơn.
Phản hồi của DeepSeek
DeepSeek chưa đưa ra phản hồi công khai nào về những cáo buộc về chế độ kiểm duyệt của R1-0528. Nếu DeepSeek đưa ra phản hồi về vấn đề này, thì những khía cạnh sau đây đáng được quan tâm:
- DeepSeek có thừa nhận việc kiểm duyệt R1-0528 hay không?
- Nếu thừa nhận,lý do và động cơ kiểm duyệt của DeepSeek là gì?
- DeepSeek có kế hoạch thay đổi chính sách kiểm duyệt của mình hay không?
- DeepSeek cân bằng mối quan hệ giữa tiến bộ công nghệ và tự do thông tin như thế nào?
Phản hồi của DeepSeek sẽ có tác động quan trọng đến ngành công nghiệp trí tuệ nhân tạo.
Thảo luận về đạo đức và đạo đức của chế độ kiểm duyệt
Chế độ kiểm duyệt trí tuệ nhân tạo đặt ra một loạt các vấn đề đạo đức và đạo đức, bao gồm:
- Tự do ngôn luận: Mô hình trí tuệ nhân tạo có nên được hưởng quyền tự do ngôn luận hay không?
- Khả năng tiếp cận thông tin: Người dùng có quyền tiếp cận thông tin toàn diện và khách quan hay không?
- Minh bạch: Các công ty trí tuệ nhân tạo có nghĩa vụ công khai chính sách kiểm duyệt của họ hay không?
- Trách nhiệm: Ai phải chịu trách nhiệm về chế độ kiểm duyệt trí tuệ nhân tạo?
- Lòng tin: Làm thế nào để xây dựng lòng tin trong kỷ nguyên trí tuệ nhân tạo?
Những vấn đề đạo đức và đạo đức này cần được thảo luận chuyên sâu.
Tính đặc thù của chế độ kiểm duyệt của Trung Quốc
Chế độ kiểm duyệt của Trung Quốc có những đặc thù riêng, chủ yếu được thể hiện ở những khía cạnh sau:
- Phạm vi rộng: Phạm vi kiểm duyệt của Trung Quốc bao gồm nhiều lĩnh vực như chính trị, lịch sử, văn hóa, tôn giáo, v.v.
- Mức độ nghiêm ngặt: Mức độ kiểm duyệt của Trung Quốc rất nghiêm ngặt, thậm chí liên quan đến việc kiểm duyệt các tuyên bố cá nhân.
- Công nghệ tiên tiến: Trung Quốc có một đội ngũ kiểm duyệt lớn và sử dụng các phương tiện kỹ thuật tiên tiến để kiểm duyệt.
- Hỗ trợ pháp lý: Trung Quốc đã xây dựng một loạt các luật và quy định để cung cấp hỗ trợ pháp lý cho chế độ kiểm duyệt.
Những đặc thù này gây ra những thách thức riêng cho việc phát triển các mô hình trí tuệ nhân tạo ở Trung Quốc.
So sánh chế độ kiểm duyệt trí tuệ nhân tạo toàn cầu
Ngoài Trung Quốc, các quốc gia khác cũng có các hình thức chế độ kiểm duyệt trí tuệ nhân tạo khác nhau, chủ yếu được thể hiện ở những khía cạnh sau:
- Châu Âu: Liên minh châu Âu đã ban hành “Đạo luật Trí tuệ nhân tạo”, nhằm mục đích điều chỉnh việc ứng dụng trí tuệ nhân tạo và ngăn chặn việc sử dụng nó để phân biệt đối xử hoặc vi phạm quyền con người.
- Hoa Kỳ: Hoa Kỳ chủ yếu điều chỉnh sự phát triển của trí tuệ nhân tạo thông qua các cơ chế thị trường và tự điều chỉnh trong ngành, nhưng cũng có một số tranh cãi về kiểm duyệt nội dung.
- Các quốc gia khác: Các quốc gia khác cũng đã xây dựng các chính sách quản lý trí tuệ nhân tạo khác nhau tùy theo điều kiện quốc gia của họ, trong đó một số chính sách có thể liên quan đến kiểm duyệt nội dung.
Bằng cách so sánh chế độ kiểm duyệt trí tuệ nhân tạo ở các quốc gia khác nhau, chúng ta có thể hiểu rõ hơn về sự phức tạp và đa dạng của chế độ kiểm duyệt.
Xu hướng tương lai của chế độ kiểm duyệt trí tuệ nhân tạo
Xu hướng tương lai của chế độ kiểm duyệt trí tuệ nhân tạo có thể bao gồm các khía cạnh sau:
- Tiến bộ công nghệ: Công nghệ kiểm duyệt và công nghệ chống kiểm duyệt sẽ tiếp tục phát triển, tạo thành một trò chơi mèo vờn chuột.
- Tăng cường quản lý: Các chính phủ có thể tăng cường quản lý trí tuệ nhân tạo, bao gồm cả các khía cạnh kiểm duyệt nội dung.
- Hợp tác quốc tế: Các quốc gia có thể tăng cường hợp tác quốc tế trong việc quản trị trí tuệ nhân tạo, bao gồm cả các khía cạnh kiểm duyệt nội dung.
- Mối quan tâm của xã hội: Tất cả các lĩnh vực của xã hội sẽ quan tâm hơn đến tác động của chế độ kiểm duyệt trí tuệ nhân tạo và kêu gọi thực hiện các phương pháp tiếp cận có trách nhiệm hơn.
Tác động của chế độ kiểm duyệt đối với DeepSeek
Sự phát triển của DeepSeek, với tư cách là một công ty trí tuệ nhân tạo của Trung Quốc, chịu ảnh hưởng sâu sắc từ chế độ kiểm duyệt của Trung Quốc. DeepSeek cần tìm sự cân bằng giữa việc tuân thủ luật pháp và quy định của Trung Quốc và đáp ứng nhu cầu của người dùng. Sự phát triển trong tương lai của DeepSeek sẽ phụ thuộc vào việc họ đối phó với những thách thức do chế độ kiểm duyệt đặt ra như thế nào.
Trí tuệ nhân tạo và thành kiến
Chế độ kiểm duyệt có liên quan chặt chẽ đến vấn đề thành kiến của trí tuệ nhân tạo. Chế độ kiểm duyệt có thể khiến mô hình chỉ học được một phần thông tin, do đó tạo ra thành kiến. DeepSeek cần thực hiện các biện pháp để đảm bảo rằng mô hình của họ có thể học được thông tin toàn diện và khách quan và tránh tạo ra thành kiến.
Tính minh bạch và khả năng giải thích
Để đối phó với những thách thức do chế độ kiểm duyệt đặt ra, DeepSeek nên tăng cường tính minh bạch và khả năng giải thích của mô hình. DeepSeek nên công khai chính sách kiểm duyệt của mình và giải thích cách mô hình của họ xử lý các chủ đề nhạy cảm. Điều này sẽ giúp xây dựng lòng tin của người dùng và thúc đẩy sự phát triển lành mạnh của trí tuệ nhân tạo.
Tóm tắt
Trường hợp DeepSeek R1-0528 nêu bật sự phức tạp và tầm quan trọng của chế độ kiểm duyệt trí tuệ nhân tạo. Chế độ kiểm duyệt có tác động quan trọng đến khả năng tiếp cận thông tin, đổi mới công nghệ, chia rẽ xã hội và lòng tin của người dùng. Đối phó với chế độ kiểm duyệt đòi hỏi nhiều chiến lược như các phương tiện kỹ thuật, kiện tụng pháp lý, vận động công chúng, trí tuệ nhân tạo phi tập trung và hợp tác nguồn mở. DeepSeek, với tư cách là một công ty trí tuệ nhân tạo của Trung Quốc, cần tìm sự cân bằng giữa việc tuân thủ luật pháp và quy định của Trung Quốc và đáp ứng nhu cầu của người dùng. DeepSeek nên tăng cường tính minh bạch và khả năng giải thích của mô hình để đối phó với những thách thức do chế độ kiểm duyệt đặt ra.