Cơ chế ‘LLM Grooming’
Mạng lưới Pravda hoạt động thông qua một mạng lưới rộng lớn gồm khoảng 150 trang tin tức giả mạo. Tuy nhiên, các trang web này không được thiết kế cho người đọc. Với lưu lượng truy cập tối thiểu – hầu hết các trang có ít hơn 1.000 lượt truy cập hàng tháng – mục đích chính của chúng là cung cấp nội dung cho các hệ thống AI. Chiến lược này thể hiện một cách tiếp cận mới đối với thông tin sai lệch, vượt ra ngoài các phương pháp truyền thống nhắm trực tiếp vào người đọc.
Chiến thuật này được gọi là ‘LLM grooming‘, một thuật ngữ mô tả việc thao túng có chủ đích dữ liệu huấn luyện AI. Mạng lưới đạt được điều này bằng cách xuất bản hàng loạt nội dung được tối ưu hóa mạnh mẽ cho các công cụ tìm kiếm (SEO). Điều này đảm bảo rằng tuyên truyền được các mô hình AI tiếp thu và phân phối lại một cách dễ dàng, ảnh hưởng đến đầu ra của chúng và có khả năng định hình nhận thức của công chúng.
John Mark Dougan, một người Mỹ cư trú tại Moscow và được NewsGuard xác định là người bị cáo buộc hỗ trợ các chiến dịch thông tin sai lệch của Nga, đã giải thích nguyên tắc cơ bản tại một hội nghị địa phương: “Thông tin này càng đa dạng, nó càng ảnh hưởng đến việc đào tạo và AI trong tương lai.” Tuyên bố này nhấn mạnh bản chất nguy hiểm của hoạt động, nhằm mục đích làm hỏng một cách tinh vi dữ liệu nền tảng mà các hệ thống AI được xây dựng.
Quy mô và phạm vi của hoạt động
Quy mô hoạt động của mạng lưới Pravda thật đáng kinh ngạc. Chỉ riêng trong năm 2024, các trang web này đã xuất bản khoảng 3,6 triệu bài báo trên 49 quốc gia. Tên miền được lựa chọn một cách chiến lược để bắt chước các nguồn tin tức hợp pháp, với các ví dụ bao gồm NATO.News-Pravda.com, Trump.News-Pravda.com và Macron.News-Pravda.com. Sự bắt chước này thêm một lớp lừa dối, khiến người quan sát bình thường khó phân biệt giữa nội dung xác thực và nội dung bịa đặt.
Bản thân nội dung trải rộng trên nhiều chủ đề, nhưng liên tục quảng bá các câu chuyện ủng hộ Nga và làm suy yếu quan điểm của phương Tây. Mạng lưới này đã hoạt động ít nhất từ tháng 4 năm 2022 và phân tích của NewsGuard tập trung vào 15 câu chuyện sai sự thật có thể kiểm chứng được phân phối bởi mạng lưới Pravda trong khoảng thời gian từ đó đến tháng 2 năm 2025.
Tính dễ bị tổn thương của Chatbot AI
Cuộc điều tra của NewsGuard liên quan đến việc thử nghiệm một số chatbot AI nổi bật để đánh giá mức độ dễ bị tổn thương của chúng đối với thông tin sai lệch của mạng lưới Pravda. Các hệ thống được thử nghiệm bao gồm:
- OpenAI’s ChatGPT-4o
- You.com’s Smart Assistant
- xAI’s Grok
- Inflection’s Pi
- Mistral’s le Chat
- Microsoft’s Copilot
- Meta AI
- Anthropic’s Claude
- Google’s Gemini
- Perplexity
Kết quả rất đáng lo ngại. Các chatbot AI đã chấp nhận những câu chuyện sai lệch từ mạng lưới Pravda trong 33,5% trường hợp. Mặc dù các hệ thống đã xác định chính xác nội dung của Nga là thông tin sai lệch trong 48,2% trường hợp, nhưng đôi khi chúng lại trích dẫn các nguồn gây hiểu lầm, có khả năng mang lại cho chúng sự tín nhiệm không đáng có. 18,2% phản hồi còn lại không có kết luận, càng làm nổi bật những thách thức trong việc phân biệt sự thật với sự giả dối trong thời đại nội dung do AI tạo ra.
Thách thức trong việc chống lại thông tin sai lệch do AI điều khiển
Chống lại loại thao túng này là một thách thức đáng kể. Các phương pháp truyền thống chặn các trang web thông tin sai lệch đã biết tỏ ra không hiệu quả. Khi các nhà chức trách chặn các miền Pravda, các miền mới nhanh chóng xuất hiện, chứng tỏ sự nhanh nhẹn và khả năng phục hồi của mạng lưới.
Hơn nữa, thông tin sai lệch chảy qua nhiều kênh đồng thời, thường là với các trang web mạng khác nhau nhai lại nội dung của nhau. Điều này tạo ra một mạng lưới phức tạp gồm các nguồn được kết nối với nhau, gây khó khăn cho việc cô lập và vô hiệu hóa tuyên truyền tận gốc. Việc chặn các trang web đơn giản chỉ cung cấp sự bảo vệ hạn chế chống lại chiến dịch phối hợp, rộng lớn hơn.
Bối cảnh rộng hơn: Thao túng AI do nhà nước tài trợ
Hoạt động của mạng lưới Pravda không phải là sự cố cá biệt. Chúng phù hợp với mô hình rộng hơn của các nỗ lực do nhà nước tài trợ để tận dụng AI cho mục đích thông tin sai lệch. Một nghiên cứu gần đây của OpenAI tiết lộ rằng các tác nhân được nhà nước hậu thuẫn từ Nga, Trung Quốc, Iran và Israel đã cố gắng sử dụng các hệ thống AI cho các chiến dịch tuyên truyền. Các hoạt động này thường kết hợp nội dung do AI tạo ra với các tài liệu truyền thống, được tạo thủ công, làm mờ ranh giới giữa thông tin xác thực và thông tin bị thao túng.
Việc sử dụng AI trong thao túng chính trị không chỉ giới hạn ở các tác nhân nhà nước. Các nhóm chính trị, chẳng hạn như đảng cực hữu AFD của Đức, cũng đã được quan sát thấy sử dụng các mô hình hình ảnh AI cho mục đích tuyên truyền. Ngay cả những nhân vật như Donald Trump cũng đã tham gia vào nội dung do AI tạo ra, vừa là người tiêu dùng, vừa nghịch lý thay, bằng cách dán nhãn thông tin chính hãng là giả mạo do AI tạo ra. Chiến thuật này, được xác định là một hình thức phản tuyên truyền, gieo rắc sự ngờ vực vào tất cả thông tin trực tuyến, có khả năng khiến các cá nhân chỉ dựa vào những nhân vật đáng tin cậy, bất kể tính chính xác của thực tế.
Ngay cả thiết kế của chính các mô hình AI cũng có thể bị ảnh hưởng bởi các chương trình nghị sự của nhà nước. Ví dụ, các mô hình AI của Trung Quốc đã được phát hiện có sẵn kiểm duyệt và tuyên truyền, phản ánh các ưu tiên chính trị của chính phủ Trung Quốc.
Đi sâu: Ví dụ cụ thể về các câu chuyện sai lệch
Mặc dù báo cáo của NewsGuard không trình bày chi tiết mọi câu chuyện sai lệch do mạng lưới Pravda truyền bá, phương pháp sử dụng các câu chuyện sai sự thật có thể kiểm chứng cho thấy một mô hình lan truyền thông tin sai lệch được thiết kế để:
- Làm suy yếu các tổ chức phương Tây: Các câu chuyện có thể miêu tả sai NATO là hung hăng hoặc không ổn định, hoặc bịa đặt các vụ bê bối liên quan đến các nhà lãnh đạo phương Tây.
- Thúc đẩy tình cảm ủng hộ Nga: Các câu chuyện có thể phóng đại thành công quân sự của Nga, hạ thấp các hành vi vi phạm nhân quyền hoặc biện minh cho các hành động của nước này trên trường quốc tế.
- Gieo rắc bất hòa và chia rẽ: Nội dung có thể nhằm mục đích làm trầm trọng thêm căng thẳng xã hội và chính trị hiện có ở các nước phương Tây, khuếch đại các vấn đề gây chia rẽ và thúc đẩy sự phân cực.
- Bóp méo thực tế xung quanh các sự kiện cụ thể: Thông tin sai lệch có thể được lan truyền về các sự kiện như bầu cử, xung đột hoặc sự cố quốc tế, bóp méo câu chuyện để ủng hộ cách giải thích thân Nga.
Điểm chung nhất quán là thao túng thông tin để phục vụ một chương trình nghị sự địa chính trị cụ thể. Việc sử dụng AI khuếch đại phạm vi tiếp cận và tác động tiềm tàng của những câu chuyện này, khiến chúng khó phát hiện và chống lại hơn.
Ý nghĩa lâu dài
Ý nghĩa của thông tin sai lệch do AI điều khiển này rất sâu rộng. Sự xói mòn niềm tin vào các nguồn thông tin, khả năng thao túng dư luận và sự mất ổn định của các quy trình dân chủ đều là những mối quan tâm nghiêm trọng. Khi các hệ thống AI ngày càng được tích hợp vào cuộc sống hàng ngày của chúng ta, khả năng phân biệt giữa sự thật và sự giả dối trở nên quan trọng hơn bao giờ hết.
Kỹ thuật ‘LLM grooming’ thể hiện sự leo thang đáng kể trong bối cảnh chiến tranh thông tin. Nó làm nổi bật tính dễ bị tổn thương của các hệ thống AI trước sự thao túng và nhu cầu phòng thủ mạnh mẽ chống lại mối đe dọa mới nổi này. Thách thức không chỉ nằm ở việc xác định và chặn các nguồn thông tin sai lệch mà còn ở việc phát triển các chiến lược để tiêm chủng cho các mô hình AI chống lại các hình thức ảnh hưởng tinh vinhưng phổ biến này. Điều này đòi hỏi một cách tiếp cận nhiều mặt, bao gồm:
- Nâng cao hiểu biết về AI: Giáo dục công chúng về khả năng thông tin sai lệch do AI tạo ra và thúc đẩy các kỹ năng tư duy phản biện.
- Cải thiện các công cụ phát hiện AI: Phát triển các phương pháp tinh vi hơn để xác định và gắn cờ nội dung và thông tin sai lệch do AI tạo ra.
- Tăng cường dữ liệu huấn luyện AI: Thực hiện các biện pháp để đảm bảo tính toàn vẹn và đa dạng của dữ liệu huấn luyện AI, làm cho nó có khả năng chống thao túng tốt hơn.
- Hợp tác quốc tế: Thúc đẩy hợp tác giữa các chính phủ, công ty công nghệ và nhà nghiên cứu để giải quyết thách thức toàn cầu này.
- Tăng cường tính minh bạch: Các nhà phát triển AI nên minh bạch về dữ liệu đào tạo được sử dụng và những thành kiến tiềm ẩn có thể tồn tại trong các mô hình của họ.
- Trách nhiệm giải trình của thuật toán: Buộc các nhà phát triển AI phải chịu trách nhiệm về đầu ra của hệ thống của họ, đặc biệt khi những đầu ra đó được sử dụng để lan truyền thông tin sai lệch.
Cuộc chiến chống lại thông tin sai lệch do AI điều khiển là một cuộc chiến phức tạp và đang phát triển. Nó đòi hỏi nỗ lực phối hợp từ các cá nhân, tổ chức và chính phủ để bảo vệ tính toàn vẹn của thông tin và bảo vệ nền tảng của việc ra quyết định sáng suốt. Hoạt động của mạng lưới Pravda là một lời nhắc nhở rõ ràng về những rủi ro liên quan và tính cấp thiết của việc giải quyết mối đe dọa ngày càng tăng này. Tương lai của diễn ngôn công khai có hiểu biết, và có khả năng là sự ổn định của các xã hội dân chủ, có thể phụ thuộc vào khả năng của chúng ta trong việc chống lại thành công hình thức thao túng mới này. Thách thức không chỉ là công nghệ; nó còn là vấn đề xã hội, đòi hỏi một cam kết mới đối với sự thật, tính chính xác và tư duy phản biện trong thời đại kỹ thuật số.