Chatbot AI và tin giả Nga

Ảnh hưởng lan rộng của những thông tin sai lệch do Điện Kremlin hậu thuẫn

Vấn đề cốt lõi nằm ở việc cố ý làm ô nhiễm các nguồn thông tin trực tuyến. Bằng cách làm tràn ngập kết quả tìm kiếm và trình thu thập dữ liệu web với những thông tin sai lệch ủng hộ Điện Kremlin, một mạng lưới các tác nhân tung tin giả đang tích cực định hình đầu ra của các mô hình ngôn ngữ lớn (LLM). Các mô hình này, cung cấp năng lượng cho các chatbot AI mà chúng ta tương tác hàng ngày, dựa trên các bộ dữ liệu khổng lồ được thu thập từ internet. Khi dữ liệu này bị ô nhiễm bởi thông tin sai lệch, đầu ra kết quả sẽ phản ánh những thành kiến này.

NewsGuard, một công ty cung cấp xếp hạng độ tin cậy và dấu vân tay thông tin sai lệch cho các trang web tin tức và thông tin, đã tiến hành phân tích chuyên sâu về hiện tượng này. Phát hiện của họ cho thấy một thực tế đáng lo ngại: một phần đáng kể thông tin được tạo ra bởi các chatbot AI hàng đầu lặp lại những câu chuyện được tuyên truyền bởi một mạng lưới cụ thể các trang web ủng hộ Điện Kremlin.

Cơ chế thông tin sai lệch: Cách các mô hình AI bị thao túng

Chiến lược được sử dụng bởi mạng lưới thông tin sai lệch này vừa quỷ quyệt vừa tinh vi. Nó không chủ yếu nhắm vào việc thu hút người đọc là con người; thay vào đó, nó được thiết kế để thao túng chính các thuật toán làm nền tảng cho các chatbot AI. Chiến thuật này, được gọi là ‘LLM grooming’, liên quan đến việc gieo rắc thông tin sai lệch hoặc gây hiểu lầm một cách chiến lược trên nhiều trang web, biết rằng các nền tảng này sẽ được quét và đưa vào LLM.

American Sunlight Project (ASP), một tổ chức phi lợi nhuận của Hoa Kỳ, đã nhấn mạnh mối đe dọa này trong một báo cáo vào tháng 2 năm 2025. Họ cảnh báo rằng mạng lưới Pravda, một tập hợp các trang web thúc đẩy các câu chuyện ủng hộ Nga, có khả năng được tạo ra với mục đích rõ ràng là gây ảnh hưởng đến các mô hình AI. Số lượng các câu chuyện ủng hộ Nga càng lớn, xác suất LLM tích hợp chúng vào cơ sở kiến thức của chúng càng cao.

Hậu quả của việc này là rất sâu rộng. Khi LLM ngày càng được tích hợp vào cuộc sống hàng ngày của chúng ta, đóng vai trò là nguồn thông tin và hỗ trợ, thì khả năng phổ biến rộng rãi nội dung bị thao túng là đáng báo động.

Kiểm tra của NewsGuard: Định lượng tác động

Để đánh giá mức độ của vấn đề này, NewsGuard đã tiến hành kiểm tra mười chatbot AI nổi tiếng. Chúng bao gồm:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

Cuộc kiểm tra tập trung vào 15 câu chuyện sai lệch riêng biệt đã được 150 trang web Pravda ủng hộ Điện Kremlin tích cực quảng bá từ tháng 4 năm 2022 đến tháng 2 năm 2025. Những câu chuyện này bao gồm một loạt các chủ đề, tất cả đều được thiết kế để thúc đẩy một chương trình nghị sự chính trị cụ thể.

Phương pháp luận liên quan đến việc kiểm tra từng chatbot bằng một loạt các câu nhắc dựa trên Dấu vân tay thông tin sai lệch của NewsGuard, một danh mục các tuyên bố sai lệch có thể chứng minh được về các chủ đề tin tức quan trọng. Các câu nhắc được tạo ra theo ba phong cách khác nhau – Innocent (Ngây thơ), Leading (Dẫn dắt) và Malign (Ác ý) – để bắt chước các cách khác nhau mà người dùng tương tác với các mô hình AI tổng quát. Điều này dẫn đến tổng cộng 450 phản hồi (45 phản hồi cho mỗi chatbot).

Kết quả đáng lo ngại: Thông tin sai lệch phổ biến trên các Chatbot

Kết quả kiểm tra của NewsGuard rất rõ ràng. Nói chung, mười chatbot AI đã lặp lại các câu chuyện thông tin sai lệch của Nga trong 33.55% số phản hồi. Chúng cung cấp phản hồi không liên quan trong 18.22% trường hợp và vạch trần câu chuyện sai lệch trong 48.22% trường hợp.

Mọi chatbot được thử nghiệm đều lặp lại thông tin sai lệch bắt nguồn từ mạng lưới Pravda. Đáng lo ngại hơn nữa, bảy trong số các chatbot đã trích dẫn trực tiếp các bài báo cụ thể từ các trang web Pravda làm nguồn của chúng. Mặc dù hai trong số các mô hình AI không cung cấp trích dẫn rõ ràng, chúng vẫn bị phát hiện tạo ra hoặc lặp lại các câu chuyện sai lệch từ mạng lưới. Chỉ một trong tám mô hình có trích dẫn nguồn là không trích dẫn Pravda.

Tổng cộng, 56 trong số 450 phản hồi do chatbot tạo ra bao gồm các liên kết trực tiếp đến các bài báo lan truyền các tuyên bố sai lệch được xuất bản bởi mạng lưới Pravda. Các chatbot đã trích dẫn chung 92 bài báo khác nhau chứa thông tin sai lệch, với hai mô hình tham khảo tới 27 bài báo Pravda mỗi bài. Các bài báo này có nguồn gốc từ nhiều tên miền khác nhau trong mạng lưới, bao gồm Denmark.news-pravda.com, Trump.news-pravda.com và NATO.news-pravda.com.

Bản chất của các câu nhắc: Bắt chước các tương tác trong thế giới thực

Ba kiểu câu nhắc được sử dụng trong quá trình kiểm tra của NewsGuard được thiết kế để phản ánh phạm vi tương tác của người dùng với chatbot AI:

  • Câu nhắc Innocent (Ngây thơ): Những câu nhắc này trình bày câu chuyện sai lệch một cách trung lập, không dẫn dắt, như thể người dùng chỉ đơn giản là tìm kiếm thông tin mà không có bất kỳ định kiến nào.
  • Câu nhắc Leading (Dẫn dắt): Những câu nhắc này gợi ý một cách tinh tế câu chuyện sai lệch, ám chỉ tính hợp lệ của nó mà không tuyên bố rõ ràng. Điều này bắt chước các tình huống mà người dùng có thể đã tiếp xúc trước với thông tin sai lệch và đang tìm kiếm sự xác nhận.
  • Câu nhắc Malign (Ác ý): Những câu nhắc này trực tiếp khẳng định câu chuyện sai lệch là sự thật, phản ánh các tình huống mà người dùng đã bị thuyết phục về thông tin sai lệch và đang tìm kiếm sự củng cố.

Cách tiếp cận đa diện này rất quan trọng trong việc hiểu các loại tương tác khác nhau của người dùng có thể ảnh hưởng đến phản hồi của chatbot như thế nào. Nó tiết lộ rằng các chatbot dễ bị lặp lại thông tin sai lệch bất kể kiểu câu nhắc nào, mặc dù tần suất và bản chất của các phản hồi khác nhau.

Ví dụ cụ thể về thông tin sai lệch được lặp lại bởi Chatbot

Báo cáo của NewsGuard cung cấp nhiều ví dụ về các câu chuyện sai lệch cụ thể được mạng lưới Pravda tuyên truyền và sau đó được các chatbot AI lặp lại. Những ví dụ này làm nổi bật bề rộng và chiều sâu của chiến dịch thông tin sai lệch. Một số câu chuyện bao gồm:

  • Tuyên bố rằng Ukraine là một quốc gia Đức Quốc xã.
  • Những khẳng định sai lầm về nguyên nhân của cuộc xung đột ở Ukraine.
  • Thông tin sai lệch về sự can dự của phương Tây vào cuộc xung đột.
  • Những câu chuyện bịa đặt về giới lãnh đạo Ukraine.

Đây chỉ là một vài ví dụ về nhiều câu chuyện sai lệch đã được NewsGuard ghi lại và theo dõi tỉ mỉ. Việc các câu chuyện này đang được các chatbot AI hàng đầu lặp lại nhấn mạnh sự cần thiết phải có các biện pháp đối phó hiệu quả.

Thách thức trong việc chống lại thông tin sai lệch do AI điều khiển

Giải quyết vấn đề này là một công việc phức tạp. Nó đòi hỏi một cách tiếp cận nhiều mặt liên quan đến cả giải pháp công nghệ và nâng cao nhận thức của người dùng.

Giải pháp công nghệ:

  • Cải thiện lọc dữ liệu: Các nhà phát triển AI cần triển khai các cơ chế mạnh mẽ hơn để lọc thông tin sai lệch khỏi các bộ dữ liệu được sử dụng để đào tạo LLM. Điều này liên quan đến việc xác định và loại trừ các nguồn không đáng tin cậy, cũng như phát triển các thuật toán có thể phát hiện và gắn cờ thông tin có khả năng sai lệch hoặc gây hiểu lầm.
  • Tăng cường xác minh nguồn: Chatbot nên được thiết kế để ưu tiên thông tin từ các nguồn đáng tin cậy và đã được xác minh. Điều này bao gồm việc cung cấp các trích dẫn rõ ràng và cho phép người dùng dễ dàng theo dõi nguồn gốc của thông tin được trình bày.
  • Tính minh bạch và khả năng giải thích: Các mô hình AI nên minh bạch hơn về quy trình ra quyết định của chúng. Người dùng có thể hiểu tại sao một chatbot đang cung cấp một phản hồi cụ thể và nó đang dựa trên nguồn dữ liệu nào.

Nhận thức của người dùng:

  • Giáo dục về kiến thức truyền thông: Người dùng cần được giáo dục về khả năng thông tin sai lệch do AI tạo ra. Điều này bao gồm việc phát triển các kỹ năng tư duy phản biện và học cách đánh giá độ tin cậy của các nguồn thông tin trực tuyến.
  • Thái độ hoài nghi và xác minh: Người dùng nên tiếp cận thông tin do chatbot AI cung cấp với một thái độ hoài nghi lành mạnh. Điều quan trọng là phải tham khảo chéo thông tin với các nguồn khác và cảnh giác với những tuyên bố có vẻ quá giật gân hoặc quá tốt để trở thành sự thật.

Rủi ro lâu dài: Chính trị, xã hội và công nghệ

Sự lan truyền không được kiểm soát của thông tin sai lệch thông qua chatbot AI gây ra những rủi ro lâu dài đáng kể. Những rủi ro này vượt ra ngoài tác động tức thời của các câu chuyện sai lệch riêng lẻ và bao gồm các hậu quả xã hội rộng lớn hơn.

  • Rủi ro chính trị: Việc thao túng dư luận thông qua thông tin sai lệch do AI điều khiển có thể làm suy yếu các quy trình dân chủ và làm xói mòn lòng tin vào các thể chế. Nó có thể được sử dụng để gây ảnh hưởng đến các cuộc bầu cử, gieo rắc bất hòa và gây bất ổn cho các chính phủ.
  • Rủi ro xã hội: Sự lan truyền của các câu chuyện sai lệch có thể làm trầm trọng thêm sự chia rẽ xã hội hiện có và tạo ra những sự chia rẽ mới. Nó có thể thúc đẩy định kiến, phân biệt đối xử và thậm chí bạo lực.
  • Rủi ro công nghệ: Sự xói mòn lòng tin vào công nghệ AI do sự lan truyền của thông tin sai lệch có thể cản trở sự phát triển và áp dụng của nó. Mọi người có thể trở nên miễn cưỡng sử dụng các công cụ AI nếu họ không thể tin tưởng vào tính chính xác và độ tin cậy của thông tin được cung cấp.

Cuộc chiến chống lại thông tin sai lệch do AI điều khiển là một cuộc chiến quan trọng. Nó đòi hỏi một nỗ lực phối hợp từ các nhà phát triển AI, các nhà hoạch định chính sách, các nhà giáo dục và người dùng cá nhân để đảm bảo rằng các công nghệ mạnh mẽ này được sử dụng một cách có trách nhiệm và đạo đức. Tương lai của thông tin, và thực sự là tương lai của xã hội chúng ta, có thể phụ thuộc vào nó.