AI và Thông Tin Sai Lệch: Chatbot Không Đáng Tin

Thông Tin Sai Lệch trong Kiểm Tra Thực Tế Bằng AI: Sự Không Đáng Tin Cậy của Chatbot

Trong một cuộc xung đột ngắn ngủi giữa Ấn Độ và Pakistan, thông tin sai lệch đã lan tràn, và người dùng mạng xã hội bắt đầu dựa vào chatbot AI để xác minh. Tuy nhiên, những chatbot này lại cung cấp thêm nhiều thông tin sai lệch, làm nổi bật sự không đáng tin cậy của chúng như là các công cụ kiểm tra thực tế. Khi các nền tảng công nghệ lớn tiếp tục giảm số lượng người kiểm tra thực tế thủ công, người dùng ngày càng phụ thuộc vào các chatbot được hỗ trợ bởi AI, chẳng hạn như Grok của xAI, ChatGPT của OpenAI và Gemini của Google, để tìm kiếm thông tin đáng tin cậy.

Sự Trỗi Dậy của Kiểm Tra Thực Tế Bằng Chatbot AI

Trên nền tảng X của Elon Musk (trước đây là Twitter), câu hỏi "@Grok, điều này có thật không?" đã trở thành một cách hỏi phổ biến của người dùng. Grok là một trợ lý AI được tích hợp vào nền tảng X, phản ánh xu hướng người dùng tìm kiếm thông tin bác bỏ ngay lập tức trên mạng xã hội. Tuy nhiên, câu trả lời của những chatbot AI này thường chứa đầy thông tin sai lệch.

Grok gần đây đã nhận được sự chú ý đặc biệt vì đã đưa thuyết âm mưu cực hữu "diệt chủng người da trắng" vào các truy vấn không liên quan. Grok đã xác định sai một đoạn video cũ từ sân bay Khartoum ở Sudan là một cuộc tấn công bằng tên lửa vào căn cứ Không quân Nur Khan của Pakistan trong cuộc xung đột Ấn Độ-Pakistan. Hơn nữa, một tòa nhà bốc cháy ở Nepal đã bị xác định sai là "có thể" hiển thị phản ứng quân sự của Pakistan đối với cuộc tấn công của Ấn Độ.

Giới Hạn của Kiểm Tra Thực Tế Bằng AI

McKenzie Sadeghi, một nhà nghiên cứu tại tổ chức giám sát thông tin NewsGuard, nói với hãng tin AFP: "Do X và các công ty công nghệ lớn khác đã cắt giảm đầu tư vào người kiểm tra thực tế thủ công, nên mọi người ngày càng phụ thuộc vào Grok như một người kiểm tra thực tế." Cô cảnh báo: "Nghiên cứu của chúng tôi liên tục phát hiện ra rằng chatbot AI không phải là nguồn tin tức và thông tin đáng tin cậy, đặc biệt là trong các tin tức nóng hổi."

Nghiên cứu của NewsGuard phát hiện ra rằng 10 chatbot hàng đầu, bao gồm cả Grok, dễ dàng lặp lại thông tin sai lệch, bao gồm cả các tường thuật tuyên truyền sai sự thật của Nga và các tuyên bố sai hoặc gây hiểu lầm liên quan đến cuộc bầu cử gần đây ở Úc. Trung tâm Tow thuộc Trung tâm Báo chí Kỹ thuật số của Đại học Columbia gần đây đã thực hiện một nghiên cứu về tám công cụ tìm kiếm AI và phát hiện ra rằng chatbot "thường không giỏi từ chối trả lời các câu hỏi mà họ không thể trả lời chính xác, thay vào đó cung cấp các câu trả lời không chính xác hoặc mang tính suy đoán."

Một người kiểm tra thực tế của AFP ở Uruguay đã hỏi Gemini về một hình ảnh AI tạo ra về một người phụ nữ. Gemini không chỉ xác nhận tính xác thực của hình ảnh mà còn bịa ra các chi tiết về danh tính của người phụ nữ và địa điểm có thể chụp ảnh.

Grok gần đây đã gắn nhãn "thật" cho một video được cho là quay cảnh một con trăn khổng lồ bơi trong sông Amazon, thậm chí còn trích dẫn một đoàn thám hiểm khoa học nghe có vẻ đáng tin cậy để hỗ trợ cho tuyên bố sai sự thật của mình. Trên thực tế, đoạn video này do AI tạo ra và những người kiểm tra thực tế của AFP ở Mỹ Latinh báo cáo rằng nhiều người dùng đã trích dẫn đánh giá của Grok làm bằng chứng cho thấy video này là thật.

Mối Quan Ngại về Kiểm Tra Thực Tế Bằng AI

Những phát hiện này đã gây ra những lo ngại vì các cuộc khảo sát cho thấy ngày càng có nhiều người dùng trực tuyến chuyển từ các công cụ tìm kiếm truyền thống sang chatbot AI để thu thập và xác minh thông tin. Đồng thời, Meta đã thông báo vào đầu năm nay rằng họ sẽ kết thúc chương trình kiểm tra thực tế của bên thứ ba ở Hoa Kỳ, thay vào đó giao nhiệm vụ bác bỏ thông tin sai lệch cho người dùng thông thường, sử dụng một mô hình được gọi là "Ghi chú cộng đồng", một mô hình được nền tảng X quảng bá. Tuy nhiên, các nhà nghiên cứu đã liên tục đặt câu hỏi về tính hiệu quả của "Ghi chú cộng đồng" trong việc chống lại thông tin sai lệch.

Kiểm tra thực tế thủ công từ lâu đã là một điểm gây tranh cãi trong bối cảnh chính trị phân cực, đặc biệt là ở Hoa Kỳ, nơi những người bảo thủ cho rằng nó đàn áp quyền tự do ngôn luận và kiểm duyệt nội dung cánh hữu, nhưng những người kiểm tra thực tế chuyên nghiệp mạnh mẽ phản đối tuyên bố này.

AFP hiện đang hợp tác với chương trình kiểm tra thực tế của Facebook bằng 26 ngôn ngữ, bao gồm ở Châu Á, Châu Mỹ Latinh và Liên minh Châu Âu.

Chất lượng và độ chính xác của chatbot AI có thể khác nhau tùy thuộc vào cách chúng được đào tạo và lập trình, điều này làm dấy lên lo ngại rằng đầu ra của chúng có thể bị ảnh hưởng hoặc kiểm soát về mặt chính trị.

xAI của Musk gần đây đã đổ lỗi cho "sửa đổi trái phép" vì Grok tạo ra các bài đăng không được yêu cầu trích dẫn "diệt chủng người da trắng" ở Nam Phi. Khi chuyên gia về AI David Caswell hỏi Grok ai có thể đã sửa đổi lời nhắc hệ thống của nó, chatbot này đã liệt kê Musk là thủ phạm "rất có khả năng".

Musk là một tỷ phú sinh ra ở Nam Phi và là người ủng hộ Tổng thống Hoa Kỳ Donald Trump. Trước đây, ông đã lan truyền những tuyên bố vô căn cứ rằng các nhà lãnh đạo Nam Phi "công khai thúc đẩy cuộc diệt chủng người da trắng."

Giám đốc Mạng lưới Kiểm tra Thực tế Quốc tế Angie Holan nói với AFP: "Chúng tôi đã thấy các trợ lý AI có thể bịa ra kết quả hoặc đưa ra các câu trả lời thiên vị sau khi các nhà mã hóa con người thay đổi cụ thể các chỉ thị của họ." "Tôi đặc biệt lo ngại về cách Grok xử lý các yêu cầu về các vấn đề rất nhạy cảm sau khi nhận được chỉ thị cung cấp các câu trả lời được ủy quyền trước."

Rủi Ro của Chatbot AI trong Lĩnh Vực Thông Tin

Việc sử dụng chatbot AI ngày càng tăng trong việc cung cấp thông tin đã làm nảy sinh một số lo ngại nghiêm trọng liên quan đến tác động gây hiểu lầm và thao túng tiềm tàng của chúng. Mặc dù các công nghệ này có những ưu điểm trong việc truy cập thông tin nhanh chóng và hợp lý hóa nghiên cứu, nhưng những hạn chế và sai lệch vốn có của chúng có thể vô tình hoặc cố ý lan truyền thông tin sai lệch hoặc tuyên truyền.

Những Hạn Chế Vốn Có của Chatbot AI

Chatbot AI học bằng cách phân tích lượng lớn dữ liệu văn bản, nhưng chúng thiếu khả năng tư duy phản biện của con người. Điều này có nghĩa là chúng có thể trích xuất các mẫu từ dữ liệu và tạo ra các phản hồi có vẻ hợp lý, nhưng không thực sự hiểu ý nghĩa hoặc ngữ cảnh cơ bản. Sự thiếu kiến thức này có thể dẫn đến việc tạo ra thông tin không chính xác, không đầy đủ hoặc gây hiểu lầm.

Ngoài ra, dữ liệu huấn luyện của chatbot AI có thể chứa các thành kiến, được phản ánh trong các phản hồi được tạo ra. Ví dụ: nếu dữ liệu huấn luyện chủ yếu đến từ một nguồn hoặc quan điểm cụ thể, thì chatbot có thể thể hiện sự thiên vị đối với nguồn hoặc quan điểm đó, do đó lan truyền thông tin thiên vị.

Rủi Ro do Chatbot AI Tạo Ra

Khi ngày càng có nhiều người dựa vào chatbot AI để lấy thông tin, nguy cơ lan truyền thông tin sai lệch cũng tăng theo. Nếu chatbot tạo ra thông tin không chính xác hoặc gây hiểu lầm, người dùng có thể vô tình chấp nhận và truyền bá thông tin đó, dẫn đến sự lan rộng của các niềm tin sai lầm.

Hơn nữa, chatbot AI có thể được sử dụng cho các mục đích xấu, chẳng hạn như lan truyền tuyên truyền hoặc thao túng dư luận. Bằng cách thiết kế cẩn thận dữ liệu huấn luyện hoặc điều chỉnh thuật toán, những kẻ xấu có thể thao túng chatbot để tạo ra các loại phản hồi cụ thể, do đó ảnh hưởng đến niềm tin và hành vi của người dùng.

Cách Giảm Thiểu Rủi Ro

Để giảm thiểu rủi ro liên quan đến chatbot AI, cần thực hiện một số biện pháp. Đầu tiên, các nhà phát triển nên cố gắng đảm bảo rằng dữ liệu huấn luyện của chatbot AI càng toàn diện và khách quan càng tốt. Điều này có thể yêu cầu bao gồm nhiều mẫu dữ liệu khác nhau từ các nguồn và quan điểm khác nhau để giảm thiểu tác động của thành kiến.
Thứ hai, chatbot AI cần được kiểm tra và đánh giá nghiêm ngặt để xác định và khắc phục mọi khuynh hướng không chính xác hoặc thiên vị. Điều này có thể yêu cầu xác minh thủ công các phản hồi do chatbot tạo ra và sử dụng nhiều thước đo khác nhau để đánh giá tính chính xác và công bằng của nó.
Thứ ba, người dùng nên duy trì tư duy phản biện và không mù quáng tin vào thông tin do chatbot AI cung cấp. Người dùng nên luôn so sánh thông tin từ các nguồn khác nhau và lưu ý đến những thành kiến tiềm ẩn mà chatbot có thể có.

Vai Trò của Nền Tảng Công Nghệ và Cộng Đồng

Nền tảng công nghệ và cộng đồng đóng một vai trò quan trọng trong việc điều chỉnh và giám sát nội dung do chatbot AI tạo ra. Các nền tảng có thể thực hiện các chính sách để xác định và xóa thông tin sai lệch hoặc tuyên truyền, đồng thời có thể hợp tác với các tổ chức kiểm tra thực tế để xác minh tính chính xác của các phản hồi do chatbot tạo ra. Ngoài ra, cộng đồng có thể giúp nâng cao nhận thức của người dùng bằng cách thúc đẩy các cuộc thảo luận về những hạn chế và thành kiến của chatbot AI, đồng thời khuyến khích người dùng duy trì tư duy phản biện.

Kết luận

Chatbot AI là một công cụ hữu ích, nhưng chúng cũng có những hạn chế và rủi ro cố hữu. Để đảm bảo rằng các công nghệ này được sử dụng một cách có trách nhiệm và giảm thiểu sự lan truyền của thông tin sai lệch và thao túng, cả nhà phát triển, cơ quan quản lý và người dùng đều cần phải cảnh giác. Bằng cách thực hiện các biện pháp cần thiết, chúng ta có thể tối đa hóa lợi ích của chatbot AI đồng thời giảm thiểu những tác hại tiềm ẩn của chúng.