Sự Phụ Thuộc Vào AI Để Kiểm Chứng Thông Tin Trong Xung Đột Và Những Sai Sót Của Nó
Trong cuộc xung đột kéo dài bốn ngày giữa Ấn Độ và Pakistan, người dùng mạng xã hội đã chuyển sang sử dụng chatbot AI để xác minh thông tin. Tuy nhiên, họ đã gặp phải nhiều thông tin sai lệch hơn, điều này làm nổi bật sự không đáng tin cậy của các chatbot này với tư cách là công cụ kiểm chứng thông tin. Khi các nền tảng công nghệ dần cắt giảm số lượng nhân viên kiểm chứng thông tin thủ công, người dùng ngày càng dựa vào các chatbot do AI điều khiển, bao gồm Grok của xAI, ChatGPT của OpenAI và Gemini của Google, để tìm kiếm thông tin đáng tin cậy. Nhưng người ta nhận thấy rằng các phản hồi do các chatbot AI này cung cấp thường chứa đầy thông tin sai lệch.
Một cách hỏi phổ biến đã xuất hiện trên nền tảng X (trước đây là Twitter) của Elon Musk là: "@Grok, điều này có đúng không?". Grok có một trợ lý AI tích hợp trên nền tảng này, phản ánh xu hướng ngày càng tăng của mọi người tìm kiếm những lời bác bỏ ngay lập tức trên mạng xã hội. Tuy nhiên, các phản hồi do các chatbot AI cung cấp thường chứa đầy thông tin sai lệch.
Ví Dụ Về Việc Chatbot AI Lan Truyền Thông Tin Không Chính Xác
Grok hiện đang bị giám sát mới sau khi có báo cáo cho rằng nó đã chèn lý thuyết âm mưu cực hữu "diệt chủng trắng" vào các truy vấn không liên quan. Nó đã xác định sai một đoạn video cũ về sân bay Khartoum ở Sudan là một cuộc tấn công bằng tên lửa nhằm vào căn cứ Không quân Nur Khan của Pakistan trong cuộc xung đột Ấn Độ-Pakistan. Ngoài ra, một đoạn video không liên quan về một vụ hỏa hoạn tại một tòa nhà ở Nepal đã bị xác định sai là "có thể" cho thấy phản ứng của Pakistan đối với các cuộc tấn công của Ấn Độ.
Grok gần đây cũng đã gắn nhãn một video được cho là quay cảnh một con trăn anaconda khổng lồ ở sông Amazon là "có thật", thậm chí còn trích dẫn một cuộc thám hiểm khoa học nghe có vẻ đáng tin cậy để hỗ trợ cho tuyên bố sai sự thật của nó. Trên thực tế, video này do AI tạo ra. Các nhà kiểm chứng thông tin của AFP ở Mỹ Latinh đã chỉ ra rằng nhiều người dùng đã trích dẫn đánh giá của Grok làm bằng chứng về tính xác thực của đoạn phim.
Cắt Giảm Đầu Tư Vào Kiểm Chứng Thông Tin
Khi X và các công ty công nghệ lớn khác cắt giảm đầu tư vào nhân viên kiểm chứng thông tin thủ công, sự phụ thuộc vào Grok như một người kiểm chứng thông tin ngày càng tăng. Mackenzie Sedge, một nhà nghiên cứu tại tổ chức giám sát tin tức NewsGuard, cảnh báo: "Nghiên cứu của chúng tôi đã nhiều lần phát hiện ra rằng chatbot AI không phải là nguồn thông tin và tin tức đáng tin cậy, đặc biệt là khi nói đến tin tức nóng hổi."
Nghiên cứu của NewsGuard phát hiện ra rằng 10 chatbot hàng đầu dễ lặp lại thông tin sai lệch, bao gồm các tường thuật thông tin sai lệch của Nga và các tuyên bố sai sự thật hoặc gây hiểu lầm liên quan đến cuộc bầu cử gần đây ở Úc. Một nghiên cứu gần đây của Trung tâm Báo chí Kỹ thuật số Tow của Đại học Columbia trên tám công cụ tìm kiếm AI cho thấy chatbot "thường không giỏi từ chối trả lời các câu hỏi mà chúng không thể trả lời chính xác, thay vào đó đưa ra câu trả lời không chính xác hoặc mang tính suy đoán."
AI Gặp Khó Khăn Trong Việc Xác Nhận Hình Ảnh Giả Mạo Và Tạo Chi Tiết
Khi các nhà kiểm chứng thông tin của AFP ở Uruguay hỏi Gemini về một bức ảnh do AI tạo ra về một người phụ nữ, nó không chỉ xác nhận tính xác thực của bức ảnh mà còn bịa đặt các chi tiết về danh tính của cô ấy và nơi bức ảnh có thể được chụp.
Những phát hiện như vậy đã làm dấy lên lo ngại vì các cuộc khảo sát cho thấy người dùng trực tuyến ngày càng chuyển từ các công cụ tìm kiếm truyền thống sang chatbot AI để lấy thông tin và thực hiện xác minh.
Sự Thay Đổi Trong Phương Pháp Kiểm Chứng Thông Tin Của Meta
Đầu năm nay, Meta thông báo rằng họ sẽ kết thúc chương trình kiểm chứng thông tin của bên thứ ba tại Hoa Kỳ, thay vào đó giao nhiệm vụ vạch trần thông tin sai lệch cho người dùng thông thường, sử dụng một mô hình được gọi là "ghi chú cộng đồng", một mô hình được X quảng bá. Tuy nhiên, các nhà nghiên cứu đã nhiều lần đặt câu hỏi về tính hiệu quả của "ghi chú cộng đồng" trong việc chống lại thông tin sai lệch.
Thách Thức Và Tranh Cãi Về Kiểm Chứng Thông Tin Thủ Công
Kiểm chứng thông tin thủ công từ lâu đã là một điểm nóng trong bối cảnh chính trị phân cực, đặc biệt là ở Hoa Kỳ, nơi những người ủng hộ bảo thủ cho rằng nó kìm hãm quyền tự do ngôn luận và kiểm duyệt nội dung cánh hữu - một tuyên bố mà các nhà kiểm chứng thông tin chuyên nghiệp kịch liệt phản đối. AFP hiện đang hợp tác với chương trình kiểm chứng thông tin của Facebook bằng 26 ngôn ngữ, bao gồm ở Châu Á, Châu Mỹ Latinh và Liên minh Châu Âu.
Ảnh Hưởng Chính Trị Và Chatbot AI
Chất lượng và độ chính xác của chatbot AI rất khác nhau, tùy thuộc vào cách chúng được đào tạo và lập trình, điều này làm dấy lên lo ngại rằng đầu ra của chúng có thể bị ảnh hưởng hoặc kiểm soát về mặt chính trị. Gần đây, xAI của Musk đã đổ lỗi cho "các sửa đổi trái phép" đối với Grok vì đã tạo ra các bài đăng không được yêu cầu đề cập đến "diệt chủng trắng" ở Nam Phi. Khi chuyên gia AI David Kaskel hỏi Grok ai có thể đã sửa đổi các lời nhắc hệ thống của nó, chatbot đã liệt kê Musk là thủ phạm "có khả năng nhất".
Musk là một tỷ phú sinh ra ở Nam Phi và là người ủng hộ Tổng thống Donald Trump. Trước đây, ông đã lan truyền những tuyên bố vô căn cứ rằng các nhà lãnh đạo Nam Phi "công khai thúc đẩy cuộc diệt chủng người da trắng".
Lo Ngại Về Cách AI Chatbot Xử Lý Các Vấn Đề Nhạy Cảm
Angie Holan, giám đốc Mạng lưới Kiểm chứng Thông tin Quốc tế, cho biết: "Chúng tôi đã thấy rằng trợ lý AI có thể bịa đặt kết quả hoặc đưa ra câu trả lời thiên vị sau khi các lập trình viên thủ công thay đổi cụ thể các hướng dẫn. Tôi đặc biệt lo ngại về cách Grok xử lý các yêu cầu liên quan đến các vấn đề rất nhạy cảm sau khi nhận được hướng dẫn cung cấp các câu trả lời được ủy quyền trước."
Tầm Quan Trọng Của Việc Đảm Bảo Tính Chính Xác Của AI
Sự phổ biến ngày càng tăng của chatbot AI đặt ra những thách thức đáng kể đối với việc lan truyền thông tin. Mặc dù chúng cung cấp một cách nhanh chóng và thuận tiện để truy cập thông tin, nhưng chúng cũng dễ mắc lỗi và lan truyền thông tin sai lệch. Khi người dùng ngày càng dựa vào các công cụ này để kiểm chứng thông tin, việc đảm bảo tính chính xác và độ tin cậy của chúng trở nên rất quan trọng.
Các công ty công nghệ, tổ chức kiểm chứng thông tin và các nhà nghiên cứu phải hợp tác để cải thiện chất lượng và độ tin cậy của chatbot AI. Điều này bao gồm việc thực hiện các giao thức đào tạo nghiêm ngặt, sử dụng nhân viên kiểm chứng thông tin thủ công để xác minh thông tin do AI tạo ra và phát triển các cơ chế để phát hiện và loại bỏ thông tin sai lệch.
Hướng Tới Tương Lai
Khi công nghệ AI tiếp tục phát triển, chatbot AI chắc chắn sẽ đóng một vai trò ngày càng quan trọng trong cách chúng ta truy cập và tiêu thụ thông tin. Tuy nhiên, điều quan trọng là phải tiếp cận các công cụ này một cách có phê phán và nhận thức được những hạn chế của chúng. Bằng cách thực hiện các bước để đảm bảo tính chính xác và độ tin cậy của chatbot AI, chúng ta có thể khai thác tiềm năng của chúng đồng thời giảm thiểu các rủi ro liên quan đến việc lan truyền thông tin sai lệch.
Sự Thiên Vị Trong Các Công Cụ AI
Sự thiên vị có thể tồn tại trong các công cụ AI, cho dù nó được thể hiện trong dữ liệu mà chúng được đào tạo hay trong cách chúng được lập trình. Sự thiên vị này có thể dẫn đến việc tạo ra các kết quả không chính xác hoặc gây hiểu lầm. Ví dụ, Grok đã chèn lý thuyết âm mưu cực hữu "diệt chủng trắng" vào các truy vấn không liên quan, điều này cho thấy rằng các hệ thống AI có thể lan truyền các hệ tư tưởng có hại.
Sự thiên vị trong các công cụ AI có thể là do nhiều yếu tố gây ra, bao gồm:
Sự thiên vị trong dữ liệu đào tạo: Các hệ thống AI học hỏi thông qua các bộ dữ liệu đào tạo. Nếu các bộ dữ liệu này chứa sự thiên vị, thì hệ thống AI cũng sẽ học được những sự thiên vị này. Ví dụ: nếu một hệ thống AI được đào tạo trên các bài viết chủ yếu do nam giới viết, thì nó có thể có sự thiên vị đối với phụ nữ.
Sự thiên vị trong các thuật toán: Các thuật toán được sử dụng để xây dựng các hệ thống AI cũng có thể chứa sự thiên vị. Ví dụ: nếu một thuật toán được thiết kế để ưu tiên các câu trả lời từ một số nhóm nhất định, thì nó có thể phân biệt đối xử với các nhóm khác.
Sự thiên vị do can thiệp thủ công: Ngay cả khi một hệ thống AI được đào tạo trên dữ liệu không thiên vị, sự can thiệp thủ công vẫn có thể dẫn đến sự thiên vị. Ví dụ: nếu các lập trình viên thủ công được hướng dẫn đưa ra các câu trả lời được ủy quyền trước khi trả lời một số câu hỏi nhất định, thì điều này có thể tạo ra sự thiên vị.
Giải quyết vấn đề thiên vị trong các công cụ AI là rất quan trọng vì một số lý do:
Công bằng: Nếu một hệ thống AI chứa sự thiên vị, thì nó có thể gây ra sự bất công cho một số nhóm nhất định. Ví dụ: nếu một hệ thống AI được sử dụng để tuyển dụng, thì nó có thể có sự thiên vị đối với một nhóm bị phân biệt đối xử.
Độ chính xác: Nếu một hệ thống AI chứa sự thiên vị, thì nó có thể không thể cung cấp thông tin chính xác. Ví dụ: nếu một hệ thống AI được sử dụng để cung cấp lời khuyên y tế, thì nó có thể cung cấp những lời khuyên không chính xác hoặc gây hiểu lầm.
Niềm tin: Nếu mọi người không tin rằng các hệ thống AI là công bằng và chính xác, thì họ ít có khả năng sử dụng chúng.
Giải quyết vấn đề thiên vị trong các công cụ AI đòi hỏi một cách tiếp cận đa diện, bao gồm:
Thu thập dữ liệu không thiên vị: Đảm bảo rằng bộ dữ liệu được sử dụng để đào tạo các hệ thống AI là không thiên vị là rất quan trọng. Điều này có thể đòi hỏi những nỗ lực đáng kể, vì việc tìm và loại bỏ sự thiên vị trong dữ liệu có thể khó khăn.
Phát triển các thuật toán không thiên vị: Các thuật toán được sử dụng để xây dựng các hệ thống AI phải không thiên vị. Điều này có thể đòi hỏi việc sử dụng các kỹ thuật học máy mới để xây dựng các thuật toán ít dễ bị thiên vị hơn.
Can thiệp thủ công: Can thiệp thủ công có thể được sử dụng để sửa chữa những sự thiên vị trong các hệ thống AI. Ví dụ: các lập trình viên thủ công có thể xem xét các câu trả lời do hệ thống AI tạo ra và sửa chữa bất kỳ sự thiên vị nào xuất hiện.
Tính minh bạch: Điều quan trọng là cho người dùng các hệ thống AI biết về những sự thiên vị có thể tồn tại trong hệ thống AI. Điều này có thể được thực hiện bằng cách cung cấp thông tin về dữ liệu mà hệ thống AI được đào tạo và các thuật toán được sử dụng để xây dựng hệ thống AI.
Giải quyết vấn đề thiên vị trong các công cụ AI là một thách thức liên tục, nhưng nó rất quan trọng để đảm bảo rằng các công cụ này là công bằng, chính xác và đáng tin cậy.
Hạn Chế Của Kiểm Chứng Thông Tin AI
Mặc dù các công cụ kiểm chứng thông tin AI đã đạt được những tiến bộ trong việc xác định thông tin sai lệch, nhưng vẫn còn những hạn chế về khả năng và tính hiệu quả của chúng. Những hạn chế này xuất phát từ một số yếu tố:
Hiểu ngữ cảnh: Các hệ thống AI gặp khó khăn trong việc hiểu các ngữ cảnh phức tạp và các sắc thái, điều rất quan trọng đối với việc kiểm chứng thông tin chính xác. Ví dụ: hệ thống AI có thể không thể phân biệt được sự châm biếm hoặc hài hước với các tuyên bố thực tế.
Phát hiện thông tin sai lệch tinh vi: Các hệ thống AI có thể khó phát hiện thông tin sai lệch tinh vi, chẳng hạn như việc trích dẫn ngoài ngữ cảnh hoặc báo cáo chọn lọc các sự kiện.
Thiếu chuyên môn về lĩnh vực: Các hệ thống AI thường thiếu chuyên môn về lĩnh vực cần thiết để kiểm chứng thông tin về một số chủ đề nhất định. Ví dụ: một hệ thống AI có thể không có đủ kiến thức y tế để kiểm chứng chính xác các tuyên bố liên quan đến sức khỏe.
Thao túng đối kháng: Những người lan truyền thông tin sai lệch liên tục phát triển các phương pháp mới để thao túng và phá vỡ các hệ thống kiểm chứng thông tin. Các hệ thống AI phải liên tục được cập nhật và cải thiện để bắt kịp các chiến lược mới này.
Rào cản ngôn ngữ: Các công cụ kiểm chứng thông tin AI có thể không hiệu quả trong việc xử lý thông tin sai lệch bằng các ngôn ngữ khác nhau. Việc dịch và hiểu các sắc thái của các ngôn ngữ khác nhau là một thách thức và đòi hỏi kiến thức ngôn ngữ chuyên biệt.
Nguy cơ báo động sai: Các hệ thống kiểm chứng thông tin AI có thể mắc lỗi, dẫn đến việc đánh dấu thông tin chính xác là thông tin sai lệch.
Để giảm thiểu những hạn chế trong kiểm chứng thông tin AI, điều quan trọng là phải kết hợp chuyên môn của con người với các công cụ AI. Nhân viên kiểm chứng thông tin thủ công có thể cung cấp ngữ cảnh, chuyên môn