Sự trỗi dậy của AI trong việc xác minh thông tin
Sự trỗi dậy của trí tuệ nhân tạo (AI) đã mang đến vô số công cụ được thiết kế để hợp lý hóa việc truy cập thông tin. Tuy nhiên, tiến bộ công nghệ này cũng đặt ra những thách thức mới, đặc biệt là trong lĩnh vực thông tin sai lệch. Trên nền tảng mạng xã hội X của Elon Musk, một xu hướng đáng lo ngại đã xuất hiện: người dùng ngày càng chuyển sang sử dụng bot AI Grok của Musk cho mục đích kiểm tra thực tế (fact-checking). Sự phát triển này đã gây ra những làn sóng báo động trong cộng đồng kiểm tra thực tế của con người, làm dấy lên lo ngại về khả năng lan truyền rộng rãi thông tin sai lệch hoặc gây hiểu lầm.
Việc tích hợp AI vào các nền tảng truyền thông xã hội không phải là mới. Động thái của X cho phép người dùng tương tác với Grok của xAI, theo một cách nào đó, chỉ đơn giản là theo xu hướng. Điều này phản ánh cách tiếp cận của Perplexity, công ty vận hành một tài khoản tự động trên X để cung cấp trải nghiệm tương tự.
Sau khi xAI thiết lập sự hiện diện tự động của Grok trên X, người dùng nhanh chóng bắt đầu khám phá khả năng của nó, đặt câu hỏi và tìm kiếm câu trả lời. Ở các khu vực như Ấn Độ, một mô hình đặc biệt đáng lo ngại đã xuất hiện: các cá nhân bắt đầu sử dụng Grok để xác minh các bình luận và truy vấn, nhiều trong số đó nhắm mục tiêu vào các hệ tư tưởng chính trị cụ thể.
Mối quan tâm của những người kiểm tra thực tế (Fact-Checkers)
Việc dựa vào Grok, và thực sự là bất kỳ trợ lý AI nào thuộc loại này, để kiểm tra thực tế là một nguyên nhân gây lo ngại nghiêm trọng. Bản chất của các bot AI này là chúng có thể đưa ra các phản hồi nghe có vẻ thuyết phục, bất kể tính chính xác thực tế của chúng. Đây không phải là một mối quan tâm lý thuyết; Grok có một lịch sử được ghi nhận về việc phổ biến tin tức giả mạo và thông tin sai lệch.
Một trường hợp đáng chú ý đã xảy ra, trong đó một số thư ký tiểu bang đã khẩn cầu Musk ban hành các sửa đổi quan trọng đối với Grok. Yêu cầu khẩn cấp này được đưa ra sau khi xuất hiện thông tin sai lệch, do trợ lý AI tạo ra, trên các mạng xã hội, gây ra hồi chuông cảnh báo trước thềm các cuộc bầu cử.
Grok không đơn độc trong việc này. Các chatbot nổi bật khác, bao gồm ChatGPT của OpenAI và Gemini của Google, cũng bị phát hiện tạo ra thông tin không chính xác liên quan đến bầu cử. Các nhà nghiên cứu về thông tin sai lệch càng nhấn mạnh khả năng lạm dụng, tiết lộ vào năm 2023 rằng các chatbot AI như ChatGPT có thể dễ dàng bị khai thác để tạo ra các văn bản thuyết phục chứa các câu chuyện gây hiểu lầm.
Ảo tưởng về tính xác thực
Angie Holan, giám đốc International Fact-Checking Network (IFCN) tại Poynter, đã trình bày rõ vấn đề cốt lõi, nói rằng, “Các trợ lý AI, như Grok, chúng thực sự giỏi sử dụng ngôn ngữ tự nhiên và đưa ra câu trả lời nghe giống như một người nói. Và theo cách đó, các sản phẩm AI có tuyên bố về tính tự nhiên và phản hồi nghe có vẻ xác thực, ngay cả khi chúng có khả năng rất sai. Đó sẽ là mối nguy hiểm ở đây.”
Mối nguy hiểm, như Holan nhấn mạnh, nằm ở vẻ ngoài xác thực đầy lừa dối. Khả năng bắt chước ngôn ngữ của con người của AI tạo ra ảo giác về độ tin cậy, ngay cả khi thông tin cơ bản bị sai sót hoặc hoàn toàn bịa đặt.
Sự khác biệt cơ bản: AI so với Fact-Checkers con người
Sự tương phản giữa trợ lý AI và người kiểm tra thực tế là rất rõ ràng. Những người kiểm tra thực tế của con người xác minh thông tin một cách tỉ mỉ, dựa trên nhiều nguồn đáng tin cậy. Họ hoạt động với sự minh bạch, đính kèm tên và liên kết tổ chức của họ vào các phát hiện của họ, do đó đảm bảo trách nhiệm giải trình và củng cố uy tín.
Pratik Sinha, đồng sáng lập trang web kiểm tra thực tế phi lợi nhuận Alt News của Ấn Độ, chỉ ra rằng trong khi các phản hồi của Grok hiện tại có vẻ thuyết phục, độ chính xác của nó về cơ bản bị giới hạn bởi dữ liệu mà nó nhận được. “Ai sẽ quyết định dữ liệu nào nó được cung cấp, và đó là nơi mà sự can thiệp của chính phủ, v.v., sẽ xuất hiện,” ông lưu ý, nhấn mạnh vấn đề quan trọng về tính minh bạch của nguồn dữ liệu.
Sinha nhấn mạnh, việc thiếu minh bạch là nơi sinh sản cho những tác hại tiềm tàng. “Bất cứ điều gì thiếu minh bạch sẽ gây ra tác hại vì bất cứ điều gì thiếu minh bạch đều có thể bị uốn nắn theo bất kỳ cách nào.”
Grok tự thừa nhận: Khả năng bị lạm dụng
Trong một sự trớ trêu, tài khoản của Grok trên X, trong một trong những phản hồi được đăng của nó, đã thừa nhận rằng nó “có thể bị lạm dụng - để lan truyền thông tin sai lệch và vi phạm quyền riêng tư.”
Mặc dù có sự thừa nhận này, tài khoản tự động không cung cấp bất kỳ tuyên bố từ chối trách nhiệm nào cho người dùng nhận được câu trả lời của nó. Sự thiếu sót này khiến người dùng dễ bị thông tin sai lệch, đặc biệt là trong trường hợp AI đã “tưởng tượng” ra câu trả lời, một hiện tượng được ghi nhận rõ ràng trong lĩnh vực AI, nơi hệ thống tạo ra thông tin sai lệch hoặc vô nghĩa.
Anushka Jain, một cộng tác viên nghiên cứu tại Digital Futures Lab, đã giải thích chi tiết về điểm này, nói rằng, “Nó có thể bịa đặt thông tin để cung cấp phản hồi.” Xu hướng bịa đặt thông tin này nhấn mạnh những hạn chế vốn có của AI trong bối cảnh kiểm tra thực tế.
Vấn đề nan giải về dữ liệu đào tạo
Một lớp phức tạp nữa nảy sinh từ câu hỏi về dữ liệu đào tạo của Grok. Có sự không chắc chắn xung quanh mức độ Grok sử dụng các bài đăng trên X làm tài liệu đào tạo và các biện pháp kiểm soát chất lượng, nếu có, được sử dụng để kiểm tra thực tế các bài đăng đó. Một thay đổi được thực hiện trước đó dường như đã cấp cho Grok quyền truy cập mặc định vào dữ liệu người dùng X, làm dấy lên lo ngại về khả năng AI hấp thụ và truyền bá thông tin sai lệch hiện có trên nền tảng.
Tiêu thụ công khai và riêng tư thông tin do AI tạo ra
Một mối quan tâm đáng kể khác xoay quanh tính chất công khai của các trợ lý AI như Grok trên các nền tảng truyền thông xã hội. Không giống như các tương tác với các chatbot như ChatGPT, thường xảy ra trong một môi trường riêng tư, các phản hồi của Grok được cung cấp công khai.
Việc phổ biến công khai này tạo ra một tình huống mà, ngay cả khi một người dùng nhận thức được rằng thông tin do AI cung cấp có thể không chính xác, những người dùng khác trên nền tảng vẫn có thể chấp nhận nó là sự thật. Điều này có thể dẫn đến những hậu quả xã hội nghiêm trọng.
Đã có những tiền lệ lịch sử. Ví dụ, Ấn Độ đã chứng kiến những vụ hành hình bi thảm do đám đông gây ra bởi thông tin sai lệch được lan truyền qua WhatsApp. Những sự kiện này, mặc dù xảy ra trước khi Generative AI (GenAI) có sẵn rộng rãi, đóng vai trò như một lời nhắc nhở rõ ràng về những nguy hiểm trong thế giới thực của thông tin sai lệch không được kiểm soát. Sự ra đời của GenAI, với khả năng tạo ra nội dung tổng hợp có vẻ rất thực tế, chỉ làm tăng thêm những rủi ro này.
Tỷ lệ lỗi của AI
Holan của IFCN cảnh báo rằng, “Nếu bạn thấy rất nhiều câu trả lời của Grok này, bạn sẽ nói, này, phần lớn chúng là đúng, và điều đó có thể đúng, nhưng sẽ có một số sai. Và bao nhiêu? Đó không phải là một phần nhỏ. Một số nghiên cứu đã chỉ ra rằng các mô hình AI có tỷ lệ lỗi 20%… và khi nó sai, nó có thể thực sự sai với những hậu quả trong thế giới thực.”
Tỷ lệ lỗi 20%, như Holan nhấn mạnh, là một con số đáng kể. Nó nhấn mạnh sự không đáng tin cậy vốn có của AI trong các tình huống đòi hỏi độ chính xác thực tế. Và, như cô ấy nhấn mạnh, hậu quả của những lỗi này có thể rất sâu sắc, vượt xa lĩnh vực kỹ thuật số.
AI: Một công cụ, không phải là sự thay thế cho sự phán đoán của con người
Trong khi các công ty AI, bao gồm cả xAI, liên tục tinh chỉnh các mô hình của họ để đạt được giao tiếp giống con người hơn, thực tế cơ bản vẫn là: AI không thể và không nên thay thế sự phán đoán của con người, đặc biệt là trong lĩnh vực kiểm tra thực tế quan trọng.
Xu hướng của các công ty công nghệ khám phá các con đường để giảm sự phụ thuộc vào những người kiểm tra thực tế là một nguyên nhân gây lo ngại. Các nền tảng như X và Meta đã chấp nhận khái niệm kiểm tra thực tế dựa vào cộng đồng, được minh họa bằng các sáng kiến như ‘Community Notes’. Những thay đổi này, mặc dù có khả năng mang lại những lợi thế nhất định, cũng đặt ra câu hỏi về khả năng xói mòn các tiêu chuẩn kiểm tra thực tế nghiêm ngặt.
Một sự trở lại với Fact-Checking của con người?
Sinha của Alt News bày tỏ quan điểm lạc quan, cho rằng mọi người cuối cùng sẽ học cách phân biệt giữa đầu ra của máy móc và công việc của những người kiểm tra thực tế, cuối cùng đánh giá cao độ chính xác và độ tin cậy của những người kiểm tra thực tế.
“Chúng ta sẽ thấy con lắc quay trở lại với việc kiểm tra thực tế nhiều hơn,” Holan của IFCN dự đoán.
Tuy nhiên, cô cảnh báo rằng trong thời gian chờ đợi, những người kiểm tra thực tế có thể sẽ phải đối mặt với khối lượng công việc gia tăng do sự lan truyền nhanh chóng của thông tin do AI tạo ra. Thách thức sẽ là chống lại làn sóng thông tin sai lệch một cách hiệu quả, đảm bảo rằng công chúng vẫn được thông tin bởi sự thật, chứ không phải bởi những ảo ảnh thuyết phục.
Câu hỏi cốt lõi: Quan tâm đến sự thật
Trung tâm của vấn đề nằm ở một câu hỏi cơ bản: “Bạn có thực sự quan tâm đến những gì thực sự đúng hay không? Bạn có chỉ đang tìm kiếm vẻ ngoài của một thứ gì đó nghe có vẻ và cảm thấy đúng mà không thực sự đúng không? Bởi vì đó là những gì trợ lý AI sẽ mang lại cho bạn,” Holan nói.
Câu hỏi này tóm tắt tình thế tiến thoái lưỡng nan quan trọng do sự trỗi dậy của AI trong việc phổ biến thông tin. Chúng ta, với tư cách là một xã hội, có sẵn sàng ưu tiên sự tiện lợi và vẻ ngoài của sự thật hơn quá trình kiểm tra thực tế một cách tỉ mỉ không? Câu trả lời cho câu hỏi này cuối cùng sẽ định hình tương lai của thông tin, xác định liệu chúng ta có khuất phục trước một thế giới của những thực tế được sản xuất hay duy trì các nguyên tắc của sự thật và chính xác.