Vấn đề trích dẫn không chính xác
Một nghiên cứu gần đây đã tiết lộ một thiếu sót đáng kể trong thế hệ công cụ tìm kiếm AI tạo sinh hiện tại: chúng thường không cung cấp trích dẫn chính xác cho các bài báo. Hạn chế này đóng vai trò như một lời nhắc nhở quan trọng về ranh giới của những công nghệ đang phát triển nhanh chóng này, đặc biệt là khi các nền tảng truyền thông xã hội ngày càng tích hợp chúng vào trải nghiệm người dùng.
Trung tâm Báo chí Kỹ thuật số Tow đã thực hiện nghiên cứu và kết quả của nó rất đáng lo ngại. Nghiên cứu chỉ ra rằng phần lớn các công cụ tìm kiếm AI nổi bật gặp khó khăn trong việc trích dẫn chính xác các bài báo. Các công cụ này thường xuyên ngụy tạo các liên kết tham khảo hoặc đơn giản là không thể cung cấp câu trả lời khi được truy vấn về một nguồn.
Nghiên cứu đã trình bày trực quan hiệu suất của các chatbot AI khác nhau trong một biểu đồ, cho thấy sự thiếu tin cậy chung trong việc cung cấp các trích dẫn liên quan. Đáng chú ý, chatbot Grok của xAI, mà Elon Musk đã quảng cáo là AI ‘trung thực nhất’, là một trong những tài nguyên kém chính xác hoặc đáng tin cậy nhất về mặt này.
Báo cáo nêu rõ:
“Nhìn chung, các chatbot đã cung cấp câu trả lời không chính xác cho hơn 60% truy vấn. Trên các nền tảng khác nhau, mức độ không chính xác khác nhau, với Perplexity trả lời sai 37% truy vấn, trong khi Grok có tỷ lệ lỗi cao hơn nhiều, trả lời sai 94% truy vấn.”
Điều này cho thấy sự chênh lệch đáng kể về mức độ chính xác của các công cụ AI khác nhau, với một số công cụ hoạt động kém hơn đáng kể so với những công cụ khác.
Truy cập nội dung bị hạn chế
Một khía cạnh đáng lo ngại khác được báo cáo phát hiện liên quan đến khả năng của các công cụ AI trong việc truy cập và cung cấp thông tin từ các nguồn đã thực hiện các biện pháp ngăn chặn việc thu thập dữ liệu AI.
Báo cáo lưu ý:
“Trong một số trường hợp, các chatbot trả lời sai hoặc từ chối trả lời các truy vấn từ các nhà xuất bản cho phép chúng truy cập nội dung của họ. Mặt khác, đôi khi chúng trả lời đúng các truy vấn về các nhà xuất bản mà lẽ ra chúng không được phép truy cập nội dung của họ.”
Quan sát này cho thấy rằng một số nhà cung cấp AI có thể không tôn trọng các lệnh robots.txt được thiết kế để chặn chúng truy cập tài liệu có bản quyền. Nó đặt ra câu hỏi về ý nghĩa đạo đức và pháp lý của các công cụ AI khi vượt qua những hạn chế này.
Sự phụ thuộc ngày càng tăng vào AI để nghiên cứu
Vấn đề cốt lõi nằm ở sự phụ thuộc ngày càng tăng vào các công cụ AI như công cụ tìm kiếm, đặc biệt là ở những người dùng trẻ tuổi. Nhiều người trẻ hiện đang lớn lên với ChatGPT là công cụ nghiên cứu chính của họ. Xu hướng này rất đáng báo động, do sự không đáng tin cậy đã được chứng minh của các công cụ AI trong việc cung cấp thông tin chính xác và giáo dục người dùng một cách đáng tin cậy về các chủ đề chính.
Kết quả nghiên cứu đóng vai trò như một lời nhắc nhở rõ ràng rằng các phản hồi do AI tạo ra không phải lúc nào cũng có giá trị hoặc thậm chí có thể sử dụng được. Mối nguy hiểm thực sự nằm ở việc quảng bá các công cụ này như là sự thay thế cho nghiên cứu thực sự và là con đường tắt để đạt được kiến thức. Đối với người dùng trẻ tuổi nói riêng, điều này có thể dẫn đến một thế hệ những người ít hiểu biết hơn, ít được trang bị hơn và quá phụ thuộc vào các hệ thống có khả năng sai sót.
AI là một công cụ, không phải là một giải pháp
Mark Cuban, một doanh nhân nổi tiếng, đã tóm tắt một cách hiệu quả thách thức này trong một phiên họp tại SXSW. Ông nhấn mạnh:
“AI không bao giờ là câu trả lời. AI là công cụ. Bất kể bạn có kỹ năng gì, bạn có thể sử dụng AI để khuếch đại chúng.”
Quan điểm của Cuban nhấn mạnh rằng trong khi các công cụ AI có thể mang lại lợi thế và nên được khám phá vì tiềm năng nâng cao hiệu suất của chúng, chúng không phải là giải pháp độc lập.
AI có thể tạo nội dung video, nhưng nó thiếu khả năng phát triển một câu chuyện hấp dẫn, yếu tố quan trọng nhất. Tương tự, AI có thể tạo mã để hỗ trợ phát triển ứng dụng, nhưng nó không thể tự xây dựng ứng dụng thực tế.
Những hạn chế này làm nổi bật vai trò không thể thiếu của tư duy phản biện và chuyên môn của con người. Kết quả đầu ra của AI chắc chắn có thể hỗ trợ trong các nhiệm vụ khác nhau, nhưng chúng không thể thay thế nhu cầu cơ bản về sự khéo léo và kỹ năng của con người.
Sự cần thiết của đánh giá phản biện và phát triển kỹ năng
Mối quan tâm, đặc biệt là trong bối cảnh nghiên cứu này, là những người trẻ tuổi đang bị dẫn dắt để tin rằng các công cụ AI có thể cung cấp câu trả lời dứt khoát. Tuy nhiên, nghiên cứu, cùng với nhiều nỗ lực nghiên cứu khác, liên tục chứng minh rằng AI không đặc biệt giỏi về điều này.
Thay vì quảng bá AI như một sự thay thế cho các phương pháp nghiên cứu truyền thống, trọng tâm nên là giáo dục các cá nhân về cách các hệ thống này có thể tăng cường khả năng hiện có của họ. Để tận dụng AI một cách hiệu quả, trước tiên người dùng phải có kỹ năng nghiên cứu và phân tích mạnh mẽ, cũng như chuyên môn trong các lĩnh vực liên quan.
Tìm hiểu sâu hơn về các tác động
Các tác động của nghiên cứu này vượt ra ngoài mối quan tâm trước mắt về các trích dẫn không chính xác. Nó đặt ra những câu hỏi rộng hơn về vai trò của AI trong việc định hình sự hiểu biết của chúng ta về thế giới và khả năng thông tin sai lệch lan truyền nhanh chóng.
1. Xói mòn niềm tin vào các nguồn thông tin:
Khi các công cụ AI liên tục cung cấp các trích dẫn không chính xác hoặc bịa đặt, nó làm xói mòn niềm tin vào hệ sinh thái thông tin nói chung. Người dùng có thể ngày càng hoài nghi về tất cả các nguồn, gây khó khăn cho việc phân biệt giữa thông tin đáng tin cậy và không đáng tin cậy.
2. Tác động đến giáo dục và học tập:
Sự phụ thuộc vào các công cụ AI để nghiên cứu, đặc biệt là ở những người dùng trẻ tuổi, có thể gây ra những tác động bất lợi cho giáo dục và học tập. Học sinh có thể phát triển sự hiểu biết hời hợt về các môn học, thiếu các kỹ năng tư duy phản biện cần thiết để đánh giá thông tin một cách hiệu quả.
3. Trách nhiệm đạo đức của các nhà phát triển AI:
Kết quả của nghiên cứu này làm nổi bật trách nhiệm đạo đức của các nhà phát triển AI. Họ phải ưu tiên tính chính xác và minh bạch trong hệ thống của mình và đảm bảo rằng các công cụ AI không được sử dụng để lan truyền thông tin sai lệch hoặc làm suy yếu tính toàn vẹn của các nguồn thông tin.
4. Sự cần thiết của kiến thức truyền thông và tư duy phản biện:
Trong thời đại bị chi phối bởi nội dung do AI tạo ra, kiến thức truyền thông và kỹ năng tư duy phản biện quan trọng hơn bao giờ hết. Các cá nhân phải được trang bị để đánh giá thông tin một cách phê phán, xác định thành kiến và phân biệt giữa các nguồn đáng tin cậy và không đáng tin cậy.
5. Tương lai của AI trong nghiên cứu và tìm kiếm thông tin:
Nghiên cứu nhấn mạnh sự cần thiết phải tiếp tục phát triển và hoàn thiện các công cụ AI để nghiên cứu và tìm kiếm thông tin. Mặc dù AI có tiềm năng cách mạng hóa các lĩnh vực này, nhưng điều quan trọng là phải giải quyết các hạn chế hiện tại và đảm bảo rằng các công cụ này được sử dụng một cách có trách nhiệm và đạo đức.
Mở rộng về các mối quan tâm cụ thể
Hãy đi sâu hơn vào một số mối quan tâm cụ thể mà nghiên cứu đã nêu ra:
A. Vấn đề ‘ảo giác’:
Các chatbot AI được biết đến với xu hướng ‘ảo giác’, hoặc tạo ra thông tin hoàn toàn bịa đặt. Điều này đặc biệt có vấn đề trong bối cảnh trích dẫn, nơi độ chính xác là tối quan trọng. Phát hiện của nghiên cứu rằng các công cụ AI thường tạo ra các liên kết tham khảo làm nổi bật mức độ nghiêm trọng của vấn đề này.
B. Vấn đề thiên vị:
Các mô hình AI được đào tạo trên các tập dữ liệu khổng lồ, có thể chứa các thành kiến phản ánh định kiến xã hội hoặc quan điểm lệch lạc. Những thành kiến này có thể biểu hiện trong các phản hồi của AI, dẫn đến thông tin không chính xác hoặc sai lệch. Điều này đặc biệt đáng lo ngại khi các công cụ AI được sử dụng để nghiên cứu các chủ đề nhạy cảm hoặc gây tranh cãi.
C. Vấn đề minh bạch:
Hoạt động bên trong của nhiều mô hình AI thường không rõ ràng, gây khó khăn cho việc hiểu cách chúng đi đến kết luận. Việc thiếu minh bạch này gây khó khăn cho việc xác định và sửa chữa các lỗi hoặc thành kiến trong hệ thống.
D. Vấn đề bản quyền:
Phát hiện của nghiên cứu rằng một số công cụ AI truy cập nội dung từ các nguồn đã chặn chúng làm dấy lên những lo ngại nghiêm trọng về bản quyền. Các nhà phát triển AI phải tôn trọng quyền sở hữu trí tuệ và đảm bảo rằng các công cụ của họ không được sử dụng để vi phạm bản quyền.
Con đường phía trước: Phát triển và giáo dục AI có trách nhiệm
Con đường phía trước đòi hỏi một cách tiếp cận hai hướng: phát triển AI có trách nhiệm và giáo dục toàn diện.
1. Phát triển AI có trách nhiệm:
Các nhà phát triển AI phải ưu tiên tính chính xác, minh bạch và các cân nhắc đạo đức trong việc thiết kế và triển khai hệ thống của họ. Điều này bao gồm:
- Cải thiện độ chính xác của trích dẫn: Phát triển các kỹ thuật để đảm bảo rằng các công cụ AI cung cấp các trích dẫn chính xác và có thể kiểm chứng được.
- Giải quyết thành kiến: Thực hiện các phương pháp để giảm thiểu thành kiến trong các mô hình AI và đảm bảo rằng chúng cung cấp thông tin công bằng và cân bằng.
- Tăng cường tính minh bạch: Làm cho các mô hình AI minh bạch và dễ giải thích hơn, cho phép người dùng hiểu cách chúng đi đến kết luận.
- Tôn trọng bản quyền: Đảm bảo rằng các công cụ AI tôn trọng quyền sở hữu trí tuệ và không truy cập hoặc sử dụng tài liệu có bản quyền mà không được phép.
2. Giáo dục toàn diện:
Các cá nhân, đặc biệt là những người trẻ tuổi, phải được giáo dục về khả năng và hạn chế của các công cụ AI. Điều này bao gồm:
- Thúc đẩy kiến thức truyền thông: Dạy các kỹ năng tư duy phản biện và khả năng đánh giá thông tin từ nhiều nguồn khác nhau.
- Nhấn mạnh kỹ năng nghiên cứu: Củng cố tầm quan trọng của các phương pháp nghiên cứu truyền thống và khả năng xác minh thông tin một cách độc lập.
- Hiểu các hạn chế của AI: Giáo dục người dùng về khả năng AI tạo ra thông tin không chính xác hoặc sai lệch.
- Khuyến khích sử dụng có trách nhiệm: Thúc đẩy việc sử dụng có trách nhiệm và đạo đức các công cụ AI.
Bằng cách kết hợp phát triển AI có trách nhiệm với giáo dục toàn diện, chúng ta có thể khai thác tiềm năng của AI đồng thời giảm thiểu rủi ro của nó. Mục tiêu là tạo ra một tương lai nơi AI đóng vai trò là một công cụ có giá trị cho việc học tập và khám phá, thay vì là một nguồn thông tin sai lệch và nhầm lẫn. Kết quả của nghiên cứu này cung cấp một lời nhắc nhở quan trọng về công việc phía trước. Hành trình hướng tới một xã hội thực sự hiểu biết và thông thạo AI đòi hỏi sự cảnh giác liên tục, đánh giá phê phán và cam kết đổi mới có trách nhiệm.