Quyết định gần đây của Google về việc giới thiệu chatbot trí tuệ nhân tạo (AI) Gemini cho trẻ em dưới 13 tuổi đã gây ra nhiều tranh cãi và đặt ra những câu hỏi quan trọng về an toàn trực tuyến và bảo vệ trẻ em trong thời đại kỹ thuật số. Sáng kiến này, dự kiến ban đầu sẽ ra mắt tại Hoa Kỳ và Canada, sau đó là Úc, sẽ giúp chatbot có thể truy cập thông qua tài khoản Family Link của Google. Mặc dù cách tiếp cận này mang lại cho phụ huynh một mức độ kiểm soát nhất định, nhưng nó cũng nhấn mạnh thách thức đang diễn ra trong việc bảo vệ trẻ em trong một bối cảnh công nghệ đang phát triển.
Việc giới thiệu chatbot AI cho trẻ nhỏ mang đến cả cơ hội và rủi ro. Một mặt, những công cụ này có thể hỗ trợ giáo dục, nuôi dưỡng sự sáng tạo và cung cấp trải nghiệm học tập hấp dẫn. Mặt khác, chúng làm dấy lên lo ngại về việc tiếp xúc với nội dung không phù hợp, khả năng bị thao túng và sự phát triển của kỹ năng tư duy phản biện.
Cách thức hoạt động của Gemini AI Chatbot
Tài khoản Family Link của Google được thiết kế để giúp phụ huynh giám sát các hoạt động trực tuyến của con cái họ. Phụ huynh có thể quản lý quyền truy cập vào các nội dung và ứng dụng cụ thể, chẳng hạn như YouTube, đặt giới hạn và theo dõi việc sử dụng. Để thiết lập tài khoản cho trẻ, phụ huynh phải cung cấp thông tin cá nhân, bao gồm tên và ngày sinh của trẻ. Mặc dù việc thu thập dữ liệu này có thể làm dấy lên lo ngại về quyền riêng tư, nhưng Google đảm bảo rằng dữ liệu của trẻ em sẽ không được sử dụng để đào tạo hệ thống AI.
Theo mặc định, quyền truy cập chatbot sẽ được bật, yêu cầu phụ huynh chủ động tắt tính năng này để hạn chế quyền truy cập của con họ. Trẻ em sau đó có thể sử dụng chatbot để tạo phản hồi văn bản hoặc tạo hình ảnh. Tuy nhiên, Google thừa nhận khả năng xảy ra lỗi và sự không chính xác, nhấn mạnh sự cần thiết phải đánh giá cẩn thận nội dung được tạo. Hiện tượng AI “ảo giác”, trong đó chatbot bịa đặt thông tin, đòi hỏi trẻ em phải xác minh sự thật bằng các nguồn đáng tin cậy, đặc biệt khi sử dụng công cụ này để hỗ trợ làm bài tập về nhà.
Bản chất của thông tin được cung cấp
Các công cụ tìm kiếm truyền thống như Google truy xuất các tài liệu hiện có để người dùng xem xét và phân tích. Học sinh có thể truy cập các bài báo tin tức, tạp chí học thuật và các nguồn khác để thu thập thông tin cho bài tập. Tuy nhiên, các công cụ AI tạo sinh hoạt động khác nhau. Chúng phân tích các mẫu trong tài liệu nguồn để tạo phản hồi văn bản hoặc hình ảnh mới dựa trên lời nhắc của người dùng. Ví dụ: một đứa trẻ có thể yêu cầu hệ thống “vẽ một con mèo” và AI sẽ quét dữ liệu để xác định các đặc điểm xác định (ví dụ: ria mép, tai nhọn, đuôi dài) và tạo một hình ảnh kết hợp các đặc điểm đó.
Sự khác biệt giữa thông tin được truy xuất thông qua tìm kiếm của Google và nội dung được tạo bởi một công cụ AI có thể khó nắm bắt đối với trẻ nhỏ. Các nghiên cứu đã chỉ ra rằng ngay cả người lớn cũng có thể bị đánh lừa bởi nội dung do AI tạo ra. Ngay cả những chuyên gia có tay nghề cao, chẳng hạn như luật sư, cũng đã bị lừa sử dụng nội dung giả mạo do ChatGPT và các chatbot khác tạo ra. Điều này nhấn mạnh tầm quan trọng của việc giáo dục trẻ em về bản chất của nội dung do AI tạo ra và sự cần thiết phải đánh giá phản biện.
Đảm bảo phù hợp với lứa tuổi
Google khẳng định rằng Gemini sẽ kết hợp “các biện pháp bảo vệ tích hợp được thiết kế để ngăn chặn việc tạo ra nội dung không phù hợp hoặc không an toàn”. Các biện pháp bảo vệ này nhằm mục đích bảo vệ trẻ em khỏi tiếp xúc với tài liệu có hại.
Tuy nhiên, những biện pháp bảo vệ này có thể vô tình tạo ra những vấn đề mới. Ví dụ: hạn chế một số từ nhất định (ví dụ: “ngực”) để ngăn chặn quyền truy cập vào nội dung tình dục không phù hợp cũng có thể chặn quyền truy cập vào thông tin phù hợp với lứa tuổi về những thay đổi của cơ thể trong tuổi dậy thì. Điều này làm nổi bật sự cân bằng tinh tế giữa việc bảo vệ trẻ em và cung cấp cho chúng thông tin chính xác và phù hợp.
Nhiều trẻ em rất am hiểu công nghệ và thành thạo trong việc điều hướng các ứng dụng và phá vỡ các biện pháp kiểm soát hệ thống. Phụ huynh không thể chỉ dựa vào các biện pháp bảo vệ tích hợp. Họ phải tích cực xem xét nội dung được tạo, giúp con cái họ hiểu cách hệ thống hoạt động và đánh giá tính chính xác và phù hợp của thông tin được cung cấp.
Rủi ro tiềm ẩn của Chatbot AI đối với trẻ em
Ủy ban An toàn Điện tử đã đưa ra lời khuyên về an toàn trực tuyến nêu rõ những rủi ro tiềm ẩn của chatbot AI, đặc biệt là những chatbot được thiết kế để mô phỏng các mối quan hệ cá nhân, đối với trẻ nhỏ. Lời khuyên cảnh báo rằng bạn đồng hành AI có thể “chia sẻ nội dung có hại, bóp méo thực tế và đưa ra lời khuyên nguy hiểm”. Trẻ nhỏ, những người vẫn đang phát triển tư duy phản biện và kỹ năng sống, đặc biệt dễ bị các chương trình máy tính đánh lừa hoặc thao túng.
Nghiên cứu đã khám phá những cách mà chatbot AI, chẳng hạn như ChatGPT, Replika và Tessa, bắt chước các tương tác của con người bằng cách tuân thủ các chuẩn mực và quy ước xã hội. Các hệ thống này được thiết kế để giành được sự tin tưởng của chúng ta bằng cách phản ánh các quy tắc bất thành văn chi phối hành vi xã hội. Bằng cách bắt chước những sự tử tế xã hội này, các hệ thống này được thiết kế để giành được sự tin tưởng của chúng ta.
Những tương tác giống như con người này có thể gây nhầm lẫn và có khả năng gây rủi ro cho trẻ nhỏ. Họ có thể tin rằng chatbot là một người thật và tin tưởng vào nội dung mà nó cung cấp, ngay cả khi nó không chính xác hoặc bịa đặt. Điều này có thể cản trở sự phát triển của kỹ năng tư duy phản biện và khiến trẻ dễ bị thao túng hơn.
Bảo vệ trẻ em khỏi bị tổn hại
Việc triển khai chatbot AI của Gemini trùng với lệnh cấm sắp tới của Úc đối với các tài khoản truyền thông xã hội cho trẻ em dưới 16 tuổi, dự kiến vào tháng 12 năm nay. Mặc dù lệnh cấm này nhằm mục đích bảo vệ trẻ em khỏi tác hại trực tuyến, nhưng chatbot AI tạo sinh chứng minh rằng những rủi ro của việc tham gia trực tuyến vượt ra ngoài truyền thông xã hội. Cả trẻ em và phụ huynh đều phải được giáo dục về việc sử dụng an toàn và phù hợp tất cả các loại công cụ kỹ thuật số.
Vì chatbot AI của Gemini không được phân loại là một công cụ truyền thông xã hội, nên nó sẽ không phải tuân theo lệnh cấm của Úc. Điều này có nghĩa là các bậc cha mẹ Úc sẽ tiếp tục đối mặt với thách thức đi trước các công nghệ mới nổi và hiểu những rủi ro tiềm ẩn mà con cái họ phải đối mặt. Họ cũng phải nhận ra những hạn chế của lệnh cấm truyền thông xã hội trong việc bảo vệ trẻ em khỏi bị tổn hại.
Tình hình này nhấn mạnh sự cần thiết cấp thiết phải xem xét lại luật nghĩa vụ chăm sóc kỹ thuật số được đề xuất của Úc. Trong khi Liên minh Châu Âu và Vương quốc Anh thực hiện luật nghĩa vụ chăm sóc kỹ thuật số vào năm 2023, phiên bản của Úc đã bị tạm dừng kể từ tháng 11 năm 2024. Luật này sẽ buộc các công ty công nghệ phải chịu trách nhiệm giải quyết nội dung có hại tại nguồn của nó, do đó bảo vệ tất cả người dùng.
Việc giới thiệu chatbot AI cho trẻ nhỏ đặt ra một thách thức phức tạp đòi hỏi một cách tiếp cận đa diện. Phụ huynh, nhà giáo dục, nhà hoạch định chính sách và các công ty công nghệ phải làm việc cùng nhau để đảm bảo rằng trẻ em có thể hưởng lợi từ những cơ hội do những công cụ này mang lại đồng thời vẫn an toàn và được bảo vệ khỏi bị tổn hại. Điều này bao gồm giáo dục trẻ em về bản chất của AI, thúc đẩy kỹ năng tư duy phản biện và thực hiện các biện pháp bảo vệ mạnh mẽ để ngăn chặn việc tiếp xúc với nội dung không phù hợp.
Kết luận
Việc giới thiệu Gemini AI chatbot cho trẻ em dưới 13 tuổi mang lại nhiều cơ hội nhưng đi kèm với những rủi ro tiềm ẩn về an toàn trực tuyến, thao túng và phát triển tư duy phản biện. Cần có sự hợp tác giữa phụ huynh, nhà giáo dục và các công ty công nghệ để đảm bảo trẻ em được bảo vệ và sử dụng AI một cách an toàn. Các biện pháp như theo dõi nội dung, giáo dục về AI và luật nghĩa vụ chăm sóc kỹ thuật số cần được tăng cường để tối đa hóa lợi ích và giảm thiểu rủi ro cho trẻ em trong thế giới kỹ thuật số ngày càng phát triển.