การประกาศล่าสุดของ Google ที่จะแนะนำ Gemini artificial intelligence (AI) chatbot ให้กับเด็กอายุต่ำกว่า 13 ปี ได้จุดประกายการถกเถียงอย่างมากและก่อให้เกิดคำถามสำคัญเกี่ยวกับความปลอดภัยออนไลน์และการคุ้มครองเด็กในยุคดิจิทัล ความคิดริเริ่มนี้ มีกำหนดเปิดตัวในสหรัฐอเมริกาและแคนาดาก่อน จากนั้นในออสเตรเลีย จะทำให้ chatbot สามารถเข้าถึงได้ผ่านบัญชี Google’s Family Link แม้ว่าแนวทางนี้จะให้ผู้ปกครองสามารถควบคุมได้ในระดับหนึ่ง แต่ก็เน้นย้ำถึงความท้าทายอย่างต่อเนื่องในการปกป้องเด็กในภูมิทัศน์ทางเทคโนโลยีที่เปลี่ยนแปลงไป
การตัดสินใจแนะนำ AI chatbot ให้กับเด็กเล็กนำเสนอทั้งโอกาสและความเสี่ยง ในด้านหนึ่ง เครื่องมือเหล่านี้สามารถให้การสนับสนุนด้านการศึกษา ส่งเสริมความคิดสร้างสรรค์ และมอบประสบการณ์การเรียนรู้ที่น่าสนใจ ในทางกลับกัน พวกเขาก็ก่อให้เกิดความกังวลเกี่ยวกับการสัมผัสเนื้อหาที่ไม่เหมาะสม ศักยภาพในการถูกชักจูง และการพัฒนาทักษะการคิดเชิงวิพากษ์
วิธีการทำงานของ Gemini AI Chatbot
บัญชี Google’s Family Link ได้รับการออกแบบมาเพื่อให้ผู้ปกครองดูแลกิจกรรมออนไลน์ของบุตรหลานได้ ผู้ปกครองสามารถจัดการการเข้าถึงเนื้อหาและแอปพลิเคชันเฉพาะ เช่น YouTube กำหนดขีดจำกัด และตรวจสอบการใช้งาน ในการสร้างบัญชีของเด็ก ผู้ปกครองจะต้องให้ข้อมูลส่วนบุคคล รวมถึงชื่อและวันเกิดของเด็ก แม้ว่าการเก็บรวบรวมข้อมูลนี้อาจก่อให้เกิดความกังวลด้านความเป็นส่วนตัว แต่ Google รับรองว่าข้อมูลของเด็กจะไม่ถูกนำไปใช้ในการฝึกอบรมระบบ AI
โดยค่าเริ่มต้น การเข้าถึง chatbot จะเปิดใช้งาน โดยกำหนดให้ผู้ปกครองต้องปิดใช้งานคุณสมบัตินี้เพื่อจำกัดการเข้าถึงของบุตรหลาน จากนั้นเด็กๆ สามารถใช้ chatbot เพื่อสร้างการตอบสนองด้วยข้อความหรือสร้างรูปภาพได้ อย่างไรก็ตาม Google รับทราบถึงความเป็นไปได้ที่จะเกิดข้อผิดพลาดและความไม่ถูกต้อง โดยเน้นย้ำถึงความจำเป็นในการประเมินเนื้อหาที่สร้างขึ้นอย่างรอบคอบ ปรากฏการณ์ “hallucination” ของ AI ที่ chatbot สร้างข้อมูลขึ้น ทำให้เด็กต้องตรวจสอบข้อเท็จจริงกับแหล่งที่เชื่อถือได้ โดยเฉพาะอย่างยิ่งเมื่อใช้เครื่องมือนี้เพื่อช่วยทำการบ้าน
ลักษณะของข้อมูลที่ให้
เครื่องมือค้นหาแบบดั้งเดิม เช่น Google ดึงข้อมูลที่มีอยู่เพื่อให้ผู้ใช้ตรวจสอบและวิเคราะห์ นักเรียนสามารถเข้าถึงบทความข่าว วารสารวิชาการ และแหล่งข้อมูลอื่นๆ เพื่อรวบรวมข้อมูลสำหรับงานที่ได้รับมอบหมาย อย่างไรก็ตาม เครื่องมือ Generative AI ทำงานแตกต่างกัน พวกเขาจะวิเคราะห์รูปแบบในเนื้อหาต้นฉบับเพื่อสร้างการตอบสนองด้วยข้อความใหม่หรือรูปภาพตามข้อความแจ้งของผู้ใช้ ตัวอย่างเช่น เด็กสามารถขอให้ระบบ “วาดแมว” และ AI จะสแกนข้อมูลเพื่อระบุลักษณะที่กำหนด (เช่น หนวด หูแหลม หางยาว) และสร้างภาพที่รวมคุณสมบัติเหล่านั้น
ความแตกต่างระหว่างข้อมูลที่ดึงผ่านการค้นหาของ Google และเนื้อหาที่สร้างโดยเครื่องมือ AI อาจเป็นเรื่องยากสำหรับเด็กเล็กที่จะเข้าใจ การศึกษาแสดงให้เห็นว่าแม้แต่ผู้ใหญ่ก็สามารถถูกหลอกได้ด้วยเนื้อหาที่สร้างโดย AI แม้แต่ผู้เชี่ยวชาญที่มีทักษะสูง เช่น ทนายความ ก็ถูกหลอกให้ใช้เนื้อหาปลอมที่ผลิตโดย ChatGPT และ chatbot อื่นๆ สิ่งนี้เน้นย้ำถึงความสำคัญของการให้ความรู้แก่เด็กเกี่ยวกับลักษณะของเนื้อหาที่สร้างโดย AI และความจำเป็นในการประเมินอย่างมีวิจารณญาณ
การสร้างความมั่นใจในความเหมาะสมตามวัย
Google ยืนยันว่า Gemini จะรวม “การป้องกันในตัวที่ออกแบบมาเพื่อป้องกันการสร้างเนื้อหาที่ไม่เหมาะสมหรือไม่ปลอดภัย” การป้องกันเหล่านี้มีจุดมุ่งหมายเพื่อปกป้องเด็กจากการสัมผัสกับเนื้อหาที่เป็นอันตราย
อย่างไรก็ตาม การป้องกันเหล่านี้อาจสร้างปัญหาใหม่โดยไม่ได้ตั้งใจ ตัวอย่างเช่น การจำกัดคำบางคำ (เช่น “หน้าอก”) เพื่อป้องกันการเข้าถึงเนื้อหาทางเพศที่ไม่เหมาะสม อาจขัดขวางการเข้าถึงข้อมูลที่เหมาะสมกับวัยเกี่ยวกับการเปลี่ยนแปลงทางร่างกายในช่วงวัยแรกรุ่น สิ่งนี้เน้นย้ำถึงความสมดุลที่ละเอียดอ่อนระหว่างการปกป้องเด็กและการให้ข้อมูลที่ถูกต้องและเกี่ยวข้องแก่พวกเขา
เด็กหลายคนมีความรู้ด้านเทคโนโลยีสูงและเชี่ยวชาญในการนำทางแอปและการหลีกเลี่ยงการควบคุมระบบ ผู้ปกครองไม่สามารถพึ่งพาการป้องกันในตัวเพียงอย่างเดียวได้ พวกเขาต้องตรวจสอบเนื้อหาที่สร้างขึ้นอย่างแข็งขัน ช่วยให้บุตรหลานเข้าใจวิธีการทำงานของระบบ และประเมินความถูกต้องและความเหมาะสมของข้อมูลที่ให้
ความเสี่ยงที่อาจเกิดขึ้นจาก AI Chatbot สำหรับเด็ก
The eSafety Commission ได้ออกคำแนะนำด้านความปลอดภัยออนไลน์ โดยสรุปความเสี่ยงที่อาจเกิดขึ้นจาก AI chatbot โดยเฉพาะอย่างยิ่งที่ออกแบบมาเพื่อจำลองความสัมพันธ์ส่วนตัว สำหรับเด็กเล็ก คำแนะนำเตือนว่าเพื่อนร่วมทาง AI สามารถ "แบ่งปันเนื้อหาที่เป็นอันตราย บิดเบือนความเป็นจริง และให้คำแนะนำที่เป็นอันตราย" เด็กเล็ก ซึ่งยังคงพัฒนาทักษะการคิดเชิงวิพากษ์และทักษะชีวิต มีความเสี่ยงเป็นพิเศษที่จะถูกหลอกลวงหรือชักจูงโดยโปรแกรมคอมพิวเตอร์
งานวิจัยได้สำรวจวิธีที่ AI chatbot เช่น ChatGPT, Replika และ Tessa เลียนแบบปฏิสัมพันธ์ของมนุษย์โดยปฏิบัติตามบรรทัดฐานและข้อตกลงทางสังคม ระบบเหล่านี้ได้รับการออกแบบมาเพื่อให้ได้รับความไว้วางใจจากเราโดยการสะท้อนกฎที่ไม่ได้เขียนไว้ซึ่งควบคุมพฤติกรรมทางสังคม โดยการเลียนแบบความสุภาพทางสังคมเหล่านี้ ระบบเหล่านี้ได้รับการออกแบบมาเพื่อให้ได้รับความไว้วางใจจากเรา
ปฏิสัมพันธ์ที่เหมือนมนุษย์เหล่านี้อาจทำให้เด็กเล็กสับสนและอาจเป็นอันตรายได้ พวกเขาอาจเชื่อว่า chatbot เป็นคนจริงและไว้วางใจเนื้อหาที่ให้ แม้ว่าจะไม่ถูกต้องหรือสร้างขึ้นก็ตาม สิ่งนี้สามารถขัดขวางการพัฒนาทักษะการคิดเชิงวิพากษ์และทำให้เด็กมีแนวโน้มที่จะถูกชักจูงมากขึ้น
การปกป้องเด็กจากอันตราย
การเปิดตัว AI chatbot ของ Gemini เกิดขึ้นพร้อมกับการห้ามบัญชีโซเชียลมีเดียสำหรับเด็กอายุต่ำกว่า 16 ปีของออสเตรเลีย ซึ่งมีกำหนดในเดือนธันวาคมปีนี้ แม้ว่าการแบนนี้มีจุดมุ่งหมายเพื่อปกป้องเด็กจากอันตรายออนไลน์ แต่ AI chatbot ที่สร้างขึ้นแสดงให้เห็นว่าความเสี่ยงของการมีส่วนร่วมออนไลน์ขยายออกไปเกินกว่าโซเชียลมีเดีย เด็กและผู้ปกครองจะต้องได้รับการศึกษาเกี่ยวกับการใช้เครื่องมือดิจิทัลทุกประเภทอย่างเหมาะสมและปลอดภัย
เนื่องจาก AI chatbot ของ Gemini ไม่ได้จัดอยู่ในประเภทเครื่องมือโซเชียลมีเดีย จึงไม่อยู่ภายใต้การแบนของออสเตรเลีย ซึ่งหมายความว่าผู้ปกครองชาวออสเตรเลียจะต้องเผชิญกับความท้าทายในการก้าวนำหน้าเทคโนโลยีที่เกิดขึ้นใหม่และทำความเข้าใจความเสี่ยงที่อาจเกิดขึ้นกับบุตรหลานต่อไป พวกเขาต้องตระหนักถึงข้อจำกัดของการแบนโซเชียลมีเดียในการปกป้องเด็กจากอันตราย
สถานการณ์นี้เน้นย้ำถึงความจำเป็นเร่งด่วนในการทบทวนกฎหมายหน้าที่การดูแลแบบดิจิทัลที่เสนอของออสเตรเลีย ในขณะที่สหภาพยุโรปและสหราชอาณาจักรได้นำกฎหมายหน้าที่การดูแลแบบดิจิทัลมาใช้ในปี 2023 แต่เวอร์ชันของออสเตรเลียถูกระงับตั้งแต่เดือนพฤศจิกายน 2024 กฎหมายนี้จะทำให้บริษัทเทคโนโลยีต้องรับผิดชอบในการจัดการกับเนื้อหาที่เป็นอันตรายที่ต้นทาง ซึ่งเป็นการปกป้องผู้ใช้ทุกคน
การแนะนำ AI chatbot ให้กับเด็กเล็กนำเสนอความท้าทายที่ซับซ้อน ซึ่งต้องใช้แนวทางที่หลากหลาย ผู้ปกครอง นักการศึกษา ผู้กำหนดนโยบาย และบริษัทเทคโนโลยีต้องทำงานร่วมกันเพื่อให้แน่ใจว่าเด็กๆ จะได้รับประโยชน์จากโอกาสที่เครื่องมือเหล่านี้มอบให้ ในขณะที่ยังคงปลอดภัยและได้รับการปกป้องจากอันตราย ซึ่งรวมถึงการให้ความรู้แก่เด็กเกี่ยวกับลักษณะของ AI การส่งเสริมทักษะการคิดเชิงวิพากษ์ และการใช้มาตรการป้องกันที่แข็งแกร่งเพื่อป้องกันการสัมผัสกับเนื้อหาที่ไม่เหมาะสม