مبادرة Google الأخيرة لتقديم روبوت الدردشة Gemini للذكاء الاصطناعي (AI) للأطفال دون سن 13 عامًا أثارت جدلاً كبيرًا وأثارت أسئلة حاسمة حول السلامة عبر الإنترنت وحماية الطفل في العصر الرقمي. هذه المبادرة، المقرر إطلاقها مبدئيًا في الولايات المتحدة وكندا ولاحقًا في أستراليا، ستجعل روبوت الدردشة متاحًا من خلال حسابات Google Family Link. في حين أن هذا النهج يوفر للوالدين درجة معينة من التحكم، إلا أنه يؤكد أيضًا على التحدي المستمر المتمثل في حماية الأطفال في مشهد تكنولوجي متطور.
يقدم قرار تقديم روبوتات الدردشة بالذكاء الاصطناعي للأطفال الصغار فرصًا ومخاطر على حد سواء. فمن ناحية، يمكن لهذه الأدوات أن تقدم دعمًا تعليميًا، وتعزز الإبداع، وتوفر تجارب تعليمية جذابة. ومن ناحية أخرى، فإنها تثير مخاوف بشأن التعرض للمحتوى غير اللائق، واحتمال التلاعب، وتنمية مهارات التفكير النقدي.
كيف يعمل روبوت الدردشة Gemini AI
تم تصميم حسابات Google Family Link لمنح الآباء الإشراف على أنشطة أطفالهم عبر الإنترنت. يمكن للوالدين إدارة الوصول إلى محتوى وتطبيقات محددة، مثل YouTube، ووضع حدود ومراقبة الاستخدام. لإنشاء حساب للطفل، يجب على الوالدين تقديم معلومات شخصية، بما في ذلك اسم الطفل وتاريخ ميلاده. في حين أن جمع البيانات هذا قد يثير مخاوف تتعلق بالخصوصية، إلا أن Google تؤكد أن بيانات الأطفال لن تستخدم لتدريب نظام الذكاء الاصطناعي.
بشكل افتراضي، سيتم تمكين الوصول إلى روبوت الدردشة، مما يتطلب من الوالدين تعطيل الميزة بنشاط لتقييد وصول أطفالهم. يمكن للأطفال بعد ذلك استخدام روبوت الدردشة لإنشاء ردود نصية أو إنشاء صور. ومع ذلك، تقر Google باحتمالية حدوث أخطاء وعدم دقة، مع التأكيد على الحاجة إلى تقييم دقيق للمحتوى الذي تم إنشاؤه. إن ظاهرة “هلوسة” الذكاء الاصطناعي، حيث يقوم روبوتات الدردشة بتلفيق المعلومات، تتطلب أن يتحقق الأطفال من الحقائق بمصادر موثوقة، خاصة عند استخدام الأداة للمساعدة في الواجبات المدرسية.
طبيعة المعلومات المقدمة
تقوم محركات البحث التقليدية مثل Google باسترجاع المواد الموجودة ليقوم المستخدمون بمراجعتها وتحليلها. يمكن للطلاب الوصول إلى المقالات الإخبارية والمجلات الأكاديمية والمصادر الأخرى لجمع المعلومات للمهام. ومع ذلك، تعمل أدوات الذكاء الاصطناعي التوليدية بشكل مختلف. إنها تحلل الأنماط في المادة المصدر لإنشاء ردود نصية أو صور جديدة بناءً على مطالبات المستخدم. على سبيل المثال، يمكن للطفل أن يطلب من النظام “رسم قطة”، وسيقوم الذكاء الاصطناعي بمسح البيانات لتحديد الخصائص المميزة (مثل الشعيرات والآذان المدببة والذيل الطويل) وإنشاء صورة تتضمن هذه الميزات.
يمكن أن يكون التمييز بين المعلومات المسترجعة من خلال بحث Google والمحتوى الذي تم إنشاؤه بواسطة أداة الذكاء الاصطناعي صعبًا على الأطفال الصغار. أظهرت الدراسات أنه حتى البالغين يمكن أن ينخدعوا بالمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. حتى المهنيين ذوي المهارات العالية، مثل المحامين، قد تم تضليلهم لاستخدام محتوى مزيف تم إنتاجه بواسطة ChatGPT وروبوتات الدردشة الأخرى. وهذا يؤكد على أهمية تثقيف الأطفال حول طبيعة المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي والحاجة إلى التقييم النقدي.
ضمان الملاءمة العمرية
تؤكد Google أن Gemini ستتضمن “ضمانات مدمجة مصممة لمنع إنشاء محتوى غير لائق أو غير آمن”. تهدف هذه الضمانات إلى حماية الأطفال من التعرض للمواد الضارة.
ومع ذلك، قد تخلق هذه الضمانات عن غير قصد مشاكل جديدة. على سبيل المثال، قد يؤدي تقييد كلمات معينة (مثل “الصدور”) لمنع الوصول إلى المحتوى الجنسي غير اللائق أيضًا إلى منع الوصول إلى المعلومات المناسبة للعمر حول التغيرات الجسدية أثناء فترة البلوغ. وهذا يسلط الضوء على التوازن الدقيق بين حماية الأطفال وتزويدهم بمعلومات دقيقة وذات صلة.
العديد من الأطفال يتمتعون بمهارات عالية في مجال التكنولوجيا ويجيدون التنقل في التطبيقات وتجاوز عناصر التحكم في النظام. لا يمكن للوالدين الاعتماد فقط على الضمانات المدمجة. يجب عليهم مراجعة المحتوى الذي تم إنشاؤه بنشاط، ومساعدة أطفالهم على فهم كيفية عمل النظام، وتقييم دقة وملاءمة المعلومات المقدمة.
المخاطر المحتملة لروبوتات الدردشة بالذكاء الاصطناعي للأطفال
أصدرت لجنة السلامة الإلكترونية استشارة بشأن السلامة عبر الإنترنت تحدد المخاطر المحتملة لروبوتات الدردشة بالذكاء الاصطناعي، وخاصة تلك المصممة لمحاكاة العلاقات الشخصية، للأطفال الصغار. تحذر الاستشارة من أن رفقاء الذكاء الاصطناعي يمكنهم “مشاركة محتوى ضار وتشويه الواقع وتقديم نصائح خطيرة”. الأطفال الصغار، الذين لا يزالون يطورون التفكير النقدي ومهارات الحياة، معرضون بشكل خاص للتضليل أو التلاعب بهم من قبل برامج الكمبيوتر.
استكشفت الأبحاث الطرق التي تحاكي بها روبوتات الدردشة بالذكاء الاصطناعي، مثل ChatGPT وReplika وTessa، التفاعلات البشرية من خلال الالتزام بالمعايير والاتفاقيات الاجتماعية. تم تصميم هذه الأنظمة لكسب ثقتنا من خلال عكس القواعد غير المكتوبة التي تحكم السلوك الاجتماعي. من خلال تقليد هذه المجاملات الاجتماعية، تم تصميم هذه الأنظمة لكسب ثقتنا.
يمكن أن تكون هذه التفاعلات الشبيهة بالإنسان مربكة ومحفوفة بالمخاطر المحتملة للأطفال الصغار. وقد يعتقدون أن روبوت الدردشة هو شخص حقيقي ويثقون بالمحتوى الذي يقدمه، حتى لو كان غير دقيق أو ملفق. وهذا يمكن أن يعيق تنمية مهارات التفكير النقدي ويجعل الأطفال أكثر عرضة للتلاعب.
حماية الأطفال من الأذى
يتزامن طرح روبوت الدردشة Gemini AI مع الحظر الوشيك الذي تفرضه أستراليا على حسابات وسائل التواصل الاجتماعي للأطفال دون سن 16 عامًا، والمقرر في ديسمبر من هذا العام. في حين أن هذا الحظر يهدف إلى حماية الأطفال من الأذى عبر الإنترنت، إلا أن روبوتات الدردشة التوليدية بالذكاء الاصطناعي تثبت أن مخاطر المشاركة عبر الإنترنت تتجاوز وسائل التواصل الاجتماعي. يجب تثقيف الأطفال وأولياء الأمور على حد سواء حول الاستخدام المناسب والآمن لجميع أنواع الأدوات الرقمية.
نظرًا لأن روبوت الدردشة Gemini AI ليس مصنفًا كأداة لوسائل التواصل الاجتماعي، فلن يخضع لحظر أستراليا. وهذا يعني أن الآباء الأستراليين سيستمرون في مواجهة التحدي المتمثل في البقاء في طليعة التقنيات الناشئة وفهم المخاطر المحتملة التي يواجهها أطفالهم. يجب عليهم أيضًا إدراك القيود المفروضة على حظر وسائل التواصل الاجتماعي في حماية الأطفال من الأذى.
يؤكد هذا الوضع على الحاجة الملحة لإعادة النظر في التشريع الأسترالي المقترح بشأن واجب الرعاية الرقمي. في حين أن الاتحاد الأوروبي والمملكة المتحدة قد نفذا تشريعًا بشأن واجب الرعاية الرقمي في عام 2023، إلا أن النسخة الأسترالية معلقة منذ نوفمبر 2024. من شأن هذا التشريع أن يحمل شركات التكنولوجيا المسؤولية عن معالجة المحتوى الضار في مصدره، وبالتالي حماية جميع المستخدمين.
يمثل إدخال روبوتات الدردشة بالذكاء الاصطناعي للأطفال الصغار تحديًا معقدًا يتطلب اتباع نهج متعدد الأوجه. يجب على الآباء والمعلمين وصناع السياسات وشركات التكنولوجيا العمل معًا لضمان استفادة الأطفال من الفرص التي تتيحها هذه الأدوات مع الحفاظ على سلامتهم وحمايتهم من الأذى. ويشمل ذلك تثقيف الأطفال حول طبيعة الذكاء الاصطناعي، وتعزيز مهارات التفكير النقدي، وتنفيذ ضمانات قوية لمنع التعرض للمحتوى غير اللائق.