13 वर्ष से कम उम्र के बच्चों के लिए Gemini AI: खतरे

Google द्वारा हाल ही में 13 वर्ष से कम उम्र के बच्चों के लिए अपने Gemini artificial intelligence (AI) चैटबॉट को पेश करने की घोषणा ने काफी बहस छेड़ दी है और डिजिटल युग में ऑनलाइन सुरक्षा और बाल संरक्षण के बारे में महत्वपूर्ण सवाल उठाए हैं। यह पहल, जो शुरू में संयुक्त राज्य अमेरिका और कनाडा में और बाद में ऑस्ट्रेलिया में शुरू होने वाली है, Google के Family Link खातों के माध्यम से चैटबॉट को सुलभ बनाएगी। हालांकि यह दृष्टिकोण माता-पिता को कुछ हद तक नियंत्रण प्रदान करता है, लेकिन यह एक विकसित तकनीकी परिदृश्य में बच्चों की सुरक्षा की चल रही चुनौती को भी रेखांकित करता है।

युवा बच्चों को AI चैटबॉट पेश करने का निर्णय अवसर और जोखिम दोनों प्रस्तुत करता है। एक ओर, ये उपकरण शैक्षिक सहायता प्रदान कर सकते हैं, रचनात्मकता को बढ़ावा दे सकते हैं और आकर्षक सीखने के अनुभव प्रदान कर सकते हैं। दूसरी ओर, वे अनुचित सामग्री के संपर्क, हेरफेर की क्षमता और आलोचनात्मक सोच कौशल के विकास के बारे में चिंताएं बढ़ाते हैं।

Gemini AI चैटबॉट कैसे कार्य करता है

Google के Family Link खाते माता-पिता को अपने बच्चों की ऑनलाइन गतिविधियों की निगरानी देने के लिए डिज़ाइन किए गए हैं। माता-पिता YouTube जैसे विशिष्ट सामग्री और एप्लिकेशन तक पहुंच का प्रबंधन कर सकते हैं, सीमाएं निर्धारित कर सकते हैं और उपयोग की निगरानी कर सकते हैं। बच्चे का खाता स्थापित करने के लिए, माता-पिता को बच्चे का नाम और जन्म तिथि सहित व्यक्तिगत जानकारी प्रदान करनी होगी। जबकि यह डेटा संग्रह गोपनीयता संबंधी चिंताएं बढ़ा सकता है, Google का आश्वासन है कि बच्चों के डेटा का उपयोग AI सिस्टम प्रशिक्षण के लिए नहीं किया जाएगा।

डिफ़ॉल्ट रूप से, चैटबॉट एक्सेस सक्षम किया जाएगा, जिसके लिए माता-पिता को अपने बच्चे की एक्सेस को प्रतिबंधित करने के लिए सुविधा को सक्रिय रूप से अक्षम करने की आवश्यकता होती है। बच्चे तब टेक्स्ट प्रतिक्रियाएं उत्पन्न करने या चित्र बनाने के लिए चैटबॉट का उपयोग कर सकते हैं। हालांकि, Google त्रुटियों और अशुद्धियों की संभावना को स्वीकार करता है, उत्पन्न सामग्री के सावधानीपूर्वक मूल्यांकन की आवश्यकता पर जोर देता है। AI "hallucination" की घटना, जहां चैटबॉट जानकारी का निर्माण करते हैं, यह आवश्यक है कि बच्चे विश्वसनीय स्रोतों के साथ तथ्यों को सत्यापित करें, खासकर जब होमवर्क सहायता के लिए उपकरण का उपयोग करते हैं।

प्रदान की गई जानकारी की प्रकृति

Google जैसे पारंपरिक खोज इंजन उपयोगकर्ताओं को समीक्षा और विश्लेषण के लिए मौजूदा सामग्री प्राप्त करते हैं। छात्र असाइनमेंट के लिए जानकारी एकत्र करने के लिए समाचार लेखों, अकादमिक पत्रिकाओं और अन्य स्रोतों तक पहुंच सकते हैं। हालांकि, Generative AI उपकरण अलग तरह से काम करते हैं। वे उपयोगकर्ता संकेतों के आधार पर नई टेक्स्ट प्रतिक्रियाएं या चित्र बनाने के लिए स्रोत सामग्री में पैटर्न का विश्लेषण करते हैं। उदाहरण के लिए, एक बच्चा सिस्टम से "बिल्ली बनाने" के लिए कह सकता है, और AI परिभाषित विशेषताओं (जैसे, मूंछें, नुकीले कान, एक लंबी पूंछ) की पहचान करने और उन विशेषताओं को शामिल करने वाली एक छवि उत्पन्न करने के लिए डेटा को स्कैन करेगा।

Google खोज के माध्यम से प्राप्त जानकारी और AI उपकरण द्वारा उत्पन्न सामग्री के बीच अंतर को युवा बच्चों के लिए समझना मुश्किल हो सकता है। अध्ययनों से पता चला है कि वयस्क भी AI- उत्पन्न सामग्री से धोखा खा सकते हैं। यहां तक कि अत्यधिक कुशल पेशेवर, जैसे कि वकील, ChatGPT और अन्य चैटबॉट द्वारा उत्पादित नकली सामग्री का उपयोग करने के लिए गुमराह किए गए हैं। यह AI-उत्पन्न सामग्री की प्रकृति और आलोचनात्मक मूल्यांकन की आवश्यकता के बारे में बच्चों को शिक्षित करने के महत्व को रेखांकित करता है।

आयु-उपयुक्तता सुनिश्चित करना

Google का कहना है कि Gemini "अनुचित या असुरक्षित सामग्री के उत्पादन को रोकने के लिए डिज़ाइन किए गए अंतर्निहित सुरक्षा उपायों" को शामिल करेगा। इन सुरक्षा उपायों का उद्देश्य बच्चों को हानिकारक सामग्री के संपर्क से बचाना है।

हालांकि, ये सुरक्षा उपाय अनजाने में नई समस्याएं पैदा कर सकते हैं। उदाहरण के लिए, अनुचित यौन सामग्री तक पहुंच को रोकने के लिए कुछ शब्दों (जैसे, "स्तन") को प्रतिबंधित करने से यौवन के दौरान शारीरिक परिवर्तनों के बारे में आयु-उपयुक्त जानकारी तक पहुंच भी अवरुद्ध हो सकती है। यह बच्चों की सुरक्षा और उन्हें सटीक और प्रासंगिक जानकारी प्रदान करने के बीच नाजुक संतुलन को उजागर करता है।

कई बच्चे अत्यधिक तकनीक-प्रेमी और ऐप्स को नेविगेट करने और सिस्टम नियंत्रणों को दरकिनार करने में कुशल होते हैं। माता-पिता पूरी तरह से अंतर्निहित सुरक्षा उपायों पर भरोसा नहीं कर सकते हैं। उन्हें सक्रिय रूप से उत्पन्न सामग्री की समीक्षा करनी चाहिए, अपने बच्चों को यह समझने में मदद करनी चाहिए कि सिस्टम कैसे काम करता है, और प्रदान की गई जानकारी की सटीकता और उपयुक्तता का आकलन करना चाहिए।

बच्चों के लिए AI चैटबॉट के संभावित जोखिम

eSafety Commission ने AI चैटबॉट के संभावित जोखिमों को रेखांकित करते हुए एक ऑनलाइन सुरक्षा सलाह जारी की है, खासकर युवा बच्चों के लिए व्यक्तिगत संबंधों का अनुकरण करने के लिए डिज़ाइन किए गए। सलाह चेतावनी देती है कि AI साथी "हानिकारक सामग्री साझा कर सकते हैं, वास्तविकता को विकृत कर सकते हैं और ऐसा सलाह दे सकते हैं जो खतरनाक है।" युवा बच्चे, जो अभी भी आलोचनात्मक सोच और जीवन कौशल विकसित कर रहे हैं, विशेष रूप से कंप्यूटर कार्यक्रमों द्वारा गुमराह या हेरफेर किए जाने के लिए कमजोर हैं।

शोध में उन तरीकों का पता लगाया गया है जिनमें ChatGPT, Replika और Tessa जैसे AI चैटबॉट सामाजिक मानदंडों और सम्मेलनों का पालन करके मानव बातचीत की नकल करते हैं। इन प्रणालियों को सामाजिक व्यवहार को नियंत्रित करने वाले अलिखित नियमों को प्रतिबिंबित करके हमारा विश्वास हासिल करने के लिए डिज़ाइन किया गया है। इन सामाजिक बारीकियों की नकल करके, इन प्रणालियों को हमारा विश्वास हासिल करने के लिए डिज़ाइन किया गया है।

ये मानव-जैसी बातचीत युवा बच्चों के लिए भ्रमित करने वाली और संभावित रूप से जोखिम भरी हो सकती हैं। वे मान सकते हैं कि चैटबॉट एक वास्तविक व्यक्ति है और उस सामग्री पर भरोसा करता है जो वह प्रदान करता है, भले ही वह गलत या मनगढ़ंत हो। यह आलोचनात्मक सोच कौशल के विकास में बाधा डाल सकता है और बच्चों को हेरफेर के लिए अधिक संवेदनशील बना सकता है।

बच्चों को नुकसान से बचाना

Gemini के AI चैटबॉट का रोलआउट इस साल दिसंबर में निर्धारित, 16 साल से कम उम्र के बच्चों के लिए सोशल मीडिया खातों पर ऑस्ट्रेलिया के आसन्न प्रतिबंध के साथ मेल खाता है। हालांकि इस प्रतिबंध का उद्देश्य बच्चों को ऑनलाइन नुकसान से बचाना है, generative AI चैटबॉट प्रदर्शित करते हैं कि ऑनलाइन सगाई के जोखिम सोशल मीडिया से आगे भी फैले हुए हैं। बच्चों और माता-पिता दोनों को सभी प्रकार के डिजिटल टूल के उचित और सुरक्षित उपयोग के बारे में शिक्षित किया जाना चाहिए।

चूंकि Gemini के AI चैटबॉट को सोशल मीडिया टूल के रूप में वर्गीकृत नहीं किया गया है, इसलिए यह ऑस्ट्रेलिया के प्रतिबंध के अधीन नहीं होगा। इसका मतलब है कि ऑस्ट्रेलियाई माता-पिता को उभरती प्रौद्योगिकियों से आगे रहने और उनके बच्चों के सामने आने वाले संभावित जोखिमों को समझने की चुनौती का सामना करना जारी रहेगा। उन्हें बच्चों को नुकसान से बचाने में सोशल मीडिया प्रतिबंध की सीमाओं को भी पहचानना चाहिए।

यह स्थिति ऑस्ट्रेलिया के प्रस्तावित डिजिटल कर्तव्य कानून को फिर से देखने की तत्काल आवश्यकता को रेखांकित करती है। जबकि यूरोपीय संघ और यूनाइटेड किंगडम ने 2023 में डिजिटल कर्तव्य कानून को लागू किया, ऑस्ट्रेलिया का संस्करण नवंबर 2024 से होल्ड पर है। यह कानून प्रौद्योगिकी कंपनियों को अपने स्रोत पर हानिकारक सामग्री को संबोधित करने के लिए जवाबदेह ठहराएगा, जिससे सभी उपयोगकर्ताओं की रक्षा होगी।

युवा बच्चों को AI चैटबॉट की शुरुआत एक जटिल चुनौती पेश करती है जिसके लिए एक बहुआयामी दृष्टिकोण की आवश्यकता होती है। माता-पिता, शिक्षकों, नीति निर्माताओं और प्रौद्योगिकी कंपनियों को यह सुनिश्चित करने के लिए मिलकर काम करना चाहिए कि बच्चे इन उपकरणों द्वारा प्रदान किए गए अवसरों से लाभ उठा सकें, जबकि सुरक्षित रहें और नुकसान से सुरक्षित रहें। इसमें बच्चों को AI की प्रकृति के बारे में शिक्षित करना, आलोचनात्मक सोच कौशल को बढ़ावा देना और अनुचित सामग्री के संपर्क को रोकने के लिए मजबूत सुरक्षा उपायों को लागू करना शामिल है।