குழந்தைகளுக்கான Google Gemini: வாக்குறுதி மற்றும் ஆபத்து

செயற்கை நுண்ணறிவின் (AI) இடைவிடாத முன்னேற்றம் இனி Silicon Valley-யின் ஆய்வகங்கள் மற்றும் நிர்வாக அறைகளுக்குள் மட்டும் அடங்கவில்லை; அது மிக இளைய தலைமுறையினரின் கைகளுக்கு வேகமாக வந்து கொண்டிருக்கிறது. டிஜிட்டல் உலகில் ஒரு ஜாம்பவானான Google, 13 வயதுக்குட்பட்ட குழந்தைகளுக்காக பிரத்யேகமாக வடிவமைக்கப்பட்ட அதன் சக்திவாய்ந்த Gemini AI-யின் ஒரு பதிப்பை அறிமுகப்படுத்தத் தயாராக இருப்பதாகத் தெரிகிறது. குறியீடு பகுப்பாய்வு மூலம் வெளிக்கொணரப்பட்ட இந்த வளர்ச்சி, வளர்ந்து வரும் சமூக அமைதியின்மை மற்றும் குழந்தை நல வழக்கறிஞர்களின் வெளிப்படையான எச்சரிக்கைகளுக்கு மத்தியில் வருகிறது. இந்த எச்சரிக்கைகள், இளம், வளரும் மனங்களில் அதிநவீன சாட்போட்களின் சாத்தியமான தாக்கம் பற்றியவை. இந்த நடவடிக்கை ஒரு குறிப்பிடத்தக்க மாற்றத்தைக் குறிக்கிறது, பழைய, எளிமையான தொழில்நுட்பத்தை மிகவும் திறன் வாய்ந்த, மற்றும் சாத்தியமான வகையில், மிகவும் அபாயகரமான ஒன்றைக் கொண்டு மாற்றியமைக்கிறது.

தடுக்க முடியாத அலை: AI விளையாட்டு மைதானத்திற்குள் நுழைகிறது

குழந்தைகளுக்கான டிஜிட்டல் நிலப்பரப்பு ஒரு ஆழமான மாற்றத்திற்கு உள்ளாகி வருகிறது. ஒப்பீட்டளவில் நேரடியான, கட்டளை அடிப்படையிலான மெய்நிகர் உதவியாளர்களின் சகாப்தம் குறைந்து வருகிறது. அதன் இடத்தில், உரையாடல், உருவாக்கம் மற்றும் மனித தொடர்புகளை வியக்கத்தக்க துல்லியத்துடன் பிரதிபலிக்கும் வகையில் வடிவமைக்கப்பட்ட அமைப்புகளான உருவாக்கும் AI (generative AI) யுகம் உதயமாகிறது. குழந்தைகள், இயல்பாகவே ஆர்வமுள்ளவர்கள் மற்றும் பெருகிய முறையில் டிஜிட்டல் பூர்வீகவாசிகள், ஏற்கனவே இந்த தொழில்நுட்பங்களுடன் தொடர்பு கொள்கிறார்கள். இங்கிலாந்தின் குழந்தைகள் ஆணையர் (Children’s Commissioner for England) கடுமையாகக் குறிப்பிட்டது போல, வழிகாட்டுதல் மற்றும் பதில்களுக்காக பெற்றோர்கள் அல்லது நம்பகமான பெரியவர்களுடன் ஈடுபடுவதற்குப் பதிலாக, உடனடி, அறிவுள்ளவையாகத் தோன்றும் AI சாட்போட்களின் பதில்களை இளைஞர்கள் நாடக்கூடும் என்ற தெளிவான கவலை உள்ளது. ஆணையரின் உருக்கமான வேண்டுகோள் - ‘குழந்தைகள் வாழ்க்கையின் தெளிவான தொழில்நுட்ப வண்ணத்தை அனுபவிக்க வேண்டும் என்று நாம் விரும்பினால்… Chat GPT-யை விட விரைவாக நாம் அவர்களுக்குப் பதிலளிப்போம் என்பதை நாம் நிரூபிக்க வேண்டும்’ - சவாலை அடிக்கோடிட்டுக் காட்டுகிறது. குழந்தைகள் தகவல்களையும் இணைப்பையும் தேடுகிறார்கள், மேலும் AI எப்போதும் இருக்கும், தீர்ப்பளிக்காத மற்றும் விரைவான ஆதாரத்தை வழங்குகிறது.

இந்தச் சூழலில்தான் Google-இன் ‘Gemini for Kids’ வளர்ச்சி வெளிப்படுகிறது. ஒருபுறம், இது ஒரு முன்கூட்டிய, சாத்தியமான பொறுப்பான நடவடிக்கையாகக் கருதப்படலாம். ஒரு பிரத்யேகமான, சுவரால் சூழப்பட்ட தோட்டச் சூழலை (walled-garden environment) உருவாக்குவதன் மூலம், குழந்தைகள் ஆன்லைனில் கிடைக்கும் பொது நோக்கத்திற்கான AI கருவிகளை அணுகும்போது பெரும்பாலும் இல்லாத ஒரு அளவிலான மேற்பார்வையையும் கட்டுப்பாட்டையும் Google பெற்றோருக்கு வழங்க முடியும். குழந்தைகளின் AI உடனான தொடர்பு தவிர்க்க முடியாதது என்றால், உள்ளமைக்கப்பட்ட பாதுகாப்பு அம்சங்கள் மற்றும் பெற்றோர் மேலாண்மை அம்சங்களுடன் ஒரு தளத்தை வழங்குவது நல்லது என்ற தர்க்கம் பின்பற்றப்படுகிறது.

இந்த முயற்சி Google-இன் சொந்த மூலோபாய முடிவுகளால் மேலும் அவசியமாகிறது. நிறுவனம் அதன் அசல் Google Assistant - ஒரு பழக்கமான, பெரும்பாலும் AI அல்லாத கருவி - ஐ மிகவும் மேம்பட்ட Gemini-க்கு ஆதரவாக படிப்படியாக நீக்குகிறது. Google சுற்றுச்சூழல் அமைப்பில் ஒருங்கிணைக்கப்பட்ட குடும்பங்களுக்கு, குறிப்பாக Android சாதனங்கள் மற்றும் Family Link மூலம் நிர்வகிக்கப்படும் Google கணக்குகளைப் பயன்படுத்துபவர்களுக்கு, இந்த மாற்றம் விருப்பமானது அல்ல. பழைய Assistant மங்கும்போது, Gemini இயல்புநிலையாகிறது. இந்த இடம்பெயர்வு, தவிர்க்க முடியாமல் இந்த அதிக சக்திவாய்ந்த AI-ஐ எதிர்கொள்ளும் இளைய பயனர்களுக்கான பாதுகாப்பு நடவடிக்கைகளை உருவாக்குவதைக் கட்டாயமாக்குகிறது. எளிமையான Assistant-க்காக வடிவமைக்கப்பட்ட தற்போதைய பெற்றோர் கட்டுப்பாடுகள், Gemini போன்ற ஒரு உருவாக்கும் AI-யால் முன்வைக்கப்படும் தனித்துவமான சவால்களை எதிர்கொள்ள குறிப்பிடத்தக்க தழுவல் தேவை. பழைய கட்டமைப்பு முன்னால் உள்ள சிக்கல்களுக்குப் பொருத்தமானதாக இல்லை.

Gemini-யின் மேன்மை: திறன்கள் மற்றும் கவலைகள் பெரிதாக்கப்பட்டுள்ளன

வெளியேறும் Google Assistant-க்கும் உள்வரும் Gemini-க்கும் இடையிலான வேறுபாட்டைப் புரிந்துகொள்வது, அதிகரித்திருக்கும் ஆபத்துக்களைப் புரிந்துகொள்வதற்கு முக்கியமானது. அசல் Assistant முதன்மையாக முன்-திட்டமிடப்பட்ட பதில்கள் மற்றும் நேரடி கட்டளை செயலாக்கத்தில் செயல்பட்டது. அது உங்களுக்கு வானிலையைச் சொல்லலாம், டைமரை அமைக்கலாம் அல்லது ஒரு குறிப்பிட்ட பாடலைப் ப்ளே செய்யலாம். அதன் திறன்கள், பயனுள்ளதாக இருந்தாலும், அடிப்படையில் வரையறுக்கப்பட்டவை மற்றும் கணிக்கக்கூடியவை.

Gemini ஒரு குவாண்டம் பாய்ச்சலைக் குறிக்கிறது. பெரிய மொழி மாதிரிகளில் (LLMs) கட்டமைக்கப்பட்ட இது, ஒரு பணி சார்ந்த ரோபோவை விட உரையாடல் பங்குதாரரைப் போல செயல்படுகிறது. இது உரையை உருவாக்கலாம், கதைகளை எழுதலாம், உரையாடலில் ஈடுபடலாம், சிக்கலான கேள்விகளுக்கு பதிலளிக்கலாம், மேலும் அதன் படைப்பாளர்களையே ஆச்சரியப்படுத்தும் வெளிப்படும் திறன்களைக் கூட வெளிப்படுத்தலாம். இருப்பினும், இந்த சக்தி, குறிப்பாக குழந்தைகளைப் பொறுத்தவரை, இருமுனைக் கத்தி.

LLM-களின் இயல்பே உள்ளார்ந்த அபாயங்களை அறிமுகப்படுத்துகிறது:

  • தவறான தகவல் மற்றும் ‘பிரமைகள்’ (Hallucinations): Gemini, தற்போதைய அனைத்து LLM-களைப் போலவே, மனித அர்த்தத்தில் விஷயங்களை ‘அறியாது’. அது பயிற்சி பெற்ற பரந்த தரவுத்தொகுப்பின் அடிப்படையில் சாத்தியமான வார்த்தைகளின் வரிசைகளை இது கணிக்கிறது. இது நம்பத்தகுந்ததாகத் தோன்றும் ஆனால் முற்றிலும் தவறான தகவல்களை உருவாக்க வழிவகுக்கும், இது பெரும்பாலும் ‘பிரமைகள்’ என்று குறிப்பிடப்படுகிறது. வரலாற்று உண்மைகள் அல்லது அறிவியல் விளக்கங்களைக் கேட்கும் ஒரு குழந்தை நம்பிக்கையுடன் வழங்கப்படும் தவறான தகவல்களைப் பெறலாம்.
  • சார்பு பெருக்கம் (Bias Amplification): LLM-களுக்கான பயிற்சித் தரவு, அது உட்கொண்ட நிஜ உலக உரையில் இருக்கும் சார்புகளைப் பிரதிபலிக்கிறது. Gemini தற்செயலாக ஒரே மாதிரியான கருத்துக்களை நிலைநிறுத்தலாம் அல்லது முக்கியமான தலைப்புகளில் சாய்ந்த கண்ணோட்டங்களை முன்வைக்கலாம், ஒரு குழந்தையின் புரிதலை விமர்சன சூழல் இல்லாமல் நுட்பமாக வடிவமைக்கலாம்.
  • பொருத்தமற்ற உள்ளடக்க உருவாக்கம்: பாதுகாப்பு வழிமுறைகள் சந்தேகத்திற்கு இடமின்றி உருவாக்கப்பட்டு வருகின்றன என்றாலும், Gemini-யின் உருவாக்கும் தன்மை என்பது, ஒரு தூண்டுதலைத் தவறாகப் புரிந்துகொள்வதன் மூலமோ அல்லது உள்ளடக்க வடிப்பான்களில் உள்ள ஓட்டைகளைக் கண்டறிவதன் மூலமோ, குழந்தைகளுக்குப் பொருத்தமற்ற உள்ளடக்கத்தை - கதைகள், விளக்கங்கள் அல்லது உரையாடல்கள் - உருவாக்கக்கூடும் என்பதாகும்.
  • உண்மையான புரிதல் இல்லாமை: Gemini உரையாடலைப் போலியாகச் செய்கிறது; அது மனிதர்கள் செய்வது போல அர்த்தத்தையோ சூழலையோ புரிந்து கொள்ளாது. அது ஒரு குழந்தையின் உணர்ச்சி நிலையை உண்மையாக மதிப்பிடவோ அல்லது முக்கியமான தனிப்பட்ட வெளிப்பாடுகளின் நுணுக்கங்களைப் புரிந்து கொள்ளவோ முடியாது. இது உணர்வுபூர்வமாகப் பொருத்தமற்ற, உதவாத அல்லது நுட்பமான சூழ்நிலைகளில் தீங்கு விளைவிக்கக்கூடிய பதில்களுக்கு வழிவகுக்கும்.
  • அதிகப்படியான சார்பு மற்றும் மனிதமயமாக்கல் (Anthropomorphism): Gemini போன்ற AI-யின் உரையாடல் சரளம் குழந்தைகளை அதை மனிதமயமாக்க ஊக்குவிக்கும் - அதை ஒரு நண்பராக அல்லது உணர்வுள்ள உயிரினமாக நடத்த. இது ஒரு ஆரோக்கியமற்ற சார்பை வளர்க்கக்கூடும், இது நிஜ உலக சமூக திறன்கள் மற்றும் உணர்ச்சி நுண்ணறிவின் வளர்ச்சியைத் தடுக்கக்கூடும்.

பழைய Google Assistant-ஐ விட Gemini-யுடன் இந்த அபாயங்கள் கணிசமாக அதிகமாக உள்ளன. இந்த மாற்றம், ஏற்கனவே உள்ள பெற்றோர் கட்டுப்பாடுகளை வெறுமனே மாற்றுவதை விட, பாதுகாப்பிற்கு மிகவும் வலுவான மற்றும் நுணுக்கமான அணுகுமுறையைக் கோருகிறது.

குறியீட்டில் கிசுகிசுக்கள்: ஒரு கடுமையான எச்சரிக்கை வெளிப்படுகிறது

Android Authority-யுடன் இணைந்து பணியாற்றும் நிபுணர்களால் Android-இல் உள்ள Google பயன்பாட்டின் குறியீட்டில் சமீபத்தில் நடத்தப்பட்ட விசாரணைகள், ‘Gemini for Kids’-க்கான Google-இன் உள் தயாரிப்புகள் மீது வெளிச்சம் போட்டுள்ளன. பயனர் இடைமுகத்திற்காக நோக்கம் கொண்ட செயலற்ற குறியீடு சரங்களுக்குள் புதைந்து கிடப்பது, திட்டமிடப்பட்ட செய்தியிடலை வெளிப்படுத்தும் துண்டுகள்:

  • தலைப்புகள்: Assistant_scrappy_welcome_screen_title_for_kid_users — Google Assistant-லிருந்து Gemini-க்கு மாறவும்
  • விளக்கங்கள்: Assistant_welcome_screen_description_for_kid_users — கதைகளை உருவாக்கவும், கேள்விகளைக் கேட்கவும், வீட்டுப்பாட உதவியைப் பெறவும், மேலும் பல.
  • முக்கியமாக, ஒரு அடிக்குறிப்புச் செய்தி: Assistant_welcome_screen_footer_for_kid_users — Google விதிமுறைகள் பொருந்தும். Google உங்கள் தரவை Google தனியுரிமைக் கொள்கை மற்றும் Gemini Apps தனியுரிமை அறிவிப்பில் விவரிக்கப்பட்டுள்ளபடி செயலாக்கும். Gemini மனிதன் அல்ல, அது மனிதர்கள் உட்பட தவறுகளைச் செய்யக்கூடும், எனவே அதை இருமுறை சரிபார்க்கவும்.

இந்த வெளிப்படையான எச்சரிக்கை – ‘Gemini மனிதன் அல்ல, அது மனிதர்கள் உட்பட தவறுகளைச் செய்யக்கூடும், எனவே அதை இருமுறை சரிபார்க்கவும்’ – ஒருவேளை வெளிப்படுத்தப்பட்ட மிக முக்கியமான தகவல் துண்டு ஆகும். இது AI-யின் தவறான தன்மையை, பயனர் அனுபவத்தில் நேரடியாகப் பதிக்கப்பட்ட, Google-இன் சொந்த ஒப்புதலைக் குறிக்கிறது.

இருப்பினும், இந்த எச்சரிக்கையின் இருப்பு ஆழமான கேள்விகளை எழுப்புகிறது. வெளிப்படைத்தன்மை பாராட்டத்தக்கது என்றாலும், குழந்தைகளை நோக்கி இயக்கப்படும்போது அத்தகைய மறுப்புரையின் செயல்திறன் மிகவும் விவாதத்திற்குரியது. முக்கிய சவால் குழந்தையிடம் வைக்கப்படும் எதிர்பார்ப்பில் உள்ளது: AI வழங்கிய தகவலை ‘இருமுறை சரிபார்க்கும்’ திறன். இது பல குழந்தைகள், குறிப்பாக 13 வயதுக்குட்பட்டவர்கள், இன்னும் வளர்த்துக் கொள்ளாத ஒரு அளவிலான விமர்சன சிந்தனை, ஊடக எழுத்தறிவு மற்றும் ஆராய்ச்சி திறனை முன்னிறுத்துகிறது.

  • ஒரு 8 வயது குழந்தைக்கு ‘இருமுறை சரிபார்’ என்பதன் அர்த்தம் என்ன? தகவலைச் சரிபார்க்க அவர்கள் எங்கே செல்வார்கள்? மாற்று ஆதாரங்களின் நம்பகத்தன்மையை அவர்கள் எவ்வாறு மதிப்பிடுவார்கள்?
  • ஒரு குழந்தை ஒரு உண்மைப் பிழைக்கும் ‘மனிதர்கள் பற்றிய’ நுட்பமான தவறுக்கும் இடையில் வேறுபடுத்தி அறிய முடியுமா? சார்பு, நுட்பமான தவறுகள் அல்லது குணாதிசயங்களின் தவறான சித்தரிப்புகளைப் புரிந்துகொள்வதற்கு அதிநவீன பகுப்பாய்வுத் திறன்கள் தேவை.
  • இந்த எச்சரிக்கை தற்செயலாக பொறுப்பின் சுமையை இளம் பயனரின் மீது மிக அதிகமாக மாற்றிவிடுகிறதா? பயனர்களுக்கு அறிவைக் கொண்டு அதிகாரம் அளிப்பது முக்கியம் என்றாலும், AI வெளியீட்டைத் தொடர்ந்து சரிபார்க்கும் ஒரு குழந்தையின் திறனை நம்பியிருப்பது ஒரு ஆபத்தான பாதுகாப்பு உத்தியாகத் தெரிகிறது.

இந்த எச்சரிக்கை அசல் Google Assistant-க்கு மிகவும் குறைவான முக்கியத்துவம் வாய்ந்ததாக இருந்தது, அதன் உண்மைப் பிழைகள் பொதுவாக மிகவும் நேரடியானவை (எ.கா., ஒரு கட்டளையைத் தவறாகப் புரிந்துகொள்வது) மாறாக, முற்றிலும் புனையப்பட்ட கதைகள் அல்லது உண்மையாக முன்வைக்கப்பட்ட சார்புடைய கண்ணோட்டங்களை உருவாக்கும் சாத்தியம் இல்லை. Gemini-க்கான இந்த குறிப்பிட்ட எச்சரிக்கையைச் சேர்ப்பது, தொழில்நுட்பத்தின் அடிப்படையில் வேறுபட்ட தன்மையையும், சம்பந்தப்பட்ட புதிய ஆபத்து அடுக்குகளையும் அடிக்கோடிட்டுக் காட்டுகிறது. தனிநபர்களைப் பற்றி விவாதிக்கும்போது கூட, Gemini குறிப்பிடத்தக்க வழிகளில் தவறு செய்யக்கூடும் என்பதை Google அறிந்திருக்கிறது என்பதையும், பயனர் ஆலோசனைகள் மூலம் இதைக் குறைக்க முயற்சிக்கிறது என்பதையும் இது அறிவுறுத்துகிறது.

பெற்றோர் கட்டுப்பாட்டுச் சிக்கல்: ஒரு அவசியமான ஆனால் முழுமையற்ற தீர்வு

‘Gemini for Kids’-ஐ Google-இன் நிறுவப்பட்ட பெற்றோர் கட்டுப்பாட்டு உள்கட்டமைப்புடன், அநேகமாக Family Link-உடன் ஒருங்கிணைப்பது ஒரு தர்க்கரீதியான மற்றும் அவசியமான படியாகும். இது பெற்றோருக்கு அணுகலை நிர்வகிக்க, சாத்தியமான வரம்புகளை அமைக்க (ஒரு உரையாடல் AI-க்கான இந்த வரம்புகளின் தன்மை தெளிவாக இல்லை என்றாலும்), மற்றும் பயன்பாட்டைக் கண்காணிக்க ஒரு பழக்கமான இடைமுகத்தை வழங்குகிறது. பெற்றோருக்கு நிலைமாற்றிகள் (toggles) மற்றும் டாஷ்போர்டுகளை வழங்குவது நிச்சயமாக ChatGPT போன்ற தளங்களை விட ஒரு நன்மையைக் குறிக்கிறது, அவை தற்போது ஒரு குடும்ப சுற்றுச்சூழல் அமைப்பிற்குள் குழந்தை அணுகலை நிர்வகிப்பதற்காக பிரத்யேகமாக வடிவமைக்கப்பட்ட வலுவான, ஒருங்கிணைந்த பெற்றோர் கட்டுப்பாடுகளைக் கொண்டிருக்கவில்லை.

அடிப்படை பாதுகாப்பு மற்றும் பொறுப்புணர்வை நிறுவுவதற்கு இந்தக் கட்டுப்பாட்டு அடுக்கு அவசியம். இது பெற்றோருக்கு அவர்களின் குழந்தை AI-யுடன் ஈடுபடுகிறதா மற்றும் எப்படி ஈடுபடுகிறது என்பது பற்றிய தகவலறிந்த முடிவுகளை எடுக்க அதிகாரம் அளிக்கிறது. இருப்பினும், பெற்றோர் கட்டுப்பாடுகளை ஒரு சஞ்சீவியாகப் பார்ப்பதைத் தவிர்ப்பது முக்கியம்.

பல சவால்கள் எஞ்சியுள்ளன:

  • உருவாக்கும் ஓட்டை (Generative Loophole): பாரம்பரிய கட்டுப்பாடுகள் பெரும்பாலும் குறிப்பிட்ட வலைத்தளங்கள் அல்லது முக்கிய வார்த்தைகளைத் தடுப்பதில் கவனம் செலுத்துகின்றன. உருவாக்கும் AI வெளிப்புறமாகத் தடுக்கப்பட்ட தளங்களை அணுகுவதைச் சார்ந்து இல்லை; அது உள்ளடக்கத்தை உள்நாட்டில் உருவாக்குகிறது. வெளித்தோற்றத்தில் அப்பாவியான தூண்டுதல்களின் அடிப்படையில் பொருத்தமற்ற உள்ளடக்கத்தின் உருவாக்கத்தை கட்டுப்பாடுகள் எவ்வளவு திறம்பட தடுக்க முடியும்?
  • பரிணாமத்துடன் வேகத்தைத் தக்கவைத்தல்: AI மாதிரிகள் தொடர்ந்து புதுப்பிக்கப்பட்டு மீண்டும் பயிற்சி அளிக்கப்படுகின்றன. இன்று செயல்படுத்தப்படும் பாதுகாப்பு மற்றும் கட்டுப்பாடுகள் AI-யின் திறன்கள் உருவாகும்போது குறைவான செயல்திறன் கொண்டதாக மாறக்கூடும். வலுவான பாதுகாப்பைப் பேணுவதற்கு Google-இடமிருந்து தொடர்ச்சியான விழிப்புணர்வும் தழுவலும் தேவை.
  • தவறான பாதுகாப்பு ஆபத்து: பெற்றோர் கட்டுப்பாடுகளின் இருப்பு சில பெற்றோரை ஒரு தவறான பாதுகாப்பு உணர்விற்குள் ஆழ்த்தக்கூடும், இது அவர்களின் குழந்தையின் AI உடனான தொடர்புகளின் உண்மையான உள்ளடக்கம் மற்றும் தன்மை குறித்து குறைவாக விழிப்புடன் இருக்க வழிவகுக்கும்.
  • உள்ளடக்க வடிகட்டலுக்கு அப்பால்: அபாயங்கள் பொருத்தமற்ற உள்ளடக்கத்திற்கு அப்பால் நீண்டுள்ளன. அதிகப்படியான சார்பு, விமர்சன சிந்தனையில் தாக்கம் மற்றும் உணர்ச்சிக் கையாளுதல் பற்றிய கவலைகள் தொழில்நுட்பக் கட்டுப்பாடுகள் மூலம் மட்டும் தீர்ப்பது கடினம். இதற்கு தொடர்ச்சியான உரையாடல், கல்வி மற்றும் பெற்றோர் ஈடுபாடு தேவை.

Google-இன் தற்போதைய Family Link அமைப்பைப் பயன்படுத்தும் திறன் ஒரு கட்டமைப்பு நன்மையை வழங்கினாலும், குழந்தைகளுக்கான உருவாக்கும் AI-யின் தனித்துவமான அபாயங்களைக் குறைப்பதில் இந்தக் கட்டுப்பாடுகளின் செயல்திறன் இன்னும் நிரூபிக்கப்படவில்லை. இது ஒரு அவசியமான அடித்தளம், ஆனால் பாதுகாப்பிற்குத் தேவையான முழுமையான கட்டமைப்பு அல்ல.

ஆய்வின் நீண்ட நிழல்: தொழிற்துறை மற்றும் ஒழுங்குபடுத்துபவர்கள் கவனிக்கிறார்கள்

குழந்தைகளை மையமாகக் கொண்ட AI-க்குள் Google-இன் முயற்சி ஒரு வெற்றிடத்தில் நடைபெறவில்லை. பரந்த தொழில்நுட்பத் தொழிற்துறை, குறிப்பாக AI துறை, இளம் பயனர்களின் பாதுகாப்பு குறித்து தீவிரமடைந்து வரும் ஆய்வை எதிர்கொள்கிறது. UK குழந்தைகள் ஆணையரால் வெளிப்படுத்தப்பட்ட கவலைகள் உலகளவில் சட்டமன்ற உறுப்பினர்கள் மற்றும் ஒழுங்குபடுத்துபவர்களால் எதிரொலிக்கப்படுகின்றன.

United States-இல், செனட்டர்கள் Alex Padilla மற்றும் Peter Welch ஆகியோர் AI சாட்போட் நிறுவனங்களிடமிருந்து அவர்கள் பயன்படுத்தும் பாதுகாப்பு நடவடிக்கைகள் பற்றிய விரிவான தகவல்களை முறையாகக் கோரியுள்ளனர், குறிப்பாக பாத்திரம் மற்றும் ஆளுமை அடிப்படையிலான AI பயன்பாடுகளுடன் தொடர்பு கொள்ளும் இளம் பயனர்களுக்கான மனநல அபாயங்கள் குறித்த கவலைகளை முன்னிலைப்படுத்தியுள்ளனர். இந்த விசாரணை Character.ai போன்ற தளங்களைச் சுற்றியுள்ள கவலைக்குரிய அறிக்கைகளால் ஓரளவு தூண்டப்பட்டது. CNN-இன் படி, பெற்றோர்கள் கடுமையான கவலைகளை எழுப்பியுள்ளனர், தளத்தில் நடந்த தொடர்புகளின் விளைவாக தங்கள் குழந்தைகளுக்கு குறிப்பிடத்தக்க தீங்கு விளைவிப்பதாகக் குற்றம் சாட்டியுள்ளனர், இது முன்னர் பள்ளி துப்பாக்கிச் சூட்டாளர்கள் உட்பட சர்ச்சைக்குரிய நபர்களை உருவகப்படுத்தும் சாட்போட்களை வழங்கியிருந்தது (இருப்பினும் இந்த குறிப்பிட்ட போட்கள் அகற்றப்பட்டதாகக் கூறப்படுகிறது).

பல்வேறு வகையான AI தளங்களுக்கு இடையில் வேறுபடுத்துவது முக்கியம். Google-இன் Gemini ஒரு பொது நோக்கத்திற்கான உதவியாளராக நிலைநிறுத்தப்பட்டுள்ளது, இது Character.ai அல்லது Replika போன்ற பயன்பாடுகளிலிருந்து வேறுபட்டது, அவை வெளிப்படையாக ஆளுமைகள், பாத்திரங்கள் அல்லது காதல் தோழர்களை உருவகப்படுத்த வடிவமைக்கப்பட்டுள்ளன. இந்த ஆளுமை அடிப்படையிலான AI-கள் உணர்ச்சிக் கையாளுதல், யதார்த்தத்திற்கும் புனைகதைக்கும் இடையிலான கோடுகளை மங்கலாக்குதல் மற்றும் தீங்கு விளைவிக்கக்கூடிய பாராசோஷியல் உறவுகள் தொடர்பான தனித்துவமான அபாயங்களைக் கொண்டுள்ளன.

இருப்பினும், இந்த சம்பவங்களால் முன்னிலைப்படுத்தப்பட்ட அடிப்படை சவால் Gemini போன்ற பொது நோக்கத்திற்கான AI-க்கும் பொருந்தும்: சக்திவாய்ந்த, உரையாடல் AI பாதிக்கப்படக்கூடிய பயனர்களுடன், குறிப்பாக குழந்தைகளுடன் தொடர்பு கொள்ளும்போது தீங்கு விளைவிக்கும் சாத்தியம். AI-யின் நோக்கம் கொண்ட செயல்பாடு எதுவாக இருந்தாலும், மனிதனைப் போன்ற உரையை உருவாக்கும் மற்றும் அனுதாபமான உரையாடலில் ஈடுபடும் திறன் கடுமையான பாதுகாப்பு நடவடிக்கைகளைக் கோருகிறது.

Character.ai சம்பந்தப்பட்ட சம்பவங்கள் AI இடத்தில் பயனுள்ள உள்ளடக்க மிதப்படுத்தல் மற்றும் வயது சரிபார்ப்பின் சிரமத்தை அடிக்கோடிட்டுக் காட்டுகின்றன. Character.ai அதன் சேவை 13 வயதுக்குட்பட்ட சிறார்களுக்கு (அல்லது EU-வில் 16) இல்லை என்று கூறுகிறது, மேலும் Replika-வுக்கு 18+ வயது கட்டுப்பாடு உள்ளது. ஆயினும்கூட, மில்லியன் கணக்கான பதிவிறக்கங்கள் இருந்தபோதிலும், இரண்டு பயன்பாடுகளும் Google Play Store-இல் ‘பெற்றோர் வழிகாட்டுதல்’ மதிப்பீட்டை மட்டுமே கொண்டுள்ளதாகக் கூறப்படுகிறது, இது தளம்-நிலை அமலாக்கம் மற்றும் பயனர் விழிப்புணர்வில் உள்ள சாத்தியமான இடைவெளிகளை முன்னிலைப்படுத்துகிறது.

முக்கிய பிரச்சினை அப்படியே உள்ளது: AI அமைப்புகள் பயனர் மீது சரிபார்ப்பு மற்றும் விமர்சன மதிப்பீட்டின் குறிப்பிடத்தக்க சுமையை வைக்கின்றன. அவை பரந்த அளவிலான தகவல்களை உருவாக்குகின்றன, சில துல்லியமானவை, சில சார்புடையவை, சில முற்றிலும் புனையப்பட்டவை. பெரியவர்கள் பெரும்பாலும் இதனுடன் போராடுகிறார்கள்; விமர்சனத் திறன்கள் இன்னும் வளர்ந்து வரும் குழந்தைகளிடமிருந்து, இந்த சிக்கலான தகவல் நிலப்பரப்பைத் தொடர்ந்து வழிநடத்தி, விடாமுயற்சியுடன் உண்மைச் சரிபார்ப்பைச் செய்வார்கள் என்று எதிர்பார்ப்பது யதார்த்தமற்றது மற்றும் ஆபத்தானது. Google-இன் ‘இருமுறை சரிபார்க்கவும்’ எச்சரிக்கையைச் சேர்ப்பது இந்தச் சுமையை மறைமுகமாக ஒப்புக்கொள்கிறது, ஆனால் இலக்கு பார்வையாளர்களுக்குப் போதுமானதாக இல்லாத ஒரு தீர்வை வழங்குகிறது.

அறிமுகமில்லாத பிரதேசத்தை வரைபடமாக்குதல்: AI மற்றும் குழந்தைகளுக்கான முன்னோக்கிய பாதை

‘Gemini for Kids’-இன் வளர்ச்சி Google-ஐ ஒரு சிக்கலான மற்றும் நெறிமுறை ரீதியாக ஏற்றப்பட்ட களத்தின் முன்னணியில் வைக்கிறது. AI அன்றாட வாழ்க்கையில் பெருகிய முறையில் ஒருங்கிணைக்கப்படுவதால், குழந்தைகளை முழுமையாகப் பாதுகாப்பது நீண்ட காலத்திற்கு சாத்தியமானதாகவோ அல்லது விரும்பத்தக்கதாகவோ இருக்காது. இந்த கருவிகளுடனான பரிச்சயம் டிஜிட்டல் எழுத்தறிவின் அவசியமான அங்கமாக மாறக்கூடும். இருப்பினும், இளம் பயனர்களுக்கு இத்தகைய சக்திவாய்ந்த தொழில்நுட்பத்தை வெளியிடுவது அசாதாரண கவனிப்பையும் தொலைநோக்கையும் கோருகிறது.

முன்னோக்கிய பயணத்திற்கு பலதரப்பட்ட அணுகுமுறை தேவை:

  • வலுவான தொழில்நுட்பப் பாதுகாப்பு: எளிய வடிப்பான்களுக்கு அப்பால், தீங்கு விளைவிக்கும், சார்புடைய அல்லது பொருத்தமற்ற உள்ளடக்கத்தின் உருவாக்கத்தைக் கண்டறிந்து தடுக்க, குழந்தைகளின் அறிவாற்றல் மற்றும் உணர்ச்சி வளர்ச்சிக்கு ஏற்றவாறு வடிவமைக்கப்பட்ட அதிநவீன வழிமுறைகள் Google-க்குத் தேவை.
  • வெளிப்படைத்தன்மை மற்றும் கல்வி: AI எவ்வாறு செயல்படுகிறது, அதன் வரம்புகள் மற்றும் அதன் சாத்தியமான ஆபத்துகள் குறித்து பெற்றோர்கள் மற்றும் குழந்தைகள் இருவருடனும் தெளிவான தொடர்பு அவசியம். ‘இருமுறை சரிபார்க்கவும்’ எச்சரிக்கை ஒரு தொடக்கமாகும், ஆனால் அது பரந்த டிஜிட்டல் எழுத்தறிவு முயற்சிகளால் பூர்த்தி செய்யப்பட வேண்டும். AI-உருவாக்கிய தகவல்களைப் பற்றி விமர்சன ரீதியாக எப்படி சிந்திப்பது என்று குழந்தைகளுக்குக் கற்பிக்கப்பட வேண்டும், அதைச் சரிபார்க்கச் சொல்வது மட்டுமல்ல.
  • அர்த்தமுள்ள பெற்றோர் கட்டுப்பாடுகள்: கட்டுப்பாடுகள் எளிய ஆன்/ஆஃப் சுவிட்சுகளுக்கு அப்பால் உருவாகி, உருவாக்கும் AI-க்கு பொருத்தமான நுணுக்கமான நிர்வாகத்தை வழங்க வேண்டும், இதில் உணர்திறன் நிலைகள், தலைப்புக் கட்டுப்பாடுகள் மற்றும் விரிவான தொடர்புப் பதிவுகள் ஆகியவை அடங்கும்.
  • தொடர்ச்சியான ஆராய்ச்சி மற்றும் மதிப்பீடு: அதிநவீன AI-யுடன் தொடர்பு கொள்ளும் குழந்தைகளின் நீண்டகால வளர்ச்சித் தாக்கம் பெரும்பாலும் அறியப்படவில்லை. இந்த விளைவுகளைப் புரிந்துகொள்வதற்கும் அதற்கேற்ப பாதுகாப்பு உத்திகளைத் தழுவுவதற்கும் தொடர்ச்சியான ஆராய்ச்சி தேவை.
  • தழுவல் ஒழுங்குமுறை கட்டமைப்புகள்: COPPA (Children’s Online Privacy Protection Act) போன்ற தற்போதைய விதிமுறைகள், தரவு தனியுரிமை, அல்காரிதம் வெளிப்படைத்தன்மை மற்றும் உள்ளடக்க உருவாக்கப் பாதுகாப்பு ஆகியவற்றில் கவனம் செலுத்தி, உருவாக்கும் AI-யால் முன்வைக்கப்படும் தனித்துவமான சவால்களைக் குறிப்பாக நிவர்த்தி செய்யப் புதுப்பிக்கப்பட வேண்டியிருக்கலாம்.

‘Gemini for Kids’-உடனான Google-இன் நடவடிக்கை வெறும் தயாரிப்புப் புதுப்பிப்பு அல்ல; இது குழந்தை பருவ வளர்ச்சி மற்றும் டிஜிட்டல் பாதுகாப்பிற்கான ஆழமான தாக்கங்களைக் கொண்ட அறியப்படாத பிரதேசத்திற்குள் ஒரு படியாகும். குறியீடு அபாயங்கள் பற்றிய விழிப்புணர்வையும், குறிப்பாக AI-யின் தவறான தன்மையையும் வெளிப்படுத்துகிறது. ஆயினும்கூட, ‘இருமுறை சரிபார்க்க’ ஒரு குழந்தையின் திறனை நம்பியிருப்பது முன்னால் உள்ள மகத்தான சவாலை முன்னிலைப்படுத்துகிறது. இதை வெற்றிகரமாக வழிநடத்துவதற்கு புத்திசாலித்தனமான குறியீட்டு முறை மற்றும் பெற்றோர் டாஷ்போர்டுகளை விட அதிகம் தேவைப்படுகிறது; இது நெறிமுறைக் கருத்தாய்வுகளுக்கு ஆழ்ந்த அர்ப்பணிப்பு, தொடர்ச்சியான விழிப்புணர்வு மற்றும் எல்லாவற்றிற்கும் மேலாக இளம் பயனர்களின் நல்வாழ்வுக்கு முன்னுரிமை அளிக்க விருப்பம் ஆகியவற்றைக் கோருகிறது. ஆபத்துகள் எதற்கும் குறைவாக இருக்க முடியாத அளவுக்கு அதிகமாக உள்ளன.