ورود Google به هوش مصنوعی کودک: Gemini برای کودکان

پیشرفت بی‌وقفه هوش مصنوعی دیگر محدود به آزمایشگاه‌ها و اتاق‌های هیئت مدیره Silicon Valley نیست؛ بلکه به سرعت در حال راه یافتن به دستان جوان‌ترین نسل است. به نظر می‌رسد Google، غول دنیای دیجیتال، آماده معرفی نسخه‌ای از هوش مصنوعی قدرتمند خود Gemini است که به طور خاص برای کودکان زیر ۱۳ سال طراحی شده است. این تحول که از طریق تجزیه و تحلیل کد کشف شده، در بحبوحه نگرانی فزاینده اجتماعی و هشدارهای صریح حامیان رفاه کودکان در مورد تأثیر بالقوه چت‌بات‌های پیچیده بر ذهن جوان و در حال رشد، رخ می‌دهد. این اقدام نشان‌دهنده یک تغییر قابل توجه است که فناوری قدیمی‌تر و ساده‌تر را با چیزی بسیار توانمندتر و بالقوه بسیار خطرناک‌تر جایگزین می‌کند.

موج توقف‌ناپذیر: هوش مصنوعی وارد زمین بازی می‌شود

چشم‌انداز دیجیتال برای کودکان در حال تحولی عمیق است. دوران دستیاران مجازی نسبتاً ساده و مبتنی بر فرمان رو به پایان است. به جای آن، عصر هوش مصنوعی مولد فرا می‌رسد – سیستم‌هایی که برای گفتگو، خلق و تقلید تعامل انسانی با وفاداری شگفت‌انگیز طراحی شده‌اند. کودکان، ذاتاً کنجکاو و به طور فزاینده‌ای بومی دیجیتال، از قبل با این فناوری‌ها در تعامل هستند. همانطور که کمیسر کودکان انگلستان به صراحت اشاره کرد، نگرانی محسوسی وجود دارد که جوانان ممکن است به جای تعامل با والدین یا بزرگسالان مورد اعتماد برای راهنمایی و پاسخ، به پاسخ‌های فوری و به ظاهر آگاهانه چت‌بات‌های هوش مصنوعی روی آورند. درخواست تکان‌دهنده کمیسر - ‘اگر می‌خواهیم کودکان رنگ‌های زنده زندگی را تجربه کنند… باید ثابت کنیم که سریع‌تر از Chat GPT به آنها پاسخ خواهیم داد’ - بر این چالش تأکید می‌کند. کودکان به دنبال اطلاعات و ارتباط هستند و هوش مصنوعی منبعی همیشه حاضر، بدون قضاوت و سریع ارائه می‌دهد.

در همین زمینه است که توسعه ‘Gemini for Kids’ توسط Google پدیدار می‌شود. از یک سو، می‌توان آن را اقدامی پیشگیرانه و بالقوه مسئولانه تلقی کرد. با ایجاد یک محیط اختصاصی و احتمالاً محصور (walled-garden)، Google می‌تواند به والدین درجه‌ای از نظارت و کنترل را ارائه دهد که عمدتاً هنگام دسترسی کودکان به ابزارهای هوش مصنوعی عمومی موجود در اینترنت وجود ندارد. منطق این است که اگر تعامل کودکان با هوش مصنوعی اجتناب‌ناپذیر است، بهتر است پلتفرمی با پادمان‌های داخلی و ویژگی‌های مدیریت والدین ارائه شود.

این ابتکار همچنین با تصمیمات استراتژیک خود Google ضروری شده است. این شرکت فعالانه در حال حذف Google Assistant اصلی خود - ابزاری آشنا و عمدتاً غیر هوش مصنوعی - به نفع Gemini بسیار پیشرفته‌تر است. برای خانواده‌هایی که در اکوسیستم Google ادغام شده‌اند، به ویژه آنهایی که از دستگاه‌های Android و حساب‌های Google مدیریت شده از طریق Family Link استفاده می‌کنند، این انتقال اختیاری نیست. با محو شدن Assistant قدیمی، Gemini به پیش‌فرض تبدیل می‌شود. این مهاجرت مستلزم ایجاد اقدامات حفاظتی برای کاربران جوان‌تری است که ناگزیر با این هوش مصنوعی قوی‌تر روبرو خواهند شد. کنترل‌های والدین موجود، که برای Assistant ساده‌تر طراحی شده‌اند، نیاز به تطبیق قابل توجهی برای رسیدگی به چالش‌های منحصر به فرد ناشی از یک هوش مصنوعی مولد مانند Gemini دارند. چارچوب قدیمی به سادگی برای پیچیدگی‌های پیش رو مجهز نیست.

برتری Gemini: قابلیت‌ها و نگرانی‌های تشدید شده

درک تمایز بین Google Assistant در حال خروج و Gemini در حال ورود برای درک مخاطرات افزایش یافته بسیار مهم است. Assistant اصلی عمدتاً بر اساس پاسخ‌های از پیش برنامه‌ریزی شده و اجرای مستقیم دستور عمل می‌کرد. می‌توانست آب و هوا را به شما بگوید، تایمر تنظیم کند یا آهنگ خاصی را پخش کند. قابلیت‌های آن، اگرچه مفید بود، اساساً محدود و قابل پیش‌بینی بود.

Gemini نشان‌دهنده یک جهش کوانتومی است. این سیستم که بر روی مدل‌های زبان بزرگ (LLMs) ساخته شده است، بسیار بیشتر شبیه یک شریک مکالمه عمل می‌کند تا یک ربات وظیفه‌گرا. می‌تواند متن تولید کند، داستان بنویسد، در گفتگو شرکت کند، به سوالات پیچیده پاسخ دهد و حتی قابلیت‌های نوظهوری را به نمایش بگذارد که سازندگانش را شگفت‌زده می‌کند. با این حال، این قدرت، به ویژه در مورد کودکان، یک شمشیر دولبه است.

ماهیت خود LLM ها خطرات ذاتی را به همراه دارد:

  • اطلاعات نادرست و ‘توهمات’ (Hallucinations): Gemini، مانند تمام LLM های فعلی، چیزها را به معنای انسانی ‘نمی‌داند’. این سیستم توالی‌های محتمل کلمات را بر اساس مجموعه داده عظیمی که بر روی آن آموزش دیده است، پیش‌بینی می‌کند. این می‌تواند منجر به تولید اطلاعاتی شود که به نظر قابل قبول می‌رسند اما کاملاً نادرست هستند، که اغلب به عنوان ‘توهم’ شناخته می‌شوند. کودکی که حقایق تاریخی یا توضیحات علمی می‌پرسد ممکن است اطلاعات نادرستی را با اطمینان دریافت کند.
  • تقویت سوگیری: داده‌های آموزشی مورد استفاده برای LLM ها منعکس‌کننده سوگیری‌های موجود در متن دنیای واقعی است که دریافت کرده‌اند. Gemini می‌تواند ناخواسته کلیشه‌ها را تداوم بخشد یا دیدگاه‌های جانبدارانه در مورد موضوعات حساس ارائه دهد و به طور نامحسوس درک کودک را بدون زمینه انتقادی شکل دهد.
  • تولید محتوای نامناسب: در حالی که بدون شک پادمان‌هایی در حال توسعه هستند، ماهیت مولد Gemini به این معنی است که می‌تواند به طور بالقوه محتوایی - داستان‌ها، توصیفات یا گفتگوها - تولید کند که برای کودکان نامناسب است، چه از طریق درک نادرست یک درخواست یا یافتن راه‌های گریز در فیلترهای محتوا.
  • فقدان درک واقعی: Gemini مکالمه را شبیه‌سازی می‌کند؛ معنا یا زمینه را به روشی که انسان‌ها درک می‌کنند، نمی‌فهمد. نمی‌تواند واقعاً وضعیت عاطفی کودک را ارزیابی کند یا ظرایف افشاگری‌های شخصی حساس را درک کند. این می‌تواند منجر به پاسخ‌هایی شود که از نظر لحن نامناسب، غیرمفید یا حتی بالقوه مضر در موقعیت‌های حساس هستند.
  • وابستگی بیش از حد و انسان‌انگاری (Anthropomorphism): روانی مکالمه هوش مصنوعی مانند Gemini می‌تواند کودکان را تشویق کند که آن را انسان‌انگاری کنند - یعنی با آن مانند یک دوست یا موجودی ذی‌شعور رفتار کنند. این می‌تواند وابستگی ناسالمی را تقویت کند و به طور بالقوه مانع رشد مهارت‌های اجتماعی دنیای واقعی و هوش هیجانی شود.

این خطرات با Gemini به طور قابل توجهی بیشتر از آنچه با Google Assistant قدیمی وجود داشت، برجسته هستند. این تغییر مستلزم رویکردی بسیار قوی‌تر و ظریف‌تر به ایمنی نسبت به صرفاً انتقال کنترل‌های والدین موجود است.

زمزمه‌هایی در کد: یک هشدار جدی پدیدار می‌شود

تحقیقات اخیر در مورد کد برنامه Google در Android، که توسط متخصصان با همکاری Android Authority انجام شده است، آمادگی داخلی Google برای ‘Gemini for Kids’ را روشن کرده است. در میان رشته‌های کد غیرفعال، که برای رابط کاربری در نظر گرفته شده‌اند، قطعات گویایی وجود دارد که پیام‌رسانی برنامه‌ریزی شده را آشکار می‌کند:

  • عناوینی مانند: Assistant_scrappy_welcome_screen_title_for_kid_users — تغییر به Gemini از Google Assistant
  • توضیحاتی مانند: Assistant_welcome_screen_description_for_kid_users — داستان بسازید، سوال بپرسید، در انجام تکالیف کمک بگیرید و موارد دیگر.
  • به طور حیاتی، یک پیام پاورقی: Assistant_welcome_screen_footer_for_kid_users — شرایط Google اعمال می‌شود. Google داده‌های شما را همانطور که در خط‌مشی رازداری Google و اعلامیه رازداری برنامه‌های Gemini توضیح داده شده است، پردازش خواهد کرد. Gemini انسان نیست و می‌تواند اشتباه کند، از جمله در مورد افراد، پس آن را دوباره بررسی کنید.

این هشدار صریح - ‘Gemini انسان نیست و می‌تواند اشتباه کند، از جمله در مورد افراد، پس آن را دوباره بررسی کنید’ - شاید مهم‌ترین اطلاعات فاش شده باشد. این نشان‌دهنده اذعان خود Google، که مستقیماً در تجربه کاربری تعبیه شده است، به خطاپذیری هوش مصنوعی است.

با این حال، وجود این هشدار سوالات عمیقی را ایجاد می‌کند. در حالی که شفافیت قابل ستایش است، اثربخشی چنین سلب مسئولیتی هنگامی که مخاطب آن کودکان هستند، بسیار قابل بحث است. چالش اصلی در انتظاری است که از کودک می‌رود: توانایی ‘دوباره بررسی کردن’ اطلاعات ارائه شده توسط هوش مصنوعی. این مستلزم سطحی از تفکر انتقادی، سواد رسانه‌ای و مهارت تحقیق است که بسیاری از کودکان، به ویژه افراد زیر ۱۳ سال، هنوز آن را توسعه نداده‌اند.

  • ‘دوباره بررسی کردن’ برای یک کودک ۸ ساله چه معنایی دارد؟ آنها برای تأیید اطلاعات به کجا مراجعه می‌کنند؟ چگونه اعتبار منابع جایگزین را ارزیابی می‌کنند؟
  • آیا کودک می‌تواند بین یک خطای واقعی و یک اشتباه ظریف ‘در مورد افراد’ تمایز قائل شود؟ درک سوگیری، نادرستی‌های ظریف یا ارائه نادرست شخصیت‌ها نیازمند مهارت‌های تحلیلی پیچیده است.
  • آیا این هشدار ناخواسته بار مسئولیت را بیش از حد به کاربر جوان منتقل نمی‌کند؟ در حالی که توانمندسازی کاربران با دانش مهم است، اتکا به توانایی کودک برای تأیید مداوم خروجی هوش مصنوعی به نظر یک استراتژی ایمنی مخاطره‌آمیز می‌رسد.

این هشدار برای Google Assistant اصلی بسیار کمتر حیاتی بود، زیرا خطاهای واقعی آن معمولاً ساده‌تر بودند (مثلاً تفسیر نادرست یک فرمان) تا اینکه به طور بالقوه روایت‌های کاملاً ساختگی یا دیدگاه‌های جانبدارانه ارائه شده به عنوان حقیقت را تولید کند. گنجاندن این هشدار خاص برای Gemini بر ماهیت اساساً متفاوت این فناوری و لایه‌های جدید خطر درگیر تأکید می‌کند. این نشان می‌دهد که Google از پتانسیل Gemini برای اشتباه کردن به روش‌های قابل توجه، حتی هنگام بحث در مورد افراد، آگاه است و در تلاش است تا این موضوع را از طریق توصیه‌های کاربر کاهش دهد.

معمای کنترل والدین: راه حلی ضروری اما ناقص

ادغام ‘Gemini for Kids’ با زیرساخت کنترل والدین تثبیت شده Google، احتمالاً Family Link، یک گام منطقی و ضروری است. این به والدین یک رابط آشنا برای مدیریت دسترسی، تعیین محدودیت‌های بالقوه (اگرچه ماهیت این محدودیت‌ها برای یک هوش مصنوعی مکالمه‌ای نامشخص باقی می‌ماند) و نظارت بر استفاده ارائه می‌دهد. ارائه کلیدها و داشبوردها به والدین قطعاً مزیتی نسبت به پلتفرم‌هایی مانند ChatGPT است که در حال حاضر فاقد کنترل‌های والدین قوی و یکپارچه هستند که به طور خاص برای مدیریت دسترسی کودک در یک اکوسیستم خانوادگی طراحی شده باشند.

این لایه کنترل برای ایجاد ایمنی پایه و پاسخگویی ضروری است. این به والدین قدرت می‌دهد تا تصمیمات آگاهانه‌ای در مورد اینکه آیا و چگونه فرزندشان با هوش مصنوعی تعامل داشته باشد، اتخاذ کنند. با این حال، بسیار مهم است که از دیدن کنترل‌های والدین به عنوان یک نوشدارو اجتناب شود.

چندین چالش باقی می‌ماند:

  • راه گریز مولد: کنترل‌های سنتی اغلب بر مسدود کردن وب‌سایت‌ها یا کلمات کلیدی خاص تمرکز دارند. هوش مصنوعی مولد به دسترسی به سایت‌های مسدود شده خارجی متکی نیست؛ بلکه محتوا را به صورت داخلی ایجاد می‌کند. کنترل‌ها با چه کارایی می‌توانند از تولید محتوای نامناسب بر اساس درخواست‌های به ظاهر بی‌ضرر جلوگیری کنند؟
  • همگام شدن با تکامل: مدل‌های هوش مصنوعی دائماً به‌روزرسانی و بازآموزی می‌شوند. پادمان‌ها و کنترل‌های پیاده‌سازی شده امروز ممکن است با تکامل قابلیت‌های هوش مصنوعی کارایی کمتری پیدا کنند. حفظ حفاظت قوی نیازمند هوشیاری و انطباق مداوم از سوی Google است.
  • خطر امنیت کاذب: وجود کنترل‌های والدین ممکن است برخی والدین را به احساس امنیت کاذب سوق دهد و باعث شود نسبت به محتوا و ماهیت واقعی تعاملات فرزندشان با هوش مصنوعی کمتر هوشیار باشند.
  • فراتر از فیلتر کردن محتوا: خطرات فراتر از محتوای نامناسب است. نگرانی‌ها در مورد وابستگی بیش از حد، تأثیر بر تفکر انتقادی و دستکاری عاطفی، رسیدگی صرفاً از طریق کنترل‌های فنی دشوارتر است. اینها نیازمند گفتگو، آموزش و مشارکت مداوم والدین هستند.

در حالی که توانایی Google در استفاده از سیستم Family Link موجود خود یک مزیت ساختاری فراهم می‌کند، اثربخشی این کنترل‌ها در کاهش خطرات منحصر به فرد هوش مصنوعی مولد برای کودکان هنوز ثابت نشده است. این یک پایه ضروری است، اما کل ساختار مورد نیاز برای ایمنی نیست.

سایه بلند نظارت: صنعت و تنظیم‌کننده‌ها توجه می‌کنند

اقدام Google در زمینه هوش مصنوعی متمرکز بر کودک در خلاء رخ نمی‌دهد. صنعت فناوری گسترده‌تر، و به ویژه بخش هوش مصنوعی، با نظارت فزاینده‌ای در مورد ایمنی کاربران جوان روبرو است. نگرانی‌های ابراز شده توسط کمیسر کودکان بریتانیا توسط قانون‌گذاران و تنظیم‌کننده‌ها در سطح جهانی تکرار می‌شود.

در ایالات متحده، سناتورها Alex Padilla و Peter Welch رسماً از شرکت‌های چت‌بات هوش مصنوعی درخواست اطلاعات دقیقی در مورد اقدامات ایمنی که به کار می‌گیرند، کرده‌اند و به طور خاص نگرانی‌ها در مورد خطرات سلامت روان برای کاربران جوانی که با برنامه‌های هوش مصنوعی مبتنی بر شخصیت و پرسونا تعامل دارند را برجسته کرده‌اند. این تحقیق تا حدی ناشی از گزارش‌های هشداردهنده پیرامون پلتفرم‌هایی مانند Character.ai بود. به گزارش CNN، والدین نگرانی‌های جدی را مطرح کرده‌اند و ادعا می‌کنند که آسیب قابل توجهی به فرزندانشان در نتیجه تعاملات در این پلتفرم وارد شده است، پلتفرمی که قبلاً میزبان چت‌بات‌هایی بود که شخصیت‌های بحث‌برانگیز، از جمله تیراندازان مدارس را شبیه‌سازی می‌کردند (اگرچه گزارش شده است که این ربات‌های خاص حذف شده‌اند).

مهم است که بین انواع مختلف پلتفرم‌های هوش مصنوعی تمایز قائل شویم. Gemini Google به عنوان یک دستیار عمومی معرفی شده است، متمایز از برنامه‌هایی مانند Character.ai یا Replika که به صراحت برای شبیه‌سازی شخصیت‌ها، کاراکترها یا حتی همراهان عاشقانه طراحی شده‌اند. این هوش مصنوعی‌های مبتنی بر پرسونا خطرات منحصر به فردی در رابطه با دستکاری عاطفی، محو کردن مرزهای بین واقعیت و تخیل، و روابط فرااجتماعی بالقوه مضر دارند.

با این حال، چالش اساسی که توسط این حوادث برجسته شده است، حتی برای هوش مصنوعی عمومی مانند Gemini نیز صدق می‌کند: پتانسیل آسیب زمانی که هوش مصنوعی قدرتمند و مکالمه‌ای با کاربران آسیب‌پذیر، به ویژه کودکان، تعامل دارد. صرف نظر از عملکرد مورد نظر هوش مصنوعی، ظرفیت تولید متن شبیه انسان و درگیر شدن در گفتگوی به ظاهر همدلانه نیازمند پادمان‌های سختگیرانه است.

حوادث مربوط به Character.ai بر دشواری تعدیل محتوای مؤثر و تأیید سن در فضای هوش مصنوعی تأکید می‌کند. Character.ai بیان می‌کند که خدماتش برای افراد زیر ۱۳ سال (یا ۱۶ سال در اتحادیه اروپا) نیست و Replika دارای محدودیت سنی ۱۸+ است. با این حال، گزارش شده است که هر دو برنامه با وجود میلیون‌ها بارگیری، فقط دارای رتبه ‘راهنمایی والدین’ (Parental Guidance) در Google Play Store هستند، که شکاف‌های بالقوه در اجرای سطح پلتفرم و آگاهی کاربر را برجسته می‌کند.

مسئله اصلی باقی می‌ماند: سیستم‌های هوش مصنوعی بار قابل توجهی از تأیید و ارزیابی انتقادی را بر دوش کاربر قرار می‌دهند. آنها حجم عظیمی از اطلاعات را تولید می‌کنند، برخی دقیق، برخی جانبدارانه، برخی کاملاً ساختگی. بزرگسالان اغلب با این موضوع دست و پنجه نرم می‌کنند؛ انتظار از کودکانی که توانایی‌های انتقادی آنها هنوز در حال رشد است، برای پیمایش مداوم این چشم‌انداز اطلاعاتی پیچیده و انجام بررسی دقیق واقعیت، غیرواقعی و بالقوه خطرناک است. گنجاندن هشدار ‘دوباره بررسی کنید’ توسط Google به طور ضمنی این بار را تأیید می‌کند اما راه حلی ارائه می‌دهد که ممکن است برای مخاطبان هدف ناکافی باشد.

ترسیم قلمرو ناآشنا: مسیر پیش رو برای هوش مصنوعی و کودکان

توسعه ‘Gemini for Kids’ Google را در خط مقدم یک حوزه پیچیده و از نظر اخلاقی پربار قرار می‌دهد. با ادغام فزاینده هوش مصنوعی در زندگی روزمره، محافظت کامل از کودکان ممکن است در دراز مدت نه امکان‌پذیر باشد و نه مطلوب. آشنایی با این ابزارها می‌تواند به جزء ضروری سواد دیجیتال تبدیل شود. با این حال، عرضه چنین فناوری قدرتمندی به کاربران جوان نیازمند دقت و آینده‌نگری فوق‌العاده‌ای است.

سفر پیش رو نیازمند یک رویکرد چند وجهی است:

  • پادمان‌های فنی قوی: فراتر از فیلترهای ساده، Google به مکانیسم‌های پیچیده‌ای برای شناسایی و جلوگیری از تولید محتوای مضر، جانبدارانه یا نامناسب نیاز دارد که به طور خاص برای رشد شناختی و عاطفی کودکان طراحی شده باشد.
  • شفافیت و آموزش: ارتباط شفاف با والدین و کودکان در مورد نحوه عملکرد هوش مصنوعی، محدودیت‌ها و مشکلات بالقوه آن ضروری است. هشدار ‘دوباره بررسی کنید’ یک شروع است، اما باید با ابتکارات گسترده‌تر سواد دیجیتال تکمیل شود. به کودکان باید آموزش داده شود که چگونه به طور انتقادی در مورد اطلاعات تولید شده توسط هوش مصنوعی فکر کنند، نه اینکه فقط به آنها گفته شود که آن را تأیید کنند.
  • کنترل‌های والدین معنادار: کنترل‌ها باید فراتر از کلیدهای روشن/خاموش ساده تکامل یابند تا مدیریت ظریفی را ارائه دهند که برای هوش مصنوعی مولد مناسب باشد، که به طور بالقوه شامل سطوح حساسیت، محدودیت‌های موضوعی و گزارش‌های تعامل دقیق است.
  • تحقیق و ارزیابی مداوم: تأثیر بلندمدت رشدی تعامل کودکان با هوش مصنوعی پیچیده تا حد زیادی ناشناخته است. تحقیقات مستمر برای درک این اثرات و تطبیق استراتژی‌های ایمنی بر اساس آن مورد نیاز است.
  • چارچوب‌های نظارتی تطبیقی: مقررات موجود مانند COPPA (قانون حفاظت از حریم خصوصی آنلاین کودکان) ممکن است نیاز به به‌روزرسانی داشته باشند تا به طور خاص به چالش‌های منحصر به فرد ناشی از هوش مصنوعی مولد، با تمرکز بر حریم خصوصی داده‌ها، شفافیت الگوریتمی و پادمان‌های تولید محتوا، رسیدگی کنند.

اقدام Google با ‘Gemini for Kids’ صرفاً یک به‌روزرسانی محصول نیست؛ بلکه گامی به سوی قلمرویی ناشناخته با پیامدهای عمیق برای رشد دوران کودکی و ایمنی دیجیتال است. کد، آگاهی از خطرات، به ویژه خطاپذیری هوش مصنوعی را آشکار می‌کند. با این حال، اتکا به توانایی کودک برای ‘دوباره بررسی کردن’ چالش عظیم پیش رو را برجسته می‌کند. پیمایش موفقیت‌آمیز این مسیر مستلزم چیزی بیش از کدنویسی هوشمندانه و داشبوردهای والدین است؛ بلکه نیازمند تعهد عمیق به ملاحظات اخلاقی، هوشیاری مداوم و تمایل به اولویت دادن به رفاه کاربران جوان بالاتر از هر چیز دیگری است. مخاطرات برای چیزی کمتر از این بسیار بالا هستند.