Инициативата на Google да предложи своя Gemini AI chatbot на деца под 13 години предизвика сериозни дискусии и повдигна важни въпроси относно онлайн безопасността и защитата на децата в дигиталната ера. Този ход, който първоначално ще стартира в Съединените щати и Канада, а по-късно и в Австралия, ще направи chatbot-а достъпен чрез акаунтите на Google Family Link. Въпреки че този подход дава на родителите известен контрол, той също така подчертава продължаващото предизвикателство за защита на децата в една развиваща се технологична среда.
Решението за въвеждане на AI chatbot-ове на малки деца представлява както възможности, така и рискове. От една страна, тези инструменти могат да предложат образователна подкрепа, да насърчават креативността и да осигурят ангажиращи учебни преживявания. От друга страна, те пораждат опасения относно експозицията на неподходящо съдържание, потенциала за манипулация и развитието на умения за критично мислене.
Как функционира Gemini AI Chatbot
Акаунтите на Google Family Link са предназначени да дадат на родителите контрол върху онлайн дейностите на техните деца. Родителите могат да управляват достъпа до конкретно съдържание и приложения, като например YouTube, като задават лимити и наблюдават използването. За да се създаде детски акаунт, родителите трябва да предоставят лична информация, включително името и датата на раждане на детето. Въпреки че това събиране на данни може да породи опасения за поверителността, Google уверява, че данните на децата няма да бъдат използвани за обучение на AI системи.
По подразбиране достъпът до chatbot ще бъде активиран, което изисква родителите активно да деактивират функцията, за да ограничат достъпа на детето си. След това децата могат да използват chatbot-а, за да генерират текстови отговори или да създават изображения. Google обаче признава потенциала за грешки и неточности, като подчертава необходимостта от внимателна оценка на генерираното съдържание. Феноменът на AI "халюцинациите", при който chatbot-овете фалшифицират информация, налага децата да проверяват фактите с надеждни източници, особено когато използват инструмента за помощ при домашни работи.
Същността на предоставената информация
Традиционните търсачки като Google извличат съществуващи материали, които потребителите да прегледат и анализират. Учениците могат да имат достъп до новинарски статии, академични списания и други източници, за да събират информация за задачи. Генеративните AI инструменти обаче работят по различен начин. Те анализират моделите в изходния материал, за да създадат нови текстови отговори или изображения въз основа на потребителски подкани. Например, дете може да помоли системата да "нарисува котка", а AI ще сканира данни, за да идентифицира определящи характеристики (напр. мустаци, заострени уши, дълга опашка) и да генерира изображение, включващо тези характеристики.
Разграничението между информация, извлечена чрез търсене в Google, и съдържание, генерирано от AI инструмент, може да бъде трудно за разбиране от малки деца. Проучванията показват, че дори възрастните могат да бъдат измамени от генерирано от AI съдържание. Дори висококвалифицирани професионалисти, като адвокати, са били подведени да използват фалшиво съдържание, произведено от ChatGPT и други chatbot-ове. Това подчертава важността на обучението на децата за същността на генерираното от AI съдържание и необходимостта от критична оценка.
Осигуряване на възрастова целесъобразност
Google твърди, че Gemini ще включва "вградени защитни мерки, предназначени да предотвратят генерирането на неподходящо или опасно съдържание". Тези защитни мерки имат за цел да предпазят децата от излагане на вреден материал.
Тези защитни мерки обаче могат неволно да създадат нови проблеми. Например, ограничаването на определени думи (напр. "гърди"), за да се предотврати достъпът до неподходящо сексуално съдържание, може също да блокира достъпа до подходяща за възрастта информация за телесните промени по време на пубертета. Това подчертава деликатния баланс между защитата на децата и предоставянето им на точна и релевантна информация.
Много деца са много технически грамотни и умеят да навигират в приложения и да заобикалят системните контроли. Родителите не могат да разчитат единствено на вградените защитни мерки. Те трябва активно да преглеждат генерираното съдържание, да помагат на децата си да разберат как работи системата и да оценяват точността и целесъобразността на предоставената информация.
Потенциални рискове от AI Chatbot-ове за деца
Комисията за електронна безопасност е издала консултативен доклад за онлайн безопасността, в който са очертани потенциалните рискове от AI chatbot-ове, особено тези, предназначени да симулират лични взаимоотношения, за малки деца. Консултативният доклад предупреждава, че AI компаньоните могат "да споделят вредно съдържание, да изкривяват реалността и да дават съвети, които са опасни". Малките деца, които все още развиват критично мислене и житейски умения, са особено уязвими да бъдат подведени или манипулирани от компютърни програми.
Изследванията са изследвали начините, по които AI chatbot-овете, като ChatGPT, Replika и Tessa, имитират човешките взаимодействия, като се придържат към социалните норми и конвенции. Тези системи са проектирани да спечелят нашето доверие, като отразяват неписаните правила, които управляват социалното поведение. Имитирайки тези социални любезности, тези системи са проектирани да спечелят нашето доверие.
Тези човешки взаимодействия могат да бъдат объркващи и потенциално рискови за малки деца. Те могат да повярват, че chatbot-ът е истински човек и да се доверят на съдържанието, което предоставя, дори ако е неточно или фалшифицирано. Това може да попречи на развитието на умения за критично мислене и да направи децата по-податливи на манипулация.
Защита на децата от вреди
Стартирането на AI chatbot-а на Gemini съвпада с предстоящата забрана на Австралия за акаунти в социалните медии за деца под 16 години, планирана за декември тази година. Въпреки че тази забрана има за цел да защити децата от онлайн вреди, генеративните AI chatbot-ове показват, че рисковете от онлайн ангажиране се простират отвъд социалните медии. Децата и родителите трябва да бъдат обучени за подходящото и безопасно използване на всички видове дигитални инструменти.
Тъй като AI chatbot-ът на Gemini не е класифициран като инструмент за социални медии, той няма да бъде предмет на забраната на Австралия. Това означава, че австралийските родители ще продължат да се сблъскват с предизвикателството да бъдат пред развиващите се технологии и да разбират потенциалните рискове, пред които са изправени техните деца. Те трябва също да признаят ограниченията на забраната на социалните медии за защита на децата от вреди.
Тази ситуация подчертава неотложната необходимост от преразглеждане на предложеното от Австралия законодателство за цифровия дълг на грижа. Докато Европейският съюз и Обединеното кралство приложиха законодателство за цифровия дълг на грижа през 2023 г., версията на Австралия е в застой от ноември 2024 г. Това законодателство ще държи технологичните компании отговорни за справяне с вредното съдържание в неговия източник, като по този начин защитава всички потребители.
Въвеждането на AI chatbot-ове на малки деца представлява сложно предизвикателство, което изисква многостранен подход. Родителите, преподавателите, политиците и технологичните компании трябва да работят заедно, за да гарантират, че децата могат да се възползват от възможностите, предлагани от тези инструменти, като същевременно останат в безопасност и защитени от вреди. Това включва обучение на децата за същността на AI, насърчаване на уменията за критично мислене и прилагане на стабилни защитни мерки за предотвратяване на излагането на неподходящо съдържание.