Недавнее заявление Google о внедрении своего чат-бота с искусственным интеллектом (AI) Gemini для детей младше 13 лет вызвало значительные дебаты и подняло важные вопросы об онлайн-безопасности и защите детей в эпоху цифровых технологий. Эта инициатива, запуск которой первоначально запланирован в Соединенных Штатах и Канаде, а затем в Австралии, сделает чат-бота доступным через учетные записи Google Family Link. Хотя этот подход предоставляет родителям определенную степень контроля, он также подчеркивает постоянную проблему защиты детей в развивающейся технологической среде.
Решение о внедрении AI-чат-ботов для маленьких детей представляет собой как возможности, так и риски. С одной стороны, эти инструменты могут предложить образовательную поддержку, способствовать творчеству и обеспечить увлекательный опыт обучения. С другой стороны, они вызывают опасения по поводу воздействия ненадлежащего контента, потенциала для манипуляций и развития навыков критического мышления.
Как функционирует Gemini AI Chatbot
Учетные записи Google Family Link предназначены для предоставления родителям контроля над онлайн-активностью их детей. Родители могут управлять доступом к определенному контенту и приложениям, таким как YouTube, устанавливая ограничения и контролируя использование. Чтобы создать учетную запись ребенка, родители должны предоставить личную информацию, включая имя и дату рождения ребенка. Хотя этот сбор данных может вызвать опасения по поводу конфиденциальности, Google заверяет, что данные детей не будут использоваться для обучения AI-систем.
По умолчанию доступ к чат-боту будет включен, что потребует от родителей активного отключения этой функции, чтобы ограничить доступ своего ребенка. Затем дети могут использовать чат-бота для создания текстовых ответов или создания изображений. Однако Google признает возможность ошибок и неточностей, подчеркивая необходимость тщательной оценки сгенерированного контента. Феномен AI “галлюцинаций”, когда чат-боты фабрикуют информацию, требует, чтобы дети проверяли факты с помощью надежных источников, особенно при использовании этого инструмента для помощи в выполнении домашних заданий.
Природа предоставляемой информации
Традиционные поисковые системы, такие как Google, извлекают существующие материалы для просмотра и анализа пользователями. Студенты могут получить доступ к новостным статьям, научным журналам и другим источникам для сбора информации для заданий. Однако генеративные AI-инструменты работают по-другому. Они анализируют шаблоны в исходном материале для создания новых текстовых ответов или изображений на основе подсказок пользователей. Например, ребенок может попросить систему “нарисовать кошку”, и AI будет сканировать данные, чтобы определить определяющие характеристики (например, усы, заостренные уши, длинный хвост) и сгенерировать изображение, включающее эти функции.
Различие между информацией, полученной с помощью поиска Google, и контентом, созданнымAI-инструментом, может быть трудно понять маленьким детям. Исследования показали, что даже взрослых можно обмануть AI-сгенерированным контентом. Даже высококвалифицированные специалисты, такие как юристы, были введены в заблуждение и использовали поддельный контент, созданный ChatGPT и другими чат-ботами. Это подчеркивает важность обучения детей природе AI-сгенерированного контента и необходимости критической оценки.
Обеспечение соответствия возрасту
Google утверждает, что Gemini будет включать в себя “встроенные средства защиты, предназначенные для предотвращения создания неприемлемого или небезопасного контента”. Эти меры безопасности направлены на защиту детей от воздействия вредных материалов.
Однако эти меры предосторожности могут непреднамеренно создать новые проблемы. Например, ограничение определенных слов (например, “груди”), чтобы предотвратить доступ к неприемлемому сексуальному контенту, может также заблокировать доступ к возрастной информации об изменениях тела во время полового созревания. Это подчеркивает деликатный баланс между защитой детей и предоставлением им точной и актуальной информации.
Многие дети хорошо разбираются в технологиях и умеют ориентироваться в приложениях и обходить системные средства управления. Родители не могут полагаться исключительно на встроенные средства защиты. Они должны активно просматривать сгенерированный контент, помогать своим детям понять, как работает система, и оценивать точность и уместность предоставленной информации.
Потенциальные риски AI-чат-ботов для детей
Комиссия по электронной безопасности выпустила консультативное заключение по онлайн-безопасности, в котором изложены потенциальные риски AI-чат-ботов, особенно тех, которые предназначены для имитации личных отношений, для маленьких детей. В консультативном заключении предупреждается, что AI-компаньоны могут “распространять вредоносный контент, искажать реальность и давать советы, которые являются опасными”. Маленькие дети, у которых все еще развиваются навыки критического мышления и жизненные навыки, особенно уязвимы для того, чтобы их ввели в заблуждение или манипулировали компьютерные программы.
Исследования показали, как AI-чат-боты, такие как ChatGPT, Replika и Tessa, имитируют человеческое взаимодействие, придерживаясь социальных норм и условностей. Эти системы предназначены для завоевания нашего доверия, отражая неписаные правила, которые регулируют социальное поведение. Подражая этим социальным любезностям, эти системы предназначены для завоевания нашего доверия.
Эти человекоподобные взаимодействия могут сбивать с толку и быть потенциально рискованными для маленьких детей. Они могут поверить, что чат-бот - настоящий человек, и доверять контенту, который он предоставляет, даже если он неточен или сфабрикован. Это может затруднить развитие навыков критического мышления и сделать детей более восприимчивыми к манипуляциям.
Защита детей от вреда
Развертывание AI-чат-бота Gemini совпадает с предстоящим запретом в Австралии на учетные записи в социальных сетях для детей младше 16 лет, запланированным на декабрь этого года. Хотя этот запрет направлен на защиту детей от онлайн-вреда, генеративные AI-чат-боты показывают, что риски онлайн-взаимодействия выходят за рамки социальных сетей. Дети и родители должны быть проинформированы о надлежащем и безопасном использовании всех типов цифровых инструментов.
Поскольку AI-чат-бот Gemini не классифицируется как инструмент социальных сетей, на него не будет распространяться запрет Австралии. Это означает, что австралийские родители по-прежнему будут сталкиваться с проблемой опережения новых технологий и понимания потенциальных рисков, с которыми сталкиваются их дети. Они также должны признать ограничения запрета социальных сетей в защите детей от вреда.
Эта ситуация подчеркивает острую необходимость пересмотреть предлагаемый Австралией закон об обязанности цифровой заботы. В то время как Европейский союз и Соединенное Королевство внедрили закон об обязанности цифровой заботы в 2023 году, версия Австралии находится на рассмотрении с ноября 2024 года. Этот закон возложил бы на технологические компании ответственность за устранение вредоносного контента в его источнике, тем самым защищая всех пользователей.
Внедрение AI-чат-ботов для маленьких детей представляет собой сложную задачу, требующую многогранного подхода. Родители, педагоги, политики и технологические компании должны работать вместе, чтобы гарантировать, что дети смогут извлечь выгоду из возможностей, предлагаемых этими инструментами, оставаясь в безопасности и защищенными от вреда. Это включает в себя обучение детей природе AI, продвижение навыков критического мышления и внедрение надежных мер защиты для предотвращения воздействия неприемлемого контента.