Gemini do Google: Riscos para Menores de 13

A recente notícia do Google de introduzir seu chatbot de inteligência artificial (IA) Gemini para crianças menores de 13 anos gerou um debate considerável e levantou questões cruciais sobre segurança online e proteção infantil na era digital. Esta iniciativa, programada para ser lançada inicialmente nos Estados Unidos e Canadá e, posteriormente, na Austrália, tornará o chatbot acessível por meio das contas Family Link do Google. Embora essa abordagem ofereça aos pais algum grau de controle, ela também destaca o desafio contínuo de proteger as crianças em um cenário tecnológico em evolução.

A decisão de introduzir chatbots de IA para crianças pequenas apresenta oportunidades e riscos. Por um lado, essas ferramentas podem oferecer suporte educacional, fomentar a criatividade e proporcionar experiências de aprendizado envolventes. Por outro lado, levantam preocupações sobre a exposição a conteúdo inadequado, o potencial de manipulação e o desenvolvimento de habilidades de pensamento crítico.

Como Funciona o Chatbot Gemini AI

As contas Family Link do Google são projetadas para dar aos pais supervisão das atividades online de seus filhos. Os pais podem gerenciar o acesso a conteúdo e aplicativos específicos, como o YouTube, definindo limites e monitorando o uso. Para criar a conta de uma criança, os pais devem fornecer informações pessoais, incluindo o nome e a data de nascimento da criança. Embora essa coleta de dados possa levantar preocupações com a privacidade, o Google garante que os dados das crianças não serão usados para o treinamento do sistema de IA.

Por padrão, o acesso ao chatbot estará habilitado, exigindo que os pais desativem ativamente o recurso para restringir o acesso de seus filhos. As crianças podem então usar o chatbot para gerar respostas de texto ou criar imagens. No entanto, o Google reconhece o potencial de erros e imprecisões, enfatizando a necessidade de uma avaliação cuidadosa do conteúdo gerado. O fenômeno da "alucinação" da IA, onde os chatbots fabricam informações, exige que as crianças verifiquem os fatos com fontes confiáveis, especialmente ao usar a ferramenta para auxiliar nos deveres de casa.

A Natureza da Informação Fornecida

Mecanismos de busca tradicionais como o Google recuperam materiais existentes para que os usuários revisem e analisem. Os alunos podem acessar artigos de notícias, revistas acadêmicas e outras fontes para coletar informações para tarefas. As ferramentas de IA generativa, no entanto, operam de forma diferente. Eles analisam padrões em material de origem para criar novas respostas de texto ou imagens com base em prompts do usuário. Por exemplo, uma criança pode pedir ao sistema para "desenhar um gato", e a IA digitalizaria os dados para identificar as características definidoras (por exemplo, bigodes, orelhas pontudas, uma cauda longa) e gerar uma imagem incorporando essas características.

A distinção entre informações recuperadas por meio de uma pesquisa no Google e conteúdo gerado por uma ferramenta de IA pode ser difícil para as crianças pequenas entenderem. Estudos têm mostrado que até mesmo adultos podem ser enganados por conteúdo gerado por IA. Até mesmo profissionais altamente qualificados, como advogados, foram induzidos em erro a usar conteúdo falso produzido pelo ChatGPT e outros chatbots. Isso ressalta a importância de educar as crianças sobre a natureza do conteúdo gerado por IA e a necessidade de avaliação crítica.

Garantindo a Adequação à Idade

O Google afirma que o Gemini incorporará "salvaguardas integradas projetadas para impedir a geração de conteúdo inadequado ou inseguro". Essas salvaguardas visam proteger as crianças da exposição a material prejudicial.

No entanto, essas salvaguardas podem inadvertidamente criar novos problemas. Por exemplo, restringir certas palavras (por exemplo, "seios") para impedir o acesso a conteúdo sexual inadequado também pode bloquear o acesso a informações apropriadas para a idade sobre mudanças corporais durante a puberdade. Isso destaca o delicado equilíbrio entre proteger as crianças e fornecer-lhes informações precisas e relevantes.

Muitas crianças são altamente experientes em tecnologia e adeptas a navegar em aplicativos e contornar os controles do sistema. Os pais não podem confiar apenas nas salvaguardas integradas. Eles devem revisar ativamente o conteúdo gerado, ajudar seus filhos a entender como o sistema funciona e avaliar a precisão e a adequação das informações fornecidas.

Riscos Potenciais de Chatbots de IA para Crianças

A eSafety Commission emitiu um aviso de segurança online delineando os riscos potenciais de chatbots de IA, particularmente aqueles projetados para simular relacionamentos pessoais, para crianças pequenas. O aviso adverte que os companheiros de IA podem "compartilhar conteúdo prejudicial, distorcer a realidade e dar conselhos perigosos". Crianças pequenas, que ainda estão desenvolvendo o pensamento crítico e as habilidades para a vida, são particularmente vulneráveis a serem enganadas ou manipuladas por programas de computador.

Pesquisas exploraram as maneiras pelas quais os chatbots de IA, como ChatGPT, Replika e Tessa, imitam as interações humanas, aderindo às normas e convenções sociais. Esses sistemas são projetados para ganhar nossa confiança, espelhando as regras não escritas que governam o comportamento social. Ao imitar essas gentilezas sociais, esses sistemas são projetados para ganhar nossa confiança.

Essas interações semelhantes às humanas podem ser confusas e potencialmente arriscadas para crianças pequenas. Eles podem acreditar que o chatbot é uma pessoa real e confiar no conteúdo que ele fornece, mesmo que seja impreciso ou fabricado. Isso pode prejudicar o desenvolvimento de habilidades de pensamento crítico e tornar as crianças mais suscetíveis à manipulação.

Protegendo as Crianças de Danos

O lançamento do chatbot de IA do Gemini coincide com a iminente proibição da Austrália de contas de mídia social para crianças menores de 16 anos, agendada para dezembro deste ano. Embora essa proibição vise proteger as crianças de danos online, os chatbots de IA generativa demonstram que os riscos do engajamento online se estendem além da mídia social. Crianças e pais devem ser educados sobre o uso apropriado e seguro de todos os tipos de ferramentas digitais.

Como o chatbot de IA do Gemini não é classificado como uma ferramenta de mídia social, ele não estará sujeito à proibição da Austrália. Isso significa que os pais australianos continuarão a enfrentar o desafio de ficar à frente das tecnologias emergentes e entender os riscos potenciais que seus filhos enfrentam. Eles também devem reconhecer as limitações da proibição de mídia social na proteção de crianças contra danos.

Esta situação sublinha a necessidade urgente de rever a proposta de legislação de dever de cuidado digital da Austrália. Enquanto a União Europeia e o Reino Unido implementaram a legislação de dever de cuidado digital em 2023, a versão da Austrália está suspensa desde novembro de 2024. Esta legislação responsabilizaria as empresas de tecnologia por abordar o conteúdo prejudicial na sua origem, protegendo assim todos os utilizadores.

A introdução de chatbots de IA para crianças pequenas apresenta um desafio complexo que requer uma abordagem multifacetada. Pais, educadores, legisladores e empresas de tecnologia devem trabalhar juntos para garantir que as crianças possam se beneficiar das oportunidades oferecidas por essas ferramentas, permanecendo seguras e protegidas contra danos. Isso inclui educar as crianças sobre a natureza da IA, promover habilidades de pensamento crítico e implementar salvaguardas robustas para evitar a exposição a conteúdo inadequado.