La reciente iniciativa de Google de introducir su chatbot de inteligencia artificial (AI) Gemini a niños menores de 13 años ha generado un debate considerable y ha planteado preguntas cruciales sobre la seguridad en línea y la protección infantil en la era digital. Esta iniciativa, programada para lanzarse inicialmente en los Estados Unidos y Canadá, y más tarde en Australia, hará que el chatbot sea accesible a través de las cuentas de Family Link de Google. Si bien este enfoque ofrece a los padres cierto grado de control, también subraya el desafío constante de salvaguardar a los niños en un panorama tecnológico en evolución.
La decisión de introducir chatbots de AI a niños pequeños presenta tanto oportunidades como riesgos. Por un lado, estas herramientas pueden ofrecer apoyo educativo, fomentar la creatividad y proporcionar experiencias de aprendizaje atractivas. Por otro lado, plantean preocupaciones sobre la exposición a contenido inapropiado, el potencial de manipulación y el desarrollo de habilidades de pensamiento crítico.
Cómo funciona el Chatbot Gemini AI
Las cuentas de Family Link de Google están diseñadas para brindar a los padres supervisión de las actividades en línea de sus hijos. Los padres pueden administrar el acceso a contenido y aplicaciones específicos, como YouTube, estableciendo límites y monitoreando el uso. Para establecer la cuenta de un niño, los padres deben proporcionar información personal, incluido el nombre y la fecha de nacimiento del niño. Si bien esta recopilación de datos puede generar preocupaciones sobre la privacidad, Google asegura que los datos de los niños no se utilizarán para el entrenamiento del sistema de AI.
De forma predeterminada, el acceso al chatbot estará habilitado, lo que requerirá que los padres deshabiliten activamente la función para restringir el acceso de sus hijos. Luego, los niños pueden usar el chatbot para generar respuestas de texto o crear imágenes. Sin embargo, Google reconoce el potencial de errores e inexactitudes, enfatizando la necesidad de una evaluación cuidadosa del contenido generado. El fenómeno de la "alucinación" de la AI, donde los chatbots fabrican información, exige que los niños verifiquen los hechos con fuentes confiables, especialmente cuando utilizan la herramienta para la asistencia con la tarea.
La naturaleza de la información proporcionada
Los motores de búsqueda tradicionales como Google recuperan materiales existentes para que los usuarios los revisen y analicen. Los estudiantes pueden acceder a artículos de noticias, revistas académicas y otras fuentes para recopilar información para las tareas. Sin embargo, las herramientas de AI generativa operan de manera diferente. Analizan patrones en el material fuente para crear nuevas respuestas de texto o imágenes basadas en las indicaciones del usuario. Por ejemplo, un niño podría pedirle al sistema que "dibuje un gato", y la AI escanearía los datos para identificar las características definitorias (por ejemplo, bigotes, orejas puntiagudas, una cola larga) y generar una imagen que incorpore esas características.
La distinción entre la información recuperada a través de una búsqueda de Google y el contenido generado por una herramienta de AI puede ser difícil de comprender para los niños pequeños. Los estudios han demostrado que incluso los adultos pueden ser engañados por el contenido generado por la AI. Incluso profesionales altamente capacitados, como los abogados, han sido engañados para usar contenido falso producido por ChatGPT y otros chatbots. Esto subraya la importancia de educar a los niños sobre la naturaleza del contenido generado por la AI y la necesidad de una evaluación crítica.
Garantizar la adecuación a la edad
Google afirma que Gemini incorporará "salvaguardas integradas diseñadas para evitar la generación de contenido inapropiado o inseguro". Estas salvaguardas tienen como objetivo proteger a los niños de la exposición a material dañino.
Sin embargo, estas salvaguardas pueden crear inadvertidamente nuevos problemas. Por ejemplo, restringir ciertas palabras (por ejemplo, "senos") para evitar el acceso a contenido sexual inapropiado también podría bloquear el acceso a información apropiada para la edad sobre los cambios corporales durante la pubertad. Esto destaca el delicado equilibrio entre proteger a los niños y brindarles información precisa y relevante.
Muchos niños son muy conocedores de la tecnología y son expertos en navegar por las aplicaciones y eludir los controles del sistema. Los padres no pueden depender únicamente de las salvaguardas integradas. Deben revisar activamente el contenido generado, ayudar a sus hijos a comprender cómo funciona el sistema y evaluar la precisión y la idoneidad de la información proporcionada.
Riesgos potenciales de los chatbots de AI para niños
La Comisión de eSafety ha emitido un aviso de seguridad en línea que describe los riesgos potenciales de los chatbots de AI, particularmente aquellos diseñados para simular relaciones personales, para los niños pequeños. El aviso advierte que los compañeros de AI pueden "compartir contenido dañino, distorsionar la realidad y dar consejos que son peligrosos". Los niños pequeños, que todavía están desarrollando el pensamiento crítico y las habilidades para la vida, son particularmente vulnerables a ser engañados o manipulados por programas de computadora.
La investigación ha explorado las formas en que los chatbots de AI, como ChatGPT, Replika y Tessa, imitan las interacciones humanas adhiriéndose a las normas y convenciones sociales. Estos sistemas están diseñados para ganarse nuestra confianza reflejando las reglas no escritas que gobiernan el comportamiento social. Al imitar estas sutilezas sociales, estos sistemas están diseñados para ganarse nuestra confianza.
Estas interacciones similares a las humanas pueden ser confusas y potencialmente riesgosas para los niños pequeños. Pueden creer que el chatbot es una persona real y confiar en el contenido que proporciona, incluso si es inexacto o fabricado. Esto puede obstaculizar el desarrollo de habilidades de pensamiento crítico y hacer que los niños sean más susceptibles a la manipulación.
Proteger a los niños del daño
El lanzamiento del chatbot de AI de Gemini coincide con la inminente prohibición de Australia de las cuentas de redes sociales para niños menores de 16 años, programada para diciembre de este año. Si bien esta prohibición tiene como objetivo proteger a los niños del daño en línea, los chatbots de AI generativa demuestran que los riesgos de la participación en línea se extienden más allá de las redes sociales. Tanto los niños como los padres deben ser educados sobre el uso apropiado y seguro de todo tipo de herramientas digitales.
Como el chatbot de AI de Gemini no está clasificado como una herramienta de redes sociales, no estará sujeto a la prohibición de Australia. Esto significa que los padres australianos continuarán enfrentando el desafío de mantenerse a la vanguardia de las tecnologías emergentes y comprender los riesgos potenciales que enfrentan sus hijos. También deben reconocer las limitaciones de la prohibición de las redes sociales para proteger a los niños del daño.
Esta situación subraya la necesidad urgente de revisar la propuesta de legislación sobre el deber de diligencia digital de Australia. Si bien la Unión Europea y el Reino Unido implementaron la legislación sobre el deber de diligencia digital en 2023, la versión de Australia ha estado en suspenso desde noviembre de 2024. Esta legislación responsabilizaría a las empresas de tecnología por abordar el contenido dañino en su origen, protegiendo así a todos los usuarios.
La introducción de chatbots de AI a niños pequeños presenta un desafío complejo que requiere un enfoque multifacético. Los padres, educadores, formuladores de políticas y empresas de tecnología deben trabajar juntos para garantizar que los niños puedan beneficiarse de las oportunidades que ofrecen estas herramientas, al tiempo que permanecen seguros y protegidos contra daños. Esto incluye educar a los niños sobre la naturaleza de la AI, promover las habilidades de pensamiento crítico e implementar salvaguardas sólidas para evitar la exposición a contenido inapropiado.