En el conflicto entre India y Pakistán, la desinformación se disparó, y los usuarios de redes sociales comenzaron a depender de los chatbots de IA para la verificación. Sin embargo, estos chatbots proporcionaron más información falsa, resaltando su poca fiabilidad como herramientas de verificación de hechos. Con las grandes plataformas tecnológicas reduciendo continuamente el número de verificadores de hechos humanos, los usuarios dependen cada vez más de los chatbots impulsados por IA, como Grok de xAI, ChatGPT de OpenAI y Gemini de Google, en busca de información fiable.
El auge de la verificación de hechos con chatbots de IA
En la plataforma X de Elon Musk (antes Twitter), "@Grok, ¿es esto verdad?" se ha convertido en una pregunta común entre los usuarios. Grok, el asistente de IA integrado en la plataforma X, refleja la tendencia de los usuarios a buscar refutaciones instantáneas en las redes sociales. Sin embargo, las respuestas de estos chatbots de IA a menudo están plagadas de información falsa.
Grok ha sido objeto de escrutinio recientemente por insertar la teoría de la conspiración de extrema derecha del "genocidio blanco" en consultas no relacionadas. Grok identificó erróneamente viejos vídeos del aeropuerto de Jartum, Sudán, como un ataque con misiles a la base aérea de Nur Khan en Pakistán durante el conflicto indo-pakistaní. Además, un edificio en llamas en Nepal fue identificado erróneamente como "probablemente" mostrando la respuesta militar pakistaní a los ataques de la India.
Las limitaciones de la verificación de hechos con IA
McKenzie Sadeghi, investigadora de la organización de vigilancia de la información NewsGuard, dijo a la Agence France-Presse: "Debido a que X y otras grandes empresas tecnológicas han reducido la inversión en verificadores de hechos humanos, la gente confía cada vez más en Grok como verificador de hechos". Advirtió: "Nuestra investigación ha demostrado repetidamente que los chatbots de IA no son fuentes fiables de noticias e información, especialmente cuando se trata de noticias de última hora".
La investigación de NewsGuard descubrió que diez chatbots líderes, incluido Grok, eran fácilmente susceptibles de repetir información falsa, incluidas narrativas de desinformación rusas y afirmaciones falsas o engañosas relacionadas con las recientes elecciones australianas. Un estudio reciente realizado por el Tow Center for Digital Journalism de la Universidad de Columbia sobre ocho herramientas de búsqueda de IA descubrió que los chatbots "generalmente no son buenos para negarse a responder preguntas que no pueden responder con precisión, sino que ofrecen respuestas incorrectas o especulativas".
Un verificador de hechos de la Agence France-Presse en Uruguay preguntó a Gemini sobre una imagen generada por IA de una mujer. Gemini no solo confirmó la autenticidad de la imagen, sino que también inventó detalles sobre la identidad de la mujer y la posible ubicación donde se tomó la imagen.
Grok recientemente etiquetó un vídeo de una supuesta anaconda gigante nadando en el río Amazonas como "real", incluso citando una expedición científica de sonido creíble para respaldar su afirmación falsa. De hecho, el vídeo fue generado por IA, y los verificadores de hechos de la Agence France-Presse en América Latina informaron que muchos usuarios citaron la evaluación de Grok como evidencia de que el vídeo era real.
Preocupaciones sobre la verificación de hechos con IA
Estos hallazgos han suscitado preocupaciones porque las encuestas muestran que un número creciente de usuarios en línea están recurriendo a los chatbots de IA en lugar de a los motores de búsqueda tradicionales para recopilar y verificar información. Mientras tanto, Meta anunció a principios de este año que pondría fin a su programa de verificación de hechos de terceros en los Estados Unidos, delegando en cambio las tareas de refutación a los usuarios regulares, adoptando un modelo llamado "Community Notes", que ha sido defendido por la plataforma X. Sin embargo, los investigadores han cuestionado repetidamente la eficacia de "Community Notes" para combatir la desinformación.
La verificación de hechos humana ha sido durante mucho tiempo un punto álgido en un clima político polarizado, particularmente en los Estados Unidos, donde los conservadores argumentan que suprime la libertad de expresión y censura el contenido de derecha, una afirmación que los verificadores de hechos profesionales niegan enérgicamente.
La Agence France-Presse actualmente trabaja con el programa de verificación de hechos de Facebook en 26 idiomas, incluso en Asia, América Latina y la Unión Europea.
La calidad y precisión de los chatbots de IA pueden variar significativamente según cómo estén entrenados y programados, lo que plantea preocupaciones de que su producción pueda estar influenciada o controlada políticamente.
xAI de Musk recientemente culpó de que Grok generara citas no solicitadas de la publicación en Sudáfrica del "genocidio blanco" a una "modificación no autorizada". Cuando el experto en IA David Caswell le preguntó a Grok quién podría haber modificado sus indicaciones del sistema, el chatbot incluyó a Musk como el culpable "más probable".
Musk, un multimillonario nacido en Sudáfrica y partidario del presidente estadounidense Donald Trump, ha difundido previamente afirmaciones infundadas de que los líderes sudafricanos están "impulsando abiertamente el genocidio contra los blancos".
Angie Holan, directora de la Red Internacional de Verificación de Datos, dijo a la Agence France-Presse: "Hemos visto que los asistentes de IA inventan resultados o dan respuestas sesgadas después de que los codificadores humanos alteran explícitamente sus instrucciones". "Estoy particularmente preocupada por cómo Grok maneja las solicitudes sobre asuntos muy delicados una vez que ha recibido instrucciones para proporcionar respuestas previamente autorizadas".
Los riesgos de los chatbots de IA en el dominio de la información
El uso cada vez mayor de chatbots de IA para proporcionar información plantea serias preocupaciones sobre sus posibles impactos engañosos y manipuladores. Si bien estas tecnologías ofrecen ventajas en el acceso rápido a la información y la simplificación de la investigación, sus limitaciones y sesgos inherentes pueden propagar desinformación o propaganda de forma inadvertida o intencionada.
Limitaciones inherentes de los chatbots de IA
Los chatbots de IA aprenden analizando grandes cantidades de datos de texto, pero carecen de la capacidad de pensamiento crítico humano. Esto significa que pueden extraer patrones de los datos y generar respuestas que parecen razonables, pero no comprenden realmente el significado o el contexto subyacente. Esta falta de conocimiento puede llevar a generar información inexacta, incompleta o engañosa.
Además, los datos de entrenamiento de los chatbots de IA pueden contener sesgos, que se reflejan en las respuestas generadas. Por ejemplo, si los datos de entrenamiento provienen principalmente de una fuente o perspectiva particular, el chatbot puede mostrar una preferencia por esa fuente o perspectiva, propagando así información sesgada.
Riesgos que plantean los chatbots de IA
A medida que más personas dependen de los chatbots de IA para obtener información, aumenta el riesgo de propagación de la desinformación. Si un chatbot genera información inexacta o engañosa, los usuarios pueden aceptarla y difundirla sin saberlo, lo que lleva a la proliferación de creencias erróneas.
Además, los chatbots de IA pueden utilizarse con fines maliciosos, como difundir propaganda o manipulación de la opinión pública. Al diseñar cuidadosamente los datos de entrenamiento o ajustar los algoritmos, los actores maliciosos pueden manipular a los chatbots para que generen tipos específicos de respuestas, influyendo así en las creencias y comportamientos de los usuarios.
Cómo mitigar los riesgos
Para mitigar los riesgos asociados con los chatbots de IA, es necesario tomar una serie de medidas. En primer lugar, los desarrolladores deben esforzarse por garantizar que los datos de entrenamiento de los chatbots de IA sean lo más completos e imparciales posible. Esto puede requerir incluir una amplia gama de muestras de datos de diferentes fuentes y perspectivas para reducir el impacto de los sesgos.
En segundo lugar, es necesario realizar pruebas y evaluaciones rigurosas de los chatbots de IA para identificar y corregir cualquier tendencia a la inexactitud o el sesgo. Esto puede requerir la verificación humana de las respuestas generadas por el chatbot y el uso de diversas métricas para evaluar su precisión e imparcialidad.
En tercer lugar, los usuarios deben mantener una actitud crítica y no creer ciegamente en la información proporcionada por los chatbots de IA. Los usuarios siempre deben contrastar la información de diferentes fuentes y ser conscientes de los posibles sesgos que pueda tener el chatbot.
El papel de las plataformas tecnológicas y la comunidad
Las plataformas tecnológicas y la comunidad desempeñan un papel importante en la regulación y supervisión del contenido generado por los chatbots de IA. Las plataformas pueden implementar políticas para identificar y eliminar la información falsa o la propaganda, y pueden colaborar con organizaciones de verificación de datos para verificar la precisión de las respuestas generadas por los chatbots. Además, la comunidad puede ayudar a crear conciencia entre los usuarios promoviendo debates sobre las limitaciones y los sesgos de los chatbots de IA, y animando a los usuarios a mantener una actitud crítica.
Conclusión
Los chatbots de IA son una herramienta útil, pero también tienen limitaciones y riesgos inherentes. Para garantizar que estas tecnologías se utilizan de forma responsable y para reducir la propagación de la desinformación y la manipulación, es necesario que los desarrolladores, los reguladores y los usuarios se mantengan alerta. Al tomar las medidas necesarias, podemos maximizar los beneficios de los chatbots de IA al tiempo que minimizamos sus posibles daños.