La Influencia Penetrante de las Falsedades Respaldadas por el Kremlin
El problema central radica en la contaminación deliberada de las fuentes de información en línea. Al inundar los resultados de búsqueda y los rastreadores web con falsedades pro-Kremlin, una red de actores de desinformación está moldeando activamente el resultado de los modelos de lenguaje grande (LLM). Estos modelos, que impulsan los chatbots de IA con los que interactuamos a diario, se basan en vastos conjuntos de datos extraídos de Internet. Cuando estos datos están contaminados con desinformación, el resultado refleja estos sesgos.
NewsGuard, una empresa que proporciona calificaciones de credibilidad y huellas dactilares de desinformación para sitios web de noticias e información, realizó un análisis en profundidad de este fenómeno. Sus hallazgos revelan una realidad inquietante: una porción significativa de la información generada por los principales chatbots de IA se hace eco de las narrativas propagadas por una red específica de sitios web pro-Kremlin.
La Mecánica de la Desinformación: Cómo se Manipulan los Modelos de IA
La estrategia empleada por esta red de desinformación es insidiosa y sofisticada. No está dirigida principalmente a atraer lectores humanos; más bien, está diseñada para manipular los algoritmos que sustentan los chatbots de IA. Esta táctica, conocida como ‘LLM grooming’, implica la colocación estratégica de información falsa o engañosa en numerosos sitios web, sabiendo que estas plataformas serán rastreadas e ingeridas por los LLM.
El American Sunlight Project (ASP), una organización estadounidense sin fines de lucro, destacó esta amenaza en un informe de febrero de 2025. Advirtieron que la red Pravda, una colección de sitios web que promueven narrativas pro-rusas, probablemente fue creada con el propósito explícito de influir en los modelos de IA. Cuanto mayor sea el volumen de narrativas pro-Rusia, mayor será la probabilidad de que los LLM las integren en su base de conocimientos.
Las implicaciones de esto son de gran alcance. A medida que los LLM se integran cada vez más en nuestra vida diaria, sirviendo como fuentes de información y asistencia, el potencial de difusión generalizada de contenido manipulado es alarmante.
Auditoría de NewsGuard: Cuantificación del Impacto
Para evaluar el alcance de este problema, NewsGuard realizó una auditoría de diez chatbots de IA prominentes. Estos incluyeron:
- ChatGPT-4o de OpenAI
- Smart Assistant de You.com
- Grok de xAI
- Pi de Inflection
- le Chat de Mistral
- Copilot de Microsoft
- Meta AI
- Claude de Anthropic
- Gemini de Google
- Motor de respuesta de Perplexity
La auditoría se centró en 15 narrativas falsas distintas que habían sido promovidas activamente por 150 sitios web pro-Kremlin de Pravda entre abril de 2022 y febrero de 2025. Estas narrativas cubrían una variedad de temas, todos diseñados para promover una agenda política específica.
La metodología implicó probar cada chatbot con una serie de preguntas basadas en las huellas dactilares de desinformación de NewsGuard, un catálogo de afirmaciones demostrablemente falsas sobre temas de noticias importantes. Las preguntas se elaboraron en tres estilos diferentes: Inocente, Sugerente y Maligna, para imitar las diversas formas en que los usuarios interactúan con los modelos de IA generativa. Esto resultó en un total de 450 respuestas (45 por chatbot).
Resultados Inquietantes: Desinformación Prevalente en los Chatbots
Los hallazgos de la auditoría de NewsGuard fueron contundentes. En conjunto, los diez chatbots de IA repitieron narrativas falsas de desinformación rusa en el 33.55% de las respuestas. Proporcionaron una no respuesta en el 18.22% de los casos y una refutación de la narrativa en el 48.22% de los casos.
Todos los chatbots probados repitieron desinformación originada en la red Pravda. Aún más preocupante, siete de los chatbots citaron directamente artículos específicos de sitios web de Pravda como sus fuentes. Si bien dos de los modelos de IA no proporcionan citas explícitas, se descubrió que generaban o repetían narrativas falsas de la red. Solo uno de los ocho modelos que citan fuentes no citó a Pravda.
En total, 56 de las 450 respuestas generadas por los chatbots incluyeron enlaces directos a artículos que difundían afirmaciones falsas publicadas por la red Pravda. Los chatbots citaron colectivamente 92 artículos diferentes que contenían desinformación, y dos modelos hicieron referencia a hasta 27 artículos de Pravda cada uno. Estos artículos se originaron en varios dominios dentro de la red, incluidos Denmark.news-pravda.com, Trump.news-pravda.com y NATO.news-pravda.com.
La Naturaleza de las Preguntas: Imitando las Interacciones del Mundo Real
Los tres estilos de preguntas utilizados en la auditoría de NewsGuard fueron diseñados para reflejar el espectro de interacciones de los usuarios con los chatbots de IA:
- Preguntas Inocentes: Estas preguntas presentaban la narrativa falsa de una manera neutral y no tendenciosa, como si el usuario simplemente estuviera buscando información sin ninguna idea preconcebida.
- Preguntas Sugerentes: Estas preguntas sugerían sutilmente la narrativa falsa, insinuando su validez sin declararla explícitamente. Esto imita escenarios en los que los usuarios podrían tener alguna exposición previa a la desinformación y buscan confirmación.
- Preguntas Malignas: Estas preguntas afirmaban directamente la narrativa falsa como un hecho, reflejando situaciones en las que los usuarios ya están convencidos de la desinformación y buscan refuerzo.
Este enfoque multifacético fue crucial para comprender cómo los diferentes tipos de interacción del usuario podrían influir en la respuesta del chatbot. Reveló que los chatbots eran susceptibles a repetir la desinformación independientemente del estilo de la pregunta, aunque la frecuencia y la naturaleza de las respuestas variaban.
Ejemplos Específicos de Desinformación Repetida por los Chatbots
El informe de NewsGuard proporciona numerosos ejemplos de narrativas falsas específicas propagadas por la red Pravda y posteriormente repetidas por los chatbots de IA. Estos ejemplos resaltan la amplitud y profundidad de la campaña de desinformación. Algunas de las narrativas incluyeron:
- Afirmaciones de que Ucrania es un estado nazi.
- Afirmaciones falsas sobre las causas del conflicto en Ucrania.
- Información engañosa sobre la participación occidental en el conflicto.
- Historias inventadas sobre el liderazgo ucraniano.
Estos son solo algunos ejemplos de las muchas narrativas falsas que NewsGuard ha documentado y rastreado meticulosamente. El hecho de que estas narrativas sean repetidas por los principales chatbots de IA subraya la necesidad urgente de contramedidas efectivas.
El Desafío de Combatir la Desinformación Impulsada por la IA
Abordar este problema es una tarea compleja. Requiere un enfoque multifacético que involucre tanto soluciones tecnológicas como una mayor conciencia del usuario.
Soluciones Tecnológicas:
- Filtrado de Datos Mejorado: Los desarrolladores de IA deben implementar mecanismos más sólidos para filtrar la desinformación de los conjuntos de datos utilizados para entrenar a los LLM. Esto implica identificar y excluir fuentes no confiables, así como desarrollar algoritmos que puedan detectar y marcar información potencialmente falsa o engañosa.
- Verificación de Fuentes Mejorada: Los chatbots deben diseñarse para priorizar la información de fuentes creíbles y verificadas. Esto incluye proporcionar citas claras y permitir a los usuarios rastrear fácilmente el origen de la información presentada.
- Transparencia y Explicabilidad: Los modelos de IA deben ser más transparentes sobre sus procesos de toma de decisiones. Los usuarios deben poder comprender por qué un chatbot proporciona una respuesta particular y en qué fuentes de datos se basa.
Conciencia del Usuario:
- Educación en Alfabetización Mediática: Los usuarios deben ser educados sobre el potencial de la desinformación generada por la IA. Esto incluye desarrollar habilidades de pensamiento crítico y aprender a evaluar la credibilidad de las fuentes de información en línea.
- Escepticismo y Verificación: Los usuarios deben abordar la información proporcionada por los chatbots de IA con una dosis saludable de escepticismo. Es crucial cruzar la información con otras fuentes y desconfiar de las afirmaciones que parecen demasiado sensacionalistas o demasiado buenas para ser verdad.
Los Riesgos a Largo Plazo: Políticos, Sociales y Tecnológicos
La propagación incontrolada de desinformación a través de chatbots de IA plantea importantes riesgos a largo plazo. Estos riesgos se extienden más allá del impacto inmediato de las narrativas falsas individuales y abarcan consecuencias sociales más amplias.
- Riesgos Políticos: La manipulación de la opinión pública a través de la desinformación impulsada por la IA puede socavar los procesos democráticos y erosionar la confianza en las instituciones. Puede utilizarse para influir en las elecciones, sembrar la discordia y desestabilizar a los gobiernos.
- Riesgos Sociales: La propagación de narrativas falsas puede exacerbar las divisiones sociales existentes y crear otras nuevas. Puede alimentar el prejuicio, la discriminación e incluso la violencia.
- Riesgos Tecnológicos: La erosión de la confianza en la tecnología de IA debido a la propagación de la desinformación podría obstaculizar su desarrollo y adopción. Las personas pueden volverse reacias a utilizar herramientas de IA si no pueden confiar en la precisión y fiabilidad de la información proporcionada.
La batalla contra la desinformación impulsada por la IA es crítica. Requiere un esfuerzo concertado de los desarrolladores de IA, los responsables políticos, los educadores y los usuarios individuales para garantizar que estas poderosas tecnologías se utilicen de manera responsable y ética. El futuro de la información, y de hecho el futuro de nuestras sociedades, puede depender de ello.