La IA miente y empeora

La ilusión de precisión

La promesa fundamental de los motores de búsqueda era conectar a los usuarios con fuentes creíbles. Ahora, esa promesa se está erosionando. Las herramientas de búsqueda impulsadas por IA priorizan cada vez más la velocidad sobre la sustancia, generando respuestas que parecen seguras pero que carecen del respaldo esencial de evidencia verificable. Lo que estamos presenciando es un cambio de un sistema que guía a los usuarios hacia información confiable, a uno que fabrica respuestas, a menudo con poca consideración por su veracidad.

Esto no es simplemente una cuestión de errores ocasionales. Es un problema sistémico. El estudio de Columbia Journalism Review (CJR) revela que los motores de búsqueda de IA no solo están cometiendo errores; están construyendo activamente una realidad divorciada de fuentes verificables. Están extrayendo contenido de toda la web, pero en lugar de dirigir a los usuarios a las fuentes originales (los sitios web que producen y publican información minuciosamente), están proporcionando respuestas instantáneas, a menudo fabricadas.

El drenaje de tráfico y las citas fantasma

Las consecuencias de este enfoque son de gran alcance. El impacto inmediato es una reducción significativa en el tráfico a las fuentes originales de información. Los sitios web, las organizaciones de noticias y los investigadores que invierten tiempo y recursos en la creación de contenido se encuentran con que son ignorados. Los usuarios obtienen sus respuestas directamente de la IA, sin necesidad de visitar los sitios que originaron la información.

Un estudio separado corrobora esta alarmante tendencia, encontrando que las tasas de clics de los resultados de búsqueda generados por IA y los chatbots son sustancialmente más bajas que las de los motores de búsqueda tradicionales como Google. Esto significa que el sustento del contenido en línea, la capacidad de llegar a una audiencia, se está estrangulando lentamente.

Pero el problema es aún más profundo. Estas herramientas de IA no solo no acreditan las fuentes; a menudo están creando citas fantasma. Están generando enlaces a páginas web inexistentes o a URL que están rotas o son irrelevantes. Esto es similar a un estudiante que escribe un trabajo de investigación e inventa fuentes para respaldar sus afirmaciones. No es solo descuidado; es una violación fundamental de la honestidad intelectual.

Una inmersión profunda en el engaño

El estudio de CJR analizó meticulosamente el rendimiento de varios modelos líderes de búsqueda de IA. Los hallazgos son profundamente inquietantes. Más de la mitad de las citas generadas por Gemini de Google y Grok 3 de xAI, dos actores destacados en el panorama de la búsqueda de IA, conducían a páginas web fabricadas o inaccesibles. Esto no es un error menor; es una falla sistémica.

Y el problema se extiende más allá de las citas. Se descubrió que los chatbots, en general, proporcionaban información incorrecta en un asombroso más del 60% de los casos. Entre los modelos evaluados, Grok 3 se destacó como el peor infractor, con un impactante 94% de sus respuestas que contenían imprecisiones. Gemini, aunque tuvo un rendimiento ligeramente mejor, solo logró proporcionar una respuesta completamente correcta una vez cada diez intentos. Incluso Perplexity, que surgió como el más preciso de los modelos probados, devolvió respuestas incorrectas el 37% de las veces.

Estos números no son solo estadísticas; representan una ruptura fundamental en la confiabilidad de la información. Sugieren que las mismas herramientas diseñadas para ayudarnos a navegar por las complejidades del mundo digital, de hecho, nos están desviando del camino.

Ignorando las reglas: el protocolo de exclusión de robots

Los autores del estudio descubrieron otro aspecto preocupante de este engaño impulsado por la IA. Varios de los modelos de IA parecían estar ignorando deliberadamente el Robot Exclusion Protocol. Este protocolo es un mecanismo estándar y ampliamente adoptado que permite a los sitios web controlar qué partes de su sitio pueden ser accedidas y rastreadas por bots automatizados. Es una forma para que los sitios web protejan su contenido y administren cómo se usa.

El hecho de que los motores de búsqueda de IA estén ignorando este protocolo plantea serias cuestiones éticas. Sugiere un desprecio por los derechos de los creadores de contenido y una disposición a explotar la información en línea sin permiso. Este comportamiento socava los cimientos mismos de la web, que se basa en un delicado equilibrio entre el acceso a la información y la protección de la propiedad intelectual.

Ecos de advertencias pasadas

Los hallazgos del estudio de CJR no son aislados. Resuenan con un estudio anterior publicado en noviembre de 2024, que se centró en las capacidades de búsqueda de ChatGPT. Esa investigación anterior reveló un patrón consistente de respuestas seguras pero incorrectas, citas engañosas y recuperación de información poco confiable. En otras palabras, los problemas identificados por el CJR no son nuevos; son persistentes y sistémicos.

La erosión de la confianza y la agencia

Los expertos en el campo han estado dando la alarma sobre los peligros de la IA generativa durante algún tiempo. Críticos como Chirag Shah y Emily M. Bender han expresado su preocupación de que los motores de búsqueda de IA estén erosionando la agencia del usuario, amplificando los sesgos en el acceso a la información y presentando con frecuencia respuestas engañosas o incluso tóxicas que los usuarios pueden aceptar sin cuestionar.

El problema central es que estos modelos de IA están diseñados para sonar autorizados, incluso cuando están equivocados. Están entrenados en vastos conjuntos de datos de texto y código, y son capaces de generar respuestas que imitan el lenguaje humano con una fluidez notable. Pero esta fluidez puede ser engañosa. Puede enmascarar el hecho de que la información subyacente es defectuosa, fabricada o simplemente incorrecta.

La mecánica de la desinformación

El estudio de CJR involucró un análisis detallado de 1,600 consultas, diseñadas para comparar cómo diferentes modelos de búsqueda de IA generativa recuperaban información. Los investigadores se centraron en elementos clave como titulares, editores, fechas de publicación y URL. Probaron una variedad de modelos, incluyendo ChatGPT Search, Microsoft CoPilot, DeepSeek Search, Perplexity (y su versión Pro), Grok-2 y Grok-3 Search de xAI, y Google Gemini.

La metodología de prueba fue rigurosa. Los investigadores utilizaron extractos directos de diez artículos seleccionados al azar, procedentes de 20 editores diferentes. Este enfoque aseguró que las consultas se basaran en contenido del mundo real y que los modelos se evaluaran en función de su capacidad para recuperar y representar con precisión ese contenido.

Los resultados, como se detalló anteriormente, pintan un panorama sombrío del estado de la búsqueda impulsada por IA. Las herramientas que se están convirtiendo cada vez más en nuestras principales puertas de acceso a la información son demostrablemente poco confiables, propensas a la fabricación y, a menudo, irrespetuosas con las mismas fuentes de las que dependen.

Las implicaciones para el futuro de la información

Las implicaciones de esta desinformación generalizada son profundas. Si no podemos confiar en las herramientas que usamos para encontrar información, ¿cómo podemos tomar decisiones informadas? ¿Cómo podemos participar en un debate significativo? ¿Cómo podemos responsabilizar al poder?

El auge de la búsqueda impulsada por IA, con sus fallas y sesgos inherentes, representa una amenaza significativa para el tejido mismo de nuestro ecosistema de información. Socava la credibilidad de las organizaciones de noticias, los investigadores y otros creadores de contenido. Erosiona la confianza pública en las instituciones. Y empodera a aquellos que buscan difundir desinformación y manipular la opinión pública.

El desafío que tenemos ante nosotros no es simplemente mejorar la precisión de los motores de búsqueda de IA. Es repensar fundamentalmente la forma en que abordamos la búsqueda de información en la era digital. Necesitamos priorizar la transparencia, la responsabilidad y el respeto por las fuentes de información. Necesitamos desarrollar herramientas y estrategias que empoderen a los usuarios para evaluar críticamente la información que encuentran en línea. Y necesitamos fomentar una cultura de escepticismo y pensamiento crítico, donde no seamos simplemente receptores pasivos de información, sino participantes activos en la búsqueda de la verdad. El futuro del discurso informado, y quizás incluso la propia democracia, depende de ello.


La crisis de la desinformación en la búsqueda impulsada por IA no es solo un problema técnico; es un problema social. Exige una respuesta multifacética, que involucre no solo a ingenieros y desarrolladores, sino también a periodistas, educadores, legisladores y al público en general. Debemos trabajar colectivamente para construir un ecosistema de información más confiable, transparente y digno de confianza, que sirva a las necesidades de los ciudadanos informados, no a los proveedores de falsedades.


La trayectoria actual es insostenible. Si la búsqueda de IA continúa priorizando la velocidad y la conveniencia sobre la precisión y la verdad, corremos el riesgo de crear un mundo donde la desinformación reine suprema, y donde la noción misma de realidad objetiva se vuelva cada vez más elusiva. Las apuestas son simplemente demasiado altas para permitir que esto suceda.