Grok como verificador: ¿riesgo?

El auge de la IA en la verificación de información

El auge de la inteligencia artificial ha traído consigo una plétora de herramientas diseñadas para agilizar el acceso a la información. Sin embargo, este avance tecnológico también ha introducido nuevos desafíos, particularmente en el ámbito de la desinformación. En la plataforma de redes sociales de Elon Musk, X, ha surgido una tendencia preocupante: los usuarios recurren cada vez más al bot de IA de Musk, Grok, para fines de verificación de datos. Este desarrollo ha provocado una oleada de alarma en la comunidad de verificación de datos humana, lo que aumenta los temores sobre el potencial de difusión generalizada de información falsa o engañosa.

La integración de la IA en las plataformas de redes sociales no es nueva. El movimiento de X para permitir a los usuarios interactuar con Grok de xAI es, en cierto modo, simplemente seguir una tendencia. Esto refleja el enfoque de Perplexity, que opera una cuenta automatizada en X para ofrecer una experiencia similar.

Después de que xAI estableciera la presencia automatizada de Grok en X, los usuarios comenzaron rápidamente a explorar sus capacidades, formulando preguntas y buscando respuestas. En regiones como India, surgió un patrón particularmente preocupante: las personas comenzaron a emplear Grok para verificar comentarios y consultas, muchos de los cuales apuntaban a ideologías políticas específicas.

Las preocupaciones de los verificadores de datos humanos

Esta dependencia de Grok, y de hecho de cualquier asistente de IA de su tipo, para la verificación de datos es motivo de gran preocupación. La naturaleza misma de estos bots de IA es que pueden formular respuestas que suenan convincentes, independientemente de su precisión fáctica. Esta no es una preocupación teórica; Grok tiene un historial documentado de difusión de noticias falsas y desinformación.

Un caso notable ocurrió cuando varios secretarios de estado imploraron a Musk que promulgara modificaciones cruciales en Grok. Esta solicitud urgente siguió a la aparición de información engañosa, generada por el asistente de IA, en las redes sociales, lo que generó alarmas en el período previo a las elecciones.

Grok no está solo en esto. También se descubrió que otros chatbots destacados, incluidos ChatGPT de OpenAI y Gemini de Google, producían información inexacta relacionada con las elecciones. Los investigadores de desinformación subrayaron aún más el potencial de uso indebido, revelando en 2023 que los chatbots de IA como ChatGPT podrían explotarse fácilmente para generar textos persuasivos que contengan narrativas engañosas.

La ilusión de autenticidad

Angie Holan, directora de la International Fact-Checking Network (IFCN) en Poynter, articuló el problema central y dijo: “Los asistentes de IA, como Grok, son realmente buenos para usar el lenguaje natural y dar una respuesta que suena como si la hubiera dicho un ser humano. Y de esa manera, los productos de IA tienen esta pretensión de naturalidad y respuestas que suenan auténticas, incluso cuando son potencialmente muy incorrectas. Ese sería el peligro aquí”.

El peligro, como destaca Holan, radica en la apariencia engañosa de autenticidad. La capacidad de la IA para imitar el lenguaje humano crea una ilusión de credibilidad, incluso cuando la información subyacente es defectuosa o completamente fabricada.

La diferencia fundamental: IA vs. verificadores de datos humanos

El contraste entre los asistentes de IA y los verificadores de datos humanos es marcado. Los verificadores de datos humanos verifican meticulosamente la información, recurriendo a múltiples fuentes creíbles. Operan con transparencia, adjuntando sus nombres y afiliaciones organizacionales a sus hallazgos, asegurando así la rendición de cuentas y reforzando la credibilidad.

Pratik Sinha, cofundador del sitio web de verificación de datos sin fines de lucro de India, Alt News, señaló que si bien las respuestas de Grok pueden parecer persuasivas actualmente, su precisión está fundamentalmente limitada por los datos que recibe. “Quién va a decidir con qué datos se le suministra, y ahí es donde entrará en juego la interferencia del gobierno, etc.”, señaló, destacando el tema crítico de la transparencia de la fuente de datos.

La falta de transparencia, enfatizó Sinha, es un caldo de cultivo para posibles daños. “Cualquier cosa que carezca de transparencia causará daño porque cualquier cosa que carezca de transparencia puede moldearse de cualquier manera”.

La propia admisión de Grok: el potencial de uso indebido

En un giro algo irónico, la cuenta de Grok en X, en una de sus respuestas publicadas, admitió que “podría usarse indebidamente, para difundir desinformación y violar la privacidad”.

A pesar de este reconocimiento, la cuenta automatizada no proporciona ninguna advertencia a los usuarios que reciben sus respuestas. Esta omisión deja a los usuarios vulnerables a ser mal informados, particularmente en los casos en que la IA ha “alucinado” la respuesta, un fenómeno bien documentado en el ámbito de la IA donde el sistema genera información falsa o sin sentido.

Anushka Jain, investigadora asociada en el Digital Futures Lab, explicó este punto y afirmó: “Puede inventar información para proporcionar una respuesta”. Esta tendencia a fabricar información subraya las limitaciones inherentes de la IA en el contexto de la verificación de datos.

El dilema de los datos de entrenamiento

Una capa adicional de complejidad surge de la cuestión de los datos de entrenamiento de Grok. Existe incertidumbre en torno a la medida en que Grok utiliza las publicaciones en X como material de entrenamiento, y las medidas de control de calidad, si las hay, empleadas para verificar dichas publicaciones. Un cambio implementado anteriormente parecía otorgar a Grok acceso predeterminado a los datos de usuario de X, lo que generaba preocupaciones sobre el potencial de que la IA absorbiera y propagara la desinformación presente en la plataforma.

Consumo público vs. privado de información generada por IA

Otra preocupación importante gira en torno a la naturaleza pública de los asistentes de IA como Grok en las plataformas de redes sociales. A diferencia de las interacciones con chatbots como ChatGPT, que normalmente ocurren en un entorno privado, las respuestas de Grok se entregan públicamente.

Esta difusión pública crea una situación en la que, incluso si un usuario es consciente de que la información proporcionada por la IA podría ser inexacta, otros usuarios en la plataforma aún podrían aceptarla como verdad. Esto puede tener graves consecuencias sociales.

Existen precedentes históricos. India, por ejemplo, fue testigo de trágicos incidentes de linchamientos masivos alimentados por la desinformación que circulaba a través de WhatsApp. Estos eventos, si bien son anteriores a la disponibilidad generalizada de la IA generativa, sirven como un claro recordatorio de los peligros del mundo real de la desinformación no controlada. La llegada de GenAI, con su capacidad para generar contenido sintético que parece notablemente realista, solo ha amplificado estos riesgos.

La tasa de error de la IA

Holan de IFCN advirtió que, “Si ves muchas de estas respuestas de Grok, vas a decir, oye, bueno, la mayoría de ellas son correctas, y puede ser así, pero habrá algunas que estén equivocadas. ¿Y cuántas? No es una fracción pequeña. Algunos de los estudios de investigación han demostrado que los modelos de IA están sujetos a tasas de error del 20%… y cuando sale mal, puede salir muy mal con consecuencias en el mundo real”.

La tasa de error del 20%, como destaca Holan, es una cifra sustancial. Subraya la falta de fiabilidad inherente de la IA en situaciones que exigen precisión fáctica. Y, como enfatiza, las consecuencias de estos errores pueden ser profundas, extendiéndose mucho más allá del ámbito digital.

IA: una herramienta, no un reemplazo del juicio humano

Si bien las empresas de IA, incluida xAI, refinan continuamente sus modelos para lograr una comunicación más humana, la realidad fundamental sigue siendo: la IA no puede, y no debe, reemplazar el juicio humano, particularmente en el dominio crítico de la verificación de datos.

La tendencia entre las empresas de tecnología a explorar vías para reducir la dependencia de los verificadores de datos humanos es motivo de preocupación. Plataformas como X y Meta han adoptado el concepto de verificación de datos de crowdsourcing, ejemplificado por iniciativas como ‘Community Notes’. Estos cambios, si bien potencialmente ofrecen ciertas ventajas, también plantean preguntas sobre la posible erosión de los estándares rigurosos de verificación de datos.

¿Un péndulo que vuelve a la verificación de datos humana?

Sinha de Alt News expresó una visión optimista, sugiriendo que la gente eventualmente aprenderá a distinguir entre los resultados de las máquinas y el trabajo de los verificadores de datos humanos, valorando en última instancia la precisión y confiabilidad de estos últimos.

“Vamos a ver que el péndulo eventualmente volverá a la verificación de datos”, predijo Holan de IFCN.

Sin embargo, advirtió que, mientras tanto, es probable que los verificadores de datos enfrenten una mayor carga de trabajo debido a la rápida propagación de la información generada por IA. El desafío será contrarrestar la marea de desinformación de manera efectiva, asegurando que el público permanezca informado por la verdad, no por ilusiones convincentes.

La pregunta central: preocuparse por la verdad

En el fondo del asunto se encuentra una pregunta fundamental: “¿Realmente te importa lo que es realmente cierto o no? ¿Estás buscando solo la apariencia de algo que suena y se siente verdadero sin ser realmente verdadero? Porque eso es lo que te dará la asistencia de IA”, afirmó Holan.

Esta pregunta resume el dilema crítico que plantea el auge de la IA en la difusión de información. ¿Estamos, como sociedad, dispuestos a priorizar la conveniencia y la apariencia de verdad sobre el laborioso proceso de verificar los hechos? La respuesta a esta pregunta finalmente dará forma al futuro de la información, determinando si sucumbimos a un mundo de realidades fabricadas o defendemos los principios de verdad y precisión.