Grok, source de désinformation sur X ?

L’essor de l’IA dans la vérification de l’information

L’essor de l’intelligence artificielle a donné naissance à une pléthore d’outils conçus pour rationaliser l’accès à l’information. Cependant, cette avancée technologique a également introduit de nouveaux défis, en particulier dans le domaine de la désinformation. Sur la plateforme de médias sociaux d’Elon Musk, X, une tendance préoccupante a émergé : les utilisateurs se tournent de plus en plus vers le robot IA de Musk, Grok, à des fins de vérification des faits. Ce développement a suscité des inquiétudes au sein de la communauté des vérificateurs de faits humains, soulevant des craintes quant au potentiel de diffusion à grande échelle d’informations fausses ou trompeuses.

L’intégration de l’IA dans les plateformes de médias sociaux n’est pas nouvelle. La décision de X de permettre aux utilisateurs d’interagir avec Grok de xAI s’inscrit, à certains égards, dans une tendance. Cela reflète l’approche de Perplexity, qui exploite un compte automatisé sur X pour offrir une expérience similaire.

Après que xAI a établi la présence automatisée de Grok sur X, les utilisateurs ont rapidement commencé à explorer ses capacités, à poser des questions et à chercher des réponses. Dans des régions comme l’Inde, une tendance particulièrement troublante a émergé : des individus ont commencé à utiliser Grok pour vérifier des commentaires et des requêtes, dont beaucoup ciblaient des idéologies politiques spécifiques.

Les préoccupations des vérificateurs de faits humains

Cette dépendance à l’égard de Grok, et en fait de tout assistant IA de ce type, pour la vérification des faits est une source de grave préoccupation. La nature même de ces robots IA est qu’ils peuvent formuler des réponses qui semblent convaincantes, quelle que soit leur exactitude factuelle. Il ne s’agit pas d’une préoccupation théorique ; Grok a des antécédents documentés de diffusion de fausses nouvelles et de désinformation.

Un exemple notable s’est produit, où plusieurs secrétaires d’État ont imploré Musk d’apporter des modifications cruciales à Grok. Cette demande urgente a fait suite à l’apparition d’informations trompeuses, générées par l’assistant IA, sur les réseaux sociaux, suscitant l’inquiétude à l’approche des élections.

Grok n’est pas seul dans ce cas. D’autres chatbots de premier plan, notamment ChatGPT d’OpenAI et Gemini de Google, se sont également révélés produire des informations inexactes concernant les élections. Des chercheurs en désinformation ont en outre souligné le potentiel d’utilisation abusive, révélant en 2023 que les chatbots IA comme ChatGPT pouvaient être facilement exploités pour générer des textes persuasifs contenant des récits trompeurs.

L’illusion de l’authenticité

Angie Holan, directrice de l’International Fact-Checking Network (IFCN) à Poynter, a exprimé le problème central en disant : « Les assistants IA, comme Grok, sont vraiment doués pour utiliser le langage naturel et donner une réponse qui ressemble à celle d’un être humain. Et de cette façon, les produits IA ont cette prétention à des réponses naturelles et authentiques, même lorsqu’elles sont potentiellement très fausses. C’est là que réside le danger. »

Le danger, comme le souligne Holan, réside dans l’apparence trompeuse de l’authenticité. La capacité de l’IA à imiter le langage humain crée une illusion de crédibilité, même lorsque les informations sous-jacentes sont erronées ou entièrement fabriquées.

La différence fondamentale : IA contre vérificateurs de faits humains

Le contraste entre les assistants IA et les vérificateurs de faits humains est frappant. Les vérificateurs de faits humains vérifient méticuleusement les informations, en s’appuyant sur des sources multiples et crédibles. Ils opèrent avec transparence, en attachant leurs noms et leurs affiliations organisationnelles à leurs conclusions, garantissant ainsi la responsabilité et renforçant la crédibilité.

Pratik Sinha, co-fondateur du site web indien de vérification des faits à but non lucratif Alt News, a souligné que si les réponses de Grok peuvent actuellement sembler persuasives, leur exactitude est fondamentalement limitée par les données qu’il reçoit. « Qui va décider des données qui lui sont fournies, et c’est là que l’ingérence du gouvernement, etc., entrera en jeu », a-t-il noté, soulignant la question cruciale de la transparence de la source des données.

Le manque de transparence, a souligné Sinha, est un terrain fertile pour les dommages potentiels. « Tout ce qui manque de transparence causera des dommages, car tout ce qui manque de transparence peut être modelé de n’importe quelle manière. »

L’aveu de Grok : le potentiel d’utilisation abusive

Dans une tournure quelque peu ironique, le compte de Grok sur X, dans l’une de ses réponses publiées, a concédé qu’il « pourrait être utilisé à mauvais escient – pour diffuser de la désinformation et violer la vie privée ».

Malgré cette reconnaissance, le compte automatisé ne fournit aucune clause de non-responsabilité aux utilisateurs qui reçoivent ses réponses. Cette omission rend les utilisateurs vulnérables à la désinformation, en particulier dans les cas où l’IA a « halluciné » la réponse, un phénomène bien documenté dans le domaine de l’IA où le système génère des informations fausses ou absurdes.

Anushka Jain, associée de recherche au Digital Futures Lab, a développé ce point en déclarant : « Il peut inventer des informations pour fournir une réponse. » Cette tendance à fabriquer des informations souligne les limites inhérentes à l’IA dans le contexte de la vérification des faits.

Le dilemme des données d’entraînement

Une autre couche de complexité découle de la question des données d’entraînement de Grok. Il existe une incertitude quant à la mesure dans laquelle Grok utilise les publications sur X comme matériel d’entraînement, et les mesures de contrôle de la qualité, le cas échéant, employées pour vérifier ces publications. Un changement mis en œuvre précédemment semblait accorder à Grok un accès par défaut aux données des utilisateurs de X, soulevant des inquiétudes quant au potentiel de l’IA à absorber et à propager la désinformation présente sur la plateforme.

Consommation publique contre privée d’informations générées par l’IA

Une autre préoccupation importante concerne la nature publique des assistants IA comme Grok sur les plateformes de médias sociaux. Contrairement aux interactions avec des chatbots comme ChatGPT, qui se produisent généralement dans un cadre privé, les réponses de Grok sont diffusées publiquement.

Cette diffusion publique crée une situation où, même si un utilisateur est conscient que les informations fournies par l’IA peuvent être inexactes, d’autres utilisateurs de la plateforme peuvent toujours les accepter comme vraies. Cela peut avoir de graves conséquences sociétales.

Des précédents historiques existent. L’Inde, par exemple, a été témoin d’incidents tragiques de lynchages collectifs alimentés par la désinformation diffusée via WhatsApp. Ces événements, bien qu’antérieurs à la disponibilité généralisée de l’IA générative, rappellent de manière frappante les dangers réels de la désinformation non contrôlée. L’avènement de GenAI, avec sa capacité à générer du contenu synthétique qui semble remarquablement réaliste, n’a fait qu’amplifier ces risques.

Le taux d’erreur de l’IA

Holan de l’IFCN a averti que, « Si vous voyez beaucoup de ces réponses de Grok, vous allez dire, hé bien, la plupart d’entre elles sont correctes, et c’est peut-être le cas, mais il y en aura qui seront fausses. Et combien ? Ce n’est pas une petite fraction. Certaines études de recherche ont montré que les modèles d’IA sont sujets à des taux d’erreur de 20%… et quand ça va mal, ça peut aller très mal avec des conséquences réelles. »

Le taux d’erreur de 20%, comme le souligne Holan, est un chiffre substantiel. Il souligne le manque de fiabilité inhérent à l’IA dans les situations exigeant une exactitude factuelle. Et, comme elle le souligne, les conséquences de ces erreurs peuvent être profondes, s’étendant bien au-delà du domaine numérique.

L’IA : un outil, pas un remplacement du jugement humain

Alors que les entreprises d’IA, y compris xAI, affinent continuellement leurs modèles pour parvenir à une communication plus humaine, la réalité fondamentale demeure : l’IA ne peut pas, et ne doit pas, remplacer le jugement humain, en particulier dans le domaine crucial de la vérification des faits.

La tendance des entreprises technologiques à explorer des pistes pour réduire la dépendance à l’égard des vérificateurs de faits humains est une source de préoccupation. Des plateformes comme X et Meta ont adopté le concept de vérification des faits par la foule, illustré par des initiatives comme « Community Notes ». Ces changements, tout en offrant potentiellement certains avantages, soulèvent également des questions quant à l’érosion potentielle des normes rigoureuses de vérification des faits.

Un retour de balancier vers la vérification humaine des faits ?

Sinha d’Alt News a exprimé un point de vue optimiste, suggérant que les gens finiront par apprendre à distinguer les résultats des machines du travail des vérificateurs de faits humains, valorisant finalement l’exactitude et la fiabilité de ces derniers.

« Nous allons voir le pendule revenir finalement vers plus de vérification des faits », a prédit Holan de l’IFCN.

Cependant, elle a averti que dans l’intervalle, les vérificateurs de faits sont susceptibles de faire face à une charge de travail accrue en raison de la propagation rapide des informations générées par l’IA. Le défi consistera à contrer efficacement la vague de désinformation, en veillant à ce que le public reste informé par la vérité, et non par des illusions convaincantes.

La question centrale : se soucier de la vérité

Au cœur du problème se trouve une question fondamentale : « Vous souciez-vous vraiment de ce qui est réellement vrai ou non ? Cherchez-vous simplement le vernis de quelque chose qui sonne et semble vrai sans l’être réellement ? Parce que c’est ce que l’assistance IA vous apportera », a déclaré Holan.

Cette question résume le dilemme crucial posé par l’essor de l’IA dans la diffusion de l’information. Sommes-nous, en tant que société, disposés à privilégier la commodité et l’apparence de la vérité par rapport au processus laborieux de vérification des faits ? La réponse à cette question façonnera finalement l’avenir de l’information, déterminant si nous succombons à un monde de réalités fabriquées ou si nous défendons les principes de vérité et d’exactitude.