Désinformation : Fiabilité des chatbots IA

Durant un bref conflit entre l’Inde et le Pakistan, une vague de désinformation a déferlé, et les utilisateurs des réseaux sociaux ont commencé à se fier aux chatbots d’IA pour vérifier les faits. Cependant, ces chatbots se sont avérés être une source prolifique de fausses informations, soulignant leur manque de fiabilité en tant qu’outils de vérification. Alors que les grandes plateformes technologiques continuent de réduire le nombre de leurs vérificateurs de faits humains, les utilisateurs se tournent de plus en plus vers les chatbots basés sur l’IA, tels que Grok de xAI, ChatGPT d’OpenAI et Gemini de Google, pour obtenir des informations fiables.

L’essor de la vérification des faits par les chatbots d’IA

Sur la plateforme X d’Elon Musk (anciennement Twitter), la question « @Grok, est-ce vrai ? » est devenue un refrain courant chez les utilisateurs, reflétant la tendance à rechercher une réfutation instantanée sur les réseaux sociaux par l’intermédiaire Grok qui est l’assistant IA intégré de la plateforme X. Cependant, les réponses de ces chatbots d’IA sont souvent truffées de contre-vérités.

Grok a récemment fait l’objet d’une attention particulière pour avoir inséré la théorie du complot d’extrême droite du « génocide blanc » dans des requêtes sans rapport. Grok a également identifié à tort des images d’archives de l’aéroport de Khartoum au Soudan comme étant une attaque de missiles contre la base aérienne de Nur Khan au Pakistan pendant le conflit indo-pakistanais. De plus, un bâtiment en feu au Népal a été faussement identifié comme montrant « possiblement » une réponse militaire pakistanaise à une attaque indienne.

Les limites de la vérification des faits par l’IA

McKenzie Sadeghi, chercheuse à NewsGuard, une organisation de surveillance de l’information, a déclaré à l’Agence France-Presse : « Puisqu’X et d’autres grandes entreprises technologiques ont réduit leurs investissements dans les vérificateurs de faits humains, les gens se fient de plus en plus à Grok comme vérificateur de faits. » Elle a averti : « Nos recherches ont montré à maintes reprises que les chatbots d’IA ne sont pas des sources d’informations fiables, en particulier en ce qui concerne les informations de dernière minute. »

Les recherches de NewsGuard ont révélé que 10 des principaux chatbots, dont Grok, répètent facilement des fausses informations, notamment les récits de désinformation russes et les allégations fausses ou trompeuses liées aux récentes élections australiennes. Le Tow Center for Digital Journalism de l’université de Columbia a récemment mené une étude sur huit outils de recherche d’IA et a constaté que les chatbots « ont souvent du mal à refuser de répondre aux questions auxquelles ils ne peuvent pas répondre avec précision et donnent plutôt des réponses incorrectes ou spéculatives ».

À l’Agence France-Presse en Uruguay, les vérificateurs des faits ont interrogé Gemini sur une image générée par l’IA d’une femme. Gemini a non seulement confirmé l’authenticité de l’image, mais a également inventé des détails sur l’identité de la femme et l’endroit où l’image avait été éventuellement prise.

Grok a récemment étiqueté une vidéo censée montrer un anaconda géant nageant dans le fleuve Amazone comme « étant réelle », citant même une expédition scientifique au son plausible pour étayer son affirmation fallacieuse. En réalité, la vidéo était générée par l’IA, et les vérificateurs de l’Agence France-Presse en Amérique latine ont rapporté que de nombreux utilisateurs citaient l’évaluation de Grok comme preuve de l’authenticité de la vidéo.

Inquiétudes concernant la vérification des faits par l’IA

Ces découvertes suscitent des inquiétudes, car des enquêtes indiquent qu’un nombre croissant d’utilisateurs en ligne se détournent des moteurs de recherche traditionnels pour se tourner vers les chatbots d’IA pour obtenir et vérifier des informations. Parallèlement, Meta a annoncé plus tôt cette année qu’elle mettrait fin à son programme de vérification des faits par des tiers aux États-Unis, transférant la tâche de réfutation aux utilisateurs ordinaires grâce à un modèle appelé « notes de la communauté », qui a été popularisé par la plateforme X. Cependant, des chercheurs ont maintes fois remis en question l’efficacité des « notes de la communauté » pour lutter contre la désinformation.

La vérification des faits humaine est depuis longtemps un point de friction dans un climat politique polarisé, en particulier aux États-Unis, où les conservateurs affirment qu’elle étouffe la liberté d’expression et censure le contenu de droite, une affirmation que les vérificateurs de faits professionnels contestent avec véhémence.

L’Agence France-Presse collabore actuellement au programme de vérification des faits de Facebook en 26 langues, notamment en Asie, en Amérique latine et dans l’Union européenne.

La qualité et l’exactitude des chatbots d’IA peuvent varier considérablement en fonction de la manière dont ils sont formés et programmés, ce qui soulève des inquiétudes quant au fait que leur production pourrait être influencée ou contrôlée politiquement.

xAI, la société de Musk, a récemment imputé à une « modification non autorisée » l’apparition de publications non sollicitées générées par Grok faisant référence à un « génocide blanc » en Afrique du Sud. Lorsque David Caswell, un expert en IA, a demandé à Grok qui avait pu modifier ses instructions système, le chatbot a désigné Musk comme le coupable « le plus probable ».

Musk est un milliardaire né en Afrique du Sud et un partisan de l’ancien président américain Donald Trump. Il avait auparavant relayé des allégations sans fondement selon lesquelles les dirigeants sud-africains « préconisent ouvertement le génocide des Blancs ».

Angie Holan, directrice du réseau international de vérification des faits, a déclaré à l’Agence France-Presse : « Nous avons vu des assistants d’IA inventer des résultats ou donner des réponses biaisées après que des codeurs humains ont spécifiquement modifié leurs instructions. » « Je suis particulièrement préoccupée par la façon dont Grok gère les demandes concernant des sujets très sensibles après avoir reçu des instructions pour fournir des réponses préautorisées. »

Risques des chatbots d’IA dans le domaine de l’information

L’application croissante des chatbots d’IA pour la fourniture d’informations soulève de importantes préoccupations concernant leur impact potentiellement trompeur et manipulateur. Bien que ces technologies offrent des avantages en termes d’accès rapide à l’information et de simplification de la recherche, leurs limites et biais inhérents peuvent conduire à la diffusion involontaire ou intentionnelle de fausses informations ou de propagande.

Les limites inhérentes des chatbots d’IA

Les chatbots d’IA apprennent en analysant de grandes quantités de données textuelles, mais ils manquent de la capacité de pensée critique des humains. Cela signifie qu’ils peuvent extraire des modèles des données et générer des réponses qui semblent raisonnables, mais sans vraiment comprendre la signification ou le contexte sous-jacent. Ce manque de connaissance peut conduire à la production d’informations inexactes, incomplètes ou trompeuses.

De plus, les données d’entraînement des chatbots d’IA peuvent contenir des biais qui se reflètent dans les réponses générées. Par exemple, si les données d’entraînement proviennent principalement d’une source ou d’un point de vue particulier, le chatbot peut présenter une préférence pour cette source ou ce point de vue, ce qui conduit à la propagation d’informations biaisées.

Les risques posés par les chatbots d’IA

À mesure que de plus en plus de personnes se fient aux chatbots d’IA pour obtenir des informations, le risque de propagation de fausses informations augmente. Si un chatbot produit des informations inexactes ou trompeuses, les utilisateurs peuvent les accepter et les diffuser sans le savoir, ce qui conduit à la propagation de fausses croyances.

De plus, les chatbots d’IA peuvent être utilisés à des fins malveillantes, telles que la diffusion de propagande ou la manipulation de l’opinion publique. En concevant soigneusement les données d’entraînement ou en ajustant les algorithmes, les acteurs malveillants peuvent manipuler les chatbots pour qu’ils produisent des types de réponses spécifiques, influençant ainsi les croyances et les comportements des utilisateurs.

Comment atténuer les risques

Pour atténuer les risques associés aux chatbots d’IA, plusieurs mesures doivent être prises. Tout d’abord, les développeurs doivent s’efforcer de s’assurer que les données d’entraînement des chatbots d’IA sont aussi complètes et impartiales que possible. Cela peut nécessiter l’inclusion d’une variété d’échantillons de données provenant de sources et de points de vue différents afin de réduire l’impact des biais.

Deuxièmement, les chatbots d’IA doivent être soumis à des tests et évaluations rigoureux afin d’identifier et de corriger toute tendance à l’inexactitude ou au biais. Cela peut nécessiter une validation humaine des réponses générées par le chatbot, ainsi que l’utilisation de diverses mesures pour évaluer son exactitude et son impartialité.

Troisièmement, les utilisateurs doivent faire preuve d’un esprit critique et ne pas croire aveuglément les informations fournies par les chatbots d’IA. Les utilisateurs doivent toujours croiser les informations provenant de différentes sources et être conscients des biais potentiels du chatbot.

Le rôle des plateformes technologiques et de la communauté

Les plateformes technologiques et la communauté jouent un rôle important dans la réglementation et la surveillance du contenu généré par les chatbots d’IA. Les plateformes peuvent mettre en œuvre des politiques pour identifier et supprimer les fausses informations ou la propagande, et elles peuvent collaborer avec des organisations de vérification des faits pour vérifier l’exactitude des réponses générées par les chatbots. De plus, la communauté peut contribuer à sensibiliser les utilisateurs aux limites et aux biais des chatbots d’IA en favorisant les discussions à ce sujet et en encourageant les utilisateurs à faire preuve d’esprit critique.

Conclusion

Les chatbots d’IA sont des outils utiles, mais ils présentent également des limites et des risques inhérents. Pour garantir que ces technologies sont utilisées de manière responsable et pour réduire la propagation de fausses informations et de manipulation, il est essentiel que les développeurs, les régulateurs et les utilisateurs fassent preuve de vigilance. En prenant les mesures nécessaires, nous pouvons maximiser les avantages des chatbots d’IA tout en minimisant leurs dommages potentiels.