Les chatbots IA: Sources de désinformation?
La qualité et la précision des chatbots d’intelligence artificielle varient considérablement, en fonction de leur formation et de leur programmation. Cela suscite des inquiétudes, car ces outils pourraient être soumis à une influence ou à un contrôle politique. Surtout avec la réduction des vérificateurs de faits humains sur les plateformes technologiques, les utilisateurs se tournent de plus en plus vers les chatbots d’IA pour trouver des informations fiables. Cependant, ces chatbots se sont avérés eux-mêmes susceptibles de générer de fausses informations.
La dépendance à la vérification des faits par l’IA et ses lacunes pendant les conflits
Lors d’un conflit de quatre jours entre l’Inde et le Pakistan, des utilisateurs des médias sociaux se sont tournés vers les chatbots d’IA pour la vérification. Cependant, ils ont rencontré davantage de fausses informations, ce qui a mis en évidence le manque de fiabilité de ces chatbots en tant qu’outils de vérification des faits. Alors que les plateformes technologiques réduisent progressivement le nombre de vérificateurs de faits humains, les utilisateurs s’appuient de plus en plus sur les chatbots alimentés par l’IA, notamment Grok de xAI, ChatGPT d’OpenAI et Gemini de Google, pour trouver des informations fiables. Mais il a été constaté que les réponses fournies par ces chatbots d’IA sont souvent remplies de fausses informations.
Une question courante est apparue sur X (anciennement Twitter), la plateforme d’Elon Musk : « @Grok, est-ce vrai ? ». Grok a intégré un assistant d’IA sur la plateforme, ce qui reflète une tendance croissante à rechercher une réfutation instantanée sur les médias sociaux. Cependant, les réponses fournies par les chatbots d’IA sont souvent remplies de fausses informations.
Exemples de chatbots IA propageant des informations inexactes
Grok fait actuellement l’objet d’un nouvel examen, car il a été signalé qu’il insérait la théorie du complot d’extrême droite sur le « génocide blanc » dans des requêtes non liées. Il a identifié à tort des images anciennes de l’aéroport de Khartoum au Soudan comme une attaque de missile contre la base aérienne de Nur Khan au Pakistan, lors du conflit indo-pakistanais. En outre, une vidéo sans rapport d’un incendie dans un bâtiment au Népal a été identifiée à tort comme montrant « potentiellement » une réponse pakistanaise à des attaques indiennes.
Grok a également récemment étiqueté une vidéo prétendant montrer un anaconda géant dans l’Amazone comme « réelle », citant même des expéditions scientifiques à consonance crédible pour étayer ses affirmations fallacieuses. En réalité, la vidéo était générée par l’IA. Les vérificateurs des faits de l’AFP en Amérique latine ont noté que de nombreux utilisateurs ont cité l’évaluation de Grok comme preuve de l’authenticité du clip.
Réduction des investissements dans les vérificateurs de faits
Alors que X et d’autres grandes entreprises technologiques réduisent les investissements dans les vérificateurs de faits humains, il y a une dépendance croissante à Grok comme vérificateur de faits. « Nos recherches ont prouvé à plusieurs reprises que les chatbots d’IA ne sont pas une source fiable d’informations et de nouvelles, en particulier en ce qui concerne les nouvelles de dernière heure », a averti Mackenzie Saddij, chercheuse chez NewsGuard, une organisation de surveillance de l’actualité.
La recherche de NewsGuard a révélé que 10 des principaux chatbots sont susceptibles de répéter de fausses informations, notamment des récits de désinformation russes et des allégations fausses ou trompeuses liées aux récentes élections australiennes. Une étude récente du Tow Center for Digital Journalism de l’Université Columbia sur huit outils de recherche d’IA a révélé que les chatbots « ne sont généralement pas doués pour refuser de répondre aux questions auxquelles ils ne peuvent pas répondre avec précision, mais offrent plutôt des réponses incorrectes ou spéculatives ».
Les difficultés de l’IA pour confirmer les fausses images et fabriquer des détails
Lorsqu’un vérificateur de faits de l’AFP en Uruguay a interrogé Gemini sur une image d’une femme générée par l’IA, il a non seulement confirmé l’authenticité de l’image, mais a également inventé des détails sur son identité et l’endroit où l’image avait pu être prise.
De telles découvertes ont suscité des inquiétudes, car des études ont montré que les utilisateurs en ligne se tournent de plus en plus vers les chatbots d’IA au lieu des moteurs de recherche traditionnels pour obtenir des informations et effectuer des vérifications.
Le changement d’approche de Meta en matière de vérification des faits
Plus tôt cette année, Meta a annoncé qu’elle mettrait fin à son programme de vérification des faits par des tiers aux États-Unis, transférant la tâche de réfuter les fausses informations à des utilisateurs ordinaires, selon un modèle connu sous le nom de « Notes de la communauté », popularisé par X. Cependant, des chercheurs ont à plusieurs reprises remis en question l’efficacité des « Notes de la communauté » pour lutter contre la désinformation.
Les défis et les controverses de la vérification des faits humaine
La vérification des faits humaine est depuis longtemps un point d’inflammation dans un climat politique polarisé, en particulier aux États-Unis, où les défenseurs conservateurs l’ont accusée de supprimer la liberté d’expression et de censurer le contenu de droite – une affirmation que les vérificateurs de faits professionnels réfutent avec véhémence. L’AFP travaille actuellement avec le programme de vérification des faits de Facebook en 26 langues, notamment en Asie, en Amérique latine et dans l’Union européenne.
L’influence politique et les chatbots IA
La qualité et la précision des chatbots d’IA varient considérablement, en fonction de leur formation et de leur programmation, ce qui soulève des inquiétudes quant au fait que leurs résultats pourraient être soumis à une influence ou à un contrôle politique. Plus récemment, xAI de Musk a imputé des « modifications non autorisées » à la génération par Grok de publications non sollicitées mentionnant le « génocide blanc » en Afrique du Sud. Et lorsque l’expert en IA David Kasmier a demandé à Grok qui avait pu modifier ses invites système, le chatbot a désigné Musk comme le cerveau « le plus probable ».
Musk est un milliardaire né en Afrique du Sud et un fervent partisan du président Donald Trump. Il avait déjà colporté des affirmations infondées selon lesquelles les dirigeants sud-africains « poussaient ouvertement au génocide contre les Blancs ».
Inquiétudes concernant la façon dont les chatbots IA traitent les questions sensibles
Angie Holan, directrice du Réseau international de fact-checking, a déclaré : « Nous avons vu des assistants d’IA fabriquer des résultats ou donner des réponses biaisées après que des codeurs humains ont spécifiquement modifié les instructions. Je suis particulièrement préoccupée par la façon dont Grok traite les demandes impliquant des questions très sensibles après avoir reçu des instructions pour fournir des réponses préapprouvées. »
L’importance de garantir l’exactitude de l’IA
La popularité croissante des chatbots d’IA pose des défis importants pour la diffusion de l’information. Bien qu’ils offrent un moyen rapide et pratique d’accéder aux informations, ils sont également susceptibles de faire des erreurs et de propager de fausses informations. Alors que les utilisateurs s’appuient de plus en plus sur ces outils pour la vérification des faits, il devient essentiel de garantir leur exactitude et leur fiabilité.
Les entreprises technologiques, les organisations de vérification des faits et les chercheurs doivent travailler ensemble pour améliorer la qualité et la fiabilité des chatbots d’IA. Cela comprend la mise en œuvre de protocoles de formation rigoureux, l’utilisation de vérificateurs de faits humains pour valider les informations générées par l’IA et l’élaboration de mécanismes pour détecter et éradiquer les fausses informations.
Perspectives d’avenir
À mesure que la technologie de l’IA continue d’évoluer, les chatbots d’IA joueront sans aucun doute un rôle de plus en plus important dans la façon dont nous accédons et consommons l’information. Cependant, il est important d’aborder ces outils de manière critique et d’être conscient de leurs limites. En prenant des mesures pour garantir l’exactitude et la fiabilité des chatbots d’IA, nous pouvons exploiter leur potentiel tout en atténuant les risques associés à la diffusion de fausses informations.
Les biais dans les outils d’IA
Des biais peuvent exister dans les outils d’IA, soit dans les données sur lesquelles ils sont formés, soit dans la façon dont ils sont programmés. Ces biais peuvent conduire à des résultats inexacts ou trompeurs. L’exemple de Grok insérant la théorie du complot d’extrême droite sur le « génocide blanc » dans des requêtes non liées illustre comment les systèmes d’IA peuvent propager des idéologies nuisibles.
Les biais dans les outils d’IA peuvent être causés par divers facteurs, notamment :
Biais dans les données de formation : les systèmes d’IA apprennent à partir d’ensembles de données de formation. Si ces ensembles de données contiennent des biais, le système d’IA apprendra également ces biais. Par exemple, si un système d’IA est formé sur des articles écrits principalement par des hommes, il peut développer un biais contre les femmes.
Biais dans les algorithmes : les algorithmes utilisés pour construire les systèmes d’IA peuvent également contenir des biais. Par exemple, si un algorithme est conçu pour donner la priorité aux réponses de certains groupes, il peut discriminer d’autres groupes.
Biais en raison d’une intervention humaine : même si un système d’IA est formé sur des données non biaisées, une intervention humaine peut introduire des biais. Par exemple, si des codeurs humains reçoivent des instructions pour fournir des réponses préapprouvées à des questions spécifiques, cela peut créer un biais.
Il est important de se préoccuper des biais dans les outils d’IA pour plusieurs raisons :
Équité : si un système d’IA contient des biais, il peut être injuste envers certains groupes. Par exemple, si un système d’IA est utilisé pour l’embauche, il peut être biaisé contre les groupes sous-représentés.
Exactitude : si un système d’IA contient des biais, il peut ne pas être en mesure de fournir des informations précises. Par exemple, si un système d’IA est utilisé pour fournir des conseils médicaux, il peut fournir des conseils erronés ou trompeurs.
Confiance : si les gens ne croient pas qu’un système d’IA est équitable et précis, ils sont moins susceptibles de l’utiliser.
La lutte contre les biais dans les outils d’IA nécessite une approche multidimensionnelle qui comprend :
Collecte de données non biaisées : il est important de s’assurer que les ensembles de données utilisés pour former les systèmes d’IA sont non biaisés. Cela peut nécessiter un effort important, car il peut être difficile de trouver et de supprimer les biais dans les données.
Développement d’algorithmes non biaisés : les algorithmes utilisés pour construire les systèmes d’IA doivent être non biaisés. Cela peut nécessiter l’utilisation de nouvelles techniques d’apprentissage automatique pour construire des algorithmes qui sont moins susceptibles de contenir des biais.
Intervention humaine : l’intervention humaine peut être utilisée pour corriger les biais dans les systèmes d’IA. Par exemple, des codeurs humains peuvent examiner les réponses générées par un système d’IA et corriger tout biais qu’ils trouvent.
Transparence : il est important de rendre les utilisateurs des systèmes d’IA conscients des biais qui peuvent exister dans le système. Cela peut se faire en fournissant des informations sur les données sur lesquelles le système d’IA a été formé et sur les algorithmes utilisés pour construire le système.
La lutte contre les biais dans les outils d’IA est un défi permanent, mais elle est essentielle pour garantir que ces outils sont équitables, précis et fiables.
Les limites de la vérification des faits par l’IA
Bien que les outils de vérification des faits par l’IA aient fait des progrès dans l’identification des fausses informations, ils ont encore des limites en termes de capacités et d’efficacité. Ces limites découlent de plusieurs facteurs :
Compréhension du contexte : Les systèmes d’IA ont du mal à comprendre le contexte complexe et les nuances qui sont essentiels à une vérification des faits précise. Par exemple, un système d’IA peut ne pas être capable de faire la distinction entre le sarcasme ou l’humour et une déclaration de fait réelle.
Détection des fausses informations subtiles : Les systèmes d’IA peuvent avoir du mal à détecter les fausses informations subtiles, telles que les informations sorties de leur contexte ou le signalement sélectif des faits.
Manque d’expertise dans le domaine : Les systèmes d’IA manquent souvent de l’expertise dans le domaine requise pour vérifier les faits sur certains sujets. Par exemple, un système d’IA peut ne pas avoir suffisamment de connaissances médicales pour vérifier avec précision les allégations liées à la santé.
Manipulation contradictoire : Les diffuseurs de fausses informations développent constamment de nouvelles méthodes pour manipuler et contourner les systèmes de vérification des faits. Les systèmes d’IA doivent être constamment mis à jour et améliorés pour suivre ces nouvelles tactiques.
Barrières linguistiques : Les outils de vérification des faits par l’IA peuvent ne pas être en mesure de traiter efficacement les fausses informations dans différentes langues. La traduction et la compréhension des nuances des différentes langues sont difficiles et nécessitent des connaissances linguistiques spécialisées.
Risque de faux positifs : Les systèmes de vérification des faits par l’IA peuvent faire des erreurs, entraînant le marquage d’informations précises comme de fausses informations. Ces faux positifs peuvent avoir des conséquences graves, telles que la censure de contenu légitime ou la détérioration de la réputation de personnes ou d’organisations.
Pour atténuer les limites de la vérification des faits par l’IA, il est essentiel de combiner l’expertise humaine avec les outils d’IA. Les vérificateurs de faits humains peuvent fournir un contexte, une expertise dans le domaine et une pensée critique qui sont difficiles à reproduire pour les systèmes automatisés. De plus, la transparence et l’amélioration continue sont essentielles pour garantir l’efficacité et la fiabilité des systèmes de vérification des faits par l’IA.
Stratégies pour atténuer les risques et améliorer la vérification des faits par l’IA
L’atténuation des risques et l’amélioration de la précision et de la fiabilité de la vérification des faits par l’IA nécessitent une approche multidimensionnelle qui implique des améliorations techniques, une supervision humaine et des considérations éthiques. Voici quelques stratégies clés :
Améliorer les données de formation : Améliorer les données de formation utilisées pour former les modèles d’IA en intégrant des sources d’informations factuelles diversifiées, complètes et crédibles. S’assurer que les données ne sont pas biaisées, à jour et couvrent un large éventail de sujets et de perspectives.
Intégrer des experts humains : Combler les lacunes des systèmes d’IA en intégrant des vérificateurs de faits humains au processus de vérification des faits par l’IA. Les experts humains peuvent fournir un contexte, une pensée critique et une expertise dans le domaine qui sont difficiles à reproduire pour les systèmes automatisés.
Développer des approches hybrides : Développer des approches hybrides qui combinent la technologie de l’IA avec la supervision humaine. L’IA peut être utilisée pour identifier les fausses informations potentielles, tandis que les vérificateurs de faits humains peuvent examiner et valider les résultats.
Mettre en œuvre des processus transparents : Établir des processus et des méthodologies de vérification des faits transparents afin que les utilisateurs comprennent comment les conclusions sont atteintes et évaluer l’exactitude. Fournir des informations sur les sources de données, les algorithmes et l’implication humaine.
Promouvoir la littératie médiatique : Promouvoir la littératie médiatique par le biais de programmes d’éducation et de campagnes de sensibilisation afin d’aider les individus à évaluer de manière critique l’information. identifier les fausses informations et prendre des décisions éclairées.
Encourager la collaboration intersectorielle : Encourager la collaboration entre les entreprises technologiques, les organisations de vérification des faits, les chercheurs et les décideurs afin de partager les connaissances, les meilleures pratiques et les ressources.
Les efforts conjoints peuvent répondre aux défis et aux opportunités de la vérification des faits par l’IA.
S’attaquer aux barrières linguistiques : Développer des outils de vérification des faits par l’IA qui peuvent traiter efficacement les fausses informations dans différentes langues. Investir dans la traduction automatique et former des modèles spécialisés pour chaque langue.
Évaluer et améliorer en permanence : Évaluer en permanence la performance des systèmes de vérification des faits par l’IA, identifier les points à améliorer et optimiser les algorithmes. Effectuer régulièrement des audits et des tests