Des investigations récentes ont mis en lumière un aspect fascinant mais préoccupant de l’intelligence artificielle (AI) : sa susceptibilité aux tendances irrationnelles semblables à celles observées dans la prise de décision humaine. Cette révélation remet en question la perception conventionnelle de l’AI comme un outil objectif et impartial, incitant à une réévaluation de son utilité pratique dans diverses applications.
Une étude révolutionnaire a minutieusement examiné le comportement de ChatGPT, un système d’AI de premier plan, à travers un éventail de biais cognitifs prévalant dans la psychologie humaine. Les résultats, publiés dans la revue Manufacturing & Service Operations Management, ont révélé que ChatGPT présentait de nombreux schémas de prise de décision irrationnels dans près de la moitié des scénarios évalués. Ces schémas englobent des biais bien documentés tels que l’illusion de la main chaude (hot hand fallacy), la négligence du taux de base (base-rate neglect) et le sophisme des coûts irrécupérables (sunk cost fallacy), soulevant d’importantes préoccupations quant à la fiabilité et à la pertinence de l’AI dans les contextes de prise de décision critiques.
Révélation des défauts humains dans l’AI
La recherche, menée par un consortium d’experts de cinq institutions universitaires distinguées réparties entre le Canada et l’Australie, a rigoureusement évalué les performances de GPT-3.5 et GPT-4 d’OpenAI, les grands modèles de langage (LLM) fondamentaux qui alimentent ChatGPT. L’analyse exhaustive de l’étude a révélé que malgré la « cohérence impressionnante » dont font preuve ces LLM dans leurs processus de raisonnement, ils sont loin d’être à l’abri des imperfections et des biais de type humain.
Les auteurs ont souligné avec perspicacité que cette cohérence inhérente aux systèmes d’AI présente à la fois des avantages et des inconvénients. Bien que la cohérence puisse rationaliser les tâches avec des solutions claires et formulaires, elle pose des risques potentiels lorsqu’elle est appliquée à des décisions subjectives ou axées sur les préférences. Dans de tels scénarios, la réplication des biais humains par l’AI pourrait conduire à des résultats imparfaits et à des résultats biaisés.
Yang Chen, l’auteur principal de l’étude et professeur adjoint de gestion des opérations à la prestigieuse Ivey Business School, a souligné l’importance de discerner les applications appropriées des outils d’AI. Il a averti que si l’AI excelle dans les tâches nécessitant des calculs précis et un raisonnement logique, son application dans les processus de prise de décision subjectifs nécessite un examen attentif et une surveillance vigilante.
Simulation des biais humains dans l’AI
Pour approfondir la présence de biais humains au sein des systèmes d’AI, les chercheurs ont conçu une série d’expériences qui reproduisaient des biais humains communément connus, notamment l’aversion au risque, la confiance excessive et l’effet de dotation. Ils ont présenté à ChatGPT des invites conçues pour déclencher ces biais et ont analysé méticuleusement les réponses de l’AI pour déterminer si elle succomberait aux mêmes pièges cognitifs que les humains.
Les scientifiques ont posé des questions hypothétiques, adaptées à partir d’expériences de psychologie traditionnelles, aux LLM. Ces questions ont été formulées dans le contexte d’applications commerciales réelles, couvrant des domaines tels que la gestion des stocks et les négociations avec les fournisseurs. L’objectif était de vérifier si l’AI émulerait les biais humains et si sa susceptibilité à ces biais persisterait dans différents domaines d’activité.
Les résultats ont révélé que GPT-4 surpassait son prédécesseur, GPT-3.5, dans la résolution de problèmes avec des solutions mathématiques explicites. GPT-4 a présenté moins d’erreurs dans les scénarios qui exigeaient des calculs de probabilité et un raisonnement logique. Cependant, dans les simulations subjectives, comme décider de poursuivre ou non une option risquée pour assurer un gain, le chatbot a fréquemment reflété les préférences irrationnelles affichées par les humains.
La préférence de l’AI pour la certitude
Notamment, l’étude a révélé que « GPT-4 montre une préférence plus forte pour la certitude que même les humains. » Cette observation souligne la tendance de l’AI à privilégier les résultats plus sûrs et plus prévisibles lorsqu’elle est confrontée à des tâches ambiguës. L’inclination vers la certitude peut être avantageuse dans certaines situations, mais elle peut également limiter la capacité de l’AI à explorer des solutions innovantes ou à s’adapter à des circonstances imprévues.
De manière significative, les comportements des chatbots sont restés remarquablement cohérents, que les questions aient été présentées comme des problèmes psychologiques abstraits ou des processus opérationnels commerciaux. Cette cohérence suggère que les biais observés ne sont pas simplement le résultat d’exemples mémorisés, mais plutôt un aspect intrinsèque de la façon dont les systèmes d’AI raisonnent et traitent l’information. L’étude a conclu que les biais présentés par l’AI sont intégrés à ses mécanismes de raisonnement.
L’une des révélations les plus surprenantes de l’étude a été la manière dont GPT-4 amplifiait occasionnellement les erreurs de type humain. Dans les tâches de biais de confirmation, GPT-4 a systématiquement fourni des réponses biaisées. De plus, il a présenté une inclination plus prononcée vers l’illusion de la main chaude (hot-hand fallacy) que GPT 3.5, indiquant une tendance plus forte à percevoir des schémas dans le hasard.
Instances d’évitement des biais
Intriguant, ChatGPT a démontré sa capacité à contourner certains biais humains courants, notamment la négligence du taux de base (base-rate neglect) et le sophisme des coûts irrécupérables (sunk-cost fallacy). La négligence du taux de base se produit lorsque les individus ne tiennent pas compte des faits statistiques au profit d’informations anecdotiques ou spécifiques à un cas. Le sophisme des coûts irrécupérables survient lorsque la prise de décision est indûment influencée par des coûts déjà engagés, obscurcissant ainsi le jugement rationnel.
Les auteurs postulent que les biais de type humain de ChatGPT proviennent des données d’entraînement auxquelles il est exposé, qui englobent les biais cognitifs et les heuristiques que les humains présentent. Ces tendances sont encore renforcées au cours du processus de réglage fin, en particulier lorsque les commentaires humains donnent la priorité aux réponses plausibles par rapport aux réponses rationnelles. Face à des tâches ambiguës, l’AI a tendance à graviter vers des schémas de raisonnement humains plutôt que de s’appuyer uniquement sur la logique directe.
Naviguer dans les biais de l’AI
Pour atténuer les risques associés aux biais de l’AI, les chercheurs préconisent une approche judicieuse de son application. Ils recommandent que l’AI soit utilisée dans les domaines où résident ses forces, tels que les tâches qui exigent de la précision et des calculs non biaisés, semblables à ceux effectués par une calculatrice. Cependant, lorsque le résultat dépend d’entrées subjectives ou stratégiques, la supervision humaine devient primordiale.
Chen souligne que « Si vous voulez un soutien à la décision précis et non biaisé, utilisez GPT dans les domaines où vous feriez déjà confiance à une calculatrice. » Il suggère en outre qu’une intervention humaine, telle que l’ajustement des invites utilisateur pour corriger les biais connus, est essentielle lorsque l’AI est utilisée dans des contextes qui nécessitent un jugement nuancé et une réflexion stratégique.
Meena Andiappan, co-auteure de l’étude et professeure agrégée de ressources humaines et de gestion à l’Université McMaster au Canada, préconise de traiter l’AI comme un employé qui prend des décisions importantes. Elle souligne la nécessité d’une surveillance et de lignes directrices éthiques pour garantir que l’AI est utilisée de manière responsable et efficace. Le défaut de fournir de telles orientations pourrait conduire à l’automatisation d’une pensée imparfaite, plutôt qu’à l’amélioration souhaitée des processus de prise de décision.
Implications et considérations
Les conclusions de l’étude ont de profondes implications pour le développement et le déploiement des systèmes d’AI dans divers secteurs. La révélation que l’AI est susceptible de présenter des biais de type humain souligne l’importance d’évaluer soigneusement sa pertinence pour des tâches spécifiques et de mettre en œuvre des garanties pour atténuer les risques potentiels.
Les organisations qui s’appuient sur l’AI pour la prise de décision doivent être conscientes du potentiel de biais et prendre des mesures pour y remédier. Cela peut impliquer de fournir des données d’entraînement supplémentaires pour réduire les biais, d’utiliser des algorithmes moins sujets aux biais ou de mettre en œuvre une surveillance humaine pour garantir que les décisions de l’AI sont équitables et précises.
L’étude souligne également la nécessité de poursuivre les recherches sur les causes et les conséquences des biais de l’AI. En acquérant une meilleure compréhension de la façon dont les systèmes d’AI développent des biais, nous pouvons élaborer des stratégies pour les empêcher de se produire en premier lieu.
Recommandations pour une mise en œuvre responsable de l’AI
Pour garantir une mise en œuvre responsable et efficace des systèmes d’AI, les recommandations suivantes doivent être prises en considération :
- Évaluer minutieusement les systèmes d’AI pour déceler les biais potentiels avant leur déploiement. Cela comprend le test du système d’AI sur une variété d’ensembles de données et de scénarios afin d’identifier les domaines où il peut être sujet aux biais.
- Fournir des données d’entraînement supplémentaires pour réduire les biais. Plus les données d’entraînement sont diversifiées et représentatives, moins le système d’AI est susceptible de développer des biais.
- Utiliser des algorithmes moins sujets aux biais. Certains algorithmes sont plus susceptibles aux biais que d’autres. Lors de la sélection d’un algorithme pour une tâche particulière, il est important de tenir compte de son potentiel de biais.
- Mettre en œuvre une surveillance humaine pour garantir que les décisions de l’AI sont équitables et précises. La surveillance humaine peut aider à identifier et à corriger tout biais dans les décisions de l’AI.
- Établir des lignes directrices éthiques claires pour l’utilisation de l’AI. Ces lignes directrices doivent aborder des questions telles que l’équité, la responsabilisation et la transparence.
En suivant ces recommandations, les organisations peuvent s’assurer que les systèmes d’AI sont utilisés d’une manière à la fois bénéfique et responsable. Les connaissances tirées de cette recherche servent de rappel précieux que, bien que l’AI soit extrêmement prometteuse, il est essentiel d’aborder sa mise en œuvre avec prudence et un engagement envers les principes éthiques. Ce n’est qu’alors que nous pourrons exploiter pleinement le potentiel de l’AI tout en nous protégeant contre ses pièges potentiels.