Recente onderzoeken hebben een fascinerend maar ook zorgwekkend aspect van kunstmatige intelligentie (AI) aan het licht gebracht: de vatbaarheid voor irrationele neigingen, die lijken op die welke worden waargenomen bij menselijke besluitvorming. Deze onthulling daagt de conventionele perceptie van AI als een objectief en onbevooroordeeld instrument uit, en spoort aan tot een herevaluatie van het praktische nut ervan in diverse toepassingen.
Een baanbrekend onderzoek heeft het gedrag van ChatGPT, een prominent AI-systeem, nauwgezet onderzocht op een spectrum van cognitieve biases die veel voorkomen in de menselijke psychologie. De bevindingen, gepubliceerd in het gerenommeerde tijdschrift Manufacturing & Service Operations Management, onthulden dat ChatGPT in bijna de helft van de beoordeelde scenario’s talrijke irrationele besluitvormingspatronen vertoonde. Deze patronen omvatten goed gedocumenteerde biases zoals de hot hand fallacy, base-rate neglect en de sunk cost fallacy, wat aanzienlijke zorgen oproept over de betrouwbaarheid en geschiktheid van AI in cruciale besluitvormingscontexten.
Onthulling van menselijke gebreken in AI
Het onderzoek, uitgevoerd door een consortium van experts van vijf vooraanstaande academische instellingen in Canada en Australië, evalueerde op rigoureuze wijze de prestaties van OpenAI’s GPT-3.5 en GPT-4, de fundamentele large language models (LLM’s) die ChatGPT aandrijven. De uitgebreide analyse van het onderzoek toonde aan dat, ondanks de “indrukwekkende consistentie” die deze LLM’s in hun redeneerprocessen vertonen, ze verre van immuun zijn voor menselijke imperfecties en biases.
De auteurs benadrukten scherpzinnig dat deze inherente consistentie binnen AI-systemen zowel voor- als nadelen met zich meebrengt. Hoewel consistentie taken met duidelijke, formulematige oplossingen kan stroomlijnen, brengt het potentiële risico’s met zich mee wanneer het wordt toegepast op subjectieve of voorkeursgestuurde beslissingen. In dergelijke scenario’s zou de replicatie van menselijke biases door AI kunnen leiden tot gebrekkige resultaten en vertekende uitkomsten.
Yang Chen, de hoofdauteur van de studie en assistent-professor operations management aan de vooraanstaande Ivey Business School, onderstreepte het belang van het onderscheiden van de juiste toepassingen van AI-tools. Hij waarschuwde dat, hoewel AI uitblinkt in taken die nauwkeurige berekeningen en logisch redeneren vereisen, de toepassing ervan in subjectieve besluitvormingsprocessen zorgvuldige overweging en waakzame monitoring vereist.
Simulatie van menselijke biases in AI
Om dieper in te gaan op de aanwezigheid van menselijke biases binnen AI-systemen, bedachten de onderzoekers een reeks experimenten die algemeen bekende menselijke biases weerspiegelden, waaronder risicoaversie, overmoed en het endowment effect. Ze presenteerden ChatGPT prompts die waren ontworpen om deze biases te triggeren en analyseerden nauwgezet de reacties van de AI om te bepalen of deze zou bezwijken aan dezelfde cognitieve valkuilen als mensen.
De wetenschappers stelden hypothetische vragen, aangepast van traditionele psychologie-experimenten, aan de LLM’s. Deze vragen werden geformuleerd in de context van real-world commerciële toepassingen, die gebieden omvatten zoals voorraadbeheer en leveranciersonderhandelingen. Het doel was om vast te stellen of AI menselijke biases zou emuleren en of de vatbaarheid voor deze biases zou aanhouden in verschillende zakelijke domeinen.
De resultaten onthulden dat GPT-4 zijn voorganger, GPT-3.5, overtrof in het oplossen van problemen met expliciete wiskundige oplossingen. GPT-4 vertoonde minder fouten in scenario’s die waarschijnlijkheidsberekeningen en logisch redeneren vereisten. Echter, in subjectieve simulaties, zoals beslissen of een risicovolle optie moet worden nagestreefd om een winst veilig te stellen, weerspiegelde de chatbot vaak de irrationele voorkeuren die door mensen werden getoond.
AI’s voorkeur voor zekerheid
Opmerkelijk is dat de studie onthulde dat “GPT-4 een sterkere voorkeur voor zekerheid vertoont dan zelfs mensen”. Deze observatie onderstreept de neiging van AI om veiligere en meer voorspelbare uitkomsten te verkiezen wanneer het wordt geconfronteerd met dubbelzinnige taken. De neiging tot zekerheid kan in bepaalde situaties voordelig zijn, maar het kan ook het vermogen van AI beperken om innovatieve oplossingen te verkennen of zich aan te passen aan onvoorziene omstandigheden.
Aanzienlijk is dat het gedrag van de chatbots opmerkelijk consistent bleef, ongeacht of de vragen werden gepresenteerd als abstracte psychologische problemen of operationele bedrijfsprocessen. Deze consistentie suggereert dat de waargenomen biases niet slechts een resultaat waren van gememoriseerde voorbeelden, maar eerder een intrinsiek aspect van de manier waarop AI-systemen redeneren en informatie verwerken. De studie concludeerde dat de biases die door AI worden vertoond, zijn ingebed in de redeneermechanismen.
Een van de meest verrassende onthullingen van de studie was de manier waarop GPT-4 af en toe menselijke fouten versterkte. In confirmation bias taken leverde GPT-4 consistent biased responses. Bovendien vertoonde het een meer uitgesproken neiging tot de hot-hand fallacy dan GPT 3.5, wat duidt op een sterkere neiging om patronen in willekeur te zien.
Gevallen van bias vermijding
Intrigerend genoeg demonstreerde ChatGPT het vermogen om bepaalde veelvoorkomende menselijke biases te omzeilen, waaronder base-rate neglect en de sunk-cost fallacy. Base-rate neglect treedt op wanneer individuen statistische feiten negeren ten gunste van anekdotische of case-specifieke informatie. De sunk-cost fallacy ontstaat wanneer besluitvorming onnodig wordt beïnvloed door kosten die al zijn gemaakt, waardoor rationeel oordeel wordt vertroebeld.
De auteurs stellen dat de menselijke biases van ChatGPT voortkomen uit de trainingsgegevens waaraan het wordt blootgesteld, die de cognitieve biases en heuristics omvatten die mensen vertonen. Deze neigingen worden verder versterkt tijdens het finetuningproces, met name wanneer menselijke feedback plausibele responses prioriteert boven rationele. In het licht van dubbelzinnige taken neigt AI naar menselijke redeneerpatronen in plaats van uitsluitend te vertrouwen op directe logica.
Navigeren door AI’s biases
Om de risico’s te beperken die verbonden zijn aan AI’s biases, pleiten de onderzoekers voor een weloverwogen benadering van de toepassing ervan. Ze raden aan AI te gebruiken in gebieden waar zijn sterke punten liggen, zoals taken die nauwkeurigheid en onbevooroordeelde berekeningen vereisen, vergelijkbaar met die welke door een rekenmachine worden uitgevoerd. Echter, wanneer de uitkomst afhangt van subjectieve of strategische inputs, wordt menselijk toezicht van het grootste belang.
Chen benadrukt dat “Als je nauwkeurige, onbevooroordeelde beslissingsondersteuning wilt, gebruik dan GPT in gebieden waar je al een rekenmachine zou vertrouwen.” Hij suggereert verder dat menselijke tussenkomst, zoals het aanpassen van gebruikersprompts om bekende biases te corrigeren, essentieel is wanneer AI wordt gebruikt in contexten die genuanceerd oordeel en strategisch denken vereisen.
Meena Andiappan, een co-auteur van de studie en universitair hoofddocent human resources en management aan McMaster University in Canada, pleit voor het behandelen van AI als een werknemer die belangrijke beslissingen neemt. Ze benadrukt de behoefte aan toezicht en ethische richtlijnen om ervoor te zorgen dat AI op verantwoorde en effectieve wijze wordt gebruikt. Het nalaten van dergelijke begeleiding zou kunnen leiden tot de automatisering van gebrekkig denken, in plaats van de gewenste verbetering van besluitvormingsprocessen.
Implicaties en overwegingen
De bevindingen van de studie hebben diepgaande implicaties voor de ontwikkeling en implementatie van AI-systemen in diverse sectoren. De onthulling dat AI vatbaar is voor menselijke biases onderstreept het belang van het zorgvuldig evalueren van de geschiktheid ervan voor specifieke taken en het implementeren van waarborgen om potentiële risico’s te beperken.
Organisaties die op AI vertrouwen voor besluitvorming, moeten zich bewust zijn van het potentieel voor bias en stappen ondernemen om dit aan te pakken. Dit kan inhouden dat er aanvullende trainingsgegevens worden verstrekt om bias te verminderen, dat er algoritmen worden gebruikt die minder vatbaar zijn voor bias, of dat er menselijk toezicht wordt geïmplementeerd om ervoor te zorgen dat AI-beslissingen eerlijk en nauwkeurig zijn.
De studie benadrukt ook de noodzaak van verder onderzoek naar de oorzaken en gevolgen van AI-bias. Door een beter begrip te krijgen van hoe AI-systemen biases ontwikkelen, kunnen we strategieën ontwikkelen om te voorkomen dat ze überhaupt ontstaan.
Aanbevelingen voor verantwoorde AI-implementatie
Om de verantwoorde en effectieve implementatie van AI-systemen te waarborgen, moeten de volgende aanbevelingen worden overwogen:
- Evalueer AI-systemen grondig op potentiële biases vóór de implementatie. Dit omvat het testen van het AI-systeem op een verscheidenheid aan datasets en scenario’s om alle gebieden te identificeren waar het vatbaar kan zijn voor bias.
- Verstrek aanvullende trainingsgegevens om bias te verminderen. Hoe diverser en representatiever de trainingsgegevens zijn, hoe kleiner de kans dat het AI-systeem biases ontwikkelt.
- Gebruik algoritmen die minder vatbaar zijn voor bias. Sommige algoritmen zijn gevoeliger voor bias dan andere. Bij het selecteren van een algoritme voor een bepaalde taak is het belangrijk om rekening te houden met het potentieel voor bias.
- Implementeer menselijk toezicht om ervoor te zorgen dat AI-beslissingen eerlijk en nauwkeurig zijn. Menselijk toezicht kan helpen om eventuele biases in AI-beslissingen te identificeren en te corrigeren.
- Stel duidelijke ethische richtlijnen op voor het gebruik van AI. Deze richtlijnen moeten kwesties aanpakken zoals eerlijkheid, verantwoordingsplicht en transparantie.
Door deze aanbevelingen op te volgen, kunnen organisaties ervoor zorgen dat AI-systemen worden gebruikt op een manier die zowel gunstig als verantwoord is. De inzichten die uit dit onderzoek zijn verkregen, dienen als een waardevolle herinnering dat, hoewel AI immense beloften in zich draagt, het cruciaal is om de implementatie ervan met de nodige voorzichtigheid en een toewijding aan ethische principes te benaderen. Alleen dan kunnen we het volledige potentieel van AI benutten en tegelijkertijd waken tegen de mogelijke valkuilen ervan.