AI-feitencontrole: Onbetrouwbaarheid chatbots

Tijdens een korte confrontatie tussen India en Pakistan steeg de verkeerde informatie enorm, en begonnen sociale media-gebruikers te vertrouwen op AI-chatbots voor verificatie. Deze chatbots verstrekten echter meer valse informatie, wat hun onbetrouwbaarheid als hulpmiddelen voor feitencontrole benadrukt. Nu grote techplatforms het aantal menselijke controleurs blijven verminderen, vertrouwen gebruikers steeds meer op AI-gestuurde chatbots, zoals Grok van xAI, ChatGPT van OpenAI en Gemini van Google, voor betrouwbare informatie.

De opkomst van AI-chatbot feitencontrole

Op X, het platform van Elon Musk (voorheen Twitter), is “@Grok, is dit echt?” een veelvoorkomende vraag van gebruikers geworden. Grok is een AI-assistent ingebouwd in het X-platform, wat de trend weerspiegelt dat gebruikers op sociale media op zoek zijn naar onmiddellijke weerleggingen. De antwoorden van deze AI-chatbots zitten echter vaak vol met verkeerde informatie.

Grok is onlangs onder de loep genomen omdat het de extreemrechtse complottheorie van de "witte genocide" invoegde in niet-gerelateerde zoekopdrachten. Grok identificeerde ten onrechte oude videobeelden van de luchthaven van Khartoum in Soedan als een raketaanval op de Pakistaanse luchtmachtbasis Nur Khan tijdens het conflict tussen India en Pakistan. Verder werd een brandend gebouw in Nepal ten onrechte geïdentificeerd als "mogelijk" een militair antwoord van Pakistan op een Indiase aanval.

De beperkingen van AI-feitencontrole

McKenzie Sadeghi, een onderzoeker bij de instantie voor informatiebewaking NewsGuard, vertelde Agence France-Presse: "Omdat X en andere grote technologiebedrijven hun investeringen in menselijke feitencontrole hebben verminderd, vertrouwen mensen steeds meer op Grok als feitencontroleur." Ze waarschuwde: "Ons onderzoek heeft herhaaldelijk aangetoond dat AI-chatbots geen betrouwbare bronnen van nieuws en informatie zijn, vooral niet bij breaking news."

Uit onderzoek van NewsGuard bleek dat 10 toonaangevende chatbots, waaronder Grok, gemakkelijk verkeerde informatie herhaalden, waaronder Russische desinformatie en valse of misleidende beweringen met betrekking tot de recente Australische verkiezingen. Het Tow Center for Digital Journalism van Columbia University voerde onlangs een onderzoek uit naar acht AI-zoekhulpmiddelen en ontdekte dat chatbots "over het algemeen niet goed zijn in het weigeren van vragen die ze niet nauwkeurig kunnen beantwoorden. In plaats daarvan geven ze onjuiste of speculatieve antwoorden."

Een factorchecker van Agence France-Presse in Uruguay vroeg Gemini naar een AI-gegenereerd beeld van een vrouw. Gemini bevestigde niet alleen de authenticiteit van het beeld, maar verzon ook details over de identiteit van de vrouw en waar de foto mogelijk was genomen.

Grok markeerde onlangs een video die zogenaamd een gigantische anaconda die in de Amazone zwemt, als "authentiek" en citeerde zelfs een geloofwaardig klinkende wetenschappelijke expeditie om zijn valse bewering te ondersteunen. In werkelijkheid was de video AI-gegenereerd en meldden factcheckers van Agence France-Presse in Latijns-Amerika dat veel gebruikers de beoordeling van Grok aanhaalden als bewijs dat de video echt was.

Bezorgdheid over AI-feitencontrole

Deze bevindingen wekken bezorgdheid, omdat uit onderzoek blijkt dat een toenemend aantal online gebruikers van traditionele zoekmachines overstapt op AI-chatbots om informatie te verzamelen en te verifiëren. Ondertussen kondigde Meta eerder dit jaar aan dat het zijn programma voor feitencontrole door derden in de Verenigde Staten zou beëindigen en in plaats daarvan de taak van weerlegging zou overlaten aan gewone gebruikers, met behulp van een model genaamd "Community Notes", dat wordt gepromoot door het X-platform. Onderzoekers hebben echter herhaaldelijk de effectiviteit van "Community Notes" bij het bestrijden van verkeerde informatie in twijfel getrokken.

Menselijke feitencontrole is lange tijd een twistpunt geweest in een gepolariseerd politiek klimaat, vooral in de Verenigde Staten, waar conservatieven beweren dat het de vrijheid van meningsuiting onderdrukt en rechtse inhoud censureert, een bewering die professionele feitencontroleurs krachtig betwisten.

Agence France-Presse werkt momenteel in 26 talen samen met het feitencontroleprogramma van Facebook, onder meer in Azië, Latijns-Amerika en de Europese Unie.

De kwaliteit en nauwkeurigheid van AI-chatbots kunnen variëren, afhankelijk van hoe ze zijn getraind en geprogrammeerd. Dit roept bezorgdheid op dat hun output mogelijk wordt beïnvloed of gecontroleerd door politieke invloeden.

xAI van Musk gaf onlangs "ongeoorloofde wijzigingen" de schuld van Grok’s generatie van ongevraagde berichten waarin wordt verwezen naar een "witte genocide" in Zuid-Afrika. Toen AI-expert David Caswell Grok vroeg wie zijn systeemaanwijzingen mogelijk had gewijzigd, noemde de chatbot Musk als de "meest waarschijnlijke" dader.

Musk, een in Zuid-Afrika geboren miljardair en een aanhanger van de Amerikaanse president Donald Trump, heeft eerder ongegronde beweringen verspreid dat Zuid-Afrikaanse leiders "openlijk de genocide van blanken promoten".

Angie Holan, directeur van het International Fact-Checking Network, vertelde Agence France-Presse: "We hebben gezien dat AI-assistenten resultaten kunnen verzinnen of bevooroordeelde antwoorden kunnen geven nadat menselijke codeerders specifiek hun instructies hebben gewijzigd." "Ik ben vooral bezorgd over hoe Grok verzoeken over zeer gevoelige zaken afhandelt zodra het een instructie heeft ontvangen om vooraf goedgekeurde antwoorden te geven."

De risico’s van AI-chatbots in het informatielandschap

Het toenemende gebruik van AI-chatbots bij het verstrekken van informatie roept een aantal serieuze zorgen op met betrekking tot hun potentiële misleidende en manipulatieve impact. Hoewel deze technologieën voordelen bieden op het gebied van snelle toegang tot informatie en versimpeld onderzoek, kunnen hun inherente beperkingen en vertekeningen onbedoeld of opzettelijk verkeerde informatie of propaganda verspreiden.

Inherente beperkingen van AI-chatbots

AI-chatbots leren door enorme hoeveelheden tekstuele gegevens te analyseren, maar ze missen de kritische denkvaardigheden van de mens. Dit betekent dat ze patronen uit de gegevens kunnen halen en schijnbaar plausibele reacties kunnen genereren, maar de onderliggende betekenis of context niet echt begrijpen. Dit gebrek aan kennis kan leiden tot de productie van onnauwkeurige, onvolledige of misleidende informatie.

Bovendien kunnen de trainingsgegevens van AI-chatbots vertekeningen bevatten, die worden weerspiegeld in de gegenereerde reacties. Als de trainingsgegevens bijvoorbeeld voornamelijk afkomstig zijn van een specifieke bron of een specifiek perspectief, kan de chatbot een voorkeur voor die bron of dat perspectief vertonen, waardoor bevooroordeelde informatie wordt verspreid.

Risico’s die AI-chatbots met zich meebrengen

Naarmate meer mensen op AI-chatbots vertrouwen voor informatie, neemt het risico op de verspreiding van verkeerde informatie toe. Als een chatbot onnauwkeurige of misleidende informatie produceert, kunnen gebruikers deze informatie onbewust accepteren en verspreiden, wat leidt tot de verspreiding van onjuiste opvattingen.

Bovendien kunnen AI-chatbots worden gebruikt voor kwaadaardige doeleinden, zoals het verspreiden van propaganda of het manipuleren van de publieke opinie. Door de trainingsgegevens zorgvuldig te ontwerpen of de algoritmen aan te passen, kunnen kwaadwillende actoren de chatbot manipuleren om specifieke soorten reacties te produceren, waardoor de overtuigingen en het gedrag van gebruikers worden beïnvloed.

Hoe de risico’s te beperken

Om de risico’s te beperken die aan AI-chatbots zijn verbonden, zijn er een aantal maatregelen die kunnen worden genomen. Ten eerste moeten ontwikkelaars ernaar streven om ervoor te zorgen dat de trainingsgegevens van AI-chatbots zo volledig en onbevooroordeeld mogelijk zijn. Dit kan het integreren van diverse gegevens, met stalen uit verschillende bronnen en perspectieven, aanmoedigen om de impact van vertekeningen te verminderen.
Ten tweede moeten AI-chatbots rigoureus worden getest en geëvalueerd om eventuele onnauwkeurigheden of vertekeningen te identificeren en te corrigeren. Dit kan de handmatige verificatie van de reacties van de chatbot vereisen en het gebruik van verschillende meetwaarden om de nauwkeurigheid en onpartijdigheid te beoordelen.
Ten derde moeten gebruikers kritisch blijven nadenken en de informatie die door AI-chatbots wordt verstrekt niet blindelings vertrouwen. Gebruikers moeten de gegevens van verschillende bronnen altijd vergelijken en ze moeten ook op de hoogte zijn van de vertekeningen die in de chatbot kunnen voorkomen.

Rol van technische platforms en de gemeenschap

Technische platforms en community’s spelen een belangrijke rol bij het reguleren en controleren van de inhoud die door AI-chatbots wordt gegenereerd. Platforms kunnen strategieën implementeren om verkeerde informatie of propaganda te identificeren en te verwijderen, en ze kunnen samenwerken met fact-checkingorganisaties om de nauwkeurigheid van de reacties van de chatbot te verifiëren. Bovendien kan de gemeenschap helpen het bewustzijn van gebruikers te vergroten door de discussie over de beperkingen en vertekeningen van AI-chatbots te bevorderen en gebruikers aan te moedigen om kritisch na te denken.

Conclusie

AI-chatbots zijn nuttige hulpmiddelen, maar ze hebben ook inherente beperkingen en risico’s. Om ervoor te zorgen dat deze technologieën op verantwoorde wijze worden gebruikt en om de verspreiding van verkeerde informatie en manipulatie te verminderen, moeten zowel ontwikkelaars, regelgevers als gebruikers waakzaam blijven. Door de nodige maatregelen te nemen, kunnen we de voordelen van AI-chatbots maximaliseren en tegelijkertijd de potentiële schade minimaliseren.