De Opkomst van AI in Informatieverificatie
De integratie van AI in sociale-mediaplatforms is niet nieuw. De stap van X om gebruikers te laten interageren met xAI’s Grok volgt in zekere zin een trend. Dit weerspiegelt de aanpak van Perplexity, dat een geautomatiseerd account op X beheert om een vergelijkbare ervaring te bieden.
Nadat xAI Grok’s geautomatiseerde aanwezigheid op X had gevestigd, begonnen gebruikers snel de mogelijkheden ervan te verkennen, vragen te stellen en antwoorden te zoeken. In regio’s als India ontstond een bijzonder verontrustend patroon: individuen begonnen Grok te gebruiken om commentaren en vragen te verifiëren, waarvan vele gericht waren op specifieke politieke ideologieën.
De Zorgen van Menselijke Feitencontroleurs
Deze afhankelijkheid van Grok, en eigenlijk elke AI-assistent van dit type, voor feitencontrole is een reden tot ernstige bezorgdheid. De aard van deze AI-bots is dat ze antwoorden kunnen formuleren die overtuigend klinken, ongeacht hun feitelijke juistheid. Dit is geen theoretische zorg; Grok heeft een gedocumenteerde geschiedenis van het verspreiden van nepnieuws en desinformatie.
Een opmerkelijk voorbeeld deed zich voor, waarbij verschillende staatssecretarissen Musk smeekten om cruciale wijzigingen aan Grok aan te brengen. Dit dringende verzoek volgde op het opduiken van misleidende informatie, gegenereerd door de AI-assistent, op sociale netwerken, wat alarmbellen deed rinkelen in de aanloop naar verkiezingen.
Grok staat hierin niet alleen. Andere prominente chatbots, waaronder OpenAI’s ChatGPT en Google’s Gemini, bleken ook onjuiste informatie te produceren met betrekking tot verkiezingen. Onderzoekers op het gebied van desinformatie onderstreepten verder het potentieel voor misbruik en onthulden in 2023 dat AI-chatbots zoals ChatGPT gemakkelijk konden worden misbruikt om overtuigende teksten te genereren die misleidende verhalen bevatten.
De Illusie van Authenticiteit
Angie Holan, directeur van het International Fact-Checking Network (IFCN) bij Poynter, verwoordde het kernprobleem als volgt: “AI-assistenten, zoals Grok, zijn erg goed in het gebruik van natuurlijke taal en geven een antwoord dat klinkt alsof een mens het heeft gezegd. En op die manier hebben de AI-producten deze claim op natuurlijkheid en authentiek klinkende antwoorden, zelfs als ze potentieel erg onjuist zijn. Dat zou hier het gevaar zijn.”
Het gevaar, zoals Holan benadrukt, ligt in de bedrieglijke schijn van authenticiteit. Het vermogen van AI om menselijke taal na te bootsen, creëert een illusie van geloofwaardigheid, zelfs wanneer de onderliggende informatie gebrekkig of volledig verzonnen is.
Het Fundamentele Verschil: AI vs. Menselijke Feitencontroleurs
Het contrast tussen AI-assistenten en menselijke feitencontroleurs is groot. Menselijke feitencontroleurs verifiëren informatie nauwgezet en putten uit meerdere, geloofwaardige bronnen. Ze werken met transparantie, verbinden hun namen en organisatorische affiliaties aan hun bevindingen, waardoor verantwoording wordt gewaarborgd en de geloofwaardigheid wordt versterkt.
Pratik Sinha, mede-oprichter van India’s non-profit feitencontrolewebsite Alt News, wees erop dat hoewel de antwoorden van Grok momenteel overtuigend kunnen lijken, de nauwkeurigheid ervan fundamenteel wordt beperkt door de gegevens die het ontvangt. “Wie gaat beslissen welke gegevens het krijgt aangeleverd, en dat is waar overheidsbemoeienis, enz., in beeld komt,” merkte hij op, waarmee hij het cruciale punt van transparantie van gegevensbronnen benadrukte.
Het gebrek aan transparantie, benadrukte Sinha, is een voedingsbodem voor potentiële schade. “Alles wat transparantie mist, zal schade veroorzaken, omdat alles wat transparantie mist, op elke mogelijke manier kan worden gemodelleerd.”
Grok’s Eigen Erkenning: Het Potentieel voor Misbruik
In een enigszins ironische wending gaf het Grok-account op X, in een van zijn geposte antwoorden, toe dat het “misbruikt zou kunnen worden - om desinformatie te verspreiden en de privacy te schenden.”
Ondanks deze erkenning geeft het geautomatiseerde account geen disclaimers aan gebruikers die de antwoorden ontvangen. Deze omissie maakt gebruikers kwetsbaar voor misleiding, met name in gevallen waarin de AI het antwoord heeft “gehallucineerd”, een goed gedocumenteerd fenomeen in de wereld van AI waarbij het systeem valse of onzinnige informatie genereert.
Anushka Jain, een onderzoeksmedewerker bij het Digital Futures Lab, lichtte dit punt toe en zei: “Het kan informatie verzinnen om een antwoord te geven.” Deze neiging om informatie te verzinnen, onderstreept de inherente beperkingen van AI in de context van feitencontrole.
Het Dilemma van de Trainingsgegevens
Een verdere laag van complexiteit ontstaat door de vraag naar de trainingsgegevens van Grok. Er is onzekerheid over de mate waarin Grok berichten op X gebruikt als trainingsmateriaal, en de kwaliteitscontrolemaatregelen, indien aanwezig, die worden gebruikt om dergelijke berichten te controleren. Een eerder doorgevoerde wijziging leek Grok standaardtoegang te geven tot X-gebruikersgegevens, wat zorgen baart over het potentieel voor de AI om desinformatie die op het platform aanwezig is, te absorberen en te verspreiden.
Publieke vs. Private Consumptie van AI-gegenereerde Informatie
Een andere belangrijke zorg draait om de publieke aard van AI-assistenten zoals Grok op sociale-mediaplatforms. In tegenstelling tot interacties met chatbots zoals ChatGPT, die doorgaans in een privéomgeving plaatsvinden, worden de antwoorden van Grok openbaar geleverd.
Deze openbare verspreiding creëert een situatie waarin, zelfs als één gebruiker zich ervan bewust is dat de door de AI verstrekte informatie onjuist kan zijn, andere gebruikers op het platform deze nog steeds als waarheid kunnen accepteren. Dit kan leiden tot ernstige maatschappelijke gevolgen.
Er zijn historische precedenten. India was bijvoorbeeld getuige van tragische incidenten van lynchpartijen door mobs, aangewakkerd door desinformatie die via WhatsApp werd verspreid. Deze gebeurtenissen, hoewel ze dateren van vóór de wijdverbreide beschikbaarheid van Generative AI, dienen als een grimmige herinnering aan de reële gevaren van ongecontroleerde desinformatie. De komst van GenAI, met zijn vermogen om synthetische inhoud te genereren die opmerkelijk realistisch lijkt, heeft deze risico’s alleen maar vergroot.
Het Foutenpercentage van AI
IFCN’s Holan waarschuwde: “Als je veel van deze Grok-antwoorden ziet, zul je zeggen, hé, de meeste zijn correct, en dat kan zo zijn, maar er zullen er een paar zijn die onjuist zijn. En hoeveel? Het is geen kleine fractie. Sommige onderzoeken hebben aangetoond dat AI-modellen onderhevig zijn aan foutenpercentages van 20%… en als het misgaat, kan het echt misgaan met reële gevolgen.”
Het foutenpercentage van 20%, zoals benadrukt door Holan, is een substantieel cijfer. Het onderstreept de inherente onbetrouwbaarheid van AI in situaties die feitelijke nauwkeurigheid vereisen. En, zoals ze benadrukt, de gevolgen van deze fouten kunnen diepgaand zijn en zich ver buiten het digitale domein uitstrekken.
AI: Een Hulpmiddel, Geen Vervanging voor Menselijk Oordeel
Hoewel AI-bedrijven, waaronder xAI, hun modellen voortdurend verfijnen om meer mensachtige communicatie te bereiken, blijft de fundamentele realiteit bestaan: AI kan en mag het menselijk oordeel niet vervangen, vooral niet op het cruciale gebied van feitencontrole.
De trend onder technologiebedrijven om mogelijkheden te onderzoeken om de afhankelijkheid van menselijke feitencontroleurs te verminderen, is een reden tot bezorgdheid. Platforms zoals X en Meta hebben het concept van crowdsourced feitencontrole omarmd, geïllustreerd door initiatieven als ‘Community Notes’. Deze verschuivingen, hoewel ze potentieel bepaalde voordelen bieden, roepen ook vragen op over de mogelijke uitholling van strenge feitencontrolenormen.
Een Slingerbeweging Terug naar Menselijke Feitencontrole?
Sinha van Alt News sprak een optimistische visie uit en suggereerde dat mensen uiteindelijk zullen leren onderscheid te maken tussen de output van machines en het werk van menselijke feitencontroleurs, en uiteindelijk de nauwkeurigheid en betrouwbaarheid van de laatste zullen waarderen.
“We gaan de slinger uiteindelijk terug zien zwaaien naar meer feitencontrole,” voorspelde IFCN’s Holan.
Ze waarschuwde echter dat feitencontroleurs in de tussentijd waarschijnlijk te maken zullen krijgen met een toegenomen werklast als gevolg van de snelle verspreiding van AI-gegenereerde informatie. De uitdaging zal zijn om de stroom van desinformatie effectief tegen te gaan en ervoor te zorgen dat het publiek geïnformeerd blijft door de waarheid, niet door overtuigende illusies.
De Kernvraag: Geven om de Waarheid
In de kern van de zaak ligt een fundamentele vraag: “Geef je echt om wat feitelijk waar is of niet? Ben je gewoon op zoek naar het vernis van iets dat waar klinkt en voelt zonder daadwerkelijk waar te zijn? Want dat is wat AI-assistentie je zal opleveren,” verklaarde Holan.
Deze vraag vat het cruciale dilemma samen dat wordt gesteld door de opkomst van AI in informatiedispersie. Zijn we, als samenleving, bereid om gemak en de schijn van waarheid te prioriteren boven het moeizame proces van het verifiëren van feiten? Het antwoord op deze vraag zal uiteindelijk de toekomst van informatie bepalen, en bepalen of we bezwijken aan een wereld van gefabriceerde realiteiten of de principes van waarheid en nauwkeurigheid hooghouden.