Durante un breve conflitto tra India e Pakistan, è aumentata la disinformazione e gli utenti dei social media hanno iniziato a fare affidamento sui chatbot AI per la verifica. Tuttavia, questi chatbot hanno invece fornito ancora più informazioni false, evidenziando la loro inaffidabilità come strumenti di fact-checking. Mentre le principali piattaforme tecnologiche continuano a ridurre il numero di fact-checker umani, gli utenti dipendono sempre più dai chatbot alimentati dall’AI, come Grok di xAI, ChatGPT di OpenAI e Gemini di Google, alla ricerca di informazioni affidabili.
L’ascesa del fact-checking tramite chatbot AI
Sulla piattaforma X di Elon Musk (precedentemente nota come Twitter), "@Grok, è vero?" è diventata una frase comune tra gli utenti. Grok, l’assistente AI integrato in X, riflette la tendenza degli utenti a cercare smentite immediate sui social media. Tuttavia, le risposte di questi chatbot AI sono spesso piene di disinformazione.
Grok ha recentemente attirato l’attenzione su di sé per aver inserito la teoria cospirativa di estrema destra del "genocidio bianco" in query irrilevanti. Grok ha erroneamente identificato vecchie riprese video dell’aeroporto di Khartoum in Sudan come un attacco missilistico alla base aerea pakistana di Nur Khan durante il conflitto indo-pakistano. Inoltre, un edificio in fiamme in Nepal è stato erroneamente identificato come "probabilmente" raffigurante una risposta militare pakistana a un attacco indiano.
I limiti del fact-checking tramite AI
McKenzie Sadeghi, ricercatrice presso l’organizzazione di monitoraggio delle informazioni NewsGuard, ha dichiarato all’Agence France-Presse (AFP): "Poiché X e altre grandi aziende tecnologiche hanno ridotto gli investimenti nei fact-checker umani, le persone si affidano sempre più a Grok come fact-checker". Ha avvertito: "La nostra ricerca ha ripetutamente scoperto che i chatbot AI non sono fonti affidabili di notizie e informazioni, soprattutto quando si tratta di ultime notizie."
La ricerca di NewsGuard ha scoperto che 10 chatbot leader, tra cui Grok, ripetono facilmente disinformazione, comprese narrazioni di propaganda russa e affermazioni false o fuorvianti relative alle recenti elezioni australiane. Un recente studio del Tow Center for Digital Journalism presso la Columbia University su otto strumenti di ricerca AI ha concluso che i chatbot "spesso non sono bravi a rifiutarsi di rispondere a domande a cui non possono rispondere accuratamente, ma forniscono risposte errate o speculative".
Un fact-checker dell’AFP in Uruguay ha chiesto a Gemini informazioni su un’immagine di una donna generata dall’AI e Gemini non solo ha confermato l’autenticità dell’immagine, ma ha anche inventato dettagli sull’identità della donna e su dove avrebbe potuto essere scattata l’immagine.
Grok ha recentemente etichettato come "reale" un video presumibilmente raffigurante un pitone gigante che nuotava nel Rio delle Amazzoni, arrivando persino a citare una spedizione scientifica apparentemente credibile per supportare la sua falsa affermazione. In realtà, il video è stato generato dall’AI ei fact-checker dell’AFP in America Latina hanno riferito che molti utenti hanno citato la valutazione di Grok come prova che il video fosse reale.
Preoccupazioni sul fact-checking tramite AI
Questi risultati hanno sollevato preoccupazioni, poiché i sondaggi indicano che un numero crescente di utenti online si sta rivolgendo ai chatbot AI anziché ai tradizionali motori di ricerca per raccogliere e verificare le informazioni. Nel frattempo, all’inizio di quest’anno Meta ha annunciato che avrebbe posto fine al suo programma di fact-checking di terze parti negli Stati Uniti, affidando invece i compiti di smentita ai normali utenti, utilizzando un modello chiamato "Note della community", promosso dalla piattaforma X. Tuttavia, i ricercatori hanno ripetutamente messo in dubbio l’efficacia delle "Note della community" nella lotta alla disinformazione.
Il fact-checking umano è stato a lungo un punto critico in un clima politico polarizzato, soprattutto negli Stati Uniti, dove i conservatori sostengono che sopprima la libertà di parola e censura i contenuti di destra, un’affermazione che i fact-checker professionisti negano con veemenza.
L’AFP collabora attualmente con il programma di fact-checking di Facebook in 26 lingue, tra cui quelle in Asia, America Latina e Unione Europea.
La qualità e l’accuratezza dei chatbot AI possono variare a seconda di come vengono addestrati e programmati, il che solleva preoccupazioni sul fatto che i loro output possano essere influenzati o controllati politicamente.
xAI di Musk di recente ha attribuito a una "modifica non autorizzata" la generazione da parte di Grok di post non richiesti che facevano riferimento al "genocidio bianco" in Sudafrica. Quando l’esperto di AI David Caswell ha chiesto a Grok chi avrebbe potuto modificare i suoi prompt di sistema, il chatbot ha elencato Musk come il colpevole "più probabile".
Musk è un miliardario nato in Sudafrica e sostenitore del presidente degli Stati Uniti Donald Trump. In precedenza aveva diffuso l’affermazione infondata secondo cui i leader sudafricani stavano "promuovendo apertamente il genocidio dei bianchi".
Angie Holan, direttrice dell’International Fact-Checking Network, ha dichiarato all’AFP: "Abbiamo visto gli assistenti AI inventare risultati o fornire risposte distorte dopo che i codificatori umani hanno modificato specificamente le loro istruzioni". "Sono particolarmente preoccupata per il modo in cui Grok gestisce le richieste su questioni molto delicate dopo aver ricevuto istruzioni per fornire risposte pre-autorizzate."
I rischi dei chatbot AI nel campo dell’informazione
La crescente applicazione dei chatbot AI nella fornitura di informazioni ha sollevato gravi preoccupazioni riguardanti il loro potenziale impatto fuorviante e manipolativo. Sebbene queste tecnologie forniscano vantaggi in termini di accesso rapido alle informazioni e semplificazione della ricerca, i loro limiti e pregiudizi intrinseci possono diffondere involontariamente o intenzionalmente disinformazione o propaganda.
Le limitazioni intrinseche dei chatbot AI
I chatbot AI imparano analizzando grandi quantità di dati di testo, ma mancano delle capacità di pensiero critico degli esseri umani. Ciò significa che potrebbero estrarre schemi dai dati e generare risposte apparentemente plausibili, ma senza una vera comprensione del significato o del contesto sottostante. Questa mancanza di conoscenza può portare alla produzione di informazioni imprecise, incomplete o fuorvianti.
Inoltre, i dati di addestramento dei chatbot AI possono contenere pregiudizi, che si riflettono nelle risposte generate. Ad esempio, se i dati di addestramento provengono principalmente da una particolare fonte o prospettiva, il chatbot potrebbe mostrare una preferenza per tale fonte o prospettiva, diffondendo informazioni distorte.
I rischi posti dai chatbot AI
Man mano che sempre più persone fanno affidamento sui chatbot AI per informazioni, aumenta il rischio di diffusione della disinformazione. Se un chatbot genera informazioni imprecise o fuorvianti, gli utenti potrebbero inconsapevolmente accettare e diffondere tali informazioni, portando alla propagazione di false credenze.
Inoltre, i chatbot AI potrebbero essere utilizzati per scopi dannosi, come la diffusione di propaganda o la manipolazione dell’opinione pubblica. Manipolando meticolosamente i dati di addestramento o modificando gli algoritmi, gli attori malintenzionati possono manipolare i chatbot per generare specifici tipi di risposte, influenzando le credenze e i comportamenti degli utenti.
Come mitigare i rischi
Per mitigare i rischi associati ai chatbot AI, è necessario adottare diverse misure. In primo luogo, gli sviluppatori dovrebbero impegnarsi per garantire che i dati di addestramento dei chatbot AI siano il più completi e imparziali possibile. Ciò potrebbe richiedere l’inclusione di una varietà di dati provenienti da diverse fonti e prospettive, al fine di ridurre l’impatto dei pregiudizi.
In secondo luogo, i chatbot AI devono essere sottoposti a rigorosi test e valutazioni per identificare e correggere eventuali tendenze all’imprecisione o alla distorsione. Ciò potrebbe comportare la verifica manuale delle risposte generate dal chatbot e l’utilizzo di una varietà di metriche per valutare la sua accuratezza ed equità.
In terzo luogo, gli utenti dovrebbero mantenere un atteggiamento di pensiero critico e non fidarsi ciecamente delle informazioni fornite dai chatbot AI. Gli utenti dovrebbero sempre confrontare le informazioni provenienti da diverse fonti ed essere consapevoli dei potenziali pregiudizi che il chatbot potrebbe avere.
Il ruolo delle piattaforme tecnologiche e delle comunità
Le piattaforme tecnologiche e le comunità svolgono un ruolo importante nella regolamentazione e nella supervisione dei contenuti generati dai chatbot AI. Le piattaforme possono implementare politiche per identificare e rimuovere disinformazione o propaganda e possono collaborare con organizzazioni di fact-checking per verificare l’accuratezza delle risposte generate dal chatbot. Inoltre, le comunità possono contribuire a sensibilizzare gli utenti promuovendo discussioni sui limiti e sui pregiudizi dei chatbot AI e incoraggiando gli utenti a mantenere un atteggiamento di pensiero critico.
Conclusione
I chatbot AI sono strumenti utili, ma presentano anche limiti e rischi inerenti. Al fine di garantire che queste tecnologie vengano utilizzate in modo responsabile e per ridurre la diffusione di disinformazione e manipolazione, è necessario che sviluppatori, autorità di regolamentazione e utenti rimangano vigili. Adottando le misure necessarie, possiamo massimizzare i vantaggi dei chatbot AI riducendo al minimo i loro potenziali pericoli.