L’Ascesa dell’IA nella Verifica delle Informazioni
L’ascesa dell’intelligenza artificiale ha portato con sé una miriade di strumenti progettati per semplificare l’accesso alle informazioni. Tuttavia, questo progresso tecnologico ha introdotto anche nuove sfide, in particolare nel campo della disinformazione. Sulla piattaforma di social media X di Elon Musk, è emersa una tendenza preoccupante: gli utenti si rivolgono sempre più al bot AI di Musk, Grok, per scopi di fact-checking. Questo sviluppo ha suscitato ondate di allarme nella comunità dei fact-checker umani, sollevando timori circa il potenziale per una diffusione diffusa di informazioni false o fuorvianti.
L’integrazione dell’IA nelle piattaforme di social media non è una novità. La mossa di X di consentire agli utenti di interagire con Grok di xAI è, per certi versi, semplicemente in linea con una tendenza. Ciò rispecchia l’approccio di Perplexity, che gestisce un account automatizzato su X per offrire un’esperienza simile.
Dopo che xAI ha stabilito la presenza automatizzata di Grok su X, gli utenti hanno rapidamente iniziato a esplorarne le capacità, ponendo domande e cercando risposte. In regioni come l’India, è emerso un modello particolarmente preoccupante: gli individui hanno iniziato a utilizzare Grok per verificare commenti e domande, molti dei quali miravano a specifiche ideologie politiche.
Le Preoccupazioni dei Fact-Checker Umani
Questa dipendenza da Grok, e in effetti da qualsiasi assistente AI del suo genere, per il fact-checking è motivo di seria preoccupazione. La natura stessa di questi bot AI è che possono formulare risposte che suonano convincenti, indipendentemente dalla loro accuratezza fattuale. Questa non è una preoccupazione teorica; Grok ha una storia documentata di diffusione di notizie false e disinformazione.
Un esempio notevole si è verificato quando diversi segretari di stato hanno implorato Musk di apportare modifiche cruciali a Grok. Questa richiesta urgente è seguita all’emergere di informazioni fuorvianti, generate dall’assistente AI, sui social network, facendo scattare campanelli d’allarme in vista delle elezioni.
Grok non è solo in questo. È stato riscontrato che anche altri chatbot di spicco, tra cui ChatGPT di OpenAI e Gemini di Google, producevano informazioni inesatte relative alle elezioni. I ricercatori sulla disinformazione hanno ulteriormente sottolineato il potenziale di uso improprio, rivelando nel 2023 che i chatbot AI come ChatGPT potrebbero essere facilmente sfruttati per generare testi persuasivi contenenti narrazioni fuorvianti.
L’Illusione dell’Autenticità
Angie Holan, direttrice dell’International Fact-Checking Network (IFCN) presso Poynter, ha espresso il problema centrale, affermando: “Gli assistenti AI, come Grok, sono davvero bravi a usare il linguaggio naturale e a dare una risposta che sembra detta da un essere umano. E in questo modo, i prodotti AI hanno questa pretesa di naturalezza e risposte dal suono autentico, anche quando sono potenzialmente molto sbagliati. Questo sarebbe il pericolo qui”.
Il pericolo, come sottolinea Holan, risiede nell’aspetto ingannevole dell’autenticità. La capacità dell’IA di imitare il linguaggio umano crea un’illusione di credibilità, anche quando le informazioni sottostanti sono errate o completamente inventate.
La Differenza Fondamentale: IA vs. Fact-Checker Umani
Il contrasto tra assistenti AI e fact-checker umani è netto. I fact-checker umani verificano meticolosamente le informazioni, attingendo a molteplici fonti credibili. Operano con trasparenza, allegando i loro nomi e le affiliazioni organizzative ai loro risultati, garantendo così la responsabilità e rafforzando la credibilità.
Pratik Sinha, co-fondatore del sito web indiano di fact-checking senza scopo di lucro Alt News, ha sottolineato che mentre le risposte di Grok potrebbero attualmente apparire persuasive, la sua accuratezza è fondamentalmente limitata dai dati che riceve. “Chi deciderà quali dati gli vengono forniti, ed è qui che entreranno in gioco le interferenze del governo, ecc.”, ha osservato, evidenziando la questione critica della trasparenza della fonte dei dati.
La mancanza di trasparenza, ha sottolineato Sinha, è un terreno fertile per potenziali danni. “Qualsiasi cosa che manchi di trasparenza causerà danni perché qualsiasi cosa che manchi di trasparenza può essere modellata in qualsiasi modo.”
L’Ammissione di Grok: Il Potenziale per l’Uso Improprio
In una svolta alquanto ironica, l’account di Grok su X, in una delle sue risposte pubblicate, ha ammesso che “potrebbe essere utilizzato in modo improprio, per diffondere disinformazione e violare la privacy”.
Nonostante questo riconoscimento, l’account automatizzato non fornisce alcuna dichiarazione di non responsabilità agli utenti che ricevono le sue risposte. Questa omissione lascia gli utenti vulnerabili alla disinformazione, in particolare nei casi in cui l’IA ha “allucinato” la risposta, un fenomeno ben documentato nel campo dell’IA in cui il sistema genera informazioni false o prive di senso.
Anushka Jain, ricercatrice associata presso il Digital Futures Lab, ha approfondito questo punto, affermando: “Potrebbe inventare informazioni per fornire una risposta”. Questa tendenza a fabbricare informazioni sottolinea i limiti intrinseci dell’IA nel contesto del fact-checking.
Il Dilemma dei Dati di Addestramento
Un ulteriore livello di complessità deriva dalla questione dei dati di addestramento di Grok. C’è incertezza sulla misura in cui Grok utilizza i post su X come materiale di addestramento e sulle misure di controllo della qualità, se presenti, impiegate per verificare tali post. Una modifica implementata in precedenza sembrava concedere a Grok l’accesso predefinito ai dati degli utenti di X, sollevando preoccupazioni circa il potenziale per l’IA di assorbire e propagare la disinformazione presente sulla piattaforma.
Consumo Pubblico vs. Privato di Informazioni Generate dall’IA
Un’altra preoccupazione significativa riguarda la natura pubblica degli assistenti AI come Grok sulle piattaforme di social media. A differenza delle interazioni con chatbot come ChatGPT, che in genere avvengono in un ambiente privato, le risposte di Grok vengono fornite pubblicamente.
Questa diffusione pubblica crea una situazione in cui, anche se un utente è consapevole che le informazioni fornite dall’IA potrebbero essere imprecise, altri utenti sulla piattaforma potrebbero comunque accettarle come verità. Ciò può portare a gravi conseguenze sociali.
Esistono precedenti storici. L’India, ad esempio, ha assistito a tragici incidenti di linciaggi di massa alimentati dalla disinformazione diffusa tramite WhatsApp. Questi eventi, pur precedendo la diffusa disponibilità dell’IA generativa, servono come un forte promemoria dei pericoli del mondo reale della disinformazione incontrollata. L’avvento della GenAI, con la sua capacità di generare contenuti sintetici che appaiono notevolmente realistici, ha solo amplificato questi rischi.
Il Tasso di Errore dell’IA
Holan dell’IFCN ha avvertito che, “Se vedi molte di queste risposte di Grok, dirai, ehi, beh, la maggior parte di esse sono corrette, e potrebbe essere così, ma ce ne saranno alcune che sono sbagliate. E quante? Non è una piccola frazione. Alcuni studi di ricerca hanno dimostrato che i modelli AI sono soggetti a tassi di errore del 20%… e quando va male, può andare davvero male con conseguenze nel mondo reale”.
Il tasso di errore del 20%, come evidenziato da Holan, è una cifra sostanziale. Sottolinea l’intrinseca inaffidabilità dell’IA in situazioni che richiedono accuratezza fattuale. E, come sottolinea, le conseguenze di questi errori possono essere profonde, estendendosi ben oltre il regno digitale.
IA: Uno Strumento, Non un Sostituto del Giudizio Umano
Mentre le aziende di IA, inclusa xAI, perfezionano continuamente i loro modelli per ottenere una comunicazione più simile a quella umana, la realtà fondamentale rimane: l’IA non può, e non dovrebbe, sostituire il giudizio umano, in particolare nel dominio critico del fact-checking.
La tendenza tra le aziende tecnologiche a esplorare strade per ridurre la dipendenza dai fact-checker umani è motivo di preoccupazione. Piattaforme come X e Meta hanno abbracciato il concetto di fact-checking crowdsourcing, esemplificato da iniziative come ‘Community Notes’. Questi cambiamenti, pur offrendo potenzialmente alcuni vantaggi, sollevano anche interrogativi sul potenziale deterioramento dei rigorosi standard di fact-checking.
Un Ritorno al Fact-Checking Umano?
Sinha di Alt News ha espresso un’opinione ottimistica, suggerendo che le persone alla fine impareranno a distinguere tra i risultati delle macchine e il lavoro dei fact-checker umani, valorizzando in ultima analisi l’accuratezza e l’affidabilità di questi ultimi.
“Vedremo il pendolo tornare indietro verso un maggiore fact-checking”, ha predetto Holan dell’IFCN.
Tuttavia, ha avvertito che nel frattempo, i fact-checker dovranno probabilmente affrontare un carico di lavoro maggiore a causa della rapida diffusione di informazioni generate dall’IA. La sfida sarà quella di contrastare efficacemente l’ondata di disinformazione, garantendo che il pubblico rimanga informato dalla verità, non da illusioni convincenti.
La Domanda Centrale: Preoccuparsi della Verità
Al centro della questione c’è una domanda fondamentale: “Ti interessa davvero ciò che è effettivamente vero o no? Stai solo cercando la patina di qualcosa che suona e sembra vero senza essere effettivamente vero? Perché è questo che ti darà l’assistenza AI”, ha affermato Holan.
Questa domanda racchiude il dilemma critico posto dall’ascesa dell’IA nella diffusione delle informazioni. Siamo, come società, disposti a dare la priorità alla convenienza e all’apparenza della verità rispetto al laborioso processo di verifica dei fatti? La risposta a questa domanda plasmerà in definitiva il futuro dell’informazione, determinando se soccomberemo a un mondo di realtà fabbricate o sosterremo i principi di verità e accuratezza.