AI Chatbot: Fonte di Disinformazione?

I chatbot di intelligenza artificiale (AI) sono diventati sempre più popolari come fonti di informazione, ma la loro qualità e accuratezza variano notevolmente a seconda del modo in cui sono addestrati e programmati. Questo ha sollevato preoccupazioni sul fatto che questi strumenti possano essere soggetti a influenze o controlli politici. Soprattutto con le piattaforme tecnologiche che riducono il numero di verificatori di fatti umani, gli utenti si affidano sempre più ai chatbot AI per trovare informazioni affidabili. Tuttavia, si è dimostrato che questi chatbot sono essi stessi suscettibili alla generazione di disinformazione.

La Dipendenza dal Fact-Checking AI Durante i Conflitti e le Sue Lacune

Durante un conflitto di quattro giorni tra India e Pakistan, gli utenti dei social media si sono rivolti ai chatbot AI per la verifica dei fatti. Tuttavia, si sono imbattuti in maggiori disinformazioni, evidenziando l’inaffidabilità di questi chatbot come strumenti di verifica dei fatti. Con le piattaforme tecnologiche che gradualmente riducono il numero di verificatori di fatti umani, gli utenti si affidano sempre più ai chatbot basati sull’intelligenza artificiale, tra cui Grok di xAI, ChatGPT di OpenAI e Gemini di Google, per trovare informazioni affidabili. Ma si è scoperto che le risposte fornite da questi chatbot AI sono spesso piene di disinformazione.

Un modo comune di chiedere che è emerso sulla piattaforma X (precedentemente Twitter) di Elon Musk è: “@Grok, è vero?” Grok ha un assistente AI integrato nella piattaforma, che riflette una crescente inclinazione a cercare smentite immediate sui social media. Tuttavia, le risposte fornite dai chatbot AI sono spesso piene di disinformazione.

Esempi di Chatbot AI che Diffondono Informazioni Inaccurate

Grok è attualmente sotto nuovo esame a seguito di notizie secondo cui inserisce la teoria del complotto di estrema destra “genocidio bianco” in domande non correlate. Ha identificato erroneamente un vecchio filmato del Sudan Khartoum Airport come un attacco missilistico alla base aerea pakistana Nur Khan durante il conflitto indo-pakistano. Inoltre, un video non correlato di un incendio in un edificio in Nepal è stato erroneamente identificato come “possibilmente” raffigurante una risposta pakistana agli attacchi indiani.

Grok ha anche recentemente etichettato come “reale” un video presumibilmente girato di enormi anaconda nel fiume Amazzonia, citando anche spedizioni scientifiche dal suono credibile a sostegno della sua affermazione infondata. In realtà, il video è stato generato dall’intelligenza artificiale. I verificatori di fatti di AFP Latin America hanno notato che molti utenti citano la valutazione di Grok come prova che il filmato è autentico.

Riduzione degli Investimenti nei Verificatori di Fatti

Con X e altre importanti società tecnologiche che riducono gli investimenti nei verificatori di fatti umani, c’è una crescente dipendenza da Grok come verificatore di fatti. Mackenzie Sadeghi, ricercatrice presso l’organizzazione di monitoraggio delle notizie NewsGuard, ha avvertito: “La nostra ricerca ha rilevato più volte che i chatbot AI non sono fonti affidabili di informazioni e notizie, soprattutto quando si tratta di notizie dell’ultima ora”.

La ricerca di NewsGuard ha rilevato che 10 chatbot leader sono suscettibili di ripetere la disinformazione, tra cui le narrazioni di disinformazione russe e affermazioni false o fuorvianti relative alle recenti elezioni australiane. Un recente studio del Tow Center for Digital Journalism della Columbia University su otto strumenti di ricerca AI ha rilevato che i chatbot “di solito non sono bravi a rifiutarsi di rispondere a domande a cui non possono rispondere in modo accurato, ma piuttosto forniscono risposte errate o speculative”.

Lotta dell’AI con la Conferma di Immagini False e Dettagli di Fabbricazione

Quando i verificatori di fatti dell’AFP in Uruguay hanno chiesto a Gemini di un’immagine generata dall’AI di una donna, non solo ha confermato l’autenticità dell’immagine, ma ha anche inventato dettagli sulla sua identità e dove l’immagine avrebbe potuto essere scattata.

Tali risultati hanno sollevato preoccupazioni perché i sondaggi indicano che gli utenti online si stanno rivolgendo sempre più dai tradizionali motori di ricerca ai chatbot AI per informazioni e verifica.

Cambiamento di Meta nell’Approccio al Fact-Checking

All’inizio di quest’anno, Meta ha annunciato che avrebbe terminato il suo programma di verifica dei fatti di terze parti negli Stati Uniti, scegliendo invece di scaricare il compito di sfatare la disinformazione sui suoi utenti comuni, adottando un modello noto come “note della community”, che è promosso da X. Tuttavia, i ricercatori hanno ripetutamente messo in discussione l’efficacia delle “note della community” nella lotta alla disinformazione.

Sfide e Controversie con il Fact-Checking Umano

Il fact-checking umano è stato a lungo un punto di accensione in un clima politico polarizzato, soprattutto negli Stati Uniti, dove i sostenitori conservatori sostengono che sopprime la libertà di parola e censura i contenuti di destra - un’affermazione che i fact-checker professionisti rifiutano con veemenza. L’AFP collabora attualmente con il programma di verifica dei fatti di Facebook in 26 lingue, tra cui Asia, America Latina e Unione Europea.

Influenza Politica e Chatbot AI

La qualità e l’accuratezza dei chatbot AI variano a seconda del modo in cui sono addestrati e programmati, sollevando preoccupazioni sul fatto che i loro output possano essere soggetti a influenze o controlli politici. Recentemente, xAI di Musk ha imputato i post generati da Grok in Sud Africa che menzionavano “genocidio bianco” non richiesti a “modifiche non autorizzate”. Quando l’esperto di AI David Kaczynski ha chiesto a Grok chi avrebbe potuto modificare i suoi prompt di sistema, il chatbot ha elencato Musk come il colpevole “più probabile”.

Musk è un miliardario nato in Sud Africa e un sostenitore del presidente Donald Trump. In precedenza aveva diffuso affermazioni infondate secondo cui i leader sudafricani “promuovono apertamente il genocidio dei bianchi”.

Preoccupazioni sulla Gestione di Argomenti Sensibili da Parte dei Chatbot AI

Angie Holan, direttrice dell’International Fact-Checking Network, ha dichiarato: “Abbiamo visto che gli assistenti AI possono inventare risultati o fornire risposte tendenziose dopo che un codificatore umano ha specificamente modificato le istruzioni. Sono particolarmente preoccupata per il modo in cui Grok gestisce le richieste che coinvolgono questioni molto sensibili dopo aver ricevuto istruzioni per fornire risposte pre-approvate”.

Importanza di Garantire l’Accuratezza dell’AI

La crescente popolarità dei chatbot AI rappresenta sfide significative per la diffusione di informazioni. Sebbene offrano un modo rapido e conveniente per accedere alle informazioni, sono anche suscettibili di errori e di diffondere disinformazione. Man mano che gli utenti fanno sempre più affidamento su questi strumenti per la verifica dei fatti, diventa fondamentale garantire la loro accuratezza e affidabilità.

Le aziende tecnologiche, le organizzazioni di verifica dei fatti e i ricercatori devono collaborare per migliorare la qualità e l’affidabilità dei chatbot AI. Ciò include l’implementazione di rigorosi protocolli di formazione, l’utilizzo di verificatori di fatti umani per convalidare le informazioni generate dall’AI e lo sviluppo di meccanismi per rilevare ed estirpare la disinformazione.

Guardando al Futuro

Man mano che la tecnologia AI continua ad avanzare, i chatbot AI sono destinati a svolgere un ruolo sempre più importante nel modo in cui accediamo e consumiamo le informazioni. Tuttavia, è importante avvicinarsi a questi strumenti con una mentalità critica ed essere consapevoli dei loro limiti. Adottando misure per garantire l’accuratezza e l’affidabilità dei chatbot AI, possiamo sfruttare il loro potenziale mitigando i rischi associati alla diffusione di disinformazione.

Pregiudizi negli Strumenti AI

I pregiudizi possono esistere negli strumenti AI, sia nei dati su cui sono addestrati, sia nel modo in cui sono programmati. Questo pregiudizio può portare a risultati inaccurati o fuorvianti. L’esempio di Grok che inserisce la teoria del complotto di estrema destra “genocidio bianco” in domande non correlate illustra come i sistemi AI possono propagare ideologie dannose.

I pregiudizi negli strumenti AI possono derivare da una serie di fattori, tra cui:

  • Pregiudizio nei dati di addestramento: i sistemi AI imparano attraverso set di dati di addestramento. Se questi set di dati contengono pregiudizi, anche il sistema AI imparerà tali pregiudizi. Ad esempio, se un sistema AI è addestrato su articoli scritti principalmente da uomini, potrebbe sviluppare un pregiudizio contro le donne.

  • Pregiudizio negli algoritmi: gli algoritmi utilizzati per costruire i sistemi AI possono anche contenere pregiudizi. Ad esempio, se un algoritmo è progettato per dare priorità alle risposte di determinati gruppi, potrebbe discriminare altri gruppi.

  • Pregiudizio dovuto all’intervento umano: anche se un sistema AI è addestrato su dati non pregiudiziali, l’intervento umano può introdurre pregiudizi. Ad esempio, se ai codificatori umani viene indicato di fornire risposte pre-approvate a domande specifiche, ciò può creare pregiudizi.

È essenziale affrontare i pregiudizi negli strumenti AI per una serie di motivi:

  • Equità: se un sistema AI contiene pregiudizi, potrebbe essere ingiusto nei confronti di determinati gruppi. Ad esempio, se un sistema AI viene utilizzato per l’assunzione, potrebbe pregiudicare i gruppi sottorappresentati.

  • Accuratezza: se un sistema AI contiene pregiudizi, potrebbe non fornire informazioni accurate. Ad esempio, se un sistema AI viene utilizzato per fornire consulenza medica, potrebbe fornire consulenza errata o fuorviante.

  • Fiducia: se le persone non si fidano che i sistemi AI siano equi e accurati, è meno probabile che li utilizzino.

Affrontare i pregiudizi negli strumenti AI richiede un approccio multiforme, tra cui:

  • Raccolta di dati non pregiudiziali: è fondamentale garantire che set di dati utilizzati per addestrare sistemi AI siano non pregiudiziali. Ciò può richiedere uno sforzo significativo, poiché può essere difficile trovare e rimuovere i pregiudizi dai dati.

  • Sviluppo di algoritmi non pregiudiziali: gli algoritmi utilizzati per costruire sistemi AI devono essere non pregiudiziali. Ciò può richiedere l’utilizzo di nuove tecniche di apprendimento automatico per costruire algoritmi meno suscettibili ai pregiudizi.

  • Intervento umano: l’intervento umano può essere utilizzato per correggere i pregiudizi nei sistemi AI. Ad esempio, i codificatori umani possono rivedere le risposte generate da un sistema AI e correggere eventuali pregiudizi che si presentano.

  • Trasparenza: è importante rendere consapevoli gli utenti dei sistemi AI dei potenziali pregiudizi che potrebbero esistere nel sistema AI. Ciò può essere ottenuto fornendo informazioni sui dati su cui è stato addestrato il sistema AI sugli algoritmi utilizzati per costruire il sistema AI.

Affrontare i pregiudizi strumenti AI è una sfida continua, ma è necessario per garantire che questi strumenti siano equi, accurati e affidabili.

Limiti della Verifica dei Fatti AI

Sebbene gli strumenti di verifica dei fatti AI abbiano fatto progressi nell’identificazione della disinformazione, hanno ancora limitazioni nelle loro capacità ed efficacia. Queste limitazioni derivano da diversi fattori:

  • Comprensione del contesto: i sistemi AI hanno difficoltà a comprendere il contesto complesso e le sfumature che sono essenziali per una verifica dei fatti accurata. Ad esempio, un sistema AI potrebbe non essere in grado di distinguere tra sarcasmo o umorismo e una dichiarazione di fatto.

  • Rilevamento di disinformazione sottile: può essere difficile per i sistemi AI rilevare disinformazione sottile, come il contesto estrapolato o la segnalazione selettiva di fatti.

  • Mancanza di competenza nel dominio: i sistemi AI spesso mancano della competenza nel dominio necessaria per la verifica dei fatti su determinati argomenti. Ad esempio, un sistema AI potrebbe non avere la conoscenza medica per verificare accuratamente le affermazioni relative alla salute.

  • Manipolazione avversaria: i diffusori di disinformazione sviluppano costantemente nuovi metodi per manipolare ed eludere i sistemi di verifica dei fatti. I sistemi AI devono essere costantemente aggiornati e migliorati per stare al passo con queste nuove tattiche.

  • Barriere linguistiche: gli strumenti di verifica dei fatti AI potrebbero non essere efficaci nell’affrontare la disinformazione in diverse lingue. Tradurre e comprendere le sfumature in diverse lingue è impegnativo e richiede conoscenze linguistiche specializzate.

  • Rischio di falsi positivi: i sistemi di verifica dei fatti AI possono commettere errori, con conseguente etichettatura di informazioni accurate come disinformazione. Questi falsi positivi possono avere conseguenze gravi, come la censura di contenuti legittimi o il danneggiamento della reputazione di individui o organizzazioni.

Per mitigare le limitazioni della verifica dei fatti AI, è essenziale combinare la competenza umana con gli strumenti AI. I verificatori di fatti umani possono fornire contesto, competenza nel dominio e pensiero critico, che sono difficili da replicare per i sistemi automatizzati. Inoltre, la trasparenza e il miglioramento continuo sono fondamentali per garantire l’efficacia e l’affidabilità dei sistemi di verifica dei fatti AI.

Strategie per Mitigare i Rischi e Migliorare la Verifica dei Fatti AI

Mitigare i rischi della verifica dei fatti AI e migliorare la sua accuratezza e affidabilità richiede un approccio multiforme che coinvolga miglioramenti tecnologici, supervisione umana e considerazioni etiche. Ecco alcune strategie chiave:

  • Migliora i dati di addestramento: migliora i dati di addestramento utilizzati per addestrare modelli AI integrando fonti complete e diversificate di informazioni accurate. Garantire che i dati siano non pregiudiziali, aggiornati e coprano un’ampia gamma di argomenti e prospettive.

  • Incorpora esperti umani: colma le limitazioni dell’AI incorporando verificatori di fatti umani nel processo di verifica dei fatti AI. Gli esperti umani possono fornire contesto, pensiero critico e competenza nel dominio, che sono difficili da replicare per i sistemi automatizzati.

  • Sviluppa approcci ibridi: sviluppa approcci ibridi che combinano l’AI con la supervisione umana. L’AI può essere utilizzata per identificare potenziali disinformazioni, mentre i verificatori di fatti umani possono rivedere e convalidare i risultati.

  • Implementa processi trasparenti: stabilisci processi e metodologie di verifica dei fatti trasparenti in modo che gli utenti possano capire come vengono tratte le conclusioni e valutarne l’accuratezza. Fornire informazioni sulle fonti dei dati, sugli algoritmi e sul coinvolgimento umano.

  • Promuovi l’alfabetizzazione mediatica: promuovi l’alfabetizzazione mediatica attraverso programmi educativi e campagne di sensibilizzazione per aiutare le persone a valutare criticamente le informazioni, identificare la disinformazione e prendere decisioni informate.

  • Incoraggia la collaborazione intersettoriale: incoraggia la collaborazione tra aziende tecnologiche, organizzazioni di verifica dei fatti, ricercatori e politici per condividere conoscenze, migliori pratiche e risorse. Lavora insieme per affrontare le sfide e le opportunità nella verifica dei fatti AI.

  • Affronta le barriere linguistiche: sviluppa strumenti di verifica dei fatti AI che possono affrontare efficacemente la disinformazione in diverse lingue. Investi nella traduzione automatica e addestra modelli specializzati per ogni lingua.

  • Valuta e migliora continuamente: valuta continuamente le prestazioni dei sistemi di verifica dei fatti AI, identifica le aree di miglioramento e ottimizza gli algoritmi. Condurre audit e test regolari per garantire accuratezza e affidabilità.

  • Stabilisci linee guida etiche: stabilisci linee guida etiche per lo sviluppo e l’implementazione della verifica dei fatti AI, affrontando questioni come pregiudizio, trasparenza, responsabilità e rispetto dei diritti umani. Garantire che i sistemi di verifica dei fatti AI siano utilizzati in modo equo, imparziale e responsabile.

Implementando queste strategie, possiamo migliorare l’accuratezza e l’affidabilità della verifica dei fatti AI, mitigare i rischi e massimizzare il suo potenziale per combattere la disinformazione.

Il Ruolo dell’Alfabetizzazione Informatica e del Pensiero Critico

Data la vasta quantità di informazioni disponibili online e il potenziale per i chatbot AI di diffondere informazioni inaccurate, è essenziale coltivare l’alfabetizzazione informatica e il pensiero critico. L’alfabetizzazione informatica consente alle persone di accedere, valutare e utilizzare efficacemente le informazioni. Il pensiero critico consente alle persone di analizzare, interpretare e formulare giudizi informati.

Ecco alcune competenze essenziali per l’alfabetizzazione informatica e il pensiero critico:

  • Identifica le fonti credibili: valuta l’affidabilità, la credibilità e i pregiudizi delle fonti di informazione. Cerca fonti con competenza, politiche trasparenti e prove a sostegno dei fatti.

  • Verifica le informazioni: verifica le informazioni consultando più fonti credibili. Diffida delle affermazioni non confermate, delle teorie del complotto e dei titoli sensazionalistici.

  • Identifica i pregiudizi: sii consapevole del fatto che tutte le fonti di informazione possono contenere pregiudizi. Valuta i pregiudizi, gli ordini del giorno o le affiliazioni politiche dell’autore o dell’organizzazione.

  • Analizza gli argomenti: valuta le prove e il ragionamento presentati da una fonte di informazione. Cerca fallacie logiche, reporting selettivo e appelli emotivi.

  • Considera prospettive diverse: cerca prospettive e punti di vista diversi su un problema. Impegnati in conversazioni con persone che hanno opinioni diverse e considera argomentazioni alternative.

  • Mantieni una mente aperta: sii disposto a cambiare la tua mente in base a nuove informazioni o prove. Evita il pregiudizio di conferma, che è la tendenza a cercare solo informazioni che confermano le convinzioni esistenti.

Potenziare l’alfabetizzazione informatica e il pensiero critico può essere ottenuto attraverso vari sforzi, come ad esempio:

  • Programmi educativi: offrire programmi educativi sull’alfabetizzazione informatica e il pensiero critico nelle scuole, nelle università e nelle organizzazioni comunitarie.

  • Campagne di alfabetizzazione mediatica: lanciare annunci di servizio pubblico, risorse online e seminari di alfabetizzazione mediatica per aumentare la consapevolezza e promuovere il pensiero critico.

  • Formazione degli insegnanti: fornire agli insegnanti una formazione su come insegnare competenze di alfabetizzazione informatica e pensiero critico.

  • Coinvolgimento dei genitori: incoraggiare i genitori a essere coinvolti nelle abitudini di consumo dei media dei propri figli e a discutere l’accuratezza e l’affidabilità delle informazioni online.

Coltivando l’alfabetizzazione informatica e il pensiero critico, possiamo consentire alle persone di prendere decisioni informate, evitare la disinformazione ed essere cittadini impegnati e attivi nell’era digitale ricca di informazioni.