L’illusione dell’accuratezza
La promessa fondamentale dei motori di ricerca era quella di connettere gli utenti con fonti credibili. Ora, questa promessa viene erosa. Gli strumenti di ricerca basati sull’intelligenza artificiale (AI) stanno sempre più dando priorità alla velocità rispetto alla sostanza, sfornando risposte che appaiono sicure ma mancano del supporto essenziale di prove verificabili. Ciò a cui stiamo assistendo è un passaggio da un sistema che guida gli utenti verso informazioni affidabili, a uno che fabbrica risposte, spesso con poca considerazione per la loro veridicità.
Non si tratta semplicemente di errori occasionali. È un problema sistemico. Lo studio del Columbia Journalism Review (CJR) rivela che i motori di ricerca AI non stanno solo commettendo errori; stanno attivamente costruendo una realtà separata da fonti verificabili. Stanno estraendo contenuti da tutto il web, ma invece di indirizzare gli utenti alle fonti originali – i siti web che producono e pubblicano faticosamente informazioni – stanno fornendo risposte istantanee, spesso inventate.
Il calo del traffico e le citazioni fantasma
Le conseguenze di questo approccio sono di vasta portata. L’impatto immediato è una significativa riduzione del traffico verso le fonti originali di informazione. Siti web, testate giornalistiche e ricercatori che investono tempo e risorse nella creazione di contenuti si ritrovano bypassati. Gli utenti ottengono le risposte direttamente dall’AI, senza bisogno di visitare i siti che hanno originato le informazioni.
Uno studio separato conferma questa tendenza allarmante, rilevando che le percentuali di clic (click-through rates) dai risultati di ricerca generati dall’AI e dai chatbot sono sostanzialmente inferiori a quelle dei motori di ricerca tradizionali come Google. Ciò significa che la linfa vitale dei contenuti online – la capacità di raggiungere un pubblico – viene lentamente soffocata.
Ma il problema è ancora più profondo. Questi strumenti di intelligenza artificiale non solo non riescono ad accreditare le fonti; stanno spesso creando citazioni fantasma. Stanno generando collegamenti a pagine web inesistenti o a URL interrotti o irrilevanti. Questo è simile a uno studente che scrive un documento di ricerca e inventa fonti per supportare le proprie affermazioni. Non è solo sciatto; è una violazione fondamentale dell’onestà intellettuale.
Un’immersione profonda nell’inganno
Lo studio del CJR ha analizzato meticolosamente le prestazioni di diversi modelli di ricerca AI leader. I risultati sono profondamente inquietanti. Più della metà delle citazioni generate da Gemini di Google e Grok 3 di xAI – due attori di spicco nel panorama della ricerca AI – ha portato a pagine web inventate o inaccessibili. Questo non è un piccolo problema tecnico; è un fallimento sistemico.
E il problema va oltre le citazioni. I chatbot, in generale, hanno fornito informazioni errate in un sorprendente più del 60% dei casi. Tra i modelli valutati, Grok 3 si è distinto come il peggior trasgressore, con un scioccante 94% delle sue risposte contenenti imprecisioni. Gemini, pur avendo prestazioni leggermente migliori, è comunque riuscito a fornire una risposta completamente corretta solo una volta ogni dieci tentativi. Anche Perplexity, che è emerso come il più accurato dei modelli testati, ha comunque restituito risposte errate il 37% delle volte.
Questi numeri non sono solo statistiche; rappresentano un crollo fondamentale nell’affidabilità delle informazioni. Suggeriscono che gli stessi strumenti progettati per aiutarci a navigare nelle complessità del mondo digitale ci stanno, di fatto, portando fuori strada.
Ignorare le regole: il protocollo di esclusione dei robot
Gli autori dello studio hanno portato alla luce un altro aspetto preoccupante di questo inganno guidato dall’AI. Diversi modelli di intelligenza artificiale sembravano ignorare deliberatamente il Robot Exclusion Protocol. Questo protocollo è un meccanismo standard e ampiamente adottato che consente ai siti web di controllare quali parti del loro sito possono essere accessibili e analizzate da bot automatizzati. È un modo per i siti web di proteggere i propri contenuti e gestire il modo in cui vengono utilizzati.
Il fatto che i motori di ricerca AI stiano ignorando questo protocollo solleva seri interrogativi etici. Suggerisce un disprezzo per i diritti dei creatori di contenuti e una volontà di sfruttare le informazioni online senza autorizzazione. Questo comportamento mina le fondamenta stesse del web, che si basa su un delicato equilibrio tra l’accesso alle informazioni e la protezione della proprietà intellettuale.
Echi di avvertimenti passati
I risultati dello studio del CJR non sono isolati. Sono in sintonia con uno studio precedente pubblicato nel novembre 2024, che si concentrava sulle capacità di ricerca di ChatGPT. Quella precedente indagine ha rivelato un modello coerente di risposte sicure ma errate, citazioni fuorvianti e recupero di informazioni inaffidabile. In altre parole, i problemi identificati dal CJR non sono nuovi; sono persistenti e sistemici.
L’erosione della fiducia e dell’agency
Gli esperti del settore hanno lanciato l’allarme sui pericoli dell’AI generativa da tempo. Critici come Chirag Shah ed Emily M. Bender hanno sollevato preoccupazioni sul fatto che i motori di ricerca AI stiano erodendo l’agency dell’utente, amplificando i pregiudizi nell’accesso alle informazioni e presentando frequentemente risposte fuorvianti o persino tossiche che gli utenti potrebbero accettare senza porsi domande.
Il problema centrale è che questi modelli di intelligenza artificiale sono progettati per sembrare autorevoli, anche quando si sbagliano. Sono addestrati su vasti set di dati di testo e codice e sono in grado di generare risposte che imitano il linguaggio umano con notevole fluidità. Ma questa fluidità può essere ingannevole. Può mascherare il fatto che le informazioni sottostanti sono errate, inventate o semplicemente non corrette.
La meccanica della disinformazione
Lo studio del CJR ha comportato un’analisi dettagliata di 1.600 query, progettate per confrontare il modo in cui diversi modelli di ricerca AI generativa recuperavano le informazioni. I ricercatori si sono concentrati su elementi chiave come titoli, editori, date di pubblicazione e URL. Hanno testato una gamma di modelli, tra cui ChatGPT Search, Microsoft CoPilot, DeepSeek Search, Perplexity (e la sua versione Pro), Grok-2 e Grok-3 Search di xAI e Google Gemini.
La metodologia di test è stata rigorosa. I ricercatori hanno utilizzato estratti diretti da dieci articoli selezionati casualmente, provenienti da 20 diversi editori. Questo approccio ha garantito che le query fossero basate su contenuti del mondo reale e che i modelli venissero valutati in base alla loro capacità di recuperare e rappresentare accuratamente tali contenuti.
I risultati, come dettagliato in precedenza, dipingono un quadro cupo dello stato della ricerca basata sull’intelligenza artificiale. Gli strumenti che stanno diventando sempre più i nostri principali gateway per le informazioni sono dimostrabilmente inaffidabili, inclini alla fabbricazione e spesso irrispettosi delle stesse fonti da cui dipendono.
Le implicazioni per il futuro dell’informazione
Le implicazioni di questa diffusa disinformazione sono profonde. Se non possiamo fidarci degli strumenti che utilizziamo per trovare informazioni, come possiamo prendere decisioni informate? Come possiamo impegnarci in un dibattito significativo? Come possiamo ritenere il potere responsabile?
L’ascesa della ricerca basata sull’intelligenza artificiale, con i suoi difetti e pregiudizi intrinseci, rappresenta una minaccia significativa per il tessuto stesso del nostro ecosistema informativo. Mina la credibilità delle testate giornalistiche, dei ricercatori e di altri creatori di contenuti. Erode la fiducia del pubblico nelle istituzioni. E dà potere a coloro che cercano di diffondere disinformazione e manipolare l’opinione pubblica.
La sfida che ci attende non è semplicemente quella di migliorare l’accuratezza dei motori di ricerca AI. È ripensare radicalmente il modo in cui ci avviciniamo alla ricerca di informazioni nell’era digitale. Dobbiamo dare priorità alla trasparenza, alla responsabilità e al rispetto per le fonti di informazione. Dobbiamo sviluppare strumenti e strategie che consentano agli utenti di valutare criticamente le informazioni che incontrano online. E dobbiamo promuovere una cultura dello scetticismo e del pensiero critico, in cui non siamo semplicemente destinatari passivi di informazioni, ma partecipanti attivi alla ricerca della verità. Il futuro del discorso informato, e forse anche la democrazia stessa, dipende da questo.
La crisi della disinformazione nella ricerca basata sull’intelligenza artificiale non è solo un problema tecnico; è un problema sociale. Richiede una risposta multiforme, che coinvolga non solo ingegneri e sviluppatori, ma anche giornalisti, educatori, responsabili politici e il pubblico in generale. Dobbiamo lavorare collettivamente per costruire un ecosistema informativo più affidabile, trasparente e degno di fiducia, che serva le esigenze dei cittadini informati, non i fornitori di falsità.
La traiettoria attuale è insostenibile. Se la ricerca AI continua a dare priorità alla velocità e alla convenienza rispetto all’accuratezza e alla verità, rischiamo di creare un mondo in cui la disinformazione regna sovrana e in cui la nozione stessa di realtà oggettiva diventa sempre più sfuggente. La posta in gioco è semplicemente troppo alta per permettere che ciò accada.