Allucinazioni nei Modelli ChatGPT: Un Problema Crescente

Recenti studi hanno rivelato una tendenza preoccupante: i modelli ChatGPT più recenti mostrano un tasso più elevato di allucinazioni rispetto ai loro predecessori. Questa scoperta solleva questioni critiche sui compromessi tra capacità avanzate e affidabilità nei modelli linguistici di grandi dimensioni (LLM). Approfondiamo i dettagli di queste scoperte ed esploriamo le potenziali implicazioni.

Comprendere il Fenomeno

I test interni di OpenAI, come dettagliato in un recente documento, evidenziano un aumento significativo dei tassi di allucinazione in modelli come o3 e o4-mini. Questi modelli, progettati con capacità di ragionamento avanzate e multimodali, rappresentano l’avanguardia della tecnologia AI. Possono generare immagini, condurre ricerche sul web, automatizzare attività, ricordare conversazioni passate e risolvere problemi complessi. Tuttavia, questi progressi sembrano avere un costo.

Per quantificare l’entità di queste allucinazioni, OpenAI utilizza un test specifico chiamato PersonQA. Questo test prevede di fornire al modello una serie di fatti su vari individui e quindi porre domande su quegli individui. L’accuratezza del modello viene quindi valutata in base alla sua capacità di fornire risposte corrette.

Nelle precedenti valutazioni, il modello o1 ha raggiunto un encomiabile tasso di accuratezza del 47% con un tasso di allucinazione di solo il 16%. Tuttavia, quando o3 e o4-mini sono stati sottoposti alla stessa valutazione, i risultati sono stati notevolmente diversi.

Il modello o4-mini, essendo una variante più piccola con meno conoscenza del mondo, si prevedeva che mostrasse un tasso di allucinazione più elevato. Tuttavia, il tasso effettivo del 48% è stato sorprendentemente alto, considerando che o4-mini è un prodotto disponibile in commercio ampiamente utilizzato per ricerche sul web e recupero di informazioni.

Anche il modello o3 a grandezza naturale ha dimostrato una preoccupante tendenza ad allucinare. Nel 33% delle sue risposte, il modello ha fabbricato informazioni, raddoppiando di fatto il tasso di allucinazione del modello o1. Nonostante ciò, o3 ha anche raggiunto un alto tasso di accuratezza, che OpenAI attribuisce alla sua propensione a fare più affermazioni in generale.

Definizione di Allucinazioni

Il termine ‘allucinazione’, nel contesto dell’AI, si riferisce alla tendenza di un modello a generare risposte che sono fattualmente errate o insensate senza alcuna fonte o giustificazione apparente. Questi non sono semplicemente errori derivanti da dati errati o interpretazioni errate. Invece, le allucinazioni rappresentano un difetto più fondamentale nel processo di ragionamento del modello.

Mentre informazioni inaccurate possono certamente provenire da varie fonti, come voci di Wikipedia o thread di Reddit, questi esempi sono più simili a errori tracciabili che possono essere attribuiti a specifici punti dati. Le allucinazioni, d’altra parte, sono caratterizzate dall’invenzione di fatti da parte del modello AI in momenti di incertezza, un fenomeno che alcuni esperti hanno definito ‘riempimento creativo del divario’.

Per illustrare questo punto, considera la domanda: ‘Quali sono i sette modelli di iPhone 16 disponibili in questo momento?’ Poiché solo Apple sa cosa sarà il prossimo iPhone, l’LLM probabilmente fornirà alcune risposte reali e quindi creerà modelli aggiuntivi per finire il lavoro. Questo è un chiaro esempio di allucinazione, in cui il modello fabbrica informazioni per completare l’attività, o quello che viene chiamato ‘riempimento creativo del divario’.

Il Ruolo dei Dati di Addestramento

I chatbot come ChatGPT sono addestrati su grandi quantità di dati Internet. Questi dati informano il contenuto delle loro risposte ma modellano anche il modo in cui rispondono. I modelli sono esposti a innumerevoli esempi di query e risposte ideali corrispondenti, che rafforzano toni, atteggiamenti e livelli di cortesia specifici.

Questo processo di addestramento può inavvertitamente contribuire al problema delle allucinazioni. I modelli sono incoraggiati a fornire risposte sicure che affrontino direttamente la domanda. Questo può portarli a dare la priorità alla risposta alla domanda, anche se devono inventare informazioni per farlo, piuttosto che ammettere di non conoscere la risposta.

In sostanza, il processo di addestramento può inavvertitamente premiare risposte sicure e apparentemente competenti, anche se sono fattualmente errate. Questo può creare una propensione a generare risposte, indipendentemente dalla loro accuratezza, che può esacerbare il problema delle allucinazioni.

La Natura degli Errori dell’AI

È allettante tracciare paralleli tra gli errori dell’AI e gli errori umani. Dopotutto, gli umani non sono infallibili e non dovremmo aspettarci che l’AI sia perfetta. Tuttavia, è fondamentale riconoscere che gli errori dell’AI derivano da processi fondamentalmente diversi dagli errori umani.

I modelli AI non mentono, sviluppano incomprensioni o ricordano male le informazioni nello stesso modo in cui lo fanno gli umani. Mancano delle capacità cognitive e della consapevolezza contestuale che sono alla base del ragionamento umano. Invece, operano in base alle probabilità, prevedendo la parola successiva in una frase in base ai modelli osservati nei loro dati di addestramento.

Questo approccio probabilistico significa che i modelli AI non possiedono una vera comprensione dell’accuratezza o dell’imprecisione. Generano semplicemente la sequenza di parole più probabile in base alle relazioni statistiche che hanno appreso dai loro dati di addestramento. Questo può portare alla generazione di risposte apparentemente coerenti che sono, in realtà, fattualmente errate.

Mentre ai modelli viene fornito l’equivalente di un intero Internet di informazioni, non viene detto loro quali informazioni sono buone o cattive, accurate o inaccurate — non viene detto loro nulla. Non hanno una conoscenza di base esistente o una serie di principi sottostanti per aiutarli a ordinare le informazioni da soli. È tutto solo un gioco di numeri — i modelli di parole che esistono più frequentemente in un determinato contesto diventano la ‘verità’ dell’LLM.

Affrontare la Sfida

Il crescente tasso di allucinazioni nei modelli AI avanzati pone una sfida significativa. OpenAI e altri sviluppatori di AI stanno lavorando attivamente per comprendere e mitigare questo problema. Tuttavia, le cause sottostanti delle allucinazioni non sono completamente comprese e trovare soluzioni efficaci rimane uno sforzo continuo.

Un approccio potenziale è migliorare la qualità e la diversità dei dati di addestramento. Esponendo i modelli a informazioni più accurate e complete, gli sviluppatori possono ridurre la probabilità che imparino e perpetuino informazioni false.

Un altro approccio è sviluppare tecniche più sofisticate per rilevare e prevenire le allucinazioni. Ciò potrebbe comportare l’addestramento dei modelli per riconoscere quando sono incerti su un particolare elemento di informazioni e per astenersi dal fare affermazioni senza prove sufficienti.

Nel frattempo, OpenAI potrebbe aver bisogno di perseguire anche una soluzione a breve termine, oltre a continuare la sua ricerca sulla causa principale. Dopotutto, questi modelli sono prodotti che fanno soldi e devono essere in uno stato utilizzabile. Un’idea sarebbe quella di creare una sorta di prodotto aggregato — un’interfaccia di chat che ha accesso a più modelli OpenAI diversi.

Quando una query richiede un ragionamento avanzato, chiamerebbe GPT-4o e, quando vuole ridurre al minimo le possibilità di allucinazioni, chiamerebbe un modello più vecchio come o1. Forse l’azienda sarebbe in grado di diventare ancora più fantasiosa e utilizzare modelli diversi per prendersi cura di diversi elementi di una singola query, e quindi utilizzare un modello aggiuntivo per unirli tutti alla fine. Poiché questo sarebbe essenzialmente un lavoro di squadra tra più modelli AI, forse potrebbe essere implementato anche una sorta di sistema di controllo dei fatti.

Aumentare i tassi di accuratezza non è l’obiettivo principale. L’obiettivo principale è ridurre i tassi di allucinazione, il che significa che dobbiamo valorizzare le risposte che dicono ‘Non lo so’ così come le risposte con le risposte giuste.

L’Importanza del Controllo dei Fatti

La crescente prevalenza di allucinazioni nei modelli AI sottolinea l’importanza del controllo dei fatti. Mentre questi modelli possono essere strumenti preziosi per il recupero di informazioni e l’automazione delle attività, non dovrebbero essere trattati come fonti infallibili di verità.

Gli utenti dovrebbero sempre prestare attenzione quando interpretano l’output dei modelli AI e dovrebbero verificare in modo indipendente qualsiasi informazione ricevano. Questo è particolarmente cruciale quando si tratta di questioni sensibili o consequenziali.

Adottando un approccio critico e scettico ai contenuti generati dall’AI, possiamo mitigare i rischi associati alle allucinazioni e garantire che stiamo prendendo decisioni informate sulla base di informazioni accurate. Se sei appassionato di LLM, non c’è bisogno di smettere di usarli — ma non lasciare che il desiderio di risparmiare tempo prevalga sulla necessità di controllare i fatti dei risultati. Controlla sempre i fatti!

Implicazioni per il Futuro dell’AI

La sfida delle allucinazioni ha implicazioni significative per il futuro dell’AI. Man mano che i modelli AI diventano più integrati nelle nostre vite, è essenziale che siano affidabili e degni di fiducia. Se i modelli AI sono inclini a generare informazioni false o fuorvianti, ciò potrebbe erodere la fiducia del pubblico e ostacolare la loro adozione diffusa.

Affrontare il problema delle allucinazioni non è solo cruciale per migliorare l’accuratezza dei modelli AI, ma anche per garantire il loro uso etico e responsabile. Sviluppando sistemi AI meno inclini alle allucinazioni, possiamo sfruttare il loro potenziale per il bene mitigando al contempo i rischi di disinformazione e inganno.