Le recenti indagini hanno portato alla luce un aspetto affascinante ma preoccupante dell’intelligenza artificiale (AI): la sua suscettibilità a tendenze irrazionali simili a quelle osservate nel processo decisionale umano. Questa rivelazione sfida la percezione convenzionale dell’AI come strumento oggettivo e imparziale, spingendo a una rivalutazione della sua utilità pratica in diverse applicazioni.
Un rivoluzionario studio ha esaminato meticolosamente il comportamento di ChatGPT, un importante sistema di AI, attraverso uno spettro di distorsioni cognitive prevalenti nella psicologia umana. I risultati, pubblicati nella stimata rivista Manufacturing & Service Operations Management, hanno rivelato che ChatGPT ha esibito numerosi schemi decisionali irrazionali in quasi la metà degli scenari valutati. Questi schemi comprendono distorsioni ben documentate come la fallacia della mano calda, la negligenza del tasso di base e la fallacia dei costi irrecuperabili, sollevando significative preoccupazioni sull’affidabilità e l’idoneità dell’AI in contesti decisionali critici.
Svelare i difetti umani nell’AI
La ricerca, condotta da un consorzio di esperti provenienti da cinque illustri istituzioni accademiche tra Canada e Australia, ha valutato rigorosamente le prestazioni di GPT-3.5 e GPT-4 di OpenAI, i modelli linguistici di grandi dimensioni (LLM) fondamentali che alimentano ChatGPT. L’analisi completa dello studio ha rivelato che, nonostante la "impressionante coerenza" esibita da questi LLM nei loro processi di ragionamento, sono tutt’altro che immuni da imperfezioni e distorsioni simili a quelle umane.
Gli autori hanno astutamente evidenziato che questa coerenza intrinseca all’interno dei sistemi di AI presenta sia vantaggi che svantaggi. Mentre la coerenza può semplificare le attività con soluzioni chiare e formali, pone potenziali rischi quando applicata a decisioni soggettive o guidate dalle preferenze. In tali scenari, la replica delle distorsioni umane da parte dell’AI potrebbe portare a risultati errati e distorti.
Yang Chen, l’autore principale dello studio e assistente professore di gestione delle operazioni presso la stimata Ivey Business School, ha sottolineato l’importanza di discernere le applicazioni appropriate degli strumenti di AI. Ha avvertito che, mentre l’AI eccelle in compiti che richiedono calcoli precisi e ragionamento logico, la sua applicazione nei processi decisionali soggettivi richiede un’attenta considerazione e un monitoraggio vigile.
Simulare le distorsioni umane nell’AI
Per approfondire la presenza di distorsioni umane all’interno dei sistemi di AI, i ricercatori hanno ideato una serie di esperimenti che rispecchiavano le distorsioni umane comunemente note, tra cui l’avversione al rischio, l’eccessiva sicurezza e l’effetto dotazione. Hanno presentato a ChatGPT suggerimenti progettati per innescare queste distorsioni e hanno analizzato meticolosamente le risposte dell’AI per determinare se soccomberebbe alle stesse trappole cognitive degli umani.
Gli scienziati hanno posto domande ipotetiche, adattate da tradizionali esperimenti di psicologia, agli LLM. Queste domande sono state inquadrate nel contesto di applicazioni commerciali del mondo reale, che coprono aree come la gestione dell’inventario e le negoziazioni con i fornitori. L’obiettivo era accertare se l’AI avrebbe emulato le distorsioni umane e se la sua suscettibilità a queste distorsioni sarebbe persistita in diversi domini aziendali.
I risultati hanno rivelato che GPT-4 ha sovraperformato il suo predecessore, GPT-3.5, nella risoluzione di problemi con soluzioni matematiche esplicite. GPT-4 ha esibito meno errori in scenari che richiedevano calcoli di probabilità e ragionamento logico. Tuttavia, in simulazioni soggettive, come decidere se perseguire un’opzione rischiosa per assicurarsi un guadagno, la chatbot ha frequentemente rispecchiato le preferenze irrazionali mostrate dagli umani.
La preferenza dell’AI per la certezza
In particolare, lo studio ha rivelato che "GPT-4 mostra una preferenza più forte per la certezza di quanto facciano persino gli umani". Questa osservazione sottolinea la tendenza dell’AI a favorire risultati più sicuri e prevedibili quando confrontata con compiti ambigui. L’inclinazione verso la certezza può essere vantaggiosa in determinate situazioni, ma può anche limitare la capacità dell’AI di esplorare soluzioni innovative o adattarsi a circostanze impreviste.
Significativamente, i comportamenti delle chatbot sono rimasti notevolmente coerenti, indipendentemente dal fatto che le domande fossero presentate come problemi psicologici astratti o processi aziendali operativi. Questa coerenza suggerisce che le distorsioni osservate non erano semplicemente il risultato di esempi memorizzati, ma piuttosto un aspetto intrinseco del modo in cui i sistemi di AI ragionano ed elaborano le informazioni. Lo studio ha concluso che le distorsioni esibite dall’AI sono incorporate nei suoi meccanismi di ragionamento.
Una delle rivelazioni più sorprendenti dello studio è stato il modo in cui GPT-4 occasionalmente amplificava gli errori simili a quelli umani. Nei compiti di distorsione di conferma, GPT-4 ha fornito costantemente risposte distorte. Inoltre, ha esibito una maggiore inclinazione verso la fallacia della mano calda rispetto a GPT 3.5, indicando una maggiore tendenza a percepire modelli nella casualità.
Istanze di evitamento della distorsione
Curiosamente, ChatGPT ha dimostrato la capacità di aggirare alcune distorsioni umane comuni, tra cui la negligenza del tasso di base e la fallacia dei costi irrecuperabili. La negligenza del tasso di base si verifica quando gli individui ignorano i fatti statistici a favore di informazioni aneddotiche o specifiche del caso. La fallacia dei costi irrecuperabili sorge quando il processo decisionale è indebitamente influenzato dai costi che sono già stati sostenuti, oscurando il giudizio razionale.
Gli autori ipotizzano che le distorsioni simili a quelle umane di ChatGPT derivino dai dati di addestramento a cui è esposto, che comprendono le distorsioni cognitive e le euristiche che gli umani esibiscono. Queste tendenze sono ulteriormente rafforzate durante il processo di messa a punto, in particolare quando il feedback umano privilegia le risposte plausibili rispetto a quelle razionali. Di fronte a compiti ambigui, l’AI tende a gravitare verso schemi di ragionamento umano piuttosto che affidarsi esclusivamente alla logica diretta.
Navigare tra le distorsioni dell’AI
Per mitigare i rischi associati alle distorsioni dell’AI, i ricercatori sostengono un approccio giudizioso alla sua applicazione. Raccomandano che l’AI sia impiegata in aree in cui risiedono i suoi punti di forza, come compiti che richiedono accuratezza e calcoli imparziali, simili a quelli eseguiti da una calcolatrice. Tuttavia, quando il risultato dipende da input soggettivi o strategici, la supervisione umana diventa fondamentale.
Chen sottolinea che "Se si desidera un supporto decisionale accurato e imparziale, utilizzare GPT in aree in cui ci si fiderebbe già di una calcolatrice". Suggerisce inoltre che l’intervento umano, come la regolazione dei suggerimenti dell’utente per correggere le distorsioni note, è essenziale quando l’AI viene utilizzata in contesti che richiedono giudizio sfumato e pensiero strategico.
Meena Andiappan, co-autrice dello studio e professore associato di risorse umane e gestione presso la McMaster University in Canada, sostiene di trattare l’AI come un dipendente che prende decisioni importanti. Sottolinea la necessità di supervisione e linee guida etiche per garantire che l’AI sia utilizzata in modo responsabile ed efficace. La mancata fornitura di tali indicazioni potrebbe portare all’automazione di un pensiero errato, piuttosto che al miglioramento desiderato nei processi decisionali.
Implicazioni e considerazioni
I risultati dello studio hanno profonde implicazioni per lo sviluppo e l’implementazione di sistemi di AI in diversi settori. La rivelazione che l’AI è suscettibile a distorsioni simili a quelle umane sottolinea l’importanza di valutare attentamente la sua idoneità per compiti specifici e di implementare misure di salvaguardia per mitigare i potenziali rischi.
Le organizzazioni che si affidano all’AI per il processo decisionale devono essere consapevoli del potenziale di distorsione e adottare misure per affrontarlo. Ciò può comportare la fornitura di dati di addestramento aggiuntivi per ridurre la distorsione, l’utilizzo di algoritmi meno soggetti a distorsioni o l’implementazione della supervisione umana per garantire che le decisioni di AI siano eque e accurate.
Lo studio evidenzia anche la necessità di ulteriori ricerche sulle cause e le conseguenze della distorsione dell’AI. Acquisendo una migliore comprensione di come i sistemi di AI sviluppano distorsioni, possiamo sviluppare strategie per impedirne l’insorgenza in primo luogo.
Raccomandazioni per un’implementazione responsabile dell’AI
Per garantire un’implementazione responsabile ed efficace dei sistemi di AI, è necessario considerare le seguenti raccomandazioni:
- Valutare a fondo i sistemi di AI per potenziali distorsioni prima della distribuzione. Ciò include il test del sistema di AI su una varietà di set di dati e scenari per identificare eventuali aree in cui potrebbe essere soggetto a distorsioni.
- Fornire dati di addestramento aggiuntivi per ridurre la distorsione. Più diversi e rappresentativi sono i dati di addestramento, meno è probabile che il sistema di AI sviluppi distorsioni.
- Utilizzare algoritmi meno soggetti a distorsioni. Alcuni algoritmi sono più suscettibili a distorsioni rispetto ad altri. Quando si seleziona un algoritmo per un compito particolare, è importante considerare il suo potenziale di distorsione.
- Implementare la supervisione umana per garantire che le decisioni di AI siano eque e accurate. La supervisione umana può aiutare a identificare e correggere eventuali distorsioni nelle decisioni di AI.
- Stabilire chiare linee guida etiche per l’uso dell’AI. Queste linee guida devono affrontare questioni come equità, responsabilità e trasparenza.
Seguendo queste raccomandazioni, le organizzazioni possono garantire che i sistemi di AI siano utilizzati in un modo che sia sia vantaggioso che responsabile. Le intuizioni raccolte da questa ricerca fungono da prezioso promemoria che, sebbene l’AI offra immense promesse, è fondamentale avvicinarsi alla sua implementazione con cautela e un impegno per i principi etici. Solo allora possiamo sfruttare appieno il potenziale dell’AI salvaguardando al contempo i suoi potenziali pericoli.