Un modello di intelligenza artificiale cinese, DeepSeek, che aveva attirato notevole attenzione ed elogi all’inizio di quest’anno, è recentemente finito sotto esame da parte di Robin Li, il Presidente e CEO di Baidu. Durante la Baidu AI Developer Conference del 25 aprile, Li ha espresso riserve sulle capacità di DeepSeek, citando le sue limitazioni nell’elaborazione di diversi formati multimediali, le sue prestazioni lente e i costi elevati, e la sua propensione a generare informazioni imprecise, rendendolo inaffidabile per un uso diffuso.
Il Debutto Controverso di DeepSeek
Secondo i report di Guancha.cn e Sina.com, Li ha affrontato il panorama fluttuante dei modelli di intelligenza artificiale su larga scala durante la conferenza. Ha evidenziato l’intensa competizione tra gli sviluppatori di modelli, spesso descritta come una ‘corsa al massacro’, e la conseguente confusione ed esitazione tra gli sviluppatori a creare applicazioni con sicurezza.
Li ha sottolineato che ‘Senza applicazioni, chip e modelli non valgono niente’. Ha individuato l’alto costo e l’impraticabilità dell’utilizzo dei modelli attuali su larga scala come un ostacolo importante per gli sviluppatori che mirano a costruire applicazioni di intelligenza artificiale.
DeepSeek, una startup con sede a Hangzhou, in Cina, ha rilasciato il suo modello di ragionamento open-source, R1, a gennaio. All’epoca, i media statali lodavano DeepSeek come superiore a nomi come OpenAI. Tuttavia, indagini successive da parte di utenti e ricercatori hanno rivelato carenze, vulnerabilità di sicurezza e potenziali rischi. Numerosi governi, tra cui Taiwan, Giappone, Corea del Sud, Stati Uniti, Canada, Italia, Australia e Paesi Bassi, insieme a centinaia di aziende, hanno vietato l’uso di DeepSeek sui dispositivi governativi e aziendali.
L’8 febbraio, esperti di sicurezza dell’AI hanno condiviso con i media i risultati di test di sicurezza approfonditi su DeepSeek. Hanno scoperto che DeepSeek era più suscettibile al ‘jailbreaking’ rispetto a ChatGPT, Gemini e Claude. Questa vulnerabilità consentiva agli utenti di aggirare le restrizioni di sicurezza originali dell’AI, rendendo più facile ottenere contenuti potenzialmente pericolosi, dannosi o illegali.
A marzo, ‘Luchen Technology’, una società di infrastrutture AI con legami con l’Università Tsinghua, che è stata tra le prime a integrare i modelli DeepSeek per fornire servizi API e cloud mirror, ha annunciato la sospensione dei servizi correlati. Il fondatore dell’azienda, You Yang, ha rivelato in un post che i costi effettivi associati a DeepSeek erano significativamente superiori ai costi teorici. A seguito di una reazione negativa online, ha dichiarato pubblicamente che DeepSeek non poteva operare senza utilizzare la tecnologia americana nel breve termine, chiedendosi perché questa realtà non potesse essere riconosciuta apertamente.
Secondo un rapporto di Sina Technology del 4 marzo, DeepSeek ha annunciato un margine di profitto teorico sui costi del 545% per il suo sistema online il 1° marzo alle 17:02. Successivamente, Luchen Technology ha annunciato che avrebbe interrotto la fornitura di servizi API DeepSeek entro una settimana, esortando gli utenti a utilizzare i loro saldi rimanenti.
Il rapporto ha osservato che Luchen Technology non ha divulgato pubblicamente le ragioni specifiche per l’interruzione del servizio API DeepSeek. Tuttavia, l’analisi approfondita dei costi di DeepSeek da parte del fondatore su piattaforme come Zhihu suggerisce che il costo è stato un fattore primario nella decisione di cessare la fornitura del servizio API.
Preoccupazioni per la Sicurezza Nazionale
I collegamenti tra DeepSeek e il governo cinese sono potenzialmente più diretti di quanto inizialmente percepito. Feroot Security, una società canadese di cybersecurity, ha scoperto collegamenti significativi tra la pagina di accesso del sito web di DeepSeek e China Mobile, una società statale cinese precedentemente sanzionata dal governo degli Stati Uniti.
Negli ultimi mesi, le preoccupazioni per la sicurezza nazionale hanno portato a crescenti richieste per il divieto di DeepSeek.
Il 24 aprile, diversi membri della Camera dei Rappresentanti degli Stati Uniti hanno inviato una lettera a DeepSeek, esprimendo preoccupazioni sui collegamenti dell’azienda con il Partito Comunista Cinese (PCC) e richiedendo informazioni sui dati statunitensi utilizzati per addestrare i suoi modelli di intelligenza artificiale.
Il rappresentante Brett Guthrie, Presidente della House Energy and Commerce Committee, e il rappresentante Gus Bilirakis, Presidente della Subcommittee on Innovation, Data, and Commerce, insieme ad altri dieci membri della sottocommissione, hanno indirizzato una lettera a DeepSeek esprimendo preoccupazioni sulla ‘raccolta di dati personali degli americani’ da parte dell’azienda e sui rischi associati alla sicurezza nazionale.
Nella lettera, Guthrie e Bilirakis hanno affermato che ‘DeepSeek ammette di trasmettere i dati personali degli utenti americani a server in Cina, dove tali informazioni sarebbero indubbiamente accessibili a funzionari affiliati al Partito Comunista Cinese. Siamo preoccupati che questa relazione di agenzia con il nostro principale avversario metta in pericolo i nostri dati e la sicurezza nazionale’.
‘Per garantire che gli utenti americani e le loro aziende siano protetti da interferenze straniere, stiamo avviando un’indagine su DeepSeek e sulla minaccia che rappresenta per la nostra nazione’.
La lettera affermava inoltre: ‘Secondo i resoconti dei media, l’azienda condivide anche le informazioni personali degli utenti con altre entità affiliate al Partito Comunista Cinese, tra cui ByteDance’.
‘Allo stesso tempo, i ricercatori hanno scoperto vulnerabilità critiche nei presunti controlli di sicurezza e nelle salvaguardie del modello di DeepSeek. In risposta a questi rischi, un numero crescente di stati, tra cui New York, Texas e Virginia, hanno vietato l’uso di DeepSeek sui dispositivi governativi e i procuratori generali statali hanno chiesto divieti più ampi’.
Il 16 aprile, la US House Select Committee on the Chinese Communist Party ha pubblicato un rapporto sottolineando che DeepSeek rappresenta una minaccia significativa per la sicurezza nazionale degli Stati Uniti. Il rapporto accusava DeepSeek di raccogliere dati degli utenti per il PCC e di manipolare segretamente i risultati, diventando l’ultimo strumento per il PCC per abbellirsi, monitorare i cittadini stranieri e rubare e minare le restrizioni al controllo delle esportazioni degli Stati Uniti.
Il rapporto ha sottolineato che, sebbene DeepSeek possa sembrare solo un altro chatbot AI che offre agli utenti un modo per generare testo e rispondere a domande, un esame più attento rivela che DeepSeek trasmette segretamente i dati personali ottenuti a China Mobile, che ha legami con l’esercito cinese, creando vulnerabilità di sicurezza per gli utenti. Gli Stati Uniti hanno già vietato a China Mobile di operare negli Stati Uniti.
Un’Analisi Approfondita delle Presunte Carenze di DeepSeek
Mentre l’hype iniziale che circondava DeepSeek dipingeva un quadro di una meraviglia dell’AI pronta a rivoluzionare vari settori, un esame più attento ha rivelato una realtà più sfumata e complessa. Le preoccupazioni sollevate dal CEO di Baidu, Robin Li, e le successive indagini da parte di esperti di cybersecurity e organi governativi, evidenziano diverse aree critiche in cui DeepSeek è inferiore alle aspettative e solleva potenziali rischi.
Capacità Multimodali Limitate
Una delle principali critiche mosse contro DeepSeek è la sua limitata capacità di elaborare contenuti multimodali. A differenza dei modelli di AI più avanzati che possono integrare e comprendere senza problemi varie forme di dati, tra cui testo, immagini, audio e video, DeepSeek sembra avere difficoltà a comprendere qualsiasi cosa al di là dell’input di testo di base. Questa limitazione restringe significativamente la sua applicabilità in scenari del mondo reale in cui le informazioni sono spesso presentate in una combinazione di formati. Ad esempio, DeepSeek potrebbe avere difficoltà ad analizzare un post sui social media che include sia testo che un’immagine, o a trascrivere e comprendere una videoconferenza.
Problemi di Prestazioni: Velocità e Costo
Oltre alle sue limitazioni nella gestione di diversi media, DeepSeek deve anche affrontare sfide legate alle sue prestazioni. Secondo Robin Li, il modello è caratterizzato dalla sua velocità ‘lenta’ e dal costo ‘elevato’, rendendolo meno attraente per gli sviluppatori che cercano di costruire applicazioni di AI scalabili ed economicamente vantaggiose. Le elevate risorse computazionali necessarie per eseguire DeepSeek possono tradursi in spese significative per le aziende, in particolare quelle con implementazioni su larga scala. Inoltre, la lenta velocità di elaborazione può ostacolare le applicazioni in tempo reale, come chatbot o assistenti virtuali, dove la reattività è fondamentale per un’esperienza utente positiva.
Il Problema del “Tasso di Allucinazione”
Un’altra grande preoccupazione che circonda DeepSeek è il suo alto ‘tasso di allucinazione’, riferendosi alla tendenza del modello a generare informazioni imprecise o insensate. Questo problema pone una sfida significativa per le applicazioni che richiedono output affidabili e degni di fiducia. In domini critici, come l’assistenza sanitaria o la finanza, dove l’accuratezza è fondamentale, il rischio che DeepSeek produca informazioni false o fuorvianti potrebbe avere gravi conseguenze. Il ‘tasso di allucinazione’ mina la credibilità del modello e limita la sua usabilità in contesti sensibili.
Vulnerabilità di Sicurezza e Jailbreaking
La rivelazione che DeepSeek è più suscettibile al ‘jailbreaking’ rispetto ad altri modelli di AI leader solleva significative preoccupazioni per la sicurezza. ‘Jailbreaking’ si riferisce al processo di elusione delle restrizioni di sicurezza di un’AI per sollecitare contenuti dannosi, non etici o illegali. Il fatto che DeepSeek possa essere manipolato più facilmente in questo modo suggerisce debolezze nella sua architettura di sicurezza sottostante. Questa vulnerabilità potrebbe essere sfruttata da attori malintenzionati per generare disinformazione, diffondere propaganda o impegnarsi in altre attività dannose.
Privacy dei Dati e Rischi per la Sicurezza Nazionale
I presunti collegamenti tra DeepSeek e il governo cinese, in particolare le sue pratiche di condivisione dei dati con China Mobile, hanno scatenato allarmi sulla privacy dei dati e sulla sicurezza nazionale. La trasmissione dei dati personali degli utenti americani a server in Cina, dove potrebbero essere accessibili a funzionari affiliati al PCC, solleva serie preoccupazioni sulla potenziale sorveglianza, spionaggio e compromissione di informazioni sensibili. L’esame di DeepSeek da parte del governo degli Stati Uniti sottolinea la crescente consapevolezza dei potenziali rischi associati ai modelli di AI sviluppati da entità straniere con stretti legami con governi avversari.
Le Implicazioni Più Ampi
Le preoccupazioni che circondano DeepSeek si estendono oltre le specifiche limitazioni e vulnerabilità di questo particolare modello di AI. Riflettono sfide e rischi più ampi associati al rapido sviluppo e implementazione delle tecnologie di AI. Il caso DeepSeek evidenzia l’importanza di:
- Test e Valutazione Rigorosi: Test e valutazioni approfonditi sono essenziali per identificare e affrontare potenziali debolezze, pregiudizi e vulnerabilità di sicurezza nei modelli di AI prima che vengano ampiamente implementati.
- Trasparenza e Responsabilità: Gli sviluppatori dovrebbero essere trasparenti sui dati utilizzati per addestrare i loro modelli e sugli algoritmi che impiegano. Dovrebbero anche essere ritenuti responsabili per gli output e le conseguenze dei loro sistemi di AI.
- Privacy dei Dati e Misure di Sicurezza: Sono necessarie solide misure di privacy e sicurezza dei dati per proteggere le informazioni personali degli utenti da accessi non autorizzati, usi impropri o sfruttamento.
- Cooperazione Internazionale: La cooperazione internazionale è fondamentale per stabilire standard e regolamenti comuni per lo sviluppo e l’implementazione dell’AI, garantendo che queste tecnologie siano utilizzate in modo responsabile ed etico.
- Pensiero Critico e Alfabetizzazione Mediatica: Gli utenti dovrebbero essere incoraggiati a valutare criticamente le informazioni generate dai modelli di AI e a sviluppare competenze di alfabetizzazione mediatica per distinguere tra contenuti accurati e fuorvianti.
La controversia DeepSeek funge da ammonimento, ricordandoci che la ricerca dell’innovazione dell’AI deve essere bilanciata con un’attenta considerazione dei potenziali rischi e delle implicazioni sociali.