Mentre i recenti progressi della Cina nell’intelligenza artificiale, in particolare con il lancio di DeepSeek-R1, hanno catturato l’attenzione globale, Taiwan sta tracciando una rotta diversa, una che dà priorità allo sviluppo di modelli linguistici che riflettono la sua identità culturale unica e i suoi valori democratici. Questo sforzo mira a creare un contrappeso ai sistemi di intelligenza artificiale influenzati da regimi autoritari.
La Sfida DeepSeek
La presentazione di DeepSeek-R1 a gennaio ha suscitato notevole interesse all’interno della comunità tecnologica. I precedenti modelli linguistici cinesi, come Ernie di Baidu e Doubao di ByteDance, avevano mostrato promesse nelle applicazioni in lingua cinese, nella matematica e nella codifica, ma erano limitati da una minore conoscenza dell’inglese e da un’accessibilità limitata. DeepSeek-R1, tuttavia, ha segnato una pietra miliare significativa come il primo LLM cinese a ottenere il riconoscimento internazionale.
Uno degli aspetti più sorprendenti di DeepSeek-R1 è stato il suo costo di sviluppo presumibilmente basso. In contrasto con GPT-4o di OpenAI, che si dice sia costato oltre 100 milioni di dollari USA per l’addestramento, i ricercatori di DeepSeek hanno affermato che il loro chatbot è stato sviluppato per soli 5,6 milioni di dollari USA. Alimentando ulteriormente la narrativa dell’efficienza, gli ingegneri di DeepSeek hanno addestrato il modello R1 utilizzando CPU di fascia media come Nvidia H800, piuttosto che i chip di livello superiore utilizzati in modelli come GPT-4o o Claude di Anthropic. Nonostante le restrizioni statunitensi sull’esportazione di chip ad alte prestazioni in Cina, DeepSeek-R1 è riuscito a superare altri bot leader utilizzando solo 2.048 processori distribuiti su 256 server.
Questa notevole efficienza e il costo di sviluppo inferiore sono stati in gran parte attribuiti a sofisticate tecniche di programmazione, tra cui PTX, un linguaggio simile all’assembly che consente agli sviluppatori di ottimizzare le prestazioni e massimizzare l’utilizzo dell’hardware.
Poco dopo la sua uscita, l’app DeepSeek-R1 è salita in cima alle classifiche dei download gratuiti dell’App Store di Apple negli Stati Uniti, superando ChatGPT, TikTok e le piattaforme di social media di Meta. Il Nasdaq ha subito un calo e le azioni di Nvidia sono crollate in seguito al debutto di DeepSeek-R1.
Messa in Discussione delle Affermazioni di DeepSeek
Nonostante l’entusiasmo iniziale, molti osservatori hanno sollevato interrogativi sulla validità delle affermazioni di DeepSeek riguardo al suo LLM. Gli analisti hanno suggerito che le cifre dichiarate probabilmente tengono conto solo dei costi computazionali, escludendo o sottostimando le spese per infrastrutture, hardware e risorse umane.
Wesley Kuo, fondatore e CEO di Ubitus, un fornitore di servizi di intelligenza artificiale generativa e cloud gaming con sede a Taipei, ha fatto eco a queste preoccupazioni, affermando che il costo effettivo è probabilmente molto più alto di quanto riportato. Ubitus, con il sostegno di Nvidia, ha supportato Project TAME, un LLM localizzato che utilizza caratteri cinesi tradizionali. Hanno fornito CPU H100 e dati di gioco. Ubitus ha anche collaborato con Foxlink e Shinfox Energy per creare Ubilink.AI, costruendo il più grande centro di servizi di supercalcolo AI alimentato a energia verde di Taiwan in collaborazione con Asus.
Kuo sottolinea il coinvolgimento dell’azienda nello sviluppo di applicazioni e modelli LLM per i governi, compreso il governo giapponese, in settori come il gioco, il turismo e la vendita al dettaglio, evidenziando il potenziale dell’IA per affrontare la carenza di manodopera e l’invecchiamento della popolazione.
Preoccupazioni sull’Integrità dei Dati
Kuo si allinea con OpenAI e Microsoft nel suggerire che DeepSeek potrebbe aver acquisito dati tramite la distillazione del modello. Questo processo prevede l’addestramento di modelli linguistici più piccoli per imitare gli output di modelli più grandi. OpenAI e Microsoft affermano che DeepSeek ha utilizzato l’interfaccia di programmazione dell’applicazione di OpenAI per facilitare il suo sviluppo.
Kuo afferma che DeepSeek ha ottenuto dati da OpenAI e che ci sono malintesi sulle affermazioni dell’azienda sull’efficienza. Sottolinea che DeepSeek-R1, con i suoi 670 miliardi di parametri, è significativamente più grande di Llama 3.1 405B di Meta AI. I parametri sono valori numerici interni che un modello apprende durante l’addestramento per fare previsioni. Kuo suggerisce anche che i modelli di DeepSeek potrebbero essere stati distillati da Llama 3.1.
Oltre a queste confutazioni, sono emerse preoccupazioni anche riguardo alle capacità di DeepSeek-R1. Gli esperti suggeriscono che, come i suoi predecessori, R1 eccelle in funzioni specializzate e specifiche per attività, ma è in ritardo rispetto alle versioni di GPT-4o nelle prestazioni di uso generale.
Una delle principali limitazioni dei modelli di DeepSeek è la restrizione all’accesso libero alle informazioni. Gli utenti hanno scoperto che le domande su argomenti politici sensibili sono state accolte con risposte evasive. Su argomenti come lo status della minoranza uigura dello Xinjiang e Taiwan, le risposte di DeepSeek riflettono le posizioni ufficiali del Partito Comunista Cinese. La ricerca suggerisce che una parte significativa degli output di DeepSeek è censurata per sopprimere le informazioni relative alla democrazia, ai diritti umani e alle rivendicazioni di sovranità contestate della Cina.
L’Alternativa di Taiwan: TAIDE e Oltre
In risposta, gli LLM sviluppati a Taiwan, come TAME, sono emersi come alternative a DeepSeek all’interno della Sinosphere. Il Trustworthy AI Dialogue Engine (TAIDE), lanciato nel giugno 2023 dal National Institute of Applied Research, mira a sviluppare un modello allineato alle norme sociali, culturali e linguistiche di Taiwan.
Sebbene il lavoro su TAIDE sembri essersi interrotto, è servito come un importante benchmark per Project TAME. TAME, sviluppato dal Machine Intelligence and Understanding Laboratory (MiuLab) presso la National Taiwan University, con finanziamenti provenienti da varie organizzazioni, è stato addestrato su 500 miliardi di token. Ha superato i concorrenti, tra cui GPT-4o, in 39 valutazioni, ottenendo punteggi più alti negli esami di ammissione all’università, di avvocatura e di medicina tradizionale cinese.
Uno degli obiettivi di TAME è promuovere la cultura locale. Sbloccare le capacità linguistiche locali è un passo significativo. Kuo menziona lo sviluppo di un LLM vocale taiwanese basato su Whisper, che ha ottenuto risultati positivi nella comprensione del taiwanese orale. Sono in corso sforzi per sviluppare il riconoscimento della lingua Hakka.
Questi sforzi sono stati ben accolti dalle istituzioni nelle regioni in cui queste lingue sono prevalenti. Ci sono anche sforzi per addestrare il modello nel riconoscimento della lingua indigena, ma i dati limitati rimangono un ostacolo. L’addestramento dell’IA per imparare una nuova lingua richiede una quantità significativa di registrazioni vocali abbinate al testo.
L’accesso ai dati storici negli archivi governativi presenta un’altra opportunità. Tuttavia, alcuni dati sono protetti da copyright. L’emergere dell’intelligenza artificiale generale offre il potenziale per aiutare la ripresa delle lingue in via di estinzione ed estinte.
La Ricerca della Sovranità dell’IA
L’intersezione tra lingua e cultura sottolinea l’importanza della sovranità dell’IA come mezzo per rafforzare l’identità taiwanese, comunicare la narrativa di Taiwan e proteggere il suo ambiente informativo.
Julian Chu, consulente del settore e direttore presso il Market Intelligence & Consulting Institute (MIC), sottolinea il potenziale di pregiudizio nei modelli LLM e nei dati di addestramento. Osserva che anche quando si utilizzano caratteri tradizionali, gli output LLM possono riflettere lo stile della Repubblica Popolare Cinese e non riescono a catturare la cultura di Taiwan. L’obiettivo è che le aziende taiwanesi utilizzino la lingua o i dati taiwanesi per addestrare gli LLM e costruire la sovranità dell’IA.
Chu menziona il Formosa Foundation Model (FFM-Llama2) come un altro promettente LLM taiwanese. Rilasciato nel settembre 2023 da Taiwan Web Service, mirava a democratizzare l’IA. Foxconn ha anche lanciato il suo LLM, FoxBrain, a marzo. Tuttavia, alcuni commentatori rimangono scettici sulle iniziative delle grandi aziende negli LLM.
Lin Yen-ting, membro del team MiuLab che ha sviluppato TAME, sottolinea la necessità di colmare il divario nell’ambiente informativo riguardo a Taiwan. Osserva che DeepSeek-R1 e altri LLM cinesi presentano una visione distorta di Taiwan. Anche i modelli sviluppati negli Stati Uniti a volte possono travisare Taiwan. I modelli open source potrebbero non dare priorità a Taiwan e i dati di addestramento sono dominati dalla Cina.
Pertanto, è importante incorporare selettivamente i contenuti taiwanesi e riaddestrarli nel modello. Questo approccio proattivo garantisce che il panorama culturale e linguistico unico di Taiwan sia rappresentato accuratamente nel regno digitale, promuovendo un senso di identità nazionale e preservando il suo patrimonio distinto di fronte allo sviluppo globale dell’IA. Questa dedizione alla preservazione dell’identità taiwanese assicura che la cultura e i valori unici della nazione insulare non siano oscurati dalle narrazioni dominanti.
Le sfide inerenti a questo sforzo sono sostanziali. La costruzione di un modello di IA veramente rappresentativo richiede un investimento significativo di risorse, compreso l’accesso a vasti set di dati di contenuti localizzati e competenze nell’elaborazione del linguaggio naturale. Inoltre, la continua necessità di contrastare la disinformazione e le informazioni distorte richiede un processo continuo di perfezionamento e adattamento.
Nonostante queste sfide, l’impegno di Taiwan per la sovranità dell’IA rimane costante. Lo sviluppo di TAME e altri LLM localizzati rappresenta un passo cruciale per garantire che il futuro dell’intelligenza artificiale rifletta l’identità culturale unica dell’isola, i valori democratici e l’incrollabile impegno a preservare il suo posto distinto nel mondo. Dando priorità alla sovranità dell’IA, Taiwan non sta solo salvaguardando il suo patrimonio culturale, ma si sta anche posizionando come un attore chiave nel panorama globale dell’IA, dimostrando che il progresso tecnologico può essere allineato con la conservazione dell’identità culturale e dei principi democratici.
Continuare il Viaggio
Il viaggio verso la completa sovranità dell’IA è in corso. Ulteriori ricerche, sviluppo e collaborazione sono fondamentali per superare le sfide e garantire il successo a lungo termine di queste iniziative. Continuando a dare priorità alla sovranità dell’IA, Taiwan può creare un panorama digitale che rifletta veramente la sua identità culturale unica e i suoi valori democratici, dando l’esempio ad altre nazioni che si sforzano di mantenere il loro posto distinto in un mondo sempre più interconnesso.