Da Jaipur a DeepSeek: IA Open Source

Un festival letterario, una rivelazione sull’IA

Alcune settimane fa, il vivace Jaipur Literature Festival (JLF) in India è diventato un forum inaspettato per una discussione cruciale sul futuro dell’intelligenza artificiale. Durante un panel apparentemente incentrato sull’eredità dell’impero, la conversazione ha preso una piega netta. Il pubblico, affascinato da ‘From the Ruins of Empire: The Revolt Against the West and the Remaking of Asia’ di Pankaj Mishra, ha posto una serie di domande puntuali, non sulla letteratura, ma su DeepSeek, un nuovo modello di IA generativa proveniente dalla Cina.

Queste domande – Come siamo arrivati a questo punto? Come possiamo tracciare il miglior percorso possibile per il futuro dell’IA? Perché l’open source è fondamentale nello sviluppo dell’IA? – hanno avuto una risonanza ben oltre i confini del festival. Hanno toccato una rivalità storica profondamente radicata, un desiderio di autosufficienza e un crescente movimento globale che sostiene un approccio più aperto e collaborativo allo sviluppo dell’IA.

Le radici storiche dell’accoglienza di DeepSeek

L’emergere di DeepSeek in un festival letterario potrebbe sembrare peculiare. Tuttavia, la sua importanza è profondamente intrecciata con eventi storici e una rivalità di lunga data, in particolare tra Asia e Occidente. Mentre i laboratori europei di IA hanno ottenuto riconoscimenti per le loro scoperte open source, l’accoglienza di DeepSeek in Asia ha una risonanza storica molto più profonda.

Il lancio di DeepSeek è stato accolto con un’intensa copertura mediatica. La sua accoglienza al JLF ha rivelato un sentimento che trascendeva le mere discussioni sulle prestazioni dell’IA. Scrittori e giornalisti indiani, spesso critici nei confronti della Cina, si sono trovati uniti da una lotta condivisa contro il dominio delle American AI Corporations (AIC). Questo entusiasmo per DeepSeek in tutta l’Asia è radicato nella storia coloniale e, più recentemente, in provocatorie dichiarazioni aziendali.

IA: una moderna lotta per l’autosufficienza

Per Stephen Platt, autore di ‘Imperial Twilight: The Opium War and The End of China’s Last Golden Age’, le ambizioni tecnologiche della Cina sono inseparabili dalle sue cicatrici storiche. Le guerre dell’oppio (1839-1860) sono un potente simbolo di come la superiorità tecnologica e militare della Gran Bretagna abbia umiliato la Cina. Questo ‘Secolo di umiliazione’ alimenta l’attuale spinta della Cina verso l’autosufficienza, i suoi aggressivi investimenti in IA, semiconduttori e altre tecnologie critiche. È una determinazione a evitare la dipendenza dalla tecnologia occidentale, una lezione impressa nella coscienza nazionale.

I relatori indiani al JLF hanno trovato un terreno comune in questa narrazione. Come la Cina, l’India porta il segno oscuro dell’influenza della Compagnia delle Indie Orientali. Inoltre, la giornalista britannica Anita Anand ha evidenziato un video controverso del CEO di OpenAI, Sam Altman, che sminuiva il potenziale dell’India di competere con le AIC nell’addestramento di modelli di base, affermando che era ‘totalmente senza speranza’. Tali osservazioni hanno solo rafforzato la determinazione all’autosufficienza nella regione.

IA open source: un simbolo di resistenza

DeepSeek, e i laboratori europei che lo hanno preceduto, hanno offerto un faro di speranza nella corsa all’IA. La loro scelta di abbracciare l’open source è diventata un potente simbolo di resistenza contro il dominio dei modelli di IA proprietari.

Il rilascio di DeepSeek R1 deve essere compreso nel contesto di una rivalità profondamente radicata, in particolare con gli Stati Uniti. Questa rivalità è così profonda che l’Europa viene spesso trascurata nelle discussioni sulla concorrenza con la tecnologia statunitense.

Il dominio delle AIC ha persino innescato paragoni con il colonialismo in Occidente. In un editoriale dell’agosto 2024 intitolato ‘The Rise of Techno-Colonialism’, Hermann Hauser, membro del Consiglio europeo per l’innovazione, e Hazem Danny Nakib, ricercatore senior presso l’University College London (UCL), hanno scritto: ‘A differenza del colonialismo di un tempo, il tecno-colonialismo non riguarda l’appropriazione di territori, ma il controllo delle tecnologie che sono alla base dell’economia mondiale e della nostra vita quotidiana. Per raggiungere questo obiettivo, gli Stati Uniti e la Cina stanno sempre più riportando in patria i segmenti più innovativi e complessi delle catene di approvvigionamento globali, creando così strozzature strategiche’.

L’approccio pionieristico open source dei laboratori europei di IA come Mistral, kyutai e il team FAIR Paris di Meta, e ora DeepSeek, ha presentato un’alternativa convincente alla strategia del modello di IA proprietario delle AIC. Questi contributi open source stanno avendo risonanza a livello globale e hanno ulteriormente consolidato l’abbraccio dell’IA open source come simbolo di resistenza contro il dominio dell’IA americana.

Il caso dell’open source: la storia si ripete

La collaborazione tecnologica prospera grazie all’energia e alla velocità, qualcosa che è inerente all’evoluzione del codice software.

Il premio Nobel francese per l’economia Jean Tirole, inizialmente perplesso dall’emergere dell’open source, si è chiesto nel suo articolo del 2000 con Josh Lerner, ‘The Simple Economics of Open Source’: ‘Perché migliaia di programmatori di prim’ordine dovrebbero contribuire liberamente alla fornitura di un bene pubblico? Qualsiasi spiegazione basata sull’altruismo ha un limite’.

Sebbene comprensibile all’epoca, chiunque abbia seguito i progressi dell’IA negli ultimi anni, soprattutto dopo il rilascio di DeepSeek R1, troverebbe la risposta evidente. L’impatto dell’open sourcing di Llama da parte di FAIR Paris di Meta, l’ascesa meteorica di Mistral e dei suoi fondatori attraverso l’open sourcing di un modello di apprendimento linguistico (LLM) da 7 miliardi di parametri, e DeepSeek R1 dimostrano le ragioni convincenti dietro la dedizione di questi programmatori e scienziati all’open source.

Chiarisce anche perché Sam Altman e i suoi co-fondatori abbiano scelto il nome ‘OpenAI’ per attrarre talenti. Qualcuno di questi laboratori di frontiera avrebbe ottenuto una pubblicità così clamorosa e costruito marchi personali così forti all’interno della comunità dell’IA se avesse optato per un approccio proprietario? La risposta è un sonoro no.

Due potenti citazioni del 1999, rispettivamente del programmatore Richard Stallman e dello sviluppatore Eric Raymond, incluse all’inizio dell’articolo, illuminano l’accoglienza di DeepSeek al JLF e sottolineano le forze ideologiche più profonde in gioco:

  • ‘L’idea che il sistema sociale del software proprietario – il sistema che dice che non ti è permesso condividere o modificare il software – sia antisociale, che sia immorale, che sia semplicemente sbagliato, può essere una sorpresa per alcune persone. Ma cos’altro possiamo dire di un sistema basato sulla divisione del pubblico e sul mantenimento degli utenti impotenti?’ - Richard Stallman

  • ‘La funzione diutilità che gli hacker Linux stanno massimizzando non è classicamente economica, ma è l’intangibile della propria soddisfazione dell’ego e della reputazione tra gli altri hacker. … Le culture volontarie che funzionano in questo modo non sono in realtà rare; un’altra a cui ho partecipato a lungo è il fandom della fantascienza, che a differenza dell’hackerdom riconosce esplicitamente l’egoboo (il miglioramento della propria reputazione tra gli altri fan)’. - Eric Raymond

La traiettoria di Unix negli anni ‘70 e ‘80 fornisce un’analogia convincente per lo stato attuale dell’IA. La promozione iniziale e la distribuzione gratuita di Unix da parte di AT&T all’interno del mondo accademico hanno favorito l’innovazione e l’adozione. Tuttavia, quando AT&T ha imposto una licenza proprietaria alla fine degli anni ‘70, ha inevitabilmente portato l’Università di Berkeley a lanciare BSD Unix, un’alternativa aperta, e infine Linus Torvalds a creare Linux. Lo sviluppo di Linux da parte di Torvalds in Europa ha spostato l’epicentro del software open source dagli Stati Uniti.

I parallelismi sono sorprendenti, anche geograficamente, con l’evoluzione dell’IA. Questa volta, tuttavia, sono emerse nuove geografie: il TII di Abu Dhabi con i suoi modelli Falcon, il DeepSeek cinese, il Qwen di Alibaba e, più recentemente, il Krutrim AI Lab indiano con i suoi modelli open source per le lingue indiane.

Il team Meta FAIR Paris, insieme ai principali laboratori europei di IA e ai nuovi laboratori di frontiera (DeepSeek, Falcon, Qwen, Krutrim), hanno accelerato significativamente l’innovazione dell’IA. Condividendo apertamente documenti di ricerca e codice, hanno:

  • Addestrato una nuova generazione di ingegneri e ricercatori di IA nelle tecniche di IA all’avanguardia.
  • Creato un ecosistema di collaborazione aperta, consentendo rapidi progressi al di fuori dei laboratori di IA proprietari.
  • Fornito modelli di IA alternativi, garantendo che l’IA non sia monopolizzata dalle American AI Corporations.

Questi quattro ecosistemi (Europa, India, Abu Dhabi e Cina) potrebbero forgiare una potente alleanza IA open source per sfidare le AIC dominanti che operano ancora con una mentalità IA proprietaria.

In un questionario Ask Me Anything (AMA) del 31 gennaio 2025, a seguito del rilascio di DeepSeek R1, Altman ha riconosciuto che l’approccio del modello di IA proprietario era stato dalla parte sbagliata della storia.

Col tempo, i laboratori di IA di tutto il mondo potrebbero scegliere di unirsi a questa alleanza per far progredire collettivamente il campo. Non sarebbe la prima volta che un campo scientifico trascende i confini e le ideologie politiche attraverso un’iniziativa senza scopo di lucro. Offre una modalità di competizione che evita di innescare le rimostranze anticoloniali spesso espresse dal Sud del mondo.

Precedenti storici: il Progetto Genoma Umano come modello per l’IA

Come biologo, sono particolarmente consapevole dei risultati del Progetto Genoma Umano (HGP) e di come alla fine abbia superato l’iniziativa a scopo di lucro di Celera Genomics, a beneficio del campo e dell’umanità nel suo insieme.

L’HGP è stata un’iniziativa di ricerca internazionale rivoluzionaria che ha mappato e sequenziato l’intero genoma umano. Completato nel 2003 dopo 13 anni di collaborazione, ha generato quasi 800 miliardi di dollari di impatto economico da un investimento di 3 miliardi di dollari, secondo un rapporto del 2011 aggiornato nel 2013 (un ritorno sull’investimento per l’economia statunitense di 141 a uno – ogni dollaro di investimento federale nell’HGP ha contribuito alla generazione di 141 dollari nell’economia). Ha rivoluzionato la medicina, la biotecnologia e la genetica, consentendo progressi nella medicina personalizzata, nella prevenzione delle malattie e nella ricerca genomica. Il lavoro di sequenziamento e la ricerca sono stati condotti da 20 laboratori in sei paesi: Stati Uniti, Regno Unito, Francia, Germania, Giappone e Cina.

Mentre Celera Genomics ha tentato di sequenziare sequenze genomiche a scopo di lucro, l’HGP ha dato la priorità alla condivisione aperta dei dati, sancita dai suoi Principi delle Bermuda. Stabiliti durante l’International Strategy Meeting on Human Genome Sequencing alle Bermuda nel febbraio 1996, questi principi sono stati cruciali nel plasmare le politiche di condivisione dei dati per l’HGP e hanno avuto un impatto duraturo sulle pratiche di ricerca genomica a livello globale. I suoi principi chiave erano:

  1. Rilascio immediato dei dati: tutti i dati di sequenza genomica umana generati dall’HGP dovevano essere rilasciati in database pubblici, preferibilmente entro 24 ore dalla generazione. Questa rapida diffusione mirava ad accelerare la scoperta scientifica e massimizzare i benefici per la società.
  2. Accesso libero e illimitato: i dati dovevano essere resi liberamente disponibili alla comunità scientifica globale e al pubblico, senza restrizioni sul loro utilizzo per scopi di ricerca o sviluppo.
  3. Prevenzione delle rivendicazioni di proprietà intellettuale: i partecipanti hanno concordato che non sarebbero stati rivendicati diritti di proprietà intellettuale sui dati di sequenza genomica primaria, promuovendo un ethos di scienza aperta e prevenendo potenziali ostacoli alla ricerca dovuti alla brevettazione.

In termini di governance, l’HGP è stata un’iniziativa scientifica collaborativa e coordinata, non un’organizzazione o una società autonoma. È stato uno sforzo decentralizzato finanziato attraverso sovvenzioni e contratti governativi a vari istituti di ricerca. Una parte del suo budget (3-5%) è stata dedicata allo studio e all’affrontare le preoccupazioni etiche, legali e sociali relative al sequenziamento del genoma umano.

Collegare la sicurezza dell’IA e l’IA open source

Un altro vantaggio cruciale dell’IA open source è il suo ruolo nella ricerca sulla sicurezza dell’IA.

Il vertice sull’IA di Seoul del 2024 si è concentrato esclusivamente sui rischi esistenziali in un momento in cui le AIC detenevano un vantaggio significativo sul resto del mondo. Ancora nel maggio 2024, l’ex CEO di Google Eric Schmidt ha affermato che gli Stati Uniti erano 2-3 anni avanti rispetto alla Cina nell’IA, mentre l’Europa era troppo preoccupata per la regolamentazione per essere rilevante. Se il vertice avesse avuto successo, avrebbe effettivamente ceduto il controllo delle decisioni sulla sicurezza dell’IA a queste società. Fortunatamente, non è stato così.

Ora che l’IA open source sta colmando il divario tecnologico, le discussioni sulla sicurezza non saranno più dettate esclusivamente da una manciata di attori dominanti. Invece, un gruppo più ampio e diversificato di parti interessate – tra cui ricercatori, responsabili politici e laboratori di IA provenienti da Europa, India, Cina e Abu Dhabi – ha l’opportunità di plasmare la discussione insieme alle AIC.

Inoltre, l’IA open source migliora le capacità di deterrenza globale, garantendo che nessun singolo attore possa monopolizzare o utilizzare in modo improprio sistemi di IA avanzati senza responsabilità. Questo approccio decentralizzato alla sicurezza dell’IA contribuirà a mitigare potenziali minacce esistenziali distribuendo sia le capacità che la supervisione in modo più equo in tutto l’ecosistema globale dell’IA.

Un progetto IA umano con i Principi di Parigi

Quale ruolo può svolgere l’AI Action Summit di Parigi la prossima settimana nel plasmare il futuro dell’IA?

Questa rappresenta un’opportunità cruciale per istituire un Progetto IA Umano, modellato sul Progetto Genoma Umano, per far progredire e sostenere lo sviluppo dell’IA open source su scala globale. Gli attuali contributi open source, dai pionieristici laboratori europei di IA a DeepSeek, stanno già accelerando il campo e contribuendo a colmare il divario con le AIC.

Le capacità dell’IA sono significativamente migliorate dalla maturità dell’ecosistema open source generale, con migliaia di progetti maturi, modelli di governance dedicati e una profonda integrazione in aziende, università e governi.

L’ecosistema IA open source beneficia anche di piattaforme come Github e Gitlab. Più recentemente, piattaforme dedicate all’IA open source, come Hugging Face – una società statunitense co-fondata da tre imprenditori francesi – hanno iniziato a svolgere un ruolo vitale come piattaforme di distribuzione per la comunità.

Data la relativa maturità dell’ecosistema IA open source rispetto al sequenziamento del genoma umano all’inizio degli anni ‘90, in che modo l’IA open source potrebbe beneficiare di un Progetto IA Umano?

Per prima cosa, l’Unione Europea è spesso criticata dalle AIC e dai suoi stessi laboratori di frontiera per la sua regolamentazione dell’open source. Un Progetto IA Umano potrebbe dedicare uno sforzo congiunto per sviluppare l’allineamento normativo e gli standard tra i paesi e le regioni partecipanti. Un approccio coordinato, con contributi iniziali da Europa, India, Abu Dhabi e Cina, potrebbe facilitare la diffusione di modelli open source in questa regione normativa condivisa (una sorta di area di libero scambio per l’open source).

Sebbene non sia stato dimostrato in modo definitivo, ci sono parallelismi con le dinamiche guidate dalla rivalità che hanno plasmato la reazione a DeepSeek al JLF. Allo stesso modo, la regolamentazione dell’IA potrebbe essere elaborata con un focus sulla promozione dell’innovazione e sulla massimizzazione del beneficio pubblico – sia per le imprese che per i consumatori – piuttosto che fungere da potenziale meccanismo per impedire il progresso delle AIC o ostacolare i campioni di IA nazionali che si sforzano di colmare il divario.

Il progetto potrebbe anche facilitare lo scambio di talenti e finanziare un’infrastruttura di calcolo condivisa (collegata all’infrastruttura energetica) per l’IA open source. È evidente dal grafico sottostante che i laureati STEM di talento in alcune parti del mondo potrebbero attualmente avere difficoltà ad accedere all’infrastruttura IA di livello mondiale di cui il loro paese è privo.

Un’altra area di collaborazione sarebbe quella di stabilire le migliori pratiche sugli standard di accesso aperto per modelli e set di dati, che comprendono pesi, codice e documentazione.

Il progetto potrebbe anche promuovere la collaborazione globale sulla ricerca sulla sicurezza dell’IA. Invece di correre in segreto per risolvere i problemi di allineamento, i ricercatori da Parigi a Pechino a Bangalore potrebbero lavorare insieme per valutare i modelli e mitigare i rischi. Tutti i risultati sulla sicurezza (ad esempio, metodi per ridurre gli output dannosi o strumenti per l’interpretabilità) potrebbero essere condivisi tempestivamente nel dominio aperto.

Questo principio riconoscerebbe che la sicurezza dell’IA è un bene pubblico globale: una svolta in un laboratorio (ad esempio, un nuovo algoritmo per rendere trasparente il ragionamento dell’IA) dovrebbe giovare a tutti, non essere mantenuta proprietaria. Potrebbero essere organizzati benchmark di sicurezza congiunti ed eventi di sfida per incoraggiare una cultura di responsabilità collettiva. Mettendo in comune la ricerca sulla sicurezza, il progetto mirerebbe a prevenire potenziali usi impropri o incidenti dell’IA, rassicurando il pubblico che i potenti sistemi di IA vengono gestiti con cura.

L’attenzione al rischio esistenziale al vertice sulla sicurezza dell’IA del Regno Unito del 2023 a Bletchley Park, enfatizzando eccessivamente l’analogia della proliferazione nucleare, ha perso l’opportunità di esaminare altre aree in cui la sicurezza è considerata un bene pubblico: sicurezza informatica, antibiotici e immunologia (con diverse iniziative interessanti post-Covid-19) e sicurezza aerea.

Il progetto potrebbe anche collaborare e promuovere il lavoro attualmente svolto dalla ARC Prize Foundation privata per promuovere lo sviluppo di sistemi di IA sicuri e avanzati. L’ARC Prize, co-fondato da François Chollet, creatore della libreria open source Keras, e Mike Knoop, co-fondatore della società di software Zapier, è un’organizzazione senza scopo di lucro che ospita concorsi pubblici per far progredire la ricerca sull’intelligenza artificiale generale (AGI). Il loro evento di punta, il concorso ARC Prize, offre oltre 1 milione di dollari ai partecipanti che possono sviluppare e rendere open source soluzioni al benchmark ARC-AGI, un test progettato per valutare la capacità di un sistema di IA di generalizzare e acquisire nuove competenze in modo efficiente.

L’enfasi dell’ARC Prize Foundation sulle soluzioni open source e sui concorsi pubblici si allinea perfettamente con gli obiettivi del Progetto IA Umano di promuovere la collaborazione internazionale e la trasparenza nello sviluppo dell’IA, come affermato sul sito web dell’ARC Prize Foundation sotto ‘AGI’:

‘I LLM sono addestrati su quantità di dati inimmaginabilmente vaste, eppure rimangono incapaci di adattarsi a semplici problemi su cui non sono stati addestrati, o di fare nuove invenzioni, non importa quanto basilari. Forti incentivi di mercato hanno spinto la ricerca sull’IA di frontiera a diventare closed source. L’attenzione e le risorse della ricerca vengono indirizzate verso un vicolo cieco. L’ARC Prize è progettato per ispirare i ricercatori a scoprire nuovi approcci tecnici che spingano in avanti il progresso dell’AGI aperta’.

Come l’HGP, il Progetto IA Umano dedicherebbe parte dei suoi finanziamenti alla governance e alla supervisione etica. Ciò includerebbe discussioni sul diritto d’autore. Il Progetto potrebbe aiutare la società a considerare l’etica dell’accesso gratuito alla migliore fonte di informazioni nell’addestramento, sviluppando al contempo modelli proprietari su di essa. Nello spazio della biologia, è ben noto che la Protein Data Bank, che è stata fondamentale per il modello AlphaFold di Google DeepMind per prevedere la struttura delle proteine, ha probabilmente richiesto l’equivalente di 10 miliardi di dollari di finanziamenti in un periodo di 50 anni. Il Progetto potrebbe aiutare a riflettere su come continuare a finanziare lo sviluppo dell’IA o su come le AIC proprietarie dovrebbero condividere i ricavi con i creatori di opere originali.

Insieme, questi Principi di Parigi e il Progetto IA Umano contribuirebbero a far progredire l’IA a livello globale in modo più aperto, collaborativo ed etico. Si baserebbero sui risultati dei principali contributori open source dall’Europa al Medio Oriente, all’India e ora alla Cina, all’interno dei framework e delle piattaforme esistenti specifici per il software open source e l’IA.

La storia fa rima con l’IA

L’opportunità che abbiamo davanti è immensa. Mistral AI, kyutai, BFL, Stability e più recentemente DeepSeek hanno dato al pubblico la speranza che sia possibile un futuro in cui la cooperazione rivaleggia o addirittura supera le AIC proprietarie.

Siamo ancora nelle prime fasi di questa svolta tecnologica. Dovremmo essere grati per i contributi che le AIC hanno dato al campo. L’AI Action Summit dovrebbe essere un’opportunità per promuovere l’innovazione cooperativa su una scala senza precedenti e portare quanti più attori possibile dalla parte giusta della storia.

È di nuovo il 1789. Stiamo assistendo a una lotta per la sovranità tecnologica, una decentralizzazione del potere e una richiesta di IA come bene pubblico. E proprio come nel 1789, questa rivoluzione non sarà contenuta.