Il panorama dell’intelligenza artificiale (AI) ha subito una trasformazione drammatica nell’ultimo anno, alimentata dallo spirito collaborativo dello sviluppo open source. Non più solo il dominio dei giganti della tecnologia, i modelli linguistici di grandi dimensioni (LLM) si stanno ora evolvendo attraverso sforzi della comunità e condivisione aperta, influenzando tutto, dalle infrastrutture all’ottimizzazione degli algoritmi e alla distribuzione. Questo movimento open source sta accelerando il progresso dell’AI, rendendola più accessibile e democratizzando l’opportunità di contribuire alla prossima generazione di sistemi intelligenti.
In questo contesto, la conferenza GOSIM AI Parigi 2025, co-ospitata da GOSIM, CSDN e 1ms.ai, è iniziata il 6 maggio a Parigi, in Francia. L’evento funge da piattaforma cruciale, collegando professionisti e ricercatori tecnologici globali per esplorare le ultime scoperte e le direzioni future nell’AI open source.
La conferenza vanta una line-up impressionante di oltre 80 esperti e studiosi di tecnologia provenienti da importanti organizzazioni come Alibaba, Hugging Face, BAAI, MiniMax, Neo4j, Dify, MetaGPT, Zhipu AI, Eigent.AI, Docker, Inflow, Peking University, Fraunhofer, Oxford University e la comunità francese openLLM. Partner chiave, tra cui Huawei, l’All-China Youth Innovation and Entrepreneurship Association in France, la Sino-French Artificial Intelligence Association, la Apache Software Foundation, la Eclipse Foundation, The Khronos Group, WasmEdgeRuntime, LF Generative AI Commons, the Linux Foundation Research, la OpenWallet Foundation, la Open Source Initiative (OSI), Software Heritage e K8SUG, partecipano attivamente. La conferenza presenta oltre 60 sessioni tecniche incentrate su temi fondamentali come modelli AI, infrastrutture, implementazione di applicazioni e intelligenza embodied, fornendo una visione completa dell’evoluzione dell’ecosistema open source e delle tendenze emergenti.
La Relazione Simbiotica Tra AI e Open Source
Michael Yuan, co-fondatore di GOSIM, ha dato il via alla conferenza con un discorso programmatico intitolato “L’Open Source Ha Recuperato, Qual è il Prossimo Passo?”. Ha condiviso le sue intuizioni sullo stato attuale e sulla traiettoria futura dell’AI open source, sottolineando che ha raggiunto un momento cruciale.
“Una volta avevamo previsto che ci sarebbero voluti 5-10 anni perché l’open source raggiungesse i modelli closed-source, ma sembra che questo obiettivo sia stato raggiunto in anticipo rispetto al previsto”, ha affermato Yuan. Ha citato il recente rilascio di Qwen 3 come esempio, osservando che i modelli open source non sono più solo in competizione tra loro, ma ora stanno sfidando direttamente i modelli di punta proprietari, superandoli persino in determinati benchmark. Yuan ha anche suggerito che questo progresso non è dovuto esclusivamente ai progressi dell’open source, ma anche al fatto che lo sviluppo closed-source non è riuscito a soddisfare le aspettative e ha incontrato colli di bottiglia nelle prestazioni. Al contrario, i modelli open source si stanno evolvendo rapidamente, esibendo una ripida curva di crescita delle prestazioni e dimostrando un vero e proprio fenomeno di “recupero”.
Questa osservazione solleva una domanda fondamentale: quanto siamo lontani dal raggiungere l’Intelligenza Generale Artificiale (AGI)? Yuan ritiene che il futuro dell’AGI potrebbe non risiedere in un singolo modello onnicomprensivo, ma piuttosto in una rete di modelli specializzati, knowledge base e strumenti distribuiti su hardware privato o dispositivi robotici.
Ha inoltre elaborato che l’architettura dell’AI sta passando da un paradigma centralizzato a uno decentralizzato. Ha evidenziato la transizione di OpenAI dall’API Completion alla nuova API Responses, che mira a costruire una piattaforma di agenti intelligenti su larga scala. Quasi 600.000 utenti e sviluppatori si sono già uniti a questa trasformazione, contribuendo allo sviluppo di applicazioni AI distribuite.
“Il futuro dell’AGI non dovrebbe essere sviluppato esclusivamente da una singola azienda ben finanziata”, ha affermato Yuan. “Invece, dovrebbe essere costruito attraverso la collaborazione globale, creando una rete di ecosistemi che comprenda modelli, knowledge base, robot e sistemi di esecuzione”.
Dopo il discorso di Yuan, Daniel Goldscheider, Direttore Esecutivo della OpenWallet Foundation, ha tenuto una presentazione su “GDC Wallets & Credentials”, concentrandosi sul progetto Global Digital Compact (GDC), adottato dall’Assemblea Generale delle Nazioni Unite. Ha spiegato che il GDC ha due obiettivi fondamentali:
- Riconoscere che le tecnologie digitali hanno trasformato profondamente le nostre vite e lo sviluppo sociale, portando sia opportunità senza precedenti che rischi imprevisti.
- Sottolineare che realizzare appieno il potenziale delle tecnologie digitali a beneficio di tutta l’umanità richiede la cooperazione globale, abbattendo le barriere tra paesi, industrie e persino settori pubblico e privato.
Sulla base di questa comprensione condivisa, il GDC ha generato l’iniziativa “Global Digital Collaboration”, volta a promuovere una vera collaborazione tra governi, imprese, organizzazioni non profit e altri stakeholder.
Quando ha discusso gli aspetti operativi, Goldscheider ha sottolineato che questa collaborazione non è dettata da una singola organizzazione, ma piuttosto adotta un approccio di “convocazione congiunta”, invitando tutte le organizzazioni internazionali interessate, gli organismi di definizione degli standard, le comunità open source e le organizzazioni intergovernative a partecipare. Ha chiarito che questo non è un progetto di “chi guida chi”, ma una piattaforma di collaborazione paritaria in cui ogni parte ha una voce e nessuno è più importante di un altro.
Ha inoltre spiegato che la Global Digital Collaboration non mira a sviluppare direttamente standard o tecnologie, ma piuttosto a facilitare un dialogo tra organizzazioni provenienti da diversi background, consentendo loro di presentare le proprie prospettive ed esigenze per raggiungere un consenso. Successivamente, gli standard specifici e il lavoro tecnico saranno portati avanti dagli organismi specializzati competenti. Ha citato “identità digitale” e “tecnologia biometrica” come esempi, notando che molte organizzazioni stanno già lavorando in questi settori, evidenziando la necessità di una piattaforma neutrale per riunire tutti, evitare duplicazioni, conflitti e sprechi di risorse.
Quattro Forum Dedicati: Un’Analisi Completa dell’AI Open Source
La conferenza ha ospitato quattro forum specializzati: Modelli AI, Infrastruttura AI, Applicazioni AI e Intelligenza Embodied. Questi forum hanno coperto argomenti critici che vanno dall’architettura sottostante all’implementazione delle applicazioni, e dalle capacità del modello alle pratiche degli agenti intelligenti. Ogni forum ha ospitato esperti di spicco provenienti da aziende globali e istituzioni di ricerca, fornendo sia un’analisi approfondita delle ultime tendenze tecnologiche sia presentando ricchi casi di pratica ingegneristica, dimostrando la completa integrazione ed evoluzione dell’AI open source in molteplici campi.
Decostruire la Logica Sottostante dei Grandi Modelli AI
Il forum Modelli AI ha riunito esperti provenienti da comunità open source e istituzioni di ricerca per condividere intuizioni sulle innovazioni architettoniche, la collaborazione open source e l’evoluzione dell’ecosistema nel regno dei grandi modelli.
Guilherme Penedo, Ingegnere di Ricerca sull’Apprendimento Automatico presso Hugging Face, ha presentato “Open-R1: A Fully Open Source Reproduction of DeepSeek-R1”, mostrando gli sforzi del progetto Open-R1 nella replica del modello DeepSeek-R1, con un focus sulla promozione dell’apertura e della standardizzazione dei dati relativi alle attività di inferenza. Guang Liu, Leader Tecnologico del Team di Ricerca sui Dati presso Zhiyuan Research Institute, ha condiviso “OpenSeek: Collaborative Innovation Towards the Next Generation of Large Models”, sottolineando l’importanza della collaborazione globale per guidare le scoperte nelle prestazioni del modello a livello di algoritmo, dati e sistema, con l’obiettivo di sviluppare la prossima generazione di grandi modelli che superino DeepSeek.
Jason Li, Vice Presidente Senior di CSDN, ha presentato “Decoding DeepSeek: Technological Innovation and its Impact on the AI Ecosystem”, fornendo un’analisi approfondita delle innovazioni di DeepSeek nei paradigmi tecnici, nell’architettura del modello e nell’ecologia industriale, nonché il suo potenziale impatto sull’ecosistema AI globale. Yiran Zhong, Direttore Senior della Ricerca presso MiniMax, ha presentato “Linear Future: The Evolution of Large Language Model Architectures”, introducendo il meccanismo Lightning Attention proposto dal team, che offre una potenziale alternativa alle architetture Transformer in termini di efficienza e prestazioni. Shiwei Liu, Royal Society Newton International Fellow presso l’Università di Oxford, ha discusso “The Depth Curse in Large Language Models”, esplorando il contributo decrescente delle reti neurali profonde man mano che i modelli si approfondiscono, e proponendo l’uso di LayerNorm Scaling per migliorare il meccanismo Pre-LN per migliorare l’utilizzo dei layer profondi e l’efficienza complessiva. Diego Rojas, Ingegnere di Ricerca presso Zhipu AI, ha sottolineato in “Code Large Language Models: Exploring Beyond Tokens” che gli attuali grandi modelli, sebbene potenti, si basano ancora sulla tokenizzazione, che è inefficiente, e ha condiviso nuovi metodi per saltare la tokenizzazione per rendere i modelli più veloci e più forti. Nicolas Flores-Herr, Responsabile del Team Modelli di Base presso Fraunhofer IAIS, ha concluso il forum con “How to Build Globally Competitive ‘European-Made’ Large Language Models?”, sottolineando che l’Europa sta superando le sfide di dati, diversità e normative attraverso progetti di modelli linguistici su larga scala multilingue, open source e affidabili localizzati, per costruire la prossima generazione di AI che rifletta i valori europei.
La Triade dell’Infrastruttura AI: Dati, Potenza di Calcolo ed Evoluzione Algoritmica
Concentrandosi sulla costruzione di una base più aperta, efficiente e inclusiva per i grandi modelli, il forum Infrastruttura AI ha riunito esperti di spicco provenienti da istituzioni di ricerca e imprese per impegnarsi in discussioni approfondite su questioni chiave come dati, potenza di calcolo e architettura del sistema.
Yonghua Lin, Vice Presidente di Zhiyuan Research Institute (BAAI), ha lanciato il Chinese Internet Corpus CCI 4.0 in “AI Open Source for Good: Inclusive Applications, Fair Data, and Universal Computing Power”, coprendo tre importanti set di dati: CCI4.0-M2-Base V1, CCI4.0-M2-CoT V1 e CCI4.0-M2-Extra V1. CCI4.0-M2-Base V1 ha un volume di dati di 35000 GB, è bilingue in cinese e inglese, con 5000 GB di dati cinesi, un aumento di 5 volte della scala dei dati rispetto a CCI3.0. CCI4.0-M2-CoT V1 contiene 450 milioni di dati di traiettoria del pensiero umano sintetizzati inversamente per migliorare la capacità di ragionamento, con un numero totale di token di 425B (425 miliardi), quasi 20 volte la dimensione di Cosmopedia (open sourced da Hugging Face), il più grande set di dati sintetici open source attualmente disponibile a livello globale.
Xiyuan Wang, Ingegnere Software Senior presso Huawei, ha quindi introdotto come l’architettura CANN collega i framework AI e l’hardware Ascend in “Best Practices for Training and Inference Based on Ascend CANN”, e raggiunge l’inferenza di training ottimale attraverso il supporto di ecosistemi come PyTorch e vLLM. Guillaume Blaquiere, Architetto Dati presso Carrefour, ha dimostrato come implementare istanze di grandi modelli serverless che supportano GPU tramite Google Cloud Run per ridurre i costi e migliorare l’efficienza dell’utilizzo delle risorse in “Making Your LLM Serverless”. Yinping Ma, Ingegnere presso l’Università di Pechino, ha tenuto un discorso programmatico su “Open Source Intelligent Computing Integrated Management and Scheduling Basic Software - SCOW and CraneSched”, introducendo i due principali software di base open source sviluppati dall’Università di Pechino, SCOW e CraneSched, che sono stati implementati in dozzine di università e imprese in tutto il paese, supportando la gestione unificata e la pianificazione ad alte prestazioni delle risorse di calcolo intelligente. Yaowei Zheng, Dottorando presso l’Università di Beihang, ha condiviso il concetto di progettazione dell’architettura del controller ibrido nel sistema Verl nel discorso “verl: A RLHF System Based on Hybrid Controller”, e ha discusso i suoi vantaggi di efficienza nell’addestramento di apprendimento per rinforzo su larga scala. Greg Schoeninger, CEO di Oxen.ai, ha presentato “Training Datasets and Infrastructure for DeepSeek-R1 Style Reinforcement Learning (GRPO)” e ha dettagliato il percorso pratico per i processi di addestramento di apprendimento per rinforzo per i ragionamenti LLM, tra cui la costruzione di set di dati, la costruzione di infrastrutture e i modelli di generazione di codice di addestramento locale.
Da “Può Essere Usato” a “È Usato Bene”: Le Applicazioni AI Entrano nella Fase Pratica
Nel forum Applicazioni AI, professionisti di ricerca e sviluppo e responsabili delle decisioni tecnologiche provenienti da aziende leader hanno condiviso una vasta gamma di intuizioni, mostrando i percorsi di implementazione nel mondo reale e le future possibilità di applicazioni AI guidate da grandi modelli.
Yongbin Li, Ricercatore Capo presso Alibaba Tongyi Lab, ha condiviso gli ultimi progressi di Tongyi Lingma nell’evoluzione tecnica e nell’applicazione del prodotto in “Tongyi Lingma: From Coding Copilot to Coding Agent”. Dongjie Chen, Ingegnere Software presso Huawei, ha tenuto un discorso programmatico su “Cangjie Magic: A New Choice for Developers in the Era of Large Models”, introducendo il framework di sviluppo AI large model Agent basato sul linguaggio di programmazione Cangjie, che può migliorare significativamente l’efficienza degli sviluppatori nella costruzione di applicazioni intelligenti HarmonyOS e offrire un’esperienza di sviluppo eccellente. Xinrui Liu, Direttore dell’Ecosistema Sviluppatori LangGenius, si è concentrato su “Working Together, Technical Power Enabled by Dify”, sottolineando l’ecosistema open source di Dify e il suo ruolo nell’accelerare la popolarizzazione delle applicazioni AI.
Per quanto riguarda la combinazione di AI e ingegneria dei sistemi, Rik Arends, co-fondatore di Makepad, ha tenuto una presentazione unica: “Using Ambient Coding, Use AI to Create Rust UI for Mobile Devices, Web Pages, and Mixed Reality”, esplorando come utilizzare la codifica ambientale per costruire un nuovo paradigma per l’interfaccia utente. Christian Tzolov, Ingegnere Software di Ricerca e Sviluppo del team Broadcom Spring, si è concentrato sulla dimostrazione di come integrare efficientemente i modelli AI con i sistemi e le risorse esistenti attraverso l’MCP Java SDK e Spring AI MCP in “A Unified Paradigm for AI Integration Through MCP”. Wenjing Chu, Direttore Senior della Strategia Tecnologica presso Futurewei, ha ulteriormente elevato la prospettiva in “The ‘T’ in MCP and A2A Stands for Trust”, analizzando profondamente come costruire sistemi AI veramente affidabili nelle applicazioni basate su agenti. Inoltre, Hong-Thai Nguyen, Software Engineering Manager presso Cegid, ha introdotto come il multi-agente può rimodellare i processi aziendali e raggiungere un processo decisionale e un funzionamento aziendale più intelligenti in combinazione con scenari pratici nel discorso “Cegid Pulse: Multi-Agent Business Management Platform”.
Quando i Grandi Modelli Sono Dotati di “Corpi”: Arriva l’Intelligenza Embodied
L’intelligenza embodied sta diventando una delle direzioni di sviluppo più impegnative e promettenti nel campo dell’AI. In questo forum, molti dei migliori esperti tecnici del settore si sono impegnati in discussioni approfondite attorno al tema dell’”intelligenza embodied”, condividendo le loro esplorazioni pratiche nella progettazione architettonica, nell’applicazione del modello e nell’implementazione dello scenario.
Angelo Corsaro, CEO e CTO di ZettaScale, ha introdotto come il protocollo Zenoh può abbattere le barriere tra percezione, esecuzione e cognizione nell’era dei robot intelligenti in “Mind, Body, and Zenoh”. Philipp Oppermann, Project Manager del progetto Dora, ha portato “Using Zenoh in Dora to Implement Distributed Data Flow”, spiegando l’importante applicazione del protocollo Zenoh in Dora per implementare il flusso di dati distribuito. James Yang, Professore presso l’Università di Scienza e Tecnologia della Cina, ha tenuto un discorso su “Generation of Adversarial Safety-Critical Scenarios in Autonomous Driving”, introducendo come migliorare la sicurezza della tecnologia di guida autonoma generando scenari avversari per garantire stabilità e affidabilità in ambienti complessi.
Inoltre, Minglan Lin, ricercatore di intelligenza embodied presso lo Zhiyuan Research Institute, si è concentrato anche sull’argomento di “RoboBrain: A Unified Brain Model for Robot Operation & RoboOS: A Hierarchical Collaboration Framework forRoboBrain and Robot Intelligent Agents”, dimostrando come RoboBrain può migliorare il livello di intelligenza dei robot e l’importante ruolo di RoboOS nella collaborazione robotica. Ville Kuosmanen, fondatore di Voyage Robotics, ha tenuto un meraviglioso discorso su “Building Robot Applications with Open Source VLA Models”, spiegando come utilizzare i modelli VLA open source per fornire un forte supporto per le applicazioni robotiche. Infine, Huy Hoang Ha, ricercatore di modelli linguistici di grandi dimensioni presso Menlo Research, ha discusso come il ragionamento spaziale può aiutare i robot a comprendere meglio ambienti 2D e 3D complessi, migliorando così le loro capacità di funzionamento e navigazione nel discorso programmatico di “Spatial Reasoning LLM: Enhancing Understanding of 2D and 3D to Support Robot Operation and Navigation.”
Spotlight Talks: Illuminare Tecnologie All’Avanguardia e Applicazioni Innovative
Il Spotlight Talks Day 1 ha presentato presentazioni coinvolgenti di esperti del settore su tecnologie all’avanguardia e applicazioni innovative. Questo segmento è servito da piattaforma per professionisti della tecnologia provenienti da vari domini per discutere gli ultimi progressi e le applicazioni pratiche dell’AI. Cyril Moineau, Ingegnere di Ricerca presso la Commissione Francese per l’Energia Atomica (CEA), ha introdotto come il progetto Eclipse Aidge supporta l’implementazione e l’ottimizzazione di reti neurali profonde su piattaforme embedded fornendo una toolchain completa nel discorso di “Aidge”, accelerando così lo sviluppo di sistemi intelligenti edge.
Paweł Kiszczak, Scienziato dei Dati presso Bielik.ai, ha condiviso pubblicamente gli ultimi progressi del progetto AI nativo polacco Bielik per la prima volta a questa conferenza, e ha tenuto un discorso intitolato “The Rise of Bielik.AI”, raccontando come il progetto promuove la costruzione di un sistema AI autonomo locale attraverso modelli linguistici open source e un ecosistema di strumenti completo. Il progetto Bielik non solo ha rilasciato molteplici modelli linguistici open source (scale di parametri che coprono 1.5B, 4.5B e 11B), ma ha anche creato una toolchain end-to-end che copre set di dati, valutazione, addestramento e fine-tuning, supportando team di ricerca e sviluppatori per la messa a punto o il pre-addestramento continuo basato su modelli di base, il che riduce notevolmente la soglia di ricerca e sviluppo per i grandi modelli e stimola le capacità di innovazione tecnologica locale.
Hung-Ying Tai, Responsabile Tecnico di Second State, ha condiviso “Running GenAI Models on Edge Devices with LlamaEdge”, dimostrando le capacità leggere e ad alte prestazioni di LlamaEdge nell’implementazione di modelli AI generativi su dispositivi edge, portando un’esperienza di ragionamento locale più flessibile ed efficiente. Tianyu Chen, Dottorando presso l’Università di Pechino, ha introdotto come il framework SAFE allevia il problema dei dati di addestramento scarsi attraverso il meccanismo di auto-evoluzione di “data synthesis-model fine-tuning,” migliorando così significativamente l’efficienza e l’accuratezza della verifica formale del codice Rust in “Achieving Automatic Formal Verification for Rust Code Based on Self-Evolution Framework.” Gautier Viaud, Direttore di Ricerca e Sviluppo presso Illuin Technology, ha condiviso come il sistema ColPali, costruito dal team basato sull’architettura ColBERT e sul modello PaliGemma, migliora efficacemente l’accuratezza e l’efficienza del recupero dei documenti combinando informazioni grafiche e testuali nel discorso “ColPali: Efficient Document Retrieval Based on Visual Language Model.” Infine, Xiao Zhang, CEO di Dynamia.ai, ha introdotto come gestire e pianificare meglio le risorse GPU eterogenee con l’aiuto di HAMi e migliorare il tasso di utilizzo e l’osservabilità dell’infrastruttura AI in “Unlocking the K8s Cluster Capabilities of Heterogeneous AI Infrastructure: Releasing the Power of HAMi.”
Interazioni Diverse ed Evidenziazioni del Primo Giorno
Oltre ai discorsi programmatici ad alta densità, la conferenza ha anche presentato diverse unità speciali. L’unità Closed-door Meeting si è concentrata su dialoghi strategici e scambi approfonditi del settore per promuovere la cooperazione transfrontaliera. Le Showcase Sessions si sono concentrate sulla presentazione degli ultimi prodotti tecnologici AI di imprese e istituti di ricerca, attirando un gran numero di visitatori che si sono fermati e hanno comunicato. Nelle Competition Sessions, sviluppatori, ingegneri e appassionati di robotica AI provenienti da tutto il mondo si sono concentrati sul kit di braccio robotico open source SO-ARM100 per realizzare un’esplorazione pratica dell’apprendimento imitativo. Il kit integra il framework LeRobot di Hugging Face e combina le tecnologie AI e robotiche di NVIDIA per supportare architetture AI all’avanguardia tra cui ACT e Diffusion Policy, fornendo ai partecipanti una solida base tecnica. I partecipanti hanno condotto esplorazioni pratiche in scenari reali per valutare in modo completo i suoi effetti e la sua fattibilità.
Le Workshop Sessions hanno preso l’ecosistema OpenHarmony come argomento centrale ed esplorato il progetto open source incubato e gestito dalla Open Atom Open Source Foundation. OpenHarmony si impegna a costruire un framework di sistema operativo terminale intelligente per l’era di tutti gli scenari, tutte le connessioni e tutta l’intelligenza, creando una piattaforma di sistema operativo distribuita leader aperta, globalizzata e innovativa, al servizio di diversi dispositivi intelligenti e contribuendo allo sviluppo del settore Internet of Everything. Presso il sito della conferenza, i partecipanti hanno compreso a fondo i principali vantaggi di OpenHarmony nella collaborazione multi-dispositivo e nella progettazione di sistemi leggeri attraverso una serie di workshop pratici, partecipando personalmente ai processi chiave dallo sviluppo dei driver all’implementazione delle applicazioni. La pratica pratica non solo aiuta gli sviluppatori ad aprire il percorso tecnico “bottom-to-end”, ma migliora anche in modo completo le capacità di sviluppo e debug a livello di sistema.
L’agenda del GOSIM AI Parigi 2025 Day 1 è giunta a una conclusione positiva, ma l’entusiasmo continua. Domani, la conferenza continuerà ad avanzare attorno ai quattro principali forum di modelli AI, infrastruttura AI, applicazioni AI e intelligenza embodied, e accoglierà l’attesissimo PyTorch Day, con ospiti più importanti e contenuti pratici di prima linea in arrivo, quindi rimanete sintonizzati!