GOSIM AI Paris 2025 : La Révolution Open Source

L’écosystème de l’IA a connu une transformation spectaculaire au cours de l’année écoulée, alimentée par l’esprit collaboratif du développement open source. Les grands modèles de langage (LLM), qui n’étaient plus l’apanage des géants de la technologie, évoluent désormais grâce aux efforts de la communauté et au partage ouvert, ce qui a un impact sur tous les domaines, de l’infrastructure à l’optimisation et au déploiement des algorithmes. Ce mouvement open source accélère les progrès de l’IA, la rendant plus accessible et démocratisant la possibilité de contribuer à la prochaine génération de systèmes intelligents.

Dans ce contexte, la conférence GOSIM AI Paris 2025, co-organisée par GOSIM, CSDN et 1ms.ai, a débuté le 6 mai à Paris, en France. L’événement sert de plateforme essentielle, reliant les praticiens et les chercheurs en technologie du monde entier pour explorer les dernières avancées et les orientations futures de l’IA open source.

La conférence se targue d’une liste impressionnante de plus de 80 experts et chercheurs en technologie provenant d’organisations de premier plan telles qu’Alibaba, Hugging Face, BAAI, MiniMax, Neo4j, Dify, MetaGPT, Zhipu AI, Eigent.AI, Docker, Inflow, l’Université de Pékin, Fraunhofer, l’Université d’Oxford et la communauté French openLLM. Les principaux partenaires, notamment Huawei, l’All-China Youth Innovation and Entrepreneurship Association en France, l’Association sino-française d’intelligence artificielle, l’Apache Software Foundation, l’Eclipse Foundation, The Khronos Group, WasmEdgeRuntime, LF Generative AI Commons, le Linux Foundation Research, l’OpenWallet Foundation, l’Open Source Initiative (OSI), Software Heritage et K8SUG, participent également activement. La conférence propose plus de 60 sessions techniques axées sur des thèmes centraux tels que les modèles d’IA, l’infrastructure, le déploiement d’applications et l’intelligence artificielle, offrant une vue d’ensemble de l’évolution de l’écosystème open source et des tendances émergentes.

La relation symbiotique entre l’IA et l’Open Source

Michael Yuan, co-fondateur de GOSIM, a lancé la conférence avec un discours d’ouverture intitulé « L’Open Source a rattrapé son retard, quelle est la prochaine étape ? » Il a partagé ses idées sur l’état actuel et la trajectoire future de l’IA open source, soulignant qu’elle a atteint un moment charnière.

« Nous avions prédit qu’il faudrait 5 à 10 ans pour que l’open source rattrape les modèles à source fermée, mais il semble que cet objectif ait été atteint plus tôt que prévu », a déclaré Yuan. Il a cité la récente publication de Qwen 3 comme exemple, notant que les modèles open source ne se contentent plus de se concurrencer, mais qu’ils défient désormais directement les modèles phares propriétaires, voire les dépassent dans certains benchmarks. Yuan a également suggéré que ce progrès n’est pas uniquement dû aux avancées de l’open source, mais aussi au fait que le développement à source fermée ne répond pas aux attentes et rencontre des goulots d’étranglement en matière de performances. En revanche, les modèles open source évoluent rapidement, affichant une courbe de croissance des performances abrupte et démontrant un véritable phénomène de « rattrapage ».

Cette observation soulève une question fondamentale : à quelle distance sommes-nous de la réalisation d’une intelligence artificielle générale (IAG) ? Yuan estime que l’avenir de l’IAG ne réside peut-être pas dans un modèle unique et global, mais plutôt dans un réseau de modèles spécialisés, de bases de connaissances et d’outils déployés sur du matériel privé ou des dispositifs robotiques.

Il a précisé que l’architecture de l’IA passe d’un paradigme centralisé à un paradigme décentralisé. Il a souligné la transition d’OpenAI de l’API Completion à la nouvelle API Responses, qui vise à construire une plateforme d’agents intelligents à grande échelle. Près de 600 000 utilisateurs et développeurs ont déjà rejoint cette transformation, contribuant au développement d’applications d’IA distribuées.

« L’avenir de l’IAG ne devrait pas être exclusivement développé par une seule entreprise bien financée », a affirmé Yuan. « Il devrait plutôt être construit grâce à une collaboration mondiale, créant un réseau d’écosystèmes englobant les modèles, les bases de connaissances, les robots et les systèmes d’exécution. »

Après le discours de Yuan, Daniel Goldscheider, directeur exécutif de l’OpenWallet Foundation, a présenté un exposé sur « GDC Wallets & Credentials », axé sur le projet Global Digital Compact (GDC), adopté par l’Assemblée générale des Nations unies. Il a expliqué que le GDC a deux objectifs principaux :

  • Reconnaître que les technologies numériques ont profondément transformé nos vies et le développement de la société, apportant à la fois des opportunités sans précédent et des risques imprévus.
  • Souligner que la réalisation du plein potentiel des technologies numériques au profit de toute l’humanité nécessite une coopération mondiale, en abattant les barrières entre les pays, les industries et même les secteurs public et privé.

Sur la base de cette compréhension commune, le GDC a donné naissance à l’initiative « Global Digital Collaboration », visant à favoriser une véritable collaboration entre les gouvernements, les entreprises, les organisations à but non lucratif et d’autres parties prenantes.

Lorsqu’il a évoqué les aspects opérationnels, Goldscheider a souligné que cette collaboration n’est dictée par aucune organisation unique, mais qu’elle adopte plutôt une approche de « convocation conjointe », invitant toutes les organisations internationales, les organismes de normalisation, les communautés open source et les organisations intergouvernementales intéressées à participer. Il a précisé qu’il ne s’agit pas d’un projet de « qui dirige qui », mais d’une plateforme de collaboration égale où chaque partie a voix au chapitre et où personne n’est plus important qu’un autre.

Il a également expliqué que la Global Digital Collaboration n’a pas pour but de développer directement des normes ou des technologies, mais plutôt de faciliter un dialogue entre des organisations d’horizons divers, leur permettant de présenter leurs perspectives et leurs besoins pour parvenir à un consensus. Par la suite, les normes spécifiques et les travaux techniques seront menés par les organismes spécialisés compétents. Il a cité la « identité numérique » et la « technologie biométrique » comme exemples, notant que de nombreuses organisations travaillent déjà dans ces domaines, soulignant la nécessité d’une plateforme neutre pour rassembler tout le monde, éviter les doublons, les conflits et le gaspillage de ressources.

Quatre forums dédiés : une analyse complète de l’IA open source

La conférence a comporté quatre forums spécialisés : Modèles d’IA, Infrastructure d’IA, Applications d’IA et Intelligence artificielle. Ces forums ont couvert des sujets essentiels allant de l’architecture sous-jacente au déploiement d’applications, et des capacités des modèles aux pratiques d’agents intelligents. Chaque forum a accueilli des experts de premier plan provenant d’entreprises et d’institutions de recherche du monde entier, offrant à la fois une analyse approfondie des dernières tendances technologiques et présentant de riches cas pratiques d’ingénierie, démontrant l’intégration et l’évolution complètes de l’IA open source dans de multiples domaines.

Déconstruire la logique sous-jacente des grands modèles d’IA

Le forum sur les modèles d’IA a réuni des experts des communautés open source et des institutions de recherche pour partager leurs idées sur les innovations architecturales, la collaboration open source et l’évolution de l’écosystème dans le domaine des grands modèles.

Guilherme Penedo, ingénieur en recherche sur l’apprentissage automatique chez Hugging Face, a présenté « Open-R1 : une reproduction entièrement open source de DeepSeek-R1 », présentant les efforts du projet Open-R1 pour reproduire le modèle DeepSeek-R1, en mettant l’accent sur la promotion de l’ouverture et de la standardisation des données relatives aux tâches d’inférence. Guang Liu, chef de la technologie de l’équipe de recherche sur les données de l’Institut de recherche Zhiyuan, a partagé « OpenSeek : innovation collaborative vers la prochaine génération de grands modèles », soulignant l’importance de la collaboration mondiale pour stimuler les percées en matière de performances des modèles aux niveaux de l’algorithme, des données et du système, dans le but de développer la prochaine génération de grands modèles qui surpassent DeepSeek.

Jason Li, vice-président principal de CSDN, a présenté « Decoding DeepSeek : innovation technologique et son impact sur l’écosystème de l’IA », fournissant une analyse approfondie des innovations de DeepSeek en matière de paradigmes techniques, d’architecture de modèle et d’écologie industrielle, ainsi que son impact potentiel sur l’écosystème mondial de l’IA. Yiran Zhong, directeur principal de la recherche chez MiniMax, a présenté « Linear Future : l’évolution des architectures de grands modèles de langage », présentant le mécanisme Lightning Attention proposé par l’équipe, qui offre une alternative potentielle aux architectures Transformer en termes d’efficacité et de performances. Shiwei Liu, Royal Society Newton International Fellow à l’Université d’Oxford, a discuté de « La malédiction de la profondeur dans les grands modèles de langage », explorant les contributions décroissantes des réseaux neuronaux profonds à mesure que les modèles s’approfondissent, et proposant l’utilisation de LayerNorm Scaling pour améliorer le mécanisme Pre-LN afin d’améliorer l’utilisation des couches profondes et l’efficacité globale. Diego Rojas, ingénieur de recherche chez Zhipu AI, a souligné dans « Code Large Language Models : Exploring Beyond Tokens » que les grands modèles actuels, bien que puissants, reposent toujours sur la tokenisation, qui est inefficace, et a partagé de nouvelles méthodes pour contourner la tokenisation afin de rendre les modèles plus rapides et plus puissants. Nicolas Flores-Herr, chef de l’équipe des modèles de base chez Fraunhofer IAIS, a conclu le forum avec « Comment construire de grands modèles de langage « Made in Europe » compétitifs au niveau mondial ? », soulignant que l’Europe surmonte les défis liés aux données, à la diversité et à la réglementation grâce à des projets de modèles multilingues, open source et dignes de confiance localisés, afin de construire la prochaine génération d’IA qui reflète les valeurs européennes.

La triade de l’infrastructure de l’IA : données, puissance de calcul et évolution algorithmique

Axé sur la construction d’une base plus ouverte, efficace et inclusive pour les grands modèles, le forum sur l’infrastructure de l’IA a réuni des experts de premier plan provenant d’institutions de recherche et d’entreprises pour engager des discussions approfondies sur des questions clés telles que les données, la puissance de calcul et l’architecture du système.

Yonghua Lin, vice-président de l’Institut de recherche Zhiyuan (BAAI), a lancé le corpus Internet chinois CCI 4.0 dans « AI Open Source for Good : Inclusive Applications, Fair Data, and Universal Computing Power », couvrant trois ensembles de données majeurs : CCI4.0-M2-Base V1, CCI4.0-M2-CoT V1 et CCI4.0-M2-Extra V1. CCI4.0-M2-Base V1 a un volume de données de 35000 Go, est bilingue en chinois et en anglais, avec 5000 Go de données chinoises, une multiplication par 5 de l’échelle des données par rapport à CCI3.0. CCI4.0-M2-CoT V1 contient 450 millions de données de trajectoire de pensée humaine synthétisées inversées pour améliorer la capacité de raisonnement, avec un nombre total de jetons de 425B (425 milliards), près de 20 fois la taille de Cosmopedia (open source par Hugging Face), le plus grand ensemble de données synthétiques open source actuellement disponible dans le monde.

Xiyuan Wang, ingénieur logiciel senior chez Huawei, a ensuite présenté la façon dont l’architecture CANN connecte les frameworks d’IA et le matériel Ascend dans « Best Practices for Training and Inference Based on Ascend CANN », et réalise une inférence d’entraînement optimale grâce à la prise en charge d’écosystèmes tels que PyTorch et vLLM. Guillaume Blaquiere, architecte de données chez Carrefour, a démontré comment déployer des instances de grands modèles sans serveur prenant en charge les GPU via Google Cloud Run pour réduire les coûts et améliorer l’efficacité de l’utilisation des ressources dans « Making Your LLM Serverless ». Yinping Ma, ingénieur à l’Université de Pékin, a prononcé un discours liminaire sur « Open Source Intelligent Computing Integrated Management and Scheduling Basic Software - SCOW and CraneSched », présentant les deux principaux logiciels de base open source développés par l’Université de Pékin, SCOW et CraneSched, qui ont été déployés dans des dizaines d’universités et d’entreprises à travers le pays, soutenant la gestion unifiée et la planification à haute performance des ressources informatiques intelligentes. Yaowei Zheng, candidat au doctorat à l’Université de Beihang, a partagé le concept de conception de l’architecture de contrôleur hybride dans le système Verl dans le discours « verl : A RLHF System Based on Hybrid Controller », et a discuté de ses avantages en termes d’efficacité dans l’apprentissage par renforcement à grande échelle. Greg Schoeninger, PDG d’Oxen.ai, a présenté les « Training Datasets and Infrastructure for DeepSeek-R1 Style Reinforcement Learning (GRPO) » et a détaillé le chemin pratique pour les processus d’entraînement par apprentissage par renforcement pour les LLM de raisonnement, y compris la construction d’ensembles de données, la construction d’infrastructures et les modèles de génération de code d’entraînement local.

De « Peut-on l’utiliser » à « Est-il bien utilisé » : les applications d’IA entrent dans la phase pratique

Dans le forum sur les applications d’IA, les praticiens de la R&D et les décideurs technologiques des entreprises de premier plan ont partagé un éventail diversifié d’idées, présentant les chemins de déploiement réels et les possibilités futures des applications d’IA pilotées par de grands modèles.

Yongbin Li, chercheur en chef chez Alibaba Tongyi Lab, a partagé les dernières avancées de Tongyi Lingma dans l’évolution technique et l’application du produit dans « Tongyi Lingma : From Coding Copilot to Coding Agent ». Dongjie Chen, ingénieur logiciel chez Huawei, a prononcé un discours liminaire sur « Cangjie Magic : A New Choice for Developers in the Era of Large Models », présentant le framework de développement d’Agent de grand modèle d’IA basé sur le langage de programmation Cangjie, qui peut améliorer considérablement l’efficacité des développeurs dans la construction d’applications intelligentes HarmonyOS et apporter une excellente expérience de développement. Xinrui Liu, directeur de l’écosystème des développeurs LangGenius, s’est concentré sur « Working Together, Technical Power Enabled by Dify », soulignant l’écosystème open source de Dify et son rôle dans l’accélération de la vulgarisation des applications d’IA.

En ce qui concerne la combinaison de l’IA et de l’ingénierie des systèmes, Rik Arends, co-fondateur de Makepad, a donné une présentation unique : « Using Ambient Coding, Use AI to Create Rust UI for Mobile Devices, Web Pages, and Mixed Reality », explorant comment utiliser le codage ambiant pour construire un nouveau paradigme pour l’UI. Christian Tzolov, ingénieur logiciel R&D de l’équipe Broadcom Spring, s’est concentré sur la démonstration de la façon d’intégrer efficacement les modèles d’IA avec les systèmes et les ressources existants via le MCP Java SDK et Spring AI MCP dans « A Unified Paradigm for AI Integration Through MCP ». Wenjing Chu, directeur principal de la stratégie technologique chez Futurewei, a encore rehaussé la perspective dans « The ‘T’ in MCP and A2A Stands for Trust », analysant en profondeur comment construire des systèmes d’IA véritablement dignes de confiance dans les applications basées sur des agents. En outre, Hong-Thai Nguyen, responsable de l’ingénierie logicielle chez Cegid, a présenté comment le multi-agent peut remodeler les processus métier et parvenir à une prise de décision et un fonctionnement plus intelligents de l’entreprise en combinaison avec des scénarios pratiques dans le discours « Cegid Pulse : Multi-Agent Business Management Platform ».

Lorsque les grands modèles sont équipés de « corps » : l’intelligence incarnée arrive

L’intelligence incarnée est en train de devenir l’une des orientations de développement les plus difficiles et les plus prometteuses dans le domaine de l’IA. Dans ce forum, de nombreux experts techniques de premier plan de l’industrie ont participé à des discussions approfondies autour du thème de « l’intelligence incarnée », partageant leurs explorations pratiques dans la conception architecturale, l’application des modèles et le déploiement de scénarios.

Angelo Corsaro, PDG et CTO de ZettaScale, a présenté comment le protocole Zenoh peut abattre les barrières entre la perception, l’exécution et la cognition à l’ère des robots intelligents dans « Mind, Body, and Zenoh ». Philipp Oppermann, chef de projet du projet Dora, a apporté « Using Zenoh in Dora to Implement Distributed Data Flow », expliquant l’application importante du protocole Zenoh dans Dora pour mettre en œuvre le flux de données distribué. James Yang, professeur à l’Université des sciences et technologies de Chine, a prononcé un discours sur « Generation of Adversarial Safety-Critical Scenarios in Autonomous Driving », présentant comment améliorer la sécurité de la technologie de conduite autonome en générant des scénarios contradictoires pour assurer la stabilité et la fiabilité dans des environnements complexes.

En outre, Minglan Lin, chercheur en intelligence artificielle incarnée à l’Institut de recherche Zhiyuan, s’est également concentré sur le sujet de « RoboBrain : A Unified Brain Model for Robot Operation & RoboOS : A Hierarchical Collaboration Framework forRoboBrain and Robot Intelligent Agents », démontrant comment RoboBrain peut améliorer le niveau d’intelligence des robots et le rôle important de RoboOS dans la collaboration robotique. Ville Kuosmanen, fondateur de Voyage Robotics, a prononcé un discours magnifique sur « Building Robot Applications with Open Source VLA Models », expliquant comment utiliser les modèles VLA open source pour fournir un soutien solide aux applications robotiques. Enfin, Huy Hoang Ha, chercheur en grand modèle de langage chez Menlo Research, a expliqué comment le raisonnement spatial peut aider les robots à mieux comprendre les environnements 2D et 3D complexes, améliorant ainsi leurs capacités de fonctionnement et de navigation dans le discours liminaire de « Spatial Reasoning LLM : Enhancing Understanding of 2D and 3D to Support Robot Operation and Navigation ».

Spotlight Talks : Éclairer les technologies de pointe et les applications innovantes

Le Spotlight Talks Day 1 a présenté des présentations intéressantes d’experts de l’industrie sur les technologies de pointe et les applications innovantes. Ce segment a servi de plateforme aux praticiens de la technologie de divers domaines pour discuter des dernières avancées et des applications pratiques de l’IA. Cyril Moineau, ingénieur de recherche à la Commission française de l’énergie atomique (CEA), a présenté comment le projet Eclipse Aidge prend en charge le déploiement et l’optimisation des réseaux neuronaux profonds sur les plateformes embarquées en fournissant une chaîne d’outils complète dans le discours de « Aidge », accélérant ainsi le développement de systèmes intelligents de pointe.

Paweł Kiszczak, scientifique des données chez Bielik.ai, a partagé publiquement les dernières avancées du projet polonais d’IA natif Bielik pour la première fois lors de cette conférence, et a prononcé un discours intitulé « The Rise of Bielik.AI », racontant comment le projet promeut la construction d’un système d’IA autonome local grâce à des modèles de langage open source et à un écosystème d’outils complet. Le projet Bielik a non seulement publié plusieurs modèles de langage open source (échelles de paramètres couvrant 1,5B, 4,5B et 11B), mais a également créé une chaîne d’outils de bout en bout couvrant les ensembles de données, l’évaluation, l’entraînement et le réglage fin, aidant les équipes de recherche et les développeurs à affiner ou à pré-entraîner en continu sur la base de modèles de base, ce qui réduit considérablement le seuil de R&D pour les grands modèles et stimule les capacités d’innovation technologique locales.

Hung-Ying Tai, responsable technique de Second State, a partagé « Running GenAI Models on Edge Devices with LlamaEdge », démontrant les capacités légères et à haute performance de LlamaEdge dans le déploiement de modèles d’IA génératifs sur les périphériques de pointe, apportant une expérience de raisonnement local plus flexible et efficace. Tianyu Chen, candidat au doctorat à l’Université de Pékin, a présenté comment le framework SAFE atténue le problème de la rareté des données d’entraînement grâce au mécanisme d’auto-évolution de la « synthèse de données-modèle de réglage fin », améliorant ainsi considérablement l’efficacité et la précision de la vérification formelle du code Rust dans « Achieving Automatic Formal Verification for Rust Code Based on Self-Evolution Framework ». Gautier Viaud, directeur R&D chez Illuin Technology, a expliqué comment le système ColPali, construit par l’équipe sur la base de l’architecture ColBERT et du modèle PaliGemma, améliore efficacement la précision et l’efficacité de la récupération de documents en combinant des informations graphiques et textuelles dans le discours « ColPali : Efficient Document Retrieval Based on Visual Language Model ». Enfin, Xiao Zhang, PDG de Dynamia.ai, a présenté comment mieux gérer et planifier les ressources GPU hétérogènes à l’aide de HAMi et améliorer le taux d’utilisation et l’observabilité de l’infrastructure d’IA dans « Unlocking the K8s Cluster Capabilities of Heterogeneous AI Infrastructure : Releasing the Power of HAMi ».

Diverses interactions et points forts de la première journée

En plus des discours liminaires à haute densité, la conférence a également comporté plusieurs unités spéciales. L’unité de réunion à huis clos s’est concentrée sur les dialogues stratégiques et les échanges approfondis de l’industrie afin de promouvoir la coopération transfrontalière. Les Showcase Sessions se sont concentrées sur la présentation des derniers produits technologiques d’IA des entreprises et des institutions de recherche, attirant un grand nombre de visiteurs pour s’arrêter et communiquer. Lors des Competition Sessions, les développeurs, ingénieurs et passionnés de robotique d’IA du monde entier se sont concentrés sur le kit de bras robotique open source SO-ARM100 pour mener une exploration pratique de l’apprentissage par imitation. Le kit intègre le framework LeRobot de Hugging Face et combine les technologies d’IA et de robotique de NVIDIA pour prendre en charge les architectures d’IA de pointe, notamment ACT et Diffusion Policy, offrant aux participants une base technique solide. Les participants ont mené des explorations pratiques dans des scénarios réels afin d’évaluer de manière exhaustive ses effets et sa faisabilité.

Les Workshop Sessions ont pris l’écosystème OpenHarmony comme sujet central et ont exploré le projet open source incubé et exploité par l’Open Atom Open Source Foundation. OpenHarmony s’engage à construire un framework de système d’exploitation de terminal intelligent pour l’ère de tous les scénarios, de toutes les connexions et de toute l’intelligence, créant une plateforme de système d’exploitation distribué de premier plan ouverte, mondialisée et innovante, servant divers appareils intelligents et contribuant au développement de l’industrie de l’Internet de tout. Sur le site de la conférence, les participants ont profondément compris les avantages fondamentaux d’OpenHarmony en matière de collaboration multi-appareils et de conception de systèmes légers grâce à une série d’ateliers pratiques, participant personnellement aux processus clés, du développement de pilotes au déploiement d’applications. La pratique pratique aide non seulement les développeurs à ouvrir le chemin technique « de bas en haut », mais améliore également de manière exhaustive les capacités de développement et de débogage au niveau du système.

L’ordre du jour du GOSIM AI Paris 2025 Day 1 s’est achevé avec succès, mais l’enthousiasme continue. Demain, la conférence continuera d’avancer autour des quatre grands forums que sont les modèles d’IA, l’infrastructure d’IA, les applications d’IA et l’intelligence artificielle incarnée, et accueillera la très attendue PyTorch Day, avec d’autres invités de poids et du contenu pratique de première ligne à venir, alors restez à l’écoute !