人工智能 (AI) 领域在过去一年中经历了剧烈的变革,这得益于开源开发的协作精神。大型语言模型 (LLMs) 不再仅仅是科技巨头的专属领域,而是通过社区努力和开放共享不断发展,影响着从基础设施到算法优化和部署的方方面面。这场开源运动正在加速人工智能的进步,使其更易于访问,并使贡献下一代智能系统的机会民主化。
在此背景下,由 GOSIM、CSDN 和 1ms.ai 联合主办的 GOSIM AI 巴黎 2025 大会于 5 月 6 日在法国巴黎拉开帷幕。本次活动是一个重要的平台,连接着全球技术从业者和研究人员,共同探索开源人工智能的最新突破和未来方向。
本次大会汇集了来自阿里巴巴、Hugging Face、BAAI、MiniMax、Neo4j、Dify、MetaGPT、智谱 AI、Eigent.AI、Docker、Inflow、北京大学、Fraunhofer、牛津大学和法国 openLLM 社区等领先组织的 80 多位技术专家和学者。华为、全法青年创新创业协会、法中人工智能协会、Apache 软件基金会、Eclipse 基金会、The Khronos Group、WasmEdgeRuntime、LF Generative AI Commons、Linux 基金会研究、OpenWallet 基金会、开源倡议组织 (OSI)、Software Heritage 和 K8SUG 等重要合作伙伴也积极参与。本次大会包含 60 多个技术会议,围绕人工智能模型、基础设施、应用部署和具身智能等核心主题展开,全面展示了开源生态系统的发展和新兴趋势。
AI 与开源的共生关系
GOSIM 联合创始人 Michael Yuan 以题为“开源已经赶上,下一步是什么?”的主题演讲拉开了大会的序幕。他分享了自己对开源人工智能的现状和未来发展轨迹的见解,强调开源人工智能已经到达一个关键时刻。
“我们曾预测开源需要 5-10 年才能赶上闭源模型,但现在看来这个目标已经提前实现了,”Yuan 表示。他以最近发布的 Qwen 3 为例,指出开源模型不再仅仅是相互竞争,而是直接挑战专有旗舰模型,甚至在某些基准测试中超越了它们。Yuan 还认为,这种进步不仅归功于开源的进步,也归功于闭源开发未能达到预期,并遇到了性能瓶颈。相比之下,开源模型正在迅速发展,呈现出陡峭的性能增长曲线,并展示出真正的“赶超”现象。
这一观察引发了一个根本性问题:我们距离实现通用人工智能 (AGI) 还有多远?Yuan 认为,AGI 的未来可能不在于单一的全能模型,而在于部署在私有硬件或机器人设备上的专业模型、知识库和工具的网络。
他进一步阐述说,人工智能架构正在从集中式范式转向分散式范式。他强调了 OpenAI 从 Completion API 到新的 Responses API 的转变,旨在构建一个大规模的智能代理平台。近 60 万用户和开发人员已经加入了这场变革,为分布式人工智能应用的开发做出了贡献。
“AGI 的未来不应该仅仅由一家资金雄厚的公司开发,”Yuan 断言。“相反,它应该通过全球协作来构建,创建一个包含模型、知识库、机器人和执行系统的生态系统网络。”
在 Yuan 发表讲话后,OpenWallet 基金会执行董事 Daniel Goldscheider 发表了关于“GDC 钱包与凭证”的演讲,重点介绍了联合国大会通过的《全球数字契约》(GDC) 项目。他解释说,GDC 有两个核心目标:
- 认识到数字技术深刻地改变了我们的生活和社会发展,既带来了前所未有的机遇,也带来了不可预见的风险。
- 强调充分发挥数字技术为全人类谋福祉的潜力需要全球合作,打破国家、行业甚至公共和私营部门之间的壁垒。
基于这种共识,GDC 催生了“全球数字合作”倡议,旨在促进政府、企业、非营利组织和其他利益相关者之间的真正合作。
在讨论运营方面时,Goldscheider 强调,这种合作不是由任何单一组织主导的,而是采用“联合召集”的方法,邀请所有感兴趣的国际组织、标准制定机构、开源社区和政府间组织参与。他澄清说,这不是一个“谁领导谁”的项目,而是一个平等的协作平台,每个参与方都有发言权,没有一方比另一方更重要。
他进一步解释说,全球数字合作的目标不是直接开发标准或技术,而是促进来自不同背景的组织之间的对话,让他们展示自己的观点和需求,以达成共识。随后,具体的标准和技术工作将由相关的专业机构推进。他以“数字身份”和“生物识别技术”为例,指出许多组织已经在这些领域开展工作,强调需要一个中立的平台将大家聚集在一起,避免重复、冲突和资源浪费。
四个专题论坛:全面分析开源人工智能
本次大会设有四个专题论坛:人工智能模型、人工智能基础设施、人工智能应用和具身智能。这些论坛涵盖了从底层架构到应用部署,从模型能力到智能代理实践等关键主题。每个论坛都邀请了来自全球企业和研究机构的领先专家,既对最新的技术趋势进行了深入分析,又展示了丰富的工程实践案例,展现了开源人工智能在多个领域的全面整合和发展。
解构 AI 大模型的底层逻辑
人工智能模型论坛汇集了来自开源社区和研究机构的专家,分享他们对大型模型领域的架构创新、开源协作和生态系统演进的见解。
Hugging Face 的机器学习研究工程师 Guilherme Penedo 发表了“Open-R1:DeepSeek-R1 的完全开源复现”的演讲,展示了 Open-R1 项目在复制 DeepSeek-R1 模型方面的努力,重点是促进与推理任务相关的数据的开放性和标准化。智源研究院数据研究团队技术负责人刘光明分享了“OpenSeek:面向下一代大模型的协同创新”,强调了全球协作在推动算法、数据和系统层面的模型性能突破方面的重要性,目标是开发超越 DeepSeek 的下一代大型模型。
CSDN 高级副总裁李涛发表了“解码 DeepSeek:技术创新及其对人工智能生态的影响”,深入分析了 DeepSeek 在技术范式、模型架构和产业生态方面的创新,以及它对全球人工智能生态的潜在影响。MiniMax 高级研究总监钟毅然发表了“线性未来:大型语言模型架构的演进”,介绍了该团队提出的 Lightning Attention 机制,该机制在效率和性能方面为 Transformer 架构提供了一种潜在的替代方案。牛津大学皇家学会牛顿国际学者刘思伟讨论了“大型语言模型中的深度诅咒”,探讨了随着模型加深,深度神经网络的贡献逐渐减少的问题,并提出了使用 LayerNorm Scaling 改进 Pre-LN 机制,以提高深层利用率和整体效率。智谱 AI 研究工程师 Diego Rojas 在“代码大型语言模型:探索 Token 之外”中指出,当前的大型模型虽然功能强大,但仍然依赖于 Token 化,效率低下,并分享了跳过 Token 化的新方法,以使模型更快更强大。Fraunhofer IAIS 基础模型团队负责人 Nicolas Flores-Herr 以“如何构建具有全球竞争力的‘欧洲制造’大型语言模型?”结束了论坛,他强调欧洲正在通过多语言、开源和值得信赖的本地化大型模型项目克服数据、多样性和监管方面的挑战,以构建反映欧洲价值观的下一代人工智能。
人工智能基础设施的三要素:数据、算力和算法演进
人工智能基础设施论坛专注于为大型模型构建一个更开放、高效和包容的基础,汇集了来自研究机构和企业的领先专家,就数据、算力和系统架构等关键问题进行了深入讨论。
智源研究院 (BAAI) 副院长林咏华在“人工智能开源为善:包容性应用、公平数据和通用算力”中发布了中国互联网语料库 CCI 4.0,涵盖了三个主要数据集:CCI4.0-M2-Base V1、CCI4.0-M2-CoT V1 和 CCI4.0-M2-Extra V1。CCI4.0-M2-Base V1 的数据量为 35000GB,采用中英双语,其中中文数据 5000GB,与 CCI3.0 相比,数据规模增加了 5 倍。CCI4.0-M2-CoT V1 包含 4.5 亿条反向合成的人类思维轨迹数据,用于提高推理能力,总 Token 数量为 425B(4250 亿),几乎是 Cosmopedia(Hugging Face 开源)的 20 倍,Cosmopedia 是目前全球最大的开源合成数据集。
华为高级软件工程师王希元随后介绍了 CANN 架构如何在“基于 Ascend CANN 的训练和推理最佳实践”中连接人工智能框架和 Ascend 硬件,并通过支持 PyTorch 和 vLLM 等生态系统来实现最佳训练推理。家乐福数据架构师 Guillaume Blaquiere 在“使你的 LLM 无服务器化”中演示了如何通过 Google Cloud Run 部署支持 GPU 的无服务器大型模型实例,以降低成本并提高资源利用效率。北京大学工程师马银平发表了关于“开源智能计算集成管理和调度基础软件 - SCOW 和 CraneSched”的主题演讲,介绍了北京大学开发的两个主要开源基础软件 SCOW 和 CraneSched,这两个软件已在全国数十所大学和企业中部署,支持智能计算资源的统一管理和高性能调度。北京航空航天大学博士生郑耀伟在“verl:基于混合控制器的 RLHF 系统”的演讲中分享了 Verl 系统中混合控制器架构的设计理念,并讨论了其在大规模强化学习训练中的效率优势。Oxen.ai 的 CEO Greg Schoeninger 展示了“用于 DeepSeek-R1 风格强化学习(GRPO)的训练数据集和基础设施”,并详细介绍了推理 LLM 的强化学习训练过程的实践路径,包括数据集构建、基础设施构建和本地训练代码生成模型。
从“能否使用”到“是否用好”:人工智能应用进入实用阶段
在人工智能应用论坛上,来自领先公司的研发从业者和技术决策者分享了各种见解,展示了由大型模型驱动的人工智能应用的实际部署路径和未来可能性。
阿里巴巴通义实验室首席研究员李永彬分享了通义灵码在“通义灵码:从编码 Copilot 到编码 Agent”中的技术演进和产品应用的最新进展。华为软件工程师陈东杰发表了关于“仓颉魔方:大模型时代开发者的全新选择”的主题演讲,介绍了基于仓颉编程语言的人工智能大型模型 Agent 开发框架,该框架可以显着提高开发者构建智能 HarmonyOS 应用的效率,并带来卓越的开发体验。LangGenius 开发者生态系统负责人刘鑫锐专注于“协同合作,Dify 赋能技术力量”,强调了 Dify 的开源生态系统及其在加速人工智能应用普及方面的作用。
关于人工智能和系统工程的结合,Makepad 联合创始人 Rik Arends 发表了一个独特的演讲:“使用环境编码,使用 AI 创建用于移动设备、网页和混合现实的 Rust UI”,探索了如何使用环境编码来构建 UI 的新范式。Broadcom Spring 团队的研发软件工程师 Christian Tzolov 专注于演示如何通过 MCP Java SDK 和 Spring AI MCP 将人工智能模型与现有系统和资源有效集成在“通过 MCP 的人工智能集成统一范式”中。Futurewei 技术战略高级总监褚文静在“MCP 和 A2A 中的 ‘T’ 代表信任”中进一步提升了视角,深入分析了如何在基于 Agent 的应用中构建真正值得信赖的人工智能系统。此外,Cegid 的软件工程经理 Hong-Thai Nguyen 在“Cegid Pulse:多 Agent 业务管理平台”的演讲中介绍了多 Agent 如何重塑业务流程,并结合实际场景实现更智能的企业决策和运营。
当大型模型配备“身体”:具身智能到来
具身智能正在成为人工智能领域最具挑战性和最有希望的发展方向之一。在本论坛上,许多行业顶级技术专家围绕“具身智能”这一主题进行了深入讨论,分享了他们在架构设计、模型应用和场景部署方面的实践探索。
ZettaScale 的 CEO 和 CTO Angelo Corsaro 在“心灵、身体和 Zenoh”中介绍了 Zenoh 协议如何在智能机器人时代打破感知、执行和认知之间的障碍。Dora 项目的项目经理 Philipp Oppermann 带来了“在 Dora 中使用 Zenoh 实现分布式数据流”,解释了 Zenoh 协议在 Dora 中实现分布式数据流的重要应用。中国科学技术大学教授杨健发表了关于“自动驾驶中对抗性安全关键场景的生成”的演讲,介绍了如何通过生成对抗性场景来提高自动驾驶技术的安全性,以确保在复杂环境中的稳定性和可靠性。
此外,智源研究院的具身智能研究员林明兰还重点介绍了“RoboBrain:用于机器人操作的统一大脑模型 & RoboOS:用于 RoboBrain 和机器人智能 Agent 的分层协作框架”这一主题,展示了 RoboBrain 如何提高机器人的智能水平以及 RoboOS 在机器人协作中的重要作用。Voyage Robotics 的创始人 Ville Kuosmanen 发表了关于“使用开源 VLA 模型构建机器人应用程序”的精彩演讲,解释了如何使用开源 VLA 模型为机器人应用程序提供强大的支持。最后,Menlo Research 的大型语言模型研究员 Huy Hoang Ha 讨论了空间推理如何帮助机器人更好地理解复杂的 2D 和 3D 环境,从而提高其在“空间推理 LLM:增强对 2D 和 3D 的理解以支持机器人操作和导航”的主题演讲中的操作和导航能力。
Spotlight Talks:照亮前沿技术和创新应用
第一天的 Spotlight Talks 精选了来自行业专家的引人入胜的演讲,内容涵盖前沿技术和创新应用。该环节为来自各个领域的技术从业者提供了一个平台,以讨论人工智能的最新进展和实际应用。法国原子能委员会 (CEA) 的研究工程师 Cyril Moineau 在“Aidge”的演讲中介绍了 Eclipse Aidge 项目如何通过提供完整的工具链来支持深度神经网络在嵌入式平台上的部署和优化,从而加速边缘智能系统的开发。
Bielik.ai 的数据科学家 Paweł Kiszczak 在本次会议上首次公开分享了波兰本土人工智能项目 Bielik 的最新进展,并发表了题为“Bielik.AI 的崛起”的演讲,讲述了该项目如何通过开源语言模型和完整的工具生态系统来促进本地自主人工智能系统的建设。Bielik 项目不仅发布了多个开源语言模型(参数规模涵盖 1.5B、4.5B 和 11B),还创建了一个涵盖数据集、评估、训练和微调的端到端工具链,支持研究团队和开发人员在基础模型的基础上进行微调或持续预训练,这大大降低了大型模型的研发门槛,并激发了本地技术创新能力。
来自 Second State 的技术主管 Hung-Ying Tai 分享了“使用 LlamaEdge 在边缘设备上运行 GenAI 模型”,展示了 LlamaEdge 在边缘设备上部署生成式人工智能模型的轻量级和高性能能力,带来了更灵活高效的本地推理体验。北京大学的博士生陈天宇介绍了 SAFE 框架如何通过“数据合成-模型微调”的自我演化机制来缓解训练数据稀缺的问题,从而显着提高 Rust 代码形式验证的效率和准确性,主题为“基于自我演化框架实现 Rust 代码的自动形式验证”。Illuin Technology 的研发总监 Gautier Viaud 分享了该团队基于 ColBERT 架构和 PaliGemma 模型构建的 ColPali 系统如何通过结合图形和文本信息有效地提高文档检索的准确性和效率,演讲主题为“ColPali:基于视觉语言模型的高效文档检索”。最后,Dynamia.ai 的 CEO Xiao Zhang 介绍了如何在 HAMi 的帮助下更好地管理和调度异构 GPU 资源,并提高人工智能基础设施的利用率和可观察性,演讲主题为“释放异构人工智能基础设施的 K8s 集群能力:释放 HAMi 的力量”。
多样互动和首日亮点
除了高密度的主题演讲外,本次大会还设有几个特别单元。“闭门会议”单元侧重于战略对话和深入的行业交流,以促进跨境合作。“展示环节”侧重于展示企业和研究机构的最新人工智能技术产品,吸引了大量参观者驻足交流。“竞赛环节”中,来自世界各地的人工智能和机器人开发人员、工程师和机器人爱好者专注于开源 SO-ARM100 机械臂套件,以开展模仿学习的实践探索。该套件集成了 Hugging Face 的 LeRobot 框架,并结合了 NVIDIA 的人工智能和机器人技术,以支持包括 ACT 和 Diffusion Policy 在内的前沿人工智能架构,为参与者提供了坚实的技术基础。参与者在实际场景中进行了实践探索,以全面评估其效果和可行性。
“工作坊”单元以 OpenHarmony 生态系统为核心主题,探索了由开放原子开源基金会孵化和运营的开源项目。OpenHarmony 致力于构建一个面向全场景、全连接和全智能时代的智能终端操作系统框架,创建一个开放、全球化和创新的领先分布式操作系统平台,服务于各种智能设备,并帮助物联网行业的发展。在会议现场,参与者通过一系列实践工作坊深入了解了 OpenHarmony 在多设备协作和轻量级系统设计方面的核心优势,亲自参与了从驱动程序开发到应用程序部署的关键流程。动手实践不仅帮助开发者打通了“端到端”的技术路径,还全面提升了系统级开发和调试能力。
GOSIM AI 巴黎 2025 大会第一天的议程已经圆满结束,但精彩仍在继续。明天,大会将继续围绕人工智能模型、人工智能基础设施、人工智能应用和具身智能四大论坛展开,并将迎来备受期待的 PyTorch Day,更多重量级嘉宾和一线实践内容即将到来,敬请期待!