文学节与AI的启示
几周前,在印度举行的充满活力的斋普尔文学节 (JLF) 意外地成为了一个讨论人工智能 (AI) 未来关键问题的论坛。在一个表面上关注帝国遗产的小组讨论中,对话发生了急剧的转变。听众被潘卡ஜ்·米什拉 (Pankaj Mishra) 的《From the Ruins of Empire: The Revolt Against the West and the Remaking of Asia》所吸引,提出了一系列尖锐的问题,不是关于文学,而是关于DeepSeek,一个来自中国的新的生成式AI模型。
这些问题——我们是如何走到这一步的?我们如何为AI的未来规划最佳路径?为什么开源在AI开发中至关重要?——引发的反响远远超出了文学节的范围。它们触及了根深蒂固的历史对抗、对自力更生的渴望,以及日益增长的全球运动,该运动倡导以更开放和协作的方式进行AI开发。
DeepSeek反响的历史根源
DeepSeek在一个文学节上崭露头角可能看起来很奇怪。然而,它的突出地位与历史事件和长期的竞争密切相关,特别是在亚洲和西方之间。虽然欧洲的AI实验室因其开源突破而广受赞誉,但DeepSeek在亚洲的反响却具有更深刻的历史共鸣。
DeepSeek的发布受到了媒体的广泛报道。它在JLF上的反响揭示了一种超越单纯AI性能讨论的情绪。印度的作家和记者,经常批评中国,却发现自己因反对美国AI公司 (AIC) 统治地位的共同斗争而团结起来。这种对DeepSeek在亚洲的热情植根于殖民历史,以及最近一些具有挑衅性的公司声明。
AI:自力更生的现代斗争
对于《Imperial Twilight: The Opium War and The End of China’s Last Golden Age》一书的作者斯蒂芬·普拉特 (Stephen Platt) 来说,中国的技术雄心与其历史伤痕密不可分。鸦片战争 (1839–1860) 是一个强有力的象征,表明英国的技术和军事优势如何羞辱了中国。这种“百年屈辱”推动了中国当前对自力更生的追求,以及对AI、半导体和其他关键技术的大力投资。这是一种避免依赖西方技术的决心,这是铭刻在民族意识中的教训。
JLF上的印度小组成员在这个叙述中找到了共同点。与中国一样,印度也带有东印度公司影响的黑暗印记。此外,英国记者安妮塔·阿南德 (Anita Anand) 强调了一段有争议的视频,视频中OpenAI首席执行官山姆·奥特曼 (Sam Altman) 驳斥了印度在训练基础模型方面与AIC竞争的潜力,称其“完全没有希望”。此类言论只会加强该地区自力更生的决心。
开源AI:抵抗的象征
DeepSeek,以及之前的欧洲实验室,为AI竞赛带来了希望的灯塔。他们选择拥抱开源已成为抵制专有AI模型主导地位的有力象征。
必须在根深蒂固的竞争,特别是与美国的竞争的背景下理解DeepSeek R1的发布。这种竞争是如此深刻,以至于在与美国技术竞争的讨论中,欧洲经常被忽视。
AIC的主导地位甚至在西方引发了与殖民主义的比较。在2024年8月一篇题为“技术殖民主义的兴起”的专栏文章中,欧洲创新委员会成员赫尔曼·豪泽 (Hermann Hauser) 和伦敦大学学院 (UCL) 高级研究员哈泽姆·丹尼·纳基布 (Hazem Danny Nakib) 写道:“与旧的殖民主义不同,技术殖民主义不是关于夺取领土,而是关于控制支撑世界经济和我们日常生活的技术。为了实现这一目标,美国和中国越来越多地将全球供应链中最具创新性和最复杂的部分转移到国内,从而制造了战略瓶颈。”
欧洲AI实验室(如Mistral、kyutai和Meta的FAIR Paris团队)以及现在的DeepSeek的开创性开源方法,为AIC的专有AI模型战略提供了一个引人注目的替代方案。这些开源贡献正在全球范围内产生共鸣,并进一步巩固了开源AI作为抵制美国AI主导地位的象征。
开源的理由:历史的重演
技术协作依赖于活力和速度,这是软件代码演变中固有的东西。
法国诺贝尔经济学奖获得者让·梯若尔 (Jean Tirole) 最初对开源的出现感到困惑,他在2000年与乔希·勒纳 (Josh Lerner) 合著的论文“开源的简单经济学”中质疑:“为什么成千上万的顶尖程序员会自由地为公共产品的提供做出贡献?任何基于利他主义的解释都只能到此为止。”
虽然在当时可以理解,但任何关注近年来AI进展的人,特别是在DeepSeek R1发布之后,都会发现答案是不言而喻的。Meta的FAIR Paris开源Llama的影响、Mistral及其创始人通过开源7B语言学习模型 (LLM) 的迅速崛起,以及DeepSeek R1,都证明了这些程序员和科学家致力于开源的令人信服的理由。
这也解释了为什么山姆·奥特曼和他的联合创始人选择“OpenAI”这个名字来吸引人才。如果这些前沿实验室选择采用专有方法,他们是否会在AI社区内获得如此响亮的宣传并建立如此强大的个人品牌?答案是响亮的否定。
1999年,程序员理查德·斯托曼 (Richard Stallman) 和开发者埃里克·雷蒙德 (Eric Raymond) 分别在论文开头引用的两句强有力的话,阐明了DeepSeek在JLF上的反响,并强调了更深层次的意识形态力量:
“专有软件社会体系——即不允许你共享或更改软件的体系——是不合群的、不道德的、完全错误的,这种想法可能会让一些人感到惊讶。但是,对于一个建立在分裂公众和让用户无助的基础上的体系,我们还能说什么呢?” - 理查德·斯托曼
“Linux黑客最大化的效用函数不是经典的经济学,而是他们自己的自我满足感和在其他黑客中的声誉……以这种方式运作的自愿文化实际上并不少见;我长期参与的另一个文化是科幻小说迷,它与黑客文化不同,明确承认egoboo(在其他粉丝中提高自己的声誉)。” - 埃里克·雷蒙德
Unix在20世纪70年代和80年代的轨迹为AI的当前状态提供了一个引人注目的类比。AT&T最初在学术界推广和免费分发Unix促进了创新和采用。然而,当AT&T在20世纪70年代后期实施专有许可证时,它不可避免地导致伯克利大学推出了BSD Unix,一个开放的替代方案,并最终导致Linus Torvalds创建了Linux。Torvalds在欧洲开发Linux将开源软件的中心从美国转移了出去。
这些相似之处是惊人的,甚至在地理上也是如此,与AI的演变相似。然而,这一次,出现了新的地理区域:阿布扎比的TII及其Falcon模型,中国的DeepSeek、阿里巴巴的Qwen,以及最近印度的Krutrim AI Lab及其用于印度语的开源模型。
Meta FAIR Paris团队,以及领先的欧洲AI实验室和更新的前沿实验室(DeepSeek、Falcon、Qwen、Krutrim),极大地加速了AI创新。通过公开分享研究论文和代码,他们:
- 培养了新一代AI工程师和研究人员掌握最先进的AI技术。
- 创建了一个开放协作的生态系统,使专有AI实验室之外的快速进步成为可能。
- 提供了替代AI模型,确保AI不会被美国AI公司垄断。
这四个生态系统(欧洲、印度、阿布扎比和中国)可以建立一个强大的开源AI联盟,以挑战仍然以专有AI思维模式运作的主导AIC。
在2025年1月31日DeepSeek R1发布后的一次“问我任何问题”(AMA) 问卷调查中,奥特曼承认专有AI模型方法站在了历史错误的一边。
随着时间的推移,全球的AI实验室可能会选择加入这个联盟,以共同推进该领域。这不会是科学领域第一次通过非营利倡议超越边界和政治意识形态。它提供了一种竞争模式,避免触发全球南方经常表达的反殖民主义不满。
历史先例:人类基因组计划作为AI的榜样
作为一名生物学家,我特别了解人类基因组计划 (HGP) 的成就,以及它如何最终超越了Celera Genomics的营利性计划,造福了整个领域和人类。
HGP是一项开创性的国际研究计划,对整个人类基因组进行了测绘和测序。它于2003年完成,历时13年的合作,根据2011年的一份报告(2013年更新),从30亿美元的投资中产生了近8000亿美元的经济影响(美国经济的投资回报率为141比1——每1美元的联邦HGP投资为经济贡献了141美元)。它彻底改变了医学、生物技术和遗传学,使个性化医疗、疾病预防和基因组研究取得了进展。测序工作和研究由六个国家的20个实验室进行:美国、英国、法国、德国、日本和中国。
虽然Celera Genomics试图通过测序基因组序列来获利,但HGP优先考虑开放数据共享,这体现在其百慕大原则中。这些原则是在1996年2月在百慕大举行的国际人类基因组测序战略会议上确立的,它们对于塑造HGP的数据共享政策至关重要,并对全球基因组研究实践产生了持久的影响。其主要原则是:
- 立即发布数据: HGP生成的所有人类基因组序列数据都应发布到公共数据库中,最好是在生成后24小时内。这种快速传播旨在加速科学发现并最大化社会效益。
- 自由和不受限制的访问: 数据应免费提供给全球科学界和公众,对其用于研究或开发目的没有任何限制。
- 防止知识产权主张: 参与者同意不会对主要基因组序列数据主张任何知识产权,从而促进开放科学精神,并防止由于专利而可能阻碍研究。
在治理方面,HGP是一项协作和协调的科学计划,而不是一个独立的组织或公司。这是一项分散的努力,通过政府拨款和合同资助给各个研究机构。其预算的一部分 (3–5%) 用于研究和解决与人类基因组测序相关的伦理、法律和社会问题。
连接AI安全与开源AI
开源AI的另一个关键优势是它在AI安全研究中的作用。
2024年的AI首尔峰会专门关注生存风险,当时AIC在AI领域领先于世界其他地区。就在2024年5月,前谷歌首席执行官埃里克·施密特 (Eric Schmidt) 还声称美国在AI领域领先中国2-3年,而欧洲则过于关注监管而无关紧要。如果峰会成功,它将有效地将AI安全决策的控制权让给这些公司。幸运的是,它没有成功。
现在,开源AI正在弥合技术差距,安全讨论将不再仅仅由少数主导者决定。相反,一个更广泛、更多样化的利益相关者群体——包括来自欧洲、印度、中国和阿布扎比的研究人员、政策制定者和AI实验室——有机会与AIC一起塑造讨论。
此外,开源AI增强了全球威慑能力,确保没有任何单一行为者可以在没有问责制的情况下垄断或滥用先进的AI系统。这种分散的AI安全方法将有助于减轻潜在的生存威胁,方法是在全球AI生态系统中更公平地分配能力和监督。
具有巴黎原则的人类AI项目
下周在巴黎举行的AI行动峰会可以在塑造AI未来方面发挥什么作用?
这提供了一个建立人类AI项目的关键机会,该项目以人类基因组计划为模型,在全球范围内推进和支持开源AI开发。从开创性的欧洲AI实验室到DeepSeek,当前的开源贡献已经在加速该领域的发展,并有助于缩小与AIC的差距。
AI的能力因通用开源生态系统的成熟而得到显著增强,该生态系统拥有数千个成熟的项目、专门的治理模型,并深入集成到企业、学术界和政府中。
AI开源生态系统也受益于Github和Gitlab等平台。最近,专门用于开源AI的平台,例如Hugging Face——一家由三位法国企业家共同创立的美国公司——已经开始作为社区的分发平台发挥重要作用。
鉴于与20世纪90年代初的人类基因组测序相比,开源AI生态系统相对成熟,开源AI如何从人类AI项目中受益?
首先,欧盟经常受到AIC及其自身前沿AI实验室的批评,因为它对开源进行了监管。人类AI项目可以致力于共同努力,在参与国家和地区之间制定监管一致性和标准。一种协调的方法,最初由欧洲、印度、阿布扎比和中国做出贡献,可以促进开源模型在这个共享监管区域(一种开源的自由贸易区)的传播。
虽然没有明确证明,但与在JLF上对DeepSeek的反应形成过程中起作用的竞争驱动的动态存在相似之处。同样,AI监管可以侧重于促进创新和最大化公共利益——既为企业也为消费者——而不是作为一种潜在的机制来阻碍AIC的进展或阻碍本土AI冠军缩小差距的努力。
该项目还可以促进人才交流,并为开源AI资助共享计算基础设施(与能源基础设施相关联)。从下面的图表中可以明显看出,世界上某些地区的有才华的STEM毕业生目前可能难以获得其国家缺乏的世界级AI基础设施。
另一个合作领域是建立关于模型和数据集(包括权重、代码和文档)的开放访问标准的最佳实践。
该项目还可以促进AI安全研究方面的全球合作。来自巴黎、北京和班加罗尔的研究人员可以共同评估模型并减轻风险,而不是秘密地竞相解决对齐问题。所有安全发现(例如,减少有害输出的方法或可解释性工具)都可以在开放领域及时共享。
这一原则将认识到AI安全是一种全球公共产品——一个实验室的突破(例如,一种使AI推理透明的新算法)应该使所有人受益,而不是保持专有。可以组织联合安全基准和挑战活动,以鼓励集体责任文化。通过汇集安全研究,该项目旨在领先于潜在的AI滥用或事故,让公众放心,强大的AI系统正在得到谨慎的管理。
2023年在布莱切利公园举行的英国AI安全峰会过于强调核扩散类比,从而错失了审查安全被视为公共产品的其他领域的机会:网络安全、抗生素和免疫学(在Covid-19之后有几个有趣的举措)以及航空安全。
该项目还可以与ARC Prize Foundation目前的合作并进一步推进其工作,以促进安全和先进的AI系统的开发。ARC Prize由Keras开源库的创建者弗朗索瓦·肖莱 (François Chollet) 和软件公司Zapier的联合创始人迈克·克努普 (Mike Knoop) 共同创立,是一个非营利组织,举办公共竞赛以推进通用人工智能 (AGI) 研究。他们的旗舰活动ARC Prize竞赛向能够开发和开源ARC-AGI基准解决方案的参与者提供超过100万美元的奖金——该基准旨在评估AI系统高效泛化和获取新技能的能力。
ARC Prize Foundation对开源解决方案和公共竞赛的强调与人类AI项目促进AI开发中的国际合作和透明度的目标完全一致,正如ARC Prize Foundation网站上“AGI”下所述:
“LLM是在难以想象的大量数据上训练的,但仍然无法适应它们没有接受过训练的简单问题,或者做出新颖的发明,无论多么基本。强大的市场激励措施已推动前沿AI研究走向封闭。研究注意力和资源正被拉向死胡同。ARC Prize旨在激励研究人员发现新的技术方法,推动开放AGI的进步。”
与HGP一样,人类AI项目将把部分资金用于道德治理和监督。这将包括关于版权的讨论。该项目可以帮助社会考虑免费访问最佳信息源进行训练,同时在其之上开发专有模型的伦理问题。在生物学领域,众所周知,蛋白质数据库(Protein Data Bank)对于Google DeepMind的AlphaFold模型预测蛋白质结构至关重要,它可能需要在50年内获得相当于100亿美元的资金。该项目可以帮助思考我们如何继续资助AI开发,或者专有AIC应该如何与原创作者分享收入。
总之,这些巴黎原则和人类AI项目将有助于以更开放、协作和道德的方式在全球范围内推进AI。它们将建立在从欧洲到中东、印度以及现在的中国的主要开源贡献者的成就之上,并在现有的开源软件和AI特定框架和平台内。
历史与AI的重演
我们面前的机会是巨大的。Mistral AI、kyutai、BFL、Stability以及最近的DeepSeek让公众看到了希望,即合作与专有AIC竞争甚至超越它们的未来是可能的。
我们仍处于这一技术突破的早期阶段。我们应该感谢AIC对该领域做出的贡献。AI行动峰会应该是一个以前所未有的规模促进合作创新的机会,并将尽可能多的参与者带到历史正确的一边。
这就像1789年再次上演。我们正在目睹一场争取技术主权的斗争、权力的分散化以及将AI作为公共产品的呼吁。就像1789年一样,这场革命将无法被遏制。