驾驭AI前沿:开源时代西方的战略要务

像 DeepSeek 的 R1 这样复杂的人工智能模型的出现,在西方科技界引起了震动,促使人们对 AI 发展战略进行必要的反思,特别是在成本效益和尖端能力这两个往往相互竞争的需求之间。然而,其影响远不止于技术基准或经济效率。DeepSeek 所凸显的发展轨迹迫使我们进行更深刻、更紧迫的思考:特定类型 AI 的崛起,尤其是那些由非民主国家倡导的 AI,在一个日益被算法塑造的时代,对民主本身的未来健康和原则意味着什么?

这一挑战的核心在于 open-source AI(开源 AI)的概念。这指的是那些基础组件——从底层代码到用于训练的数据集——都公开可用的 AI 系统。这种透明度不仅允许用户使用这些工具,还能研究其内部工作原理,为特定目的修改它们,并分享他们的创新。虽然在复杂 AI 模型的背景下,“open source”的确切定义仍在争论中,但其潜力是巨大的。它有望使 AI 开发民主化, fostering 一个充满活力的生态系统,开发者可以在其中协作并基于彼此的工作进行构建。这种协作精神可以赋能个人、研究人员和社区,为教育、医疗服务和金融服务等关键领域量身定制 AI 解决方案,有可能释放巨大的创新潜力,并全面加速经济进步。

然而,这条充满希望的技术途径也带来了固有的复杂性和风险,特别是在其治理和潜在价值观方面。例如,围绕 DeepSeek R1 模型的报告表明,它可能包含审查或选择性地向用户隐瞒信息的机制。这一个例子凸显了一个更大的危险:民主国家不仅仅面临在追求卓越 AI 性能的技术竞赛中落后的风险。它们同样面临着在塑造 AI 治理的关键战役中失地的严峻危险,这可能导致嵌入威权主义原则的系统在全球扩散,盖过那些旨在维护民主规范(如言论自由和信息获取权)的系统。

因此,当前时刻需要采取积极主动和协调一致的回应。美国必须与其民主盟友建立强有力的伙伴关系,其中欧盟是一个尤为重要的合作者,共同为 open-source AI 制定全球标准和最佳实践。利用其现有的立法框架和相当大的市场影响力,这些跨大西洋伙伴应率先为这个新兴领域创建一个强大的治理结构。关键的第一步是正式围绕 open-source AI 的功能性定义达成共识,以确保监管的清晰度和有效性。在此之后,需要协同加速努力,确保民主价值观——透明度、公平性、问责制和尊重基本权利——深深嵌入正在开发和推广的 open-source AI 模型中。这样的战略推动对于为一个真正开放、透明和赋权所有人的 AI 未来铺平道路至关重要,而不是一个被专制控制巧妙塑造的未来。

中国对开放的精心拥抱

理解当前的动态需要认识到中国在 AI 领域的战略部署。DeepSeek 取得显著成功的部分原因不仅仅是技术实力;它与中国共产党(CCP)日益明确的信号相一致,表明其打算将 open-source AI 的规范制定直接整合到其法律和政策架构中。一个重要的标志出现在 2024 年 4 月的《Model AI Law》草案中。该文件明确阐述了北京支持培育国内 open-source AI 生态系统的立场。

该法律草案第 19 条宣称,国家“推动开源生态建设”,并积极“支持相关主体建设或者运营开源平台、开源社区、开源项目”。它更进一步,鼓励企业“公开软件源代码、硬件设计和应用服务”,表面上是为了促进全行业共享和协同创新。也许最能说明问题的是,该草案建议减少甚至免除提供 open-source AI 模型实体的法律责任,前提是建立符合“国家标准”的治理体系并实施“相应的安全措施”。这与中国以往强调更明确保护用户权利的 AI 相关立法相比,可能是一个重大的转变。虽然仍是草案,但《Model AI Law》中的具体条款提供了一个有价值的蓝图,揭示了中国设想如何在国内部署 open-source AI,以及至关重要的是,其出口的 AI 模型可能具有哪些特征。

进一步强化这一战略方向的是《AI Safety Governance Framework》,这是中国打算在国际上用来“在全球层面促进 AI 安全治理国际合作”的文件。该框架呼应了该国在 open-source AI 问题上日益增长的自信。该框架由中国的全国信息安全标准化技术委员会(National Technical Committee 260 on Cybersecurity)起草——该机构与权力强大的国家互联网信息办公室(Cyberspace Administration of China)密切相关,后者的网络安全指南已于 2024 年 9 月被 CCP 正式采纳——该框架明确指出:“我们应促进 AI 知识共享,以开源方式向公众提供 AI 技术,并共同开发 AI 芯片、框架和软件。” 在一份面向全球受众的文件中包含如此强烈的声明,清楚地表明了中国的雄心,不仅要参与 open-source AI 运动,而且要将自己定位为这一关键技术领域的领先倡导者和标准制定者。然而,这种精心策划的“开放”拥抱是在一个明显受控的环境中运作的,旨在利用开源的创新力量,同时保持与国家目标的一致。

美国的犹豫:重防御轻方向

横跨太平洋,美国围绕 open-source AI 的叙事呈现出鲜明的对比。一段时间以来,科技行业和学术界的倡导者一直在宣扬开源方法的巨大好处。著名的行业人物公开敦促美国政府在战略上更加重视 fostering open-source AI 的发展。一个显著的例子是 Mark Zuckerberg 推出了开源模型 Llama 3.1,并声称开源“代表了世界为每个人创造广泛经济机会和安全的最佳机会”。

尽管有来自有影响力人士的这种响亮倡导,美国却明显未能建立任何专门旨在促进或指导 open-source AI 发展的重大立法框架。虽然一位美国参议员在 2023 年提出了一项旨在构建开源软件安全框架的法案,但该立法一直停滞不前,没有取得实质性进展。联邦机构触及了这个问题,但往往采取谨慎或被动的姿态。去年,美国国家电信和信息管理局(NTIA)发布了一份报告,审查了具有“开放权重”(open weights)的双重用途 AI 基础模型。值得注意的是,“开放权重”通常表示模型的参数可供使用,但这并不一定满足真正开源的全部标准(通常包括访问训练数据和代码)。NTIA 的报告建议政府加强对这些开放权重模型相关潜在风险的监控,以更好地确定适当的限制。随后,Biden 政府最终的 AI 监管框架对开放模型采取了稍微宽松的立场,对最强大的封闭权重(closed-weight)模型设定了更严格的要求,同时在很大程度上将开放权重模型排除在这些特定限制之外。

然而,一个清晰、积极主动的国家战略来倡导民主的 open-source AI 仍然遥不可及。潜在领导层更迭下的未来方向又增加了一层不确定性。前总统 Donald Trump 尚未就 open-source AI 阐明具体的政策或指导。虽然他废除了 Biden 总统最初的 AI 行政命令,但发布的替代命令并未概述任何致力于 fostering 或引导 open-source AI 发展的具体举措。

总的来说,美国的做法似乎主要是防御性的。主要焦点似乎是开发高能力的、通常是专有的 AI 模型,同时花费大量精力阻止对手,特别是中国,获取先进的半导体技术和 AI 能力。这种防御姿态,虽然从国家安全的角度可以理解,但却有忽视关键进攻战略的风险:积极培育和推广一个植根于民主原则的全球 open-source AI 生态系统。美国似乎专注于守卫其技术堡垒,可能错失了通过主动传播开放、尊重权利的 AI 替代方案来塑造更广泛全球格局的机会。

欧洲的监管悖论:权力与瘫痪

以其在数字领域的强硬监管立场而闻名的欧盟(EU),在 open-source AI 问题上呈现出另一种挑战。自具有里程碑意义的《通用数据保护条例》(GDPR)实施以来,欧盟已成功将自己定位为数字经济的全球标准制定者。世界各地的国家和跨国公司经常使其做法与欧盟的合规框架保持一致,随着全面的《EU AI Act》的出台,这一趋势延伸到了人工智能领域。该法案旨在为整个欧盟的 AI 系统建立基于风险的法规。

然而,当涉及到具体处理 open-source AI 时,欧盟强大的监管机器似乎出人意料地犹豫不决,其努力也显得有些不足。 《AI Act》第 2 条确实简短地提到了这一点,为 open-source AI 模型规定了某些监管豁免。然而,这项豁免的实际影响似乎有限,特别是因为它通常不适用于为商业目的部署的模型。这种狭窄的范围极大地限制了它对蓬勃发展的 open-source AI 格局的实际效果。

这种自相矛盾的情况——承认开源但未能积极培育它——在欧盟的其他指导文件中持续存在。假设为了本次讨论,最新的《通用目的 AI 实践准则》(General-Purpose AI Code of Practice)于 2025 年 3 月发布,它可能认识到开源模型对开发安全、以人为本和可信赖 AI 的积极贡献。然而,这类文件通常缺乏有意义的阐述或旨在积极促进这些潜在有益的 open-source AI 模型的开发和广泛采用的具体措施。即使在像《EU Competitiveness Compass》这样的战略框架内——表面上旨在解决过度监管并增强 AI 等关键领域的战略竞争力——“open source”一词也明显缺失或很少受到关注。

布鲁塞尔方面对全面拥抱和监管 open-source AI 采取的这种谨慎、近乎沉默的做法,可能源于几个因素。一个重要的障碍是精确定义 open-source AI 的固有困难。与主要涉及源代码的传统开源软件不同,open-source AI 包含复杂的预训练模型、庞大的数据集和错综复杂的架构。尽管像 Open Source Initiative (OSI) 这样的组织做出了努力,但缺乏普遍接受的法律定义,造成了一定程度的法律不确定性,而像欧盟委员会这样的监管机构通常对此感到不安。

然而,这种相对不作为的根本驱动因素可能更深层次。欧盟在建立像 GDPR 这样影响深远的监管制度方面取得的巨大成功,可能使委员会警惕为像 AI 这样强大且快速发展的技术创建广泛的豁免,特别是当其开源变体仍然有些定义不清时。可能存在一种担忧,即过于轻易地拥抱 open-source AI,而没有完全建立的护栏,可能会无意中削弱欧盟来之不易的全球监管影响力。这构成了一场战略赌博——优先考虑全面控制,而不是可能 fostering 一个更具活力、尽管可预测性较低的开放创新生态系统——迄今为止,布鲁塞尔几乎没有表现出果断进行这场赌博的意愿。这种监管瘫痪留下了一个真空,而其他人正在迅速填补。

变化中的 AI 地缘政治格局

中国在 open-source AI 领域的战略推进,与美国和欧盟的相对犹豫相结合,正在积极重塑人工智能的地缘政治格局。中国坚定地迈向技术自给自足,这场运动现在明确包括巩固其围绕 open-source AI 的战略,这可以部分理解为对美国持续针对先进计算硬件和半导体实施出口管制的回应,这些措施是基于美国多年来对国家安全、经济竞争力和知识产权保护的担忧而实施的。中国的反制措施,包括其对开源的拥抱,反映了这两个全球大国之间为争夺技术霸权而日益加剧的更广泛战略竞争。与此同时,欧盟通常在这场竞赛中不是通过同等规模的直接技术竞争来施加影响,而是通过制定侧重于保护基本权利、隐私以及公平和算法问责制等民主价值观的全球规范——这些标准确实塑造了全球主要科技公司的政策。

然而,通过积极将自己定位为 open-source AI 的领导者和倡导者,中国正在巧妙地将一个挑战——获取某些西方技术的受限——转化为一个战略机遇。它正在有效地向全球社会,特别是向寻求可获取 AI 工具的发展中国家,打造并推广其自己独特的 AI 开放版本。像 DeepSeek 的 R1 这样有能力的中国模型,以及来自阿里巴巴等其他国内科技巨头的产品,正在开始改变全球动态。它可能降低全球对纯粹封闭、专有 AI 模型的需求,特别是如果开放替代方案看起来更容易获得或更具成本效益。例如,DeepSeek 发布了更小、计算要求更低的模型,适用于处理能力有限的设备。据报道,像 Hugging Face 这样的主要 AI 开发中心已经开始分析和复制 DeepSeek-R1 训练方法的某些方面,以改进他们自己的模型。甚至像 Microsoft、OpenAI 和 Meta 这样的西方科技巨头也越来越多地探索模型蒸馏等技术,这些技术的部分普及归功于 DeepSeek 的发展。

这种不断变化的格局表明,中国正在积极推动全球关于 AI 开放性的对话,首次迫使美国对此做出反应和适应。与此同时,欧盟在开源问题上仍然某种程度上陷入法律和监管的惰性状态。这种不对称性在 open-source AI 治理和扩散这一关键领域造成了明显的权力失衡

至关重要的是,中国正在传播的 open-source AI 版本给民主社会带来了重大担忧。CCP 似乎正在战略性地实施一个“双轨”系统:鼓励 AI 开发者和公司之间相对开放和协作以刺激创新,同时在面向公众的模型中嵌入控制和限制,以限制信息流动和言论自由。这种“开放性”受到中国既定技术控制模式的严格制约,通常要求模型的输入和输出符合国家认可的叙事、CCP 价值观,并投射积极的国家形象。即使在其面向全球的《AI Safety Governance Framework》中,中国当局公开拥抱开源原则,但也存在关于 AI 生成内容对“意识形态安全”构成威胁的警示性语言——这清楚地表明了 CCP 对思想和言论自由的固有限制。

如果没有一个植根于保护民主原则和基本人权的强大替代框架,世界将面临中国更具限制性的 open-source AI 解释被广泛复制和采用的风险。全球的威权政权甚至非国家行为者可以轻易地在这些模型的基础上进行构建,实现复杂的审查和监控,同时误导性地声称他们只是在促进技术可及性。因此,仅仅关注追赶中国的技术性能是不够的。民主国家必须做出战略性回应,带头为 open-source AI 时代建立和推广民主治理

开创跨大西洋前进之路

当前的轨迹要求世界主要民主国家采取果断行动并加强合作。美国和欧盟应认真考虑启动一项开源外交(open-source diplomacy)战略。这涉及在全球范围内积极推进开发和共享有能力、可信赖且尊重权利的 AI 模型,以制衡威权主义的替代方案。这项工作的核心是创建一个由美国和欧盟共同制定的 open-source AI 统一治理框架

为了有效地塑造一个民主的 AI 未来,建立一个专门的跨大西洋 open-source AI 工作组是关键的下一步。该工作组应酌情利用现有结构,例如全球人工智能伙伴关系(GPAI),但至关重要的是,必须确保来自大西洋两岸的领先科技公司、学术研究人员和公民社会专家的积极参与和投入贯穿整个框架制定过程。这种包容性的方法对于制定既有原则性又切实可行的标准至关重要。

其次,美国和欧盟都需要为这一愿景投入切实的资源。这意味着战略性地将资金导向那些专门致力于开发明确符合民主价值观的 open-source AI 模型的学术机构、研究实验室和创新型初创企业。此类模型的关键特征将包括:

  • 设计和训练数据的透明度。
  • 针对审查和操纵的强大保障措施。
  • 问责制和偏见缓解机制。
  • 内置对隐私和基本权利的尊重。

推广这些民主模型需要华盛顿和布鲁塞尔的决策者明确认识到,fostering 一个基于这些原则的全球生态系统的长期战略利益,显著超过了与开放性相关的短期风险认知。与此同时,欧盟必须在这一特定领域更果断地利用其已建立的监管实力。在保持其对高标准的承诺的同时,布鲁塞尔需要克服其在 open-source AI 法律定义上的犹豫不决,并更迅速地采取行动,制定明确的指导方针和激励措施,从而抵制中国在塑造全球规范方面日益增长的势头。为了避免进一步失地,拥抱一定程度的可控不确定性可能是必要的。

尽管跨大西洋关系可能在各个方面面临周期性的动荡,但中国在 open-source AI 领域崛起所带来的挑战,凸显了美欧在这一领域合作而非竞争的绝对必要性。要重新获得在这一关键技术领域的领导地位,需要一项协调一致、具有前瞻性的跨大西洋倡议。这项倡议必须整合积极主动的政策制定、有针对性的研究资助以及对创新的支持,所有这些都旨在为全球设定一个真正尊重权利、透明、富有创造力并赋权于世界各地人民的 AI 未来的标准。犹豫观望的时代已经结束;现在是采取果断、统一行动的时刻。