OpenAI前政策主管批评公司'改写'AI安全叙事

在社交媒体上的公开谴责

周三,OpenAI 前著名政策研究员 Miles Brundage 公开批评了该公司。他指责 OpenAI“改写”了其部署潜在风险 AI 系统方法的“历史”。Brundage 此前在塑造 OpenAI 的政策框架方面发挥了重要作用,他通过社交媒体表达了自己的担忧,引发了关于该公司在 AI 安全方面不断变化的立场的争论。

OpenAI 的“迭代部署”理念

Brundage 的批评是在 OpenAI 本周早些时候发布的一份文件之后提出的。该文件详细介绍了该公司目前关于 AI 安全和对齐的理念。在这种情况下,对齐是指设计 AI 系统的过程,使其以可预测、可取和可解释的方式运行。

在该文件中,OpenAI 将通用人工智能 (AGI) 的发展描述为“连续的路径”。AGI 被广泛定义为能够执行人类可以执行的任何智力任务的 AI 系统。OpenAI 表示,这条连续的路径需要“迭代部署和学习”AI 技术。这表明了一种渐进的、逐步的方法,从早期部署中吸取的经验教训将为后续部署提供信息。

GPT-2 争议:一个争论点

然而,Brundage 质疑 OpenAI 的说法,特别是关于 GPT-2 的发布。他断言,GPT-2 在发布时确实需要非常谨慎。这种说法直接与当前迭代部署策略代表着与过去做法不同的含义相矛盾。

Brundage 认为,OpenAI 对 GPT-2 发布采取的谨慎态度实际上与其当前的迭代部署策略完全一致。他认为,该公司目前对其历史的描述试图淡化与早期模型相关的风险。

对举证责任转移的担忧

Brundage 批评的一个核心要素集中在他认为的 AI 安全问题举证责任的转变上。他表示担心 OpenAI 的文件旨在建立一个框架,将对潜在风险的担忧标记为“危言耸听”。

根据 Brundage 的说法,这个框架将需要“压倒性的证据证明迫在眉睫的危险”,才能证明为减轻这些风险而采取的任何行动是合理的。他认为,在处理高级 AI 系统时,这种心态“非常危险”,因为不可预见的后果可能会产生重大影响。

对优先考虑“闪亮产品”的指责

OpenAI 过去曾面临指责,称其将“闪亮产品”的开发和发布置于安全考虑之上。批评者认为,该公司有时会为了在快速发展的 AI 领域获得竞争优势而仓促发布产品。

AGI 准备团队的解散和人员离职

去年 AGI 准备团队的解散进一步加剧了人们对 OpenAI 安全承诺的担忧。该团队专门负责评估和准备 AGI 的潜在社会影响。

此外,许多 AI 安全和政策研究人员已经离开了 OpenAI,其中许多人随后加入了竞争对手的公司。这些离职引发了人们对 OpenAI 内部文化和优先事项的质疑。

日益增长的竞争压力

AI 领域的竞争格局近来显著加剧。例如,中国的 AI 实验室 DeepSeek 凭借其公开可用的 R1 模型引起了全球关注。该模型在几个关键基准测试中表现出与 OpenAI 的 o1“推理”模型相当的性能。

OpenAI 的首席执行官 Sam Altman 公开承认,DeepSeek 的进步削弱了 OpenAI 的技术领先地位。Altman 还表示,OpenAI 将加速某些产品的发布,以增强其竞争地位。

财务风险

OpenAI 面临巨大的财务压力。该公司目前正处于巨额亏损状态,年度赤字达数十亿美元。预测表明,到 2026 年,这些损失可能会增加两倍,达到 140 亿美元。

更快的产品发布周期可能会在短期内改善 OpenAI 的财务前景。然而,像 Brundage 这样的专家质疑这种加速是否以牺牲长期安全考虑为代价。快速创新与负责任的开发之间的权衡仍然是争论的焦点。

深入探讨迭代部署的争论

“迭代部署”的概念是当前围绕 AI 安全讨论的核心。支持者认为,它允许进行真实的测试和学习,使开发人员能够识别和解决出现的潜在问题。这种方法与更谨慎的策略形成对比,后者需要在部署前进行广泛的测试和分析。

然而,迭代部署的批评者对不可预见后果的可能性表示担忧。他们认为,在完全了解 AI 系统之前将其发布到现实世界可能会导致意外的、可能有害的结果。挑战在于在真实世界学习的好处与部署潜在不可预测技术相关的风险之间取得平衡。

透明度和开放性的作用

争论的另一个关键方面围绕着透明度和开放性。一些人认为,提高 AI 开发和部署的透明度对于建立公众信任和确保问责制至关重要。这包括分享有关 AI 系统潜在风险和局限性的信息。

然而,另一些人则认为,过度的开放可能会被恶意行为者利用,可能导致 AI 技术的滥用。在透明度和安全性之间找到适当的平衡仍然是一个复杂的挑战。

对健全治理框架的需求

随着 AI 系统变得越来越复杂并融入社会的各个方面,对健全治理框架的需求变得越来越重要。这些框架应解决诸如安全性、问责制、透明度和道德考虑等问题。

制定有效的治理机制需要研究人员、政策制定者、行业利益相关者和公众之间的合作。目标是创建一个促进创新,同时减轻潜在风险并确保 AI 造福整个社会的框架。

对 AI 未来的更广泛影响

围绕 OpenAI 的 AI 安全方法的争论反映了人们对 AI 发展未来的更广泛担忧。随着 AI 系统继续以前所未有的速度发展,关于它们对社会的潜在影响的问题变得越来越紧迫。

挑战在于利用 AI 的变革潜力,同时减轻与其开发和部署相关的风险。这需要一种多方面的方法,包括技术研究、政策制定、道德考虑和公众参与。AI 的未来将取决于我们今天做出的选择。

正在进行的讨论提醒人们,在 AI 领域进行批判性审查和公开对话的重要性。随着 AI 技术的不断发展,就其潜在影响进行持续对话,并确保其发展符合人类价值观和社会福祉至关重要。