食言与未履行的承诺
谷歌在发布 Gemini 2.5 Pro 时未能同时提供安全研究报告,这被视为违背了之前的承诺。2023 年 7 月,谷歌参加了拜登政府召集的白宫会议,并与其他主要人工智能公司签署了一系列承诺。其中一项关键承诺是为所有超越当时最先进人工智能水平的主要公开模型发布报告。鉴于 Gemini 2.5 Pro 的先进性,它几乎肯定属于这些白宫承诺的范围。
当时,谷歌同意这些报告应包括:
- 已进行的安全评估,包括对危险能力的评估。
- 可能影响适当用例的重大性能限制。
- 对模型对公平和偏见等社会风险的影响的讨论。
- 用于评估模型部署适用性的对抗性测试结果。
在 2023 年 10 月于日本广岛举行的七国集团 (G7) 会议之后,谷歌和其他公司承诺遵守自愿行为准则,以开发先进的人工智能。该 G7 准则强调公开报告先进人工智能系统的能力、局限性以及适用和不适用应用的重要性。目的是提高人工智能领域的透明度和问责制。
2024 年 5 月,在韩国首尔举行的国际人工智能安全峰会上,谷歌重申了其承诺。该公司承诺公开披露模型能力、局限性、适当和不适当的用例,并提供其风险评估和结果的透明度。
谷歌的回应与延迟的透明度
针对有关缺失的安全报告的询问,负责开发 Gemini 模型的 Google DeepMind 的一位发言人表示,最新的 Gemini 已经过发布前的测试。这包括内部开发评估和在模型发布之前进行的保证评估。该发言人还表示,一份包含更多安全信息和模型卡的报告“即将发布”。然而,尽管最初的声明于 4 月 2 日发布,但迄今为止尚未发布模型卡。
忽视安全报告的普遍趋势
在人工智能安全承诺方面,面临批评的并非只有谷歌。今年早些时候,OpenAI 也因未能及时发布其深度研究模型的模型卡而面临审查。相反,他们在项目最初发布几周后发布了系统卡。同样,Meta 最近关于 Llama 4 的安全报告也因过于简短且缺乏细节而受到批评。
这些实例突显了人工智能行业内令人担忧的趋势,即一些主要实验室并未像模型发布一样优先考虑安全报告。鉴于这些公司向美国政府和全球社会作出的制作此类报告的自愿承诺,这尤其令人不安。这些承诺最初是在 2023 年向拜登政府作出的,随后通过承诺遵守在广岛人工智能峰会上获得七国集团国家通过的人工智能行为准则而得到加强。
民主与技术中心的人工智能治理顾问凯文·班克斯顿 (Kevin Bankston) 表示失望,称这些失败削弱了相关公司的信誉,并引发了对其负责任的人工智能开发承诺的质疑。
未解答的问题与外部评估
谷歌发言人的声明也未能解决有关 Gemini 2.5 Pro 是否已提交给英国人工智能安全研究所或美国人工智能安全研究所进行外部评估的具体问题。此前,谷歌曾将其早期版本的 Gemini 模型提供给英国人工智能安全研究所进行评估。
在首尔安全峰会上,谷歌签署了“前沿人工智能安全承诺”,其中包括承诺公开透明地实施安全评估。唯一的例外是这样做会增加风险或泄露敏感的商业信息,而这种程度的信息与社会效益不成比例的情况。该承诺还表示,无法公开分享的更详细的信息仍应与公司所在国家的政府分享,就谷歌而言,即美国。
这些公司还承诺解释外部行为者(例如政府、民间社会、学术界和公众)如何参与评估其人工智能模型的风险的过程。谷歌未能回答有关其是否已将 Gemini 2.5 Pro 提交给美国或英国政府评估员的直接问题,这可能也违反了这一承诺。
优先考虑部署而非透明度
安全报告的缺失引发了人们的担忧,即谷歌可能正在优先考虑快速部署,而不是透明度和彻底的安全评估。牛津互联网研究所教授兼高级研究员桑德拉·瓦赫特 (Sandra Wachter) 强调了透明度在负责任的研究和创新中的重要性。她将此比作其他行业,称“如果这是一辆汽车或一架飞机,我们不会说:让我们尽快将其推向市场,稍后我们将研究安全方面的问题。”瓦赫特对生成式人工智能领域内普遍存在的“将其发布出去,然后担心、调查和解决问题”的态度表示担忧。
政治转变与竞争压力
最近的政治变化,加上大型科技公司之间日益激烈的竞争,可能导致公司在竞相部署人工智能模型时,不再遵守之前的安全承诺。瓦赫特指出,“这些公司更快、更迅速、第一、最好、占据主导地位的压力点比过去更加普遍”,并补充说,整个行业的安全标准都在下降。
这些下滑的标准可能是由于科技国家和一些政府越来越担心人工智能安全程序会阻碍创新。在美国,特朗普政府表示打算对人工智能监管采取不如拜登政府那么严格的措施。新政府已经撤销了拜登时代关于人工智能的行政命令,并且一直在与科技领导者建立更紧密的关系。在最近于巴黎举行的人工智能峰会上,美国副总统 JD Vance 表示,“促进增长的人工智能政策”应优先于安全,并且人工智能是“特朗普政府不会浪费的机会”。
在同一次峰会上,英国和美国都拒绝签署一项关于人工智能的国际协议,该协议提倡对该技术的开发采取“开放”、“包容”和“合乎道德”的方法。
对明确透明度要求的需求
班克斯顿强调,“如果我们不能指望这些公司在发布新模型时履行即使是最基本的安全和透明度承诺——他们自己自愿做出的承诺——那么他们显然是在竞争中过于迅速地发布模型以在这一领域占据主导地位。”他补充说,随着人工智能开发人员继续未能履行这些承诺,立法者有责任制定和执行公司无法逃避的明确透明度要求。
人工智能治理的更广泛影响
围绕谷歌 Gemini 2.5 Pro 和缺失的安全报告的争议突显了对健全的人工智能治理框架的关键需求。这些框架应解决以下关键问题:
- 透明度: 确保人工智能开发人员对其模型的能力、局限性和潜在风险保持透明。
- 问责制: 建立开发和部署人工智能系统的明确问责制。
- 安全: 实施严格的安全测试和评估程序,以最大限度地降低造成损害的风险。
- 道德考虑: 将道德原则纳入人工智能系统的设计和开发中。
- 公众参与: 与公众互动,以促进对人工智能及其影响的更广泛理解。
- 国际合作: 在国际上合作,为人工智能治理制定通用标准和最佳实践。
围绕 Gemini 2.5 Pro 缺乏透明度凸显了忽视人工智能治理这些关键方面的潜在后果。如果没有足够的透明度和问责制,就很难评估人工智能系统的真正影响,并确保以负责任和合乎道德的方式开发和部署它们。
前进:呼吁更大的责任
人工智能行业正处于关键时刻。随着人工智能技术变得越来越强大和普遍,开发人员必须优先考虑安全、透明度和道德考虑。围绕 Gemini 2.5 Pro 的争议提醒人们,自愿承诺并不总是足够。政府和监管机构必须在制定明确标准和强制执行合规性方面发挥更积极的作用。
此外,人工智能开发人员必须与公众互动,并促进对人工智能及其影响的更广泛理解。这包括透明地了解人工智能系统的局限性和潜在风险,以及为减轻这些风险而采取的措施。通过共同努力,人工智能行业、政府和公众可以确保以有利于整个社会的方式开发和部署人工智能技术。