Google 近期發布的 Gemini 2.5 Pro AI 模型,因缺乏關鍵的安全報告而引發爭議。 這一疏忽似乎與 Google 向美國政府和國際峰會做出的承諾相矛盾,引發了對該公司在透明度和負責任的 AI 開發方面的承諾的質疑。 專家們現在質疑 Google 和其他領先的 AI 實驗室是否正在背棄他們向公眾通報其 AI 模型的功能和潛在風險的承諾。
食言而肥與未兌現的承諾
Google 在發布 Gemini 2.5 Pro 的同時,未能提供安全研究報告,這被視為違反了先前的承諾。 2023 年 7 月,Google 參加了由拜登政府召集的白宮會議,與其他著名的 AI 公司一起簽署了一系列承諾。 一項關鍵承諾是為所有主要公共模型版本發布報告,這些版本超越了當時最新的 AI 技術水準。 鑑於其先進性,Gemini 2.5 Pro 幾乎肯定屬於這些白宮承諾的範圍。
當時,Google 同意這些報告應包括:
- 進行的安全評估,包括對危險能力的評估。
- 可能影響適當使用案例的重大性能限制。
- 關於該模型對公平性和偏見等社會風險的影響的討論。
- 對抗性測試的結果,以評估該模型是否適合部署。
在 2023 年 10 月於日本廣島舉行的 G7 會議之後,Google 和其他公司承諾遵守自願性行為準則,以開發先進的 AI。 這項 G7 準則強調公開報告先進 AI 系統的功能、限制以及適合和不適合的應用的重要性。 目的是提高 AI 領域的透明度和問責制。
2024 年 5 月,在韓國首爾舉行的 AI 安全國際峰會上,Google 重申了其承諾。 該公司承諾公開披露模型功能、限制、適當和不適當的使用案例,並提供其風險評估和結果的透明度。
Google 的回應與延遲的透明度
針對有關遺失安全報告的詢問,Google DeepMind(負責開發 Gemini 模型的部門)的一位發言人表示,最新的 Gemini 已經過了發布前的測試。 這包括內部開發評估和在模型發布之前進行的保證評估。 該發言人還表示,包含其他安全資訊和模型卡的報告「即將推出」。 然而,儘管最初的聲明於 4 月 2 日發布,但迄今為止尚未發布模型卡。
忽視安全報告的更廣泛趨勢
Google 並非唯一面臨對其 AI 安全承諾的批評的公司。 今年早些時候,OpenAI 也因未能及時發布其 Deep Research 模型的模型卡而受到審查。 相反,他們在項目首次發布幾週後才發布系統卡。 同樣,Meta 最近發布的 Llama 4 安全報告也因過於簡短和缺乏細節而受到批評。
這些例子突顯了 AI 行業內的一個令人擔憂的趨勢,即一些主要的實驗室沒有按照其模型發布來優先考慮安全報告。 鑑於這些公司向美國政府和全球社會做出的自願承諾,即產生此類報告,這一點尤其令人不安。 這些承諾最初是在 2023 年向拜登政府做出的,隨後通過承諾遵守 G7 國家在廣島 AI 峰會上通過的 AI 行為準則而得到加強。
民主與技術中心(Center for Democracy and Technology)的 AI 治理顧問 Kevin Bankston 表示,這些失敗損害了相關公司的信譽,並引發了對其致力於負責任的 AI 開發的質疑,他對此表示失望。
未解答的問題與外部評估
Google 發言人的聲明也未能解決有關 Gemini 2.5 Pro 是否已提交給英國 AI 安全研究所或美國 AI 安全研究所進行外部評估的具體問題。 之前,Google 已將其早期版本的 Gemini 模型提供給英國 AI 安全研究所進行評估。
在首爾安全峰會上,Google 簽署了「前沿 AI 安全承諾」(Frontier AI Safety Commitments),其中包括承諾公開透明地實施安全評估。 唯一的例外是這樣做會增加風險或洩露敏感商業資訊,以至於與社會效益不成比例的情況。 該承諾還聲明,無法公開分享的更詳細資訊仍應與公司所在國家的政府分享,在 Google 的情況下,即美國。
這些公司還承諾解釋外部參與者(例如政府、公民社會、學術界和公眾)如何參與評估其 AI 模型風險的過程。 Google 未能回答有關其是否已將 Gemini 2.5 Pro 提交給美國或英國政府評估人員的直接問題,這也可能違反了這項承諾。
優先考慮部署而非透明度
缺乏安全報告引起了人們的擔憂,即 Google 可能正在優先考慮快速部署,而不是透明度和徹底的安全評估。 牛津互聯網研究所的教授和高級研究員 Sandra Wachter 強調了透明度在負責任的研究和創新中的重要性。 她將其比作其他行業,並表示「如果這是一輛汽車或一架飛機,我們不會說:讓我們儘快將其推向市場,然後我們再研究安全方面。」 Wachter 對生成式 AI 領域內普遍存在的態度表示擔憂,即「將其發布出去,然後再擔心、調查和解決問題。」
政治轉變與競爭壓力
最近的政治變化,加上大型科技公司之間日益激烈的競爭,可能導致公司在競相部署 AI 模型時,背離先前的安全承諾。 Wachter 指出,「這些公司更快、更迅速、成為第一、成為最佳、成為主導的壓力點比過去更為普遍」,並補充說,整個行業的安全標準都在下降。
這些下滑的標準可能是由於科技國家和一些政府越來越擔心 AI 安全程序正在阻礙創新。 在美國,川普政府已表示打算採取比拜登政府寬鬆的 AI 監管方法。 新政府已經取消了拜登時代關於 AI 的行政命令,並且一直在與科技領導者建立更緊密的關係。 在最近於巴黎舉行的 AI 峰會上,美國副總統 JD Vance 表示,「促進增長的 AI 政策」應優先於安全,並且 AI 是「川普政府不會錯過的機會」。
在同一次峰會上,英國和美國都拒絕簽署一項關於人工智慧的國際協議,該協議提倡以「開放」、「包容」和「合乎道德」的方式開發該技術。
需要明確的透明度要求
Bankston 強調,「如果我們不能指望這些公司在發布新模型時履行其最基本的安全和透明度承諾——這些承諾是他們自己自願做出的——那麼他們顯然是在競爭中過快地發布模型以主導該領域。」 他補充說,隨著 AI 開發人員繼續在這些承諾中動搖,立法者有責任制定和執行公司無法逃避的明確透明度要求。
AI 治理的更廣泛影響
圍繞 Google Gemini 2.5 Pro 和遺失安全報告的爭議突顯了對健全的 AI 治理框架的迫切需求。 這些框架應解決以下關鍵問題:
- 透明度: 確保 AI 開發人員對其模型的功能、限制和潛在風險保持透明。
- 問責制: 建立明確的 AI 系統開發和部署責任線。
- 安全性: 實施嚴格的安全測試和評估程序,以最大限度地降低損害風險。
- 道德考量: 將道德原則納入 AI 系統的設計和開發中。
- 公眾參與: 與公眾接觸,以促進對 AI 及其影響的更廣泛理解。
- 國際合作: 進行國際合作,以制定 AI 治理的共同標準和最佳實踐。
圍繞 Gemini 2.5 Pro 缺乏透明度突顯了忽視 AI 治理這些關鍵方面的潛在後果。 如果沒有足夠的透明度和問責制,就難以評估 AI 系統的真正影響,並確保以負責任和合乎道德的方式開發和部署它們。
前進:呼籲更大的責任
AI 行業正處於一個關鍵時刻。 隨著 AI 技術變得越來越強大和普遍,開發人員必須優先考慮安全、透明度和道德考量。 圍繞 Gemini 2.5 Pro 的爭議提醒人們,自願承諾並不總是足夠的。 各國政府和監管機構必須在建立明確的標準和執行合規性方面發揮更積極的作用。
此外,AI 開發人員必須與公眾接觸,並促進對 AI 及其影響的更廣泛理解。 這包括對 AI 系統的局限性和潛在風險保持透明,以及為降低這些風險而採取的步驟。 通過共同努力,AI 行業、政府和公眾可以確保以有益於整個社會的方式開發和部署 AI 技術。