OpenAI 前政策主管抨擊公司'改寫'的 AI 安全敘事

社群媒體上的公開譴責

週三,OpenAI 的前知名政策研究員 Miles Brundage 公開批評了該公司。他指責 OpenAI ‘改寫’ 其部署潛在風險 AI 系統的歷史。Brundage 先前在塑造 OpenAI 的政策框架方面發揮了重要作用,他透過社群媒體表達了他的擔憂,引發了關於該公司在 AI 安全方面不斷變化的立場的辯論。

OpenAI 的’迭代部署’理念

Brundage 的批評是在 OpenAI 本週稍早發布的一份文件之後提出的。該文件詳細介紹了該公司目前關於 AI 安全性和一致性的理念。在此背景下,一致性是指設計 AI 系統的過程,使其以可預測、理想和可解釋的方式運行。

在文件中,OpenAI 將通用人工智慧 (AGI) 的發展描述為一條’連續的道路’。AGI 廣泛定義為能夠執行人類可以執行的任何智力任務的 AI 系統。OpenAI 表示,這條連續的道路需要’迭代部署和學習’ AI 技術。這表明一種漸進的、逐步的方法,從早期部署中吸取的經驗教訓將為後續部署提供資訊。

GPT-2 爭議:爭論點

然而,Brundage 挑戰了 OpenAI 的敘述,特別是關於 GPT-2 的發布。他斷言,GPT-2 在發布時,確實需要非常謹慎。這種說法直接與當前迭代部署策略代表著與過去做法不同的暗示相矛盾。

Brundage 認為,OpenAI 對 GPT-2 發布的謹慎態度實際上與其目前的迭代部署策略完全一致。他認為,該公司目前對其歷史的框架試圖淡化與早期模型相關的風險。

對轉移舉證責任的擔憂

Brundage 批評的一個核心要素集中在他認為的 AI 安全問題舉證責任的轉變上。他表示擔心 OpenAI 的文件旨在建立一個框架,將對潛在風險的擔憂標記為’危言聳聽’。

根據 Brundage 的說法,這個框架將需要’壓倒性的證據證明迫在眉睫的危險’,才能證明為減輕這些風險而採取的任何行動是合理的。他認為,在處理先進的 AI 系統時,這種心態’非常危險’,因為不可預見的後果可能會產生重大影響。

指責優先考慮’亮眼產品’

OpenAI 過去曾被指責優先考慮’亮眼產品’的開發和發布,而不是安全考慮。批評者認為,該公司有時會為了在快速發展的 AI 領域獲得競爭優勢而倉促發布產品。

AGI 準備團隊的解散和人員離職

去年 AGI 準備團隊的解散進一步加劇了人們對 OpenAI 對安全承諾的擔憂。該團隊的具體任務是評估和準備 AGI 的潛在社會影響。

此外,許多 AI 安全和政策研究人員已經離開 OpenAI,其中許多人隨後加入了競爭對手的公司。這些離職引發了對 OpenAI 內部文化和優先事項的質疑。

日益增加的競爭壓力

AI 領域的競爭格局近來顯著加劇。例如,中國 AI 實驗室 DeepSeek 以其公開可用的 R1 模型引起了全球關注。該模型在幾個關鍵基準測試中表現出與 OpenAI 的 o1 ‘推理’模型相當的性能。

OpenAI 的 CEO,Sam Altman,已公開承認 DeepSeek 的進步削弱了 OpenAI 的技術領先地位。Altman 還表示,OpenAI 將加速某些產品的發布,以增強其競爭地位。

財務風險

OpenAI 面臨巨大的財務壓力。該公司目前正處於巨額虧損狀態,每年赤字達數十億美元。預測表明,到 2026 年,這些損失可能會增加兩倍,達到 140 億美元。

更快的產品發布週期可能會在短期內改善 OpenAI 的財務前景。然而,像 Brundage 這樣的專家質疑這種加速的步伐是否會以犧牲長期安全考慮為代價。快速創新與負責任的發展之間的權衡仍然是爭論的焦點。

深入探討迭代部署的爭議

‘迭代部署’的概念是當前圍繞 AI 安全討論的核心。支持者認為,它允許進行真實世界的測試和學習,使開發人員能夠在出現問題時識別和解決潛在問題。這種方法與更謹慎的策略形成對比,後者需要在部署前進行廣泛的測試和分析。

然而,迭代部署的批評者對不可預見後果的可能性表示擔憂。他們認為,在完全了解 AI 系統之前將其發布到現實世界可能會導致意外和潛在的有害結果。挑戰在於在真實世界學習的好處與部署潛在不可預測技術的風險之間取得平衡。

透明度和開放性的作用

爭論的另一個關鍵方面圍繞著透明度和開放性。一些人認為,提高 AI 開發和部署的透明度對於建立公眾信任和確保問責制至關重要。這包括分享有關 AI 系統潛在風險和局限性的資訊。

然而,另一些人則認為,過度的開放可能會被惡意行為者利用,可能導致 AI 技術的濫用。在透明度和安全性之間找到適當的平衡仍然是一個複雜的挑戰。

需要健全的治理框架

隨著 AI 系統變得越來越複雜並融入社會的各個方面,對健全治理框架的需求變得越來越重要。這些框架應解決諸如安全性、問責制、透明度和道德考量等問題。

制定有效的治理機制需要研究人員、政策制定者、行業利益相關者和公眾之間的合作。目標是創建一個促進創新同時減輕潛在風險並確保 AI 造福整個社會的框架。

對 AI 未來的更廣泛影響

圍繞 OpenAI 的 AI 安全方法的爭論反映了對 AI 發展未來的更廣泛擔憂。隨著 AI 系統繼續以前所未有的速度發展,關於它們對社會的潛在影響的問題變得越來越緊迫。

挑戰在於利用 AI 的變革潛力,同時減輕與其開發和部署相關的風險。這需要一種多方面的方法,包括技術研究、政策制定、道德考量和公眾參與。AI 的未來將取決於我們今天做出的選擇。

正在進行的討論提醒我們,在 AI 領域進行批判性審查和公開對話的重要性。隨著 AI 技術的不斷發展,就其潛在影響進行持續對話,並確保其發展符合人類價值觀和社會福祉至關重要。