開源AI時代:西方的挑戰與應對策略

像 DeepSeek 的 R1 這樣複雜的人工智能模型的出現,已在西方科技界引起漣漪,促使人們對 AI 發展策略進行必要的反思,特別是在成本效益和尖端能力這兩個往往相互競爭的需求之間。然而,其影響遠不止於技術基準或經濟效率。DeepSeek 所突顯的軌跡迫使我們進行更深刻、更緊迫的思考:特定類型 AI 的崛起,尤其是在非民主國家倡導下的 AI,對於在一個日益被演算法塑造的時代中,民主本身的未來健康和原則意味著什麼?

這項挑戰的核心在於 open-source AI 的概念。這指的是基礎組件——從底層程式碼到用於訓練的數據集——都公開可用的 AI 系統。這種透明度不僅允許用戶使用這些工具,還能研究其內部運作、為特定目的修改它們,並分享他們的創新。雖然在複雜 AI 模型背景下,「open source」的精確定義仍在爭論中,但其潛力是巨大的。它有望使 AI 開發民主化, fostering 一個充滿活力的生態系統,開發者可以在其中協作並在彼此的工作基礎上進行建設。這種協作精神可以賦予個人、研究人員和社群力量,為教育、醫療保健服務和金融服務等關鍵領域量身定制 AI 解決方案,有可能釋放重大的創新潛力,並全面加速經濟進步。

然而,這條充滿希望的技術途徑帶有固有的複雜性和風險,特別是關於其治理和潛在價值觀。例如,圍繞 DeepSeek R1 模型的報告顯示,它可能包含審查或選擇性地向用戶隱瞞信息的機制。這單一例子突顯了一個更大的危險:民主國家不僅僅冒著在爭奪卓越 AI 性能的技術競賽中落後的風險。他們面臨著同樣嚴峻的危險,即在塑造 AI 治理 的關鍵戰役中失地,可能讓嵌入威權主義原則的系統在全球擴散,蓋過那些旨在維護言論自由和信息獲取等民主規範的系統。

因此,當前時刻需要採取積極主動和協調一致的回應。美國必須與其民主盟友建立強有力的夥伴關係,其中歐盟是一個特別重要的合作夥伴,共同為 open-source AI 建立全球標準和最佳實踐。利用其現有的立法框架和相當大的市場影響力,這些跨大西洋夥伴應率先為這個新興領域創建一個健全的治理結構。關鍵的第一步是正式圍繞 open-source AI 的功能性定義達成共識,以確保監管的清晰度和有效性。在此之後,需要協調一致地加速努力,確保民主價值觀——透明度、公平性、問責制和尊重基本權利——深深嵌入正在開發和推廣的 open-source AI 模型中。這樣的戰略推動對於為一個真正開放、透明且賦權於所有人的 AI 未來鋪平道路至關重要,而不是一個被專制控制巧妙塑造的未來。

中國對開放性的精心佈局

理解當前的動態需要認識到中國在 AI 領域的戰略部署。DeepSeek 取得顯著成功的部分原因不僅僅是技術實力;它與中國共產黨(CCP)日益清晰的信號相一致,表明其打算將 open-source AI 的規範制定直接整合到其法律和政策架構中。一個重要的指標出現在 2024 年 4 月的《人工智能法示範法》草案中。該文件明確闡述了北京支持培育國內 open-source AI 生態系統的立場。

該草案第 19 條宣稱,國家「推動開源生態建設」,並積極「支持有關主體建設或者運營開源平台、開源社區、開源項目」。它更進一步,鼓勵企業「公開軟件源代碼、硬件設計和應用服務」,表面上是為了促進全行業的共享和協同創新。或許最能說明問題的是,該草案建議減少甚至免除提供 open-source AI 模型的實體的法律責任,條件是建立符合「國家標準」的治理體系並實施「相應的安全措施」。這與中國先前強調更明確保護用戶權利的 AI 相關立法相比,可能代表著一個重大的轉變。雖然仍是草案,但《人工智能法示範法》中的具體條款提供了一個寶貴的藍圖,揭示了中國設想如何在國內部署 open-source AI,以及至關重要的是,其出口的 AI 模型可能具有哪些特徵。

進一步強化這一戰略方向的是《人工智能安全治理框架》,這是中國打算在國際上用來「在全球層面促進人工智能安全治理國際合作」的文件。該框架呼應了該國在 open-source AI 問題上日益增長的自信。該框架由中國國家網絡安全標準化技術委員會(TC260)起草——該機構與權力強大的國家互聯網信息辦公室(Cyberspace Administration of China)關係密切,後者的網絡安全指南已於 2024 年 9 月被 CCP 正式採納——該框架明確指出:「我們應促進人工智能知識共享,以開源方式向公眾提供人工智能技術,共同開發人工智能芯片、框架和軟件。」在一個面向全球受眾的文件中包含如此強烈的聲明,清楚地表明了中國不僅要參與 open-source AI 運動,而且要將自己定位為在這個關鍵技術領域的領先倡導者和標準制定者的雄心。然而,這種精心計算的「開放性」是在一個明顯受控的環境中運作的,旨在利用開源的創新力量,同時保持與國家目標的一致性。

美國的猶豫:重防禦輕引導

橫跨太平洋,美國圍繞 open-source AI 的敘事呈現出鮮明的對比。一段時間以來,科技行業和學術界的倡導者一直在宣揚開源方法的巨大益處。著名的行業人物公開敦促美國政府在戰略上更加重視促進 open-source AI 的發展。一個顯著的例子是 Mark Zuckerberg 推出的開源模型 Llama 3.1,並伴隨著他的斷言,即開源「代表了世界為每個人創造廣泛經濟機會和安全的最佳機會」。

儘管有來自有影響力人士的這種響亮倡導,美國卻明顯未能建立任何旨在促進或指導 open-source AI 發展的重要立法框架。雖然一位美國參議員在 2023 年提出了一項旨在構建開源軟件安全框架的法案,但該立法一直停滯不前,沒有取得實質性進展。聯邦機構觸及了這個問題,但往往採取謹慎或被動的姿態。去年,美國國家電信和信息管理局(NTIA)發布了一份報告,審查了具有「open weights」的兩用 AI 基礎模型。值得注意的是,「open weights」通常表示模型的參數可供使用,但並不一定滿足真正 open source 的全部標準(通常包括訪問訓練數據和代碼)。NTIA 的報告建議政府加強對這些 open-weight 模型相關潛在風險的監控,以更好地確定適當的限制措施。隨後,Biden 政府最終的 AI 監管框架對開放模型採取了稍微寬鬆的立場,對最強大的封閉權重模型設定了更嚴格的要求,同時基本上將 open-weight 模型排除在這些特定限制之外。

然而,一個清晰、積極主動的、旨在倡導民主 open-source AI 的國家戰略仍然遙不可及。潛在領導層變更下的未來方向又增加了一層不確定性。前總統 Donald Trump 並未就 open-source AI 闡明具體的政策或指導。雖然他廢除了 Biden 總統最初的 AI 行政命令,但發布的替代命令並未概述任何致力於促進或引導 open-source AI 發展的具體舉措。

總體而言,美國的做法似乎主要是防禦性的。主要焦點似乎是開發高性能、通常是專有的 AI 模型,同時花費大量精力阻止對手,特別是中國,獲取先進的半導體技術和 AI 能力。這種防禦姿態,雖然從國家安全的角度可以理解,但卻冒著忽略關鍵進攻策略的風險:積極培育和推廣一個植根於民主原則的全球 open-source AI 生態系統。美國似乎專注於守衛其技術堡壘,可能錯失了通過積極傳播開放、尊重權利的 AI 替代方案來塑造更廣泛全球格局的機會。

歐洲的監管悖論:權力與癱瘓

以其在數字領域的強勢監管立場而聞名的歐盟,在 open-source AI 問題上呈現出另一種挑戰。自具有里程碑意義的《通用數據保護條例》(GDPR)實施以來,歐盟已成功將自己定位為數字經濟的全球標準制定者。世界各地的國家和跨國公司經常使其做法與歐盟的合規框架保持一致,隨著全面的《歐盟人工智能法案》(EU AI Act)的出台,這一趨勢延伸到了人工智能領域。該法案旨在為整個歐盟的 AI 系統建立基於風險的法規。

然而,當涉及到具體處理 open-source AI 時,歐盟強大的監管機器似乎出奇地猶豫,其努力也顯得有些不足。 《AI 法案》第 2 條確實簡短提及,為 open-source AI 模型劃定了一些監管豁免。然而,這種豁免的實際影響似乎有限,特別是因為它通常不適用於為商業目的部署的模型。這種狹窄的範圍大大限制了其對蓬勃發展的 open-source AI 領域的實際效果。

這種自相矛盾的情況——承認開源但未能積極培育它——在其他歐盟指導文件中持續存在。假設為了本次討論,最新的《通用目的 AI 實踐準則》於 2025 年 3 月發布,它可能認識到開源模型對開發安全、以人為本和可信賴 AI 的積極貢獻。然而,此類文件通常缺乏有意義的闡述或旨在積極促進這些潛在有益的 open-source AI 模型的開發和廣泛採用的具體措施。即使在像《歐盟競爭力指南針》(EU Competitiveness Compass)這樣的戰略框架內——表面上旨在解決過度監管並在 AI 等關鍵領域提升戰略競爭力——「open source」一詞也明顯缺失或受到極少關注。

布魯塞爾方面對全面擁抱和監管 open-source AI 採取這種謹慎、近乎沉默的態度,可能源於幾個因素。一個重要的障礙是精確定義 open-source AI 的內在困難。與主要涉及源代碼的傳統開源軟件不同,open-source AI 包含複雜的預訓練模型、龐大的數據集和錯綜複雜的架構。儘管像 Open Source Initiative (OSI) 這樣的組織做出了努力,但缺乏普遍接受的法律定義,造成了一定程度的法律不確定性,而像歐盟委員會這樣的監管機構通常對此感到不安。

然而,這種相對不作為的根本驅動因素可能更深層次。歐盟在建立像 GDPR 這樣影響深遠的監管制度方面的成功,可能使委員會警惕為像 AI 這樣強大且快速發展的技術創建廣泛的豁免,特別是當其 open-source 變體仍然有些定義不清時。可能存在一種擔憂,即過於輕易地擁抱 open-source AI,而沒有完全建立的護欄,可能會無意中削弱歐盟來之不易的全球監管影響力。這構成了一場戰略賭博——優先考慮全面控制,而不是可能促進一個更具活力、儘管可預測性較低的開放創新生態系統——迄今為止,布魯塞爾幾乎沒有表現出果斷進行這場賭博的意願。這種監管癱瘓留下了一個真空,其他人正在迅速填補。

AI 地緣政治格局的轉變

中國在 open-source AI 領域的戰略推進,以及美國和歐盟的相對猶豫,正在積極重塑人工智能的地緣政治格局。中國堅定地推動技術自給自足,這場運動現在顯然包括鞏固其圍繞 open-source AI 的戰略,這可以部分理解為對美國持續針對先進計算硬件和半導體實施出口管制的回應,這些措施是基於美國多年來對國家安全、經濟競爭力和知識產權保護的擔憂而實施的。中國的反制措施,包括其對開源的擁抱,反映了這兩個全球大國之間為爭奪技術霸權而日益加劇的更廣泛戰略競爭。與此同時,歐盟通常在這場競賽中不是通過同等規模的直接技術競爭來施加影響,而是通過設定側重於保護基本權利、隱私以及公平和算法問責制等民主價值觀的全球規範——這些標準確實塑造了全球主要科技公司的政策。

然而,通過積極將自己定位為 open-source AI 的領導者和倡導者,中國巧妙地將一個挑戰——獲取某些西方技術的限制——轉化為一個戰略機遇。它正在有效地向全球社會,特別是向尋求可獲取 AI 工具的發展中國家,打造和推銷其自己獨特的 AI 開放版本。像 DeepSeek 的 R1 這樣有能力的中國模型,以及來自阿里巴巴等其他國內科技巨頭的產品的出現,正開始改變全球動態。它可能降低全球對純粹封閉、專有 AI 模型的興趣,特別是如果開放的替代方案看起來更容易獲得或更具成本效益。例如,DeepSeek 發布了更小、計算要求更低的模型,適用於處理能力有限的設備。據報導,像 Hugging Face 這樣的主要 AI 開發中心已經開始分析和複製 DeepSeek-R1 訓練方法的某些方面,以改進他們自己的模型。甚至像 Microsoft、OpenAI 和 Meta 這樣的西方科技巨頭也越來越多地探索像模型蒸餾(model distillation)這樣的技術,這種技術的部分普及歸功於 DeepSeek 的發展。

這個不斷演變的格局顯示,中國正在積極推進關於 AI 開放性的全球對話,首次迫使美國對此話語做出反應和適應。與此同時,歐盟在開源問題上仍然有些陷入法律和監管的慣性狀態。這種不對稱在 open-source AI 治理和擴散這個關鍵領域造成了明顯的權力失衡

至關重要的是,中國正在傳播的 open-source AI 版本給民主社會帶來了重大擔憂。CCP 似乎正在戰略性地實施一個「雙軌」體系:鼓勵 AI 開發者和公司之間相對開放和協作以刺激創新,同時在面向公眾的模型中嵌入控制和限制,以約束信息流動和言論自由。這種「開放性」受到中國既定的技術控制模式的嚴重制約,通常要求模型的輸入和輸出符合國家認可的敘事、CCP 價值觀,並投射積極的國家形象。即使在其面向全球的《人工智能安全治理框架》中,中國當局公開擁抱開源原則,但也存在關於 AI 生成內容對「意識形態安全」構成威脅的警示性語言——這清楚地表明了 CCP 對思想和言論自由的內在限制。

如果沒有一個植根於保護民主原則和基本人權的強大替代框架,世界將面臨中國更具限制性的 open-source AI 解釋被廣泛複製和採用的風險。全球的威權政權甚至潛在的非國家行為者可以輕易地在這些模型的基礎上進行構建,實現複雜的審查和監控,同時誤導性地聲稱他們僅僅是在促進技術可及性。因此,僅僅專注於追趕中國的技術性能是不夠的。民主國家必須做出戰略性回應,率先為 open-source AI 時代建立和推廣民主治理

開創跨大西洋前進之路

當前的軌跡要求世界主要民主國家採取果斷行動並加強合作。美國和歐盟應認真考慮啟動一項開源外交(open-source diplomacy)戰略。這涉及在全球範圍內積極推進開發和共享有能力、可信賴且尊重權利的 AI 模型,以抗衡威權主義的替代方案。這項努力的核心是創建一個由美國和歐盟共同制定的 open-source AI 統一治理框架

為了有效地塑造一個民主的 AI 未來,建立一個專門的跨大西洋 open-source AI 工作組是關鍵的下一步。該工作組應在適當情況下利用現有結構,例如全球人工智能夥伴關係(GPAI),但至關重要的是,必須確保來自大西洋兩岸的領先科技公司、學術研究人員和公民社會專家的積極參與和投入,貫穿整個框架制定過程。這種包容性的方法對於制定既有原則性又切實可行的標準至關重要。

其次,美國和歐盟都需要為這一願景投入切實的資源。這意味著戰略性地將資金導向學術機構、研究實驗室和創新型初創企業,特別是那些專注於開發明確符合民主價值觀的 open-source AI 模型的機構。此類模型的關鍵特徵將包括:

  • 設計和訓練數據的透明度。
  • 針對審查和操縱的強大保障措施。
  • 問責制和偏見緩解機制。
  • 內置對隱私和基本權利的尊重。

推廣這些民主模型需要華盛頓和布魯塞爾的決策者明確認識到,培育一個基於這些原則的全球生態系統所帶來的長期戰略利益,遠遠超過與開放性相關的短期風險認知。與此同時,歐盟必須在這個特定領域更果斷地利用其已建立的監管實力。在維持其高標準承諾的同時,布魯塞爾需要克服其在 open-source AI 法律定義上的猶豫,並更迅速地採取行動,建立明確的指導方針和激勵措施,從而抵制中國在塑造全球規範方面日益增長的勢頭。為了避免進一步失地,擁抱一定程度的可控不確定性可能是必要的。

儘管跨大西洋關係可能在各個方面面臨週期性的動盪,但中國在 open-source AI 領域的崛起所構成的挑戰,突顯了美歐在該領域合作而非競爭的絕對必要性。要重新獲得在這個關鍵技術領域的領導地位,需要一項協調一致、具有前瞻性的跨大西洋倡議。該倡議必須整合積極主動的政策制定、有針對性的研究資助以及對創新的支持,所有這些都旨在為一個真正尊重權利、透明、富有創造力並賦權於全球人民的 AI 未來設定全球標準。猶豫觀望的時代已經結束;果斷、統一行動的時刻就在當下。