從齋浦爾到 DeepSeek:開源與人類 AI 計畫的號角

文學盛會,AI 啟示

幾週前,印度充滿活力的齋浦爾文學節 (JLF) 意外地成為一個討論人工智慧 (AI) 未來關鍵議題的論壇。在一個表面上關注帝國遺產的座談會上,對話發生了急劇的轉變。 觀眾被 Pankaj Mishra 的著作《From the Ruins of Empire: The Revolt Against the West and the Remaking of Asia》所吸引,提出了一系列尖銳的問題,不是關於文學,而是關於 DeepSeek,一個來自中國的新型生成式 AI 模型。

這些問題——我們是如何走到這一步的?我們如何為 AI 的未來規劃最佳路徑?為什麼開源是 AI 開發的關鍵?——引起了遠遠超出文學節範圍的共鳴。它們觸及了根深蒂固的歷史對抗、對自力更生的渴望,以及日益增長的全球運動,倡導更開放和協作的 AI 開發方法。

DeepSeek 受歡迎的歷史根源

DeepSeek 在文學節上的出現似乎有些奇怪。然而,它的突出地位與歷史事件和長期的競爭密切相關,特別是亞洲和西方之間的競爭。雖然歐洲的 AI 實驗室因其開源突破而贏得了讚譽,但 DeepSeek 在亞洲的接受度卻具有更深刻的歷史共鳴。

DeepSeek 的推出受到了媒體的廣泛報導。它在 JLF 上的反響揭示了一種超越單純 AI 性能討論的情緒。印度的作家和記者,經常批評中國,卻發現自己因與美國 AI 公司 (AIC) 的主導地位的共同鬥爭而團結起來。這種對 DeepSeek 在亞洲的熱情植根於殖民歷史,以及最近,一些具挑釁性的企業聲明。

AI:自力更生的現代鬥爭

對於《Imperial Twilight: The Opium War and The End of China’s Last Golden Age》一書的作者 Stephen Platt 來說,中國的技術雄心與其歷史傷痕密不可分。鴉片戰爭 (1839–1860) 是一個強有力的象徵,表明英國的技術和軍事優勢如何羞辱了中國。這種“百年國恥”推動了中國目前對自力更生的追求,對 AI、半導體和其他關鍵技術的大力投資。這是一種避免依賴西方技術的決心,這是銘刻在民族意識中的教訓。

JLF 上的印度小組成員在這個敘述中找到了共同點。與中國一樣,印度也帶有東印度公司影響的黑暗印記。此外,英國記者 Anita Anand 強調了一段有爭議的影片,OpenAI 執行長 Sam Altman 在影片中駁斥了印度在訓練基礎模型方面與 AIC 競爭的潛力,稱其“完全沒有希望”。此類言論只會加強該地區自力更生的決心。

開源 AI:抵抗的象徵

DeepSeek 和之前的歐洲實驗室為 AI 競賽帶來了希望的燈塔。他們選擇擁抱開源已成為抵制專有 AI 模型主導地位的有力象徵。

必須在根深蒂固的競爭(尤其是與美國的競爭)的背景下理解 DeepSeek R1 的發布。這種競爭是如此深刻,以至於在與美國技術競爭的討論中,歐洲經常被忽視。

AIC 的主導地位甚至在西方引發了與殖民主義的比較。在 2024 年 8 月一篇題為“技術殖民主義的興起”的專欄文章中,歐洲創新委員會成員 Hermann Hauser 和倫敦大學學院 (UCL) 高級研究員 Hazem Danny Nakib 寫道:“與舊的殖民主義不同,技術殖民主義不是關於佔領領土,而是關於控制支撐世界經濟和我們日常生活的技術。為了實現這一目標,美國和中國越來越多地將全球供應鏈中最具創新性和最複雜的部分轉移到國內,從而造成戰略瓶頸。”

歐洲 AI 實驗室(如 Mistral、kyutai 和 Meta 的 FAIR Paris 團隊)以及現在的 DeepSeek 的開創性開源方法,為 AIC 的專有 AI 模型策略提供了一個引人注目的替代方案。這些開源貢獻正在全球範圍內產生共鳴,並進一步鞏固了開源 AI 作為抵制美國 AI 主導地位的象徵。

開源案例:歷史的重演

技術協作依賴於能量和速度,這是軟體程式碼演進中固有的。

法國諾貝爾經濟學獎得主 Jean Tirole 最初對開源的出現感到困惑,他在 2000 年與 Josh Lerner 合著的論文“開源的簡單經濟學”中提出質疑:“為什麼成千上萬的頂尖程式設計師應該為提供公共產品做出免費貢獻?任何基於利他主義的解釋都只能到此為止。”

雖然當時可以理解,但任何關注近年來 AI 進展的人,尤其是在 DeepSeek R1 發布之後,都會發現答案是不言而喻的。Meta 的 FAIR Paris 開源 Llama 的影響、Mistral 及其創始人通過開源 7B 語言學習模型 (LLM) 的迅速崛起,以及 DeepSeek R1,都證明了這些程式設計師和科學家致力於開源的令人信服的理由。

它也闡明了 Sam Altman 和他的共同創始人選擇“OpenAI”這個名字來吸引人才的原因。如果這些前沿實驗室選擇專有方法,它們是否會獲得如此響亮的宣傳,並在 AI 社區內建立如此強大的個人品牌?答案是響亮的否定。

1999 年,程式設計師 Richard Stallman 和開發人員 Eric Raymond 分別在論文開頭引用的兩句強有力的引言,闡明了 DeepSeek 在 JLF 上的反響,並強調了更深層次的意識形態力量:

  • “專有軟體社會體系——這個體系說你不允許共享或更改軟體——是不合群的,是不道德的,是完全錯誤的,這個想法可能會讓一些人感到驚訝。但是,對於一個基於分裂公眾和讓用戶無助的系統,我們還能說什麼呢?” - Richard Stallman

  • “Linux 駭客最大化的效用函數不是經典的經濟學,而是他們自己的自我滿足感和在其他駭客中的聲譽的無形資產。……以這種方式運作的自願文化實際上並不少見;我長期參與的另一個文化是科幻小說迷,它與駭客文化不同,明確承認 egoboo(提升一個人在其他粉絲中的聲譽)。” - Eric Raymond

Unix 在 1970 年代和 1980 年代的發展軌跡為當前的 AI 狀態提供了一個引人注目的類比。AT&T 最初在學術界推廣和免費分發 Unix 促進了創新和採用。然而,當 AT&T 在 1970 年代後期實施專有許可證時,它不可避免地導致伯克利大學推出了 BSD Unix,一個開放的替代方案,並最終導致 Linus Torvalds 創建了 Linux。Torvalds 在歐洲開發 Linux 將開源軟體的中心從美國轉移了。

即使在地理上,與 AI 的演變也有驚人的相似之處。然而,這一次,出現了新的地理區域:阿布達比的 TII 及其 Falcon 模型、中國的 DeepSeek、阿里巴巴的 Qwen,以及最近印度的 Krutrim AI 實驗室及其用於印度語的開源模型。

Meta FAIR Paris 團隊,以及領先的歐洲 AI 實驗室和更新的前沿實驗室(DeepSeek、Falcon、Qwen、Krutrim),顯著加速了 AI 創新。通過公開分享研究論文和程式碼,他們:

  • 培養了新一代 AI 工程師和研究人員掌握最先進的 AI 技術。
  • 創建了一個開放協作的生態系統,使專有 AI 實驗室之外能夠快速發展。
  • 提供了替代 AI 模型,確保 AI 不會被美國 AI 公司壟斷。

這四個生態系統(歐洲、印度、阿布達比和中國)可以建立一個強大的開源 AI 聯盟,以挑戰仍然在專有 AI 思維模式下運營的主導 AIC。

在 2025 年 1 月 31 日 DeepSeek R1 發布後的一次“問我任何問題”(AMA) 問卷調查中,Altman 承認專有 AI 模型方法一直站在歷史的錯誤一邊。

隨著時間的推移,全球的 AI 實驗室可能會選擇加入這個聯盟,以共同推進該領域。這不會是科學領域第一次通過非營利倡議超越邊界和政治意識形態。它提供了一種競爭模式,可以避免引發全球南方經常表達的反殖民不滿。

歷史先例:人類基因組計畫作為 AI 的模型

作為一名生物學家,我特別了解人類基因組計畫 (HGP) 的成就,以及它如何最終超越了 Celera Genomics 的營利性倡議,造福了整個領域和人類。

HGP 是一項開創性的國際研究計劃,繪製和測序了整個人類基因組。它於 2003 年完成,經過 13 年的合作,根據 2011 年的一份報告(2013 年更新),它從 30 億美元的投資中產生了近 8000 億美元的經濟影響(美國經濟的回報率為 141 比 1——每 1 美元的聯邦 HGP 投資為經濟貢獻了 141 美元)。它徹底改變了醫學、生物技術和遺傳學,使個性化醫療、疾病預防和基因組研究取得了進展。測序工作和研究由六個國家的 20 個實驗室進行:美國、英國、法國、德國、日本和中國。

雖然 Celera Genomics 試圖對基因組序列進行測序以獲利,但 HGP 優先考慮開放數據共享,這體現在其百慕達原則中。這些原則是在 1996 年 2 月在百慕達舉行的國際人類基因組測序戰略會議上確立的,對於塑造 HGP 的數據共享政策至關重要,並對全球基因組研究實踐產生了持久影響。其主要原則是:

  1. 立即發布數據: HGP 產生的所有人類基因組序列數據都將發佈到公共數據庫中,最好在生成後 24 小時內發布。這種快速傳播旨在加速科學發現並最大化社會效益。
  2. 自由和不受限制的訪問: 數據將免費提供給全球科學界和公眾,對其用於研究或開發目的沒有任何限制。
  3. 防止智慧財產權主張: 參與者同意不會對主要基因組序列數據主張任何智慧財產權,促進開放科學精神,並防止由於專利而可能阻礙研究。

在治理方面,HGP 是一個協作和協調的科學倡議,而不是一個獨立的組織或公司。這是一項分散的努力,通過政府撥款和合同資助給各個研究機構。其預算的一部分 (3–5%) 用於研究和解決與人類基因組測序相關的倫理、法律和社會問題。

連接 AI 安全和開源 AI

開源 AI 的另一個關鍵優勢是它在 AI 安全研究中的作用。

2024 年的 AI 首爾峰會專注於生存風險,當時 AIC 在 AI 領域領先於世界其他地區。就在 2024 年 5 月,前 Google 執行長 Eric Schmidt 聲稱美國在 AI 領域領先中國 2-3 年,而歐洲過於關注監管而無關緊要。如果峰會成功,它將有效地將 AI 安全決策的控制權讓給這些公司。幸運的是,它沒有成功。

現在開源 AI 正在彌合技術差距,安全討論將不再僅由少數主導者決定。相反,更廣泛和更多樣化的利益相關者群體——包括來自歐洲、印度、中國和阿布達比的研究人員、政策制定者和 AI 實驗室——有機會與 AIC 一起塑造討論。

此外,開源 AI 增強了全球威懾能力,確保沒有任何單一行為者可以在沒有問責制的情況下壟斷或濫用先進的 AI 系統。這種分散的 AI 安全方法將有助於減輕潛在的生存威脅,方法是在全球 AI 生態系統中更公平地分配能力和監督。

具有巴黎原則的人類 AI 計畫

下週在巴黎舉行的 AI 行動峰會可以在塑造 AI 未來方面發揮什麼作用?

這提供了一個建立人類 AI 計畫的關鍵機會,該計畫以人類基因組計畫為模型,在全球範圍內推進和支持開源 AI 開發。目前,從開創性的歐洲 AI 實驗室到 DeepSeek 的開源貢獻,已經加速了該領域的發展,並有助於縮小與 AIC 的差距。

AI 的能力因通用開源生態系統的成熟而得到顯著增強,該生態系統擁有數千個成熟的項目、專門的治理模型,並深入整合到企業、學術界和政府中。

AI 開源生態系統也受益於 Github 和 Gitlab 等平台。最近,專門用於開源 AI 的平台,例如 Hugging Face(一家由三位法國企業家共同創立的美國公司)已開始作為社區的分發平台發揮重要作用。

鑑於與 1990 年代初期的人類基因組測序相比,開源 AI 生態系統相對成熟,開源 AI 如何從人類 AI 計畫中受益?

首先,歐盟經常受到 AIC 及其自身前沿 AI 實驗室的批評,因為它對開源進行了監管。人類 AI 計畫可以致力於共同努力,在參與國家和地區之間制定監管一致性和標準。一種協調的方法,最初由歐洲、印度、阿布達比和中國做出貢獻,可以促進開源模型在這個共享監管區域(一種開源自由貿易區)的傳播。

雖然沒有明確證明,但與在 JLF 上對 DeepSeek 的反應形成的反競爭驅動的動態有相似之處。同樣,AI 監管可以側重於促進創新和最大化公共利益——無論是對企業還是消費者——而不是作為一種潛在的機制來阻礙 AIC 的進展或阻礙本土 AI 冠軍努力縮小差距。

該項目還可以促進人才交流,並為開源 AI 資助共享計算基礎設施(與能源基礎設施相關)。從下圖可以明顯看出,世界上某些地區有才華的 STEM 畢業生目前可能難以獲得其國家缺乏的世界級 AI 基礎設施。

另一個合作領域是建立關於模型和數據集的開放訪問標準的最佳實踐,包括權重、程式碼和文檔。

該項目還可以促進 AI 安全研究方面的全球合作。來自巴黎、北京和班加羅爾的研究人員可以共同評估模型和減輕風險,而不是秘密地競相解決一致性問題。所有安全發現(例如,減少有害輸出或可解釋性工具的方法)都可以在開放領域及時共享。

這一原則將認識到 AI 安全是一種全球公共產品——一個實驗室的突破(例如,一種使 AI 推理透明的新算法)應該使所有人受益,而不是保持專有。可以組織聯合安全基準和挑戰活動,以鼓勵集體責任文化。通過匯集安全研究,該項目旨在領先於潛在的 AI 濫用或事故,讓公眾放心,強大的 AI 系統正在得到謹慎的管理。

2023 年在布萊切利公園舉行的英國 AI 安全峰會過於強調核擴散類比,因此錯失了研究安全被視為公共產品的其他領域的機會:網絡安全、抗生素和免疫學(在 Covid-19 之後有幾個有趣的倡議)以及航空安全。

該項目還可以與目前由私人 ARC Prize 基金會開展的工作合作並進一步推進,以促進安全和先進 AI 系統的開發。ARC Prize 由 Keras 開源庫的創建者 François Chollet 和 Zapier 軟體公司的聯合創始人 Mike Knoop 共同創立,是一個非營利組織,舉辦公開競賽以推進人工通用智慧 (AGI) 研究。他們的旗艦活動 ARC Prize 競賽向能夠開發和開源 ARC-AGI 基準測試解決方案的參與者提供超過 100 萬美元的獎金——該測試旨在評估 AI 系統有效泛化和獲取新技能的能力。

ARC Prize 基金會對開源解決方案和公開競賽的強調與人類 AI 計畫在 AI 開發中促進國際合作和透明度的目標完全一致,正如 ARC Prize 基金會網站上“AGI”下所述:

“LLM 接受了難以想像的大量數據的訓練,但仍然無法適應他們沒有接受過訓練的簡單問題,或者做出新穎的發明,無論多麼基本。強大的市場激勵促使前沿 AI 研究走向閉源。研究注意力和資源正被拉向死胡同。ARC Prize 旨在激勵研究人員發現新的技術方法,推動開放 AGI 的進展。”

與 HGP 一樣,人類 AI 計畫將把部分資金用於道德治理和監督。這將包括關於版權的討論。該項目可以幫助社會考慮免費訪問最佳信息來源進行訓練,同時在其之上開發專有模型的道德問題。在生物學領域,眾所周知,蛋白質數據庫(對於 Google DeepMind 的 AlphaFold 模型預測蛋白質結構至關重要)可能需要在 50 年內提供相當於 100 億美元的資金。該項目可以幫助思考我們如何繼續資助 AI 開發,或者專有的 AIC 應該如何與原創作品創作者分享收入。

總之,這些巴黎原則和人類 AI 計畫將有助於以更開放、協作和道德的方式在全球範圍內推進 AI。它們將建立在現有的開源軟體和 AI 特定框架和平台內,從歐洲到中東、印度以及現在的中國的領先開源貢獻者的成就之上。

歷史與 AI 的重演

我們面前的機會是巨大的。Mistral AI、kyutai、BFL、Stability 以及最近的 DeepSeek 讓公眾看到了合作與專有 AIC 競爭甚至超越的未來是可能的。

我們仍處於這項技術突破的早期階段。我們應該感謝 AIC 對該領域做出的貢獻。AI 行動峰會應該是一個以前所未有的規模促進合作創新的機會,並將盡可能多的參與者帶到歷史的正確一邊。

這一切又回到了 1789 年。我們正在目睹一場爭奪技術主權的鬥爭、權力的分散以及將 AI 作為公共產品的呼籲。就像 1789 年一樣,這場革命將無法被遏制。