在一場引人入勝的技術時代碰撞中,一個敘事浮現出來,它將普及家用電腦的萌芽時期與人工智能的前沿領域聯繫起來。科技界的傑出人物、著名風險投資公司 Andreessen Horowitz 的聯合創始人 Marc Andreessen 最近強調了一項非凡的壯舉:一個精簡版的 Meta Llama 人工智能模型,成功在一台運行著古老 Windows 98 操作系統、僅配備 128 MB RAM 的電腦上運行。這一發現有力地提醒了我們技術的潛力,並引發了關於計算歷史軌跡的有趣問題。
在一台已有超過四分之一個世紀歷史的硬體上運行複雜的人工智能(即使是縮減版),這個想法本身幾乎看似矛盾。現代的生成式 AI,即驅動像 ChatGPT 和 Microsoft 自家的 Copilot 這類工具的技術,通常與強大的處理器、大量的記憶體分配以及通常基於雲端的基礎設施相關聯。Microsoft 本身已投入巨資整合 AI 功能,特別是其 Copilot 助手,將其深度融入其最新的操作系統 Windows 11,以及被稱為 Copilot+ PCs 的新一代硬體,這些硬體專為 AI 工作負載而設計。這種對比使得 Windows 98 上的實驗更加引人注目。它挑戰了我們對於某些 AI 功能真正所需資源的假設,並提供了一窺另類技術時間線的可能性。
復活過去:實驗背後的艱鉅努力
雖然 Andreessen 讓這項成就獲得了更廣泛的關注,但技術上的繁重工作似乎源於早期的努力,特別是由 Exo Labs 團隊完成的。他們將現代 AI 移植到如此老舊機器上的旅程遠非一帆風順;這是一場數位考古學和創造性解決問題的實踐,突顯了今昔計算之間的巨大差異。
第一個障礙涉及基本的後勤和硬體兼容性。找到 Windows 98 時代能正常運作的硬體本身就已充滿挑戰。但除了啟動機器之外,團隊還需要周邊設備。如今無處不在的現代 USB 介面,在 Windows 98 的鼎盛時期並非標準配備。這就需要尋找使用舊式 PS/2 連接器的兼容輸入設備——許多較年輕的科技愛好者可能從未見過的鍵盤和滑鼠。
解決了實體設置問題後,下一個重大障礙是數據傳輸。如何將必要的 AI 模型文件和開發工具傳輸到一台缺乏現代連接選項(如高速 USB 埠或無縫網絡整合)的機器上?這可能需要借助更舊、更慢的方法,例如將文件燒錄到 CD 上,或利用當時有限的網絡協議,將一個簡單的文件複製變成一個潛在耗時的過程。
然而,核心的技術挑戰在於為古老的環境編譯現代代碼。這個基於 Meta Llama 架構的 AI 模型,是使用當代編程實踐和語言構建的。要讓 Windows 98 理解並執行這些代碼,需要一個編譯器——一個將源代碼轉換為機器語言的程式——這個編譯器必須能夠在舊操作系統上運行,並且能夠處理 AI 代碼的複雜性。
Exo Labs 最初求助於 Borland C++ 5.02,這本身就是一段軟體歷史——一個已有 26 年歷史的整合開發環境 (IDE) 和編譯器組合,可以在 Windows 98 上原生運行。這個選擇代表了連接現代代碼庫和老舊操作系統的潛在橋樑。然而,這條路充滿了複雜性。現代 C++ 標準和函式庫的複雜性,證明難以與 Borland 編譯器和 Windows 98 環境的功能與限制相協調。兼容性問題浮現,迫使團隊改變策略。
他們的解決方案涉及回歸到更舊版本的 C 程式語言。雖然 C 是一種基礎語言,也是 C++ 的前身,但使用較舊的 C 標準意味著犧牲了 C++ 提供的一些更高級別的抽象和便利性。這需要更費力的編碼過程,手動管理 C++ 能更優雅處理的元素,如函數和變數。進展不可避免地變慢了,需要對細節一絲不苟,以避免舊開發工具可能不易捕捉到的錯誤。
記憶體擠壓:為有限資源馴服 Llama
也許最令人望而生畏的限制是極其有限的隨機存取記憶體 (RAM)。目標機器僅擁有 128 MB 的 RAM。相比之下,現代智能手機通常配備 8、12 甚至 16 GB 的 RAM(1 GB 約等於 1000 MB)。專為遊戲或專業工作設計的高端 PC 通常配備 32GB、64GB 或更多。在如此微小的記憶體空間內運行像 AI 模型這樣的複雜應用程式,就好比在掃帚櫃裡進行精細手術。
Meta 的 Llama 系列模型,雖然通常被認為比 OpenAI 的 GPT-4 等龐然大物更節省資源,但仍然包含擁有數十億參數的版本。例如,Llama 2 架構就包括擴展到 700 億參數的模型。這些較大的模型需要大量的計算能力,而且至關重要的是,需要巨大的記憶體來加載模型權重並管理處理信息和生成響應所涉及的計算。一個標準的 Llama 2 模型完全無法在 128MB 的限制下運行。
因此,實驗的成功取決於使用或開發一個高度優化、顯著縮小的 Llama 架構迭代版本。這個特殊版本必須經過專門定制,才能在嚴苛的硬體限制下運作。它可能涉及諸如模型量化(降低模型計算中使用的數字精度)和剪枝(移除神經網絡中不太重要的部分)等技術,以大幅縮小其記憶體和計算足跡。Exo Labs 在 GitHub 上公開了他們改編的版本,展示了所需的具體修改。
這個在過時硬體上運行的微型 AI,不會擁有其運行在雲端的大型同類所具備的廣泛知識或細膩的對話能力。它的功能會受到限制。然而,它能夠運行並執行基本的生成任務這一事實本身,就代表了一項重大的技術成就。它表明,大型語言模型的核心概念原則上可以大幅縮小規模,即使在這種極端情況下實用性有限。
Andreessen 的挑釁:一段失落的對話式計算時間線?
Marc Andreessen 抓住這次技術演示的機會,就計算的歷史和潛在未來提出了一個更廣泛、更具挑釁性的觀點。他的反思不僅僅是關於在舊硬體上運行新軟體的技術奇聞;更是對人類與電腦互動可能存在的另一段歷史的沉思。
他闡述道,Llama 在一台 26 年前的 Dell PC 上成功運行,意味著錯失了數十年的機會。「所有那些舊 PC 實際上一直以來都可以是智能的,」Andreessen 推測道。「我們本可以和我們的電腦對話 30 年了。」
這番話邀請我們想像一個世界,在這個世界裡,AI 發展的軌跡與個人電腦的興起以不同的方式交匯。個人電腦或許不會主要成為計算、文件創建以及最終訪問互聯網的工具,而是可能更早地演變成對話夥伴。所描繪的圖景是,用戶通過自然語言與他們的 Windows 95、98 甚至更早的機器互動,提問、獲得幫助、進行對話,而這種方式直到現代數位助理和複雜的 LLM 出現才成為主流現實。
當然,這是一個重大的反事實跳躍。我們今天所理解的生成式 AI,依賴於海量數據集、複雜的神經網絡架構(如 Llama 和 GPT 模型底層的 Transformer 架構)以及用於訓練的巨大計算能力,是一個相對較新的現象。1980 年代和 1990 年代的 AI 研究雖然雄心勃勃,但側重於不同的範式,例如專家系統和符號推理。那個時代的硬體,雖然能夠運行 Exo Labs 展示的精簡版 Llama,但其能力比今天的系統要弱幾個數量級,而且訓練有能力的生成式模型所需的海量數位數據集根本不存在於可訪問的形式中。
Andreessen 承認了這一背景,提到了 1980 年代 AI 熱潮的樂觀情緒:「80 年代很多聰明人都認為這一切當時就會發生。」那個時代見證了對人工智能的大量投資和研究,但最終導致了「AI 寒冬」——當技術未能兌現其最雄心勃勃的承諾時,資金和興趣隨之減少。計算能力、數據可用性和算法方法的限制是深遠的。
因此,Andreessen 的評論或許最好被理解為一種思想實驗,而不是字面上的聲稱,即複雜的、類人 AI 在 1990 年代的硬體上以我們現在體驗的方式是可行的。它強調了如果研究重點、算法突破和硬體發展遵循不同的路徑,可能會被釋放的潛力。它強調了這樣一種觀點,即某種形式的智能互動的構建模塊在技術上可能是可以實現的,即使結果會比今天的 AI 簡單得多。
對比時代:從撥號上網的夢想到 AI 融入的現實
Windows 98 實驗與當前 AI 整合的景象形成了鮮明的對比。如今,AI 正迅速從以雲端為中心的服務轉變為深度嵌入操作系統甚至硬體本身。
Microsoft 推動的 Copilot 和 Copilot+ PCs 就是這一趨勢的例證。Windows 11 提供了多個 Copilot 的入口點,為從總結文件、起草電子郵件到生成圖像和調整系統設置等任務提供 AI 輔助。新的 Copilot+ PC 規範強制要求包含神經處理單元 (NPU)——一種專門設計用於高效加速 AI 計算的特殊晶片。這標誌著一個根本性的轉變,即 AI 處理正在成為個人電腦的核心功能,在本地處理,而不僅僅依賴遠程伺服器。
這種現代方法假設並利用了豐富的資源。Copilot+ PCs 要求至少 16GB 的 RAM 和快速的固態硬碟,這些規格遠遠超過了 Windows 98 機器的 128MB。所使用的 AI 模型,雖然為客戶端執行進行了優化,但比實驗中使用的微型 Llama 版本要複雜得多,能力也強得多。它們受益於數十年的算法改進、海量的訓練數據集以及專為其需求而設計的硬體。
這種對比闡明了幾點:
- 軟體優化 vs. 臃腫: Exo Labs 的實驗是極端優化的證明,將現代算法強行塞入高度受限的環境中。它含蓄地批評了現代軟體傾向於假設硬體資源不斷增加,有時導致效率低下或「臃腫」。
- 硬體的演進: 一台典型的 1998 年 PC 和一台 2024 年的 Copilot+ PC 之間在計算能力和記憶體上的巨大差異令人震驚,代表了多代摩爾定律 (Moore’s Law) 和架構創新。
- 數據的可及性: 現代 LLM 的訓練依賴於互聯網規模的數據集,這在 Windows 98 時代是無法想像的。當時的數位世界太小且太分散。
- 算法的突破: 像 2017 年 Transformer 模型這樣的架構的發展是一個關鍵時刻,使得當今生成式 AI 的規模和性能成為可能。早期的 AI 方法存在根本性的局限。
儘管 Andreessen 夢想著 30 年前能與電腦對話,但現實是,實現今日 AI 體驗所需的硬體能力、數據可用性和算法創新的匯合,直到更近的時期才發生。
這一切意味著什麼?超越懷舊的反思
在 Windows 98 上成功部署 Llama 模型僅僅是一個巧妙的駭客行為,一個為科技愛好者準備的懷舊噱頭嗎?或者它具有更深層次的意義?可以說它達到了幾個目的:
- 展示極端的擴展性: 它證明了大型語言模型背後的基本原理可以被調整以在極其緊張的資源限制下運行。這對於在低功耗嵌入式系統、物聯網 (IoT) 設備或世界各地仍在使用的舊硬體上部署 AI 具有潛在意義。
- 突顯限制的力量: 在嚴格的限制下工作往往能激發創新和效率。Exo Labs 團隊必須找到創造性的解決方案並進行無情的優化,這些技能即使在資源豐富的環境中也很有價值。
- 挑戰假設: 它促使人們反思,現代應用程式所使用的所有計算能力和記憶體是否都是其提供價值所必需的。某些軟體能否更精簡、更高效?
- 說明技術路徑的偶然性: 歷史很少沿直線發展。某些基本的 AI 可能在舊硬體上實現這一事實,突顯了不同的選擇、研究方向甚至偶然的發現,都可能引導我們走上不同的技術道路。
這個實驗並沒有改寫歷史,也不意味著 2024 年複雜的 AI 體驗在 1998 年就能以某種方式實現。在使能技術——處理能力、記憶體、數據、算法——方面的差距仍然巨大。然而,它確實提供了一個引人入勝的數據點,證明了工程的獨創性,並促使人們思考技術進步的曲折道路。它提醒我們,昨天的限制有時可以用今天的知識來克服,產生令人驚訝的結果,並促使我們重新思考現在和未來可能實現的目標。舊機器中的幽靈不僅低語著過去的樣貌,或許也暗示著潛藏在簡潔與效率中尚未開發的潛力。