人工智慧領域持續不斷的創新步伐確保了自滿絕非選項。正當既有方法看似穩固之時,新的發展便會湧現,挑戰現狀。一個典型的例子發生在 2025 年初,當時一家較不知名的中國 AI 實驗室 DeepSeek 發布了一個模型,不僅引人注目,更在金融市場引發了明顯的震盪。該消息發布後,Nvidia 股價迅速暴跌 17%,並拖累了其他與蓬勃發展的 AI 資料中心生態系統相關的公司。市場評論員迅速將此劇烈反應歸因於 DeepSeek 所展現出的實力——他們似乎無需美國頂尖研究實驗室通常所需的天文數字預算,便能創造出高品質的 AI 模型。此事件立即引發了關於 AI 基礎設施未來架構和經濟學的激烈辯論。
要充分理解 DeepSeek 的出現所預示的潛在顛覆,必須將其置於更廣泛的背景中:AI 開發流程面臨的不斷變化的限制。影響行業軌跡的一個重要因素是高品質、新穎訓練資料日益稀缺。AI 領域的主要參與者至今已消化了大量公開可用的網路資料來訓練其基礎模型。因此,易於獲取的資訊源泉正開始枯竭,使得透過傳統預訓練方法實現模型效能的進一步顯著飛躍變得越來越困難且昂貴。這個新出現的瓶頸正迫使業界進行策略轉向。模型開發者越來越多地探索 「測試時運算」(test-time compute, TTC) 的潛力。這種方法強調在推理階段增強模型的推理能力——本質上是允許模型在收到查詢時投入更多的運算力來「思考」和完善其回應,而非僅僅依賴其預訓練的知識。研究界越來越相信,TTC 可能開啟一種新的擴展範式,其潛力或可媲美先前透過擴大預訓練資料和參數規模所實現的戲劇性效能提升。這種對推理時處理的關注很可能代表著人工智慧變革性進步的下一個前沿。
這些近期事件標誌著 AI 領域正在發生兩個根本性的轉變。首先,越來越明顯的是,即使是資源相對較少,或至少未公開大肆宣揚其財務實力的組織,現在也能開發和部署與最先進水平相媲美的模型。傳統上由少數資金雄厚的巨頭主導的競爭場域似乎正在趨於公平。其次,策略重點正果斷地轉向優化推理點的運算(TTC),將其視為未來 AI 進步的主要引擎。讓我們更深入地探討這兩個關鍵趨勢,並探索它們對競爭、市場動態以及更廣泛的 AI 生態系統中各個細分領域的潛在影響。
重塑硬體格局
向測試時運算的策略性重新定位對支撐 AI 革命的硬體產生了深遠影響,可能重塑對 GPU、專用晶片以及整體運算基礎設施的要求。我們認為這種轉變可能透過以下幾種關鍵方式顯現:
從專用訓練中心向動態推理能力的轉變: 行業的焦點可能會逐漸從建造越來越大、專門用於模型預訓練這種計算密集型任務的單體式 GPU 叢集,轉向策略性地將投資重新分配於增強其推理能力。這並不一定意味著 GPU 總數減少,而是其部署和管理方式的改變。支援 TTC 不斷增長的需求需要強大的推理基礎設施,能夠處理動態的、通常難以預測的工作負載。雖然推理無疑仍需要大量 GPU,但這些任務的根本性質與訓練有顯著不同。訓練通常涉及在較長時間內運行的大型、可預測的批次處理作業。而推理,特別是經 TTC 增強的推理,則傾向於更加 「尖峰化」且對延遲敏感,其特點是基於即時使用者互動而波動的需求模式。這種固有的不可預測性為容量規劃和資源管理帶來了新的複雜性,需要比傳統面向批次處理的訓練設置更敏捷、更具可擴展性的解決方案。
專用推理加速器的崛起: 隨著效能瓶頸日益轉向推理,我們預計對專為此任務優化的硬體需求將激增。在推理階段對低延遲、高吞吐量運算的強調,為通用 GPU 之外的替代架構創造了沃土。我們可能會見證 特定應用積體電路(Application-Specific Integrated Circuits, ASICs) 以及其他新型加速器類型的採用顯著增加,這些晶片是為推理工作負載精心設計的。與更通用的 GPU 相比,這些專用晶片通常能在特定推理操作上提供更優越的每瓦效能或更低的延遲。如果在推理時高效執行複雜推理任務(TTC)的能力,相較於原始訓練能力,成為更關鍵的競爭差異化因素,那麼目前通用 GPU 的主導地位——因其在訓練和推理兩方面的靈活性而備受重視——可能會受到侵蝕。這個不斷演變的格局可能極大地惠及開發和製造專用推理晶片的公司,有可能瓜分可觀的市場份額。
雲端平台:品質與效率的新戰場
超大規模雲端供應商(如 AWS、Azure 和 GCP)以及其他雲端運算服務正處於這場變革的交匯點。向 TTC 的轉變以及強大推理模型的普及,可能會重塑雲端市場的客戶期望和競爭動態:
服務品質(Quality of Service, QoS)成為決定性的競爭優勢: 除了對準確性和可靠性的固有擔憂之外,阻礙企業更廣泛採用複雜 AI 模型的一個持續挑戰在於推理 API 的效能往往難以預測。依賴這些 API 的企業經常遇到令人沮喪的問題,例如 回應時間(延遲)的高度不穩定、意外的速率限制導致使用受阻、難以有效管理並發使用者請求,以及適應模型供應商頻繁更改 API 端點所帶來的營運開銷。與複雜 TTC 技術相關的更高計算需求,有可能加劇這些現有的痛點。在這種環境下,一個不僅能提供強大模型存取,還能提供可靠 服務品質(QoS)保證——確保一致的低延遲、可預測的吞吐量、可靠的正常運行時間和無縫的可擴展性——的雲端平台將擁有引人注目的競爭優勢。尋求部署關鍵任務 AI 應用的企業將會傾向於那些能夠在嚴苛的實際條件下提供可靠效能的供應商。
效率悖論:推動雲端消費增加? 這似乎有悖直覺,但更具計算效率的大型語言模型(LLM)訓練和(關鍵的)推理方法的出現,可能不會導致對 AI 硬體和雲端資源總體需求的減少。相反,我們可能會目睹類似於 傑文斯悖論(Jevons Paradox) 的現象。這個歷史上觀察到的經濟學原理指出,資源效率的提高往往會導致 更高 的總體消耗率,因為更低的成本或更高的易用性會鼓勵更廣泛的採用和新的應用。在 AI 的背景下,高效的推理模型,可能得益於像 DeepSeek 這樣的實驗室開創的 TTC 突破,可以顯著降低每次查詢或每個任務的成本。這種可負擔性反過來可能激勵更廣泛的開發者和組織將複雜的推理能力整合到他們的產品和工作流程中。最終的淨效應可能是對基於雲端的 AI 運算總需求的顯著 增加,這既包括大規模執行這些高效推理模型,也包括持續需要訓練針對特定任務或領域的更小、更專業化的模型。因此,近期的進步可能反而會助長而非抑制整體的雲端 AI 支出。
基礎模型:變動中的護城河
基礎模型供應商的競爭舞台——目前由 OpenAI、Anthropic、Cohere、Google 和 Meta 等巨頭主導,現在又加入了 DeepSeek 和 Mistral 等新興參與者——也將迎來重大變革:
- 重新思考預訓練的可防禦性: 領先 AI 實驗室享有的傳統競爭優勢,即「護城河」,在很大程度上依賴於他們積累龐大資料集和部署巨量計算資源來預訓練越來越大的模型的能力。然而,如果像 DeepSeek 這樣的顛覆性參與者能夠以顯著較低的公開支出,證明其達到了相當甚至前沿水平的效能,那麼專有預訓練模型作為唯一差異化因素的策略價值可能會減弱。如果模型架構、訓練方法學或(關鍵的)測試時運算優化 方面的創新技術能讓其他參與者更有效地達到相似的效能水平,那麼訓練大規模模型的能力可能就不再是獨特的優勢。我們應該預期,透過 TTC 增強 Transformer 模型能力的快速創新將持續進行,正如 DeepSeek 的出現所表明的,這些突破可能來自遠遠超出既有行業巨頭圈子的地方。這表明尖端 AI 開發可能走向民主化,從而培育一個更多元化、更具競爭力的生態系統。
企業 AI 採用與應用層
這些轉變的影響向外擴散至企業軟體領域以及 AI 在企業內的更廣泛採用,特別是關於軟體即服務(Software-as-a-Service, SaaS)應用層:
應對安全與隱私障礙: 像 DeepSeek 這樣的新進者的地緣政治背景不可避免地帶來了複雜性,尤其是在資料安全和隱私方面。鑑於 DeepSeek 的基地在中國,其產品,特別是其直接的 API 服務和聊天機器人應用,很可能面臨來自北美、歐洲和其他西方國家潛在企業客戶的嚴格審查。已有報導指出,許多組織正主動阻止對 DeepSeek 服務的訪問,作為預防措施。即使 DeepSeek 的模型由位於西方資料中心的第三方雲端供應商託管,對於資料治理、潛在國家影響以及是否遵守嚴格的隱私法規(如 GDPR 或 CCPA)的持續擔憂,也可能阻礙其在企業中的廣泛採用。此外,研究人員正在積極調查並強調與 越獄(jailbreaking,繞過安全控制)、模型輸出中固有的偏見以及生成潛在有害或不當內容 相關的潛在漏洞。儘管由於模型的技術能力,企業研發團隊內部可能會進行實驗和評估,但考慮到這些重大的信任和安全因素,企業買家似乎不太可能僅僅基於 DeepSeek目前的產品就迅速放棄像 OpenAI 或 Anthropic 這樣已建立信任的供應商。
垂直領域專業化找到更穩固的基礎: 從歷史上看,為特定行業或業務功能(垂直應用)構建 AI 驅動應用的開發者主要專注於圍繞現有的通用基礎模型創建複雜的工作流程。諸如使用 檢索增強生成(Retrieval-Augmented Generation, RAG) 來注入領域特定知識、智慧模型路由以選擇最適合特定任務的 LLM、函數調用以整合外部工具,以及實施強大的護欄以確保安全和相關的輸出等技術,一直是將這些強大但通用的模型應用於專業需求的關鍵。這些方法已取得了相當大的成功。然而,一種持續的焦慮一直籠罩著應用層:擔心底層基礎模型能力的突然、戲劇性飛躍可能會瞬間使這些精心打造的特定應用創新變得過時——這種情況被 OpenAI 的 Sam Altman 著名地稱為「碾壓」(steamrolling)。
然而,如果 AI 進步的軌跡確實正在轉變,最重要的收益現在預期來自優化測試時運算,而非預訓練的指數級改進,那麼對應用層價值的生存威脅就會減弱。在一個進步越來越多地源於 TTC 優化 的環境中,為專注於特定領域的公司開闢了新的途徑。專注於 領域特定的後訓練演算法 的創新——例如開發針對特定行業術語優化的結構化提示技術、為即時應用創建延遲感知推理策略,或設計針對特定類型資料量身定制的高效抽樣方法——可能在目標垂直市場中產生顯著的效能優勢。
這種領域特定優化的潛力對於新一代以推理為重點的模型尤其重要,例如 OpenAI 的 GPT-4o 或 DeepSeek 的 R 系列,這些模型雖然強大,但通常表現出明顯的延遲,有時需要數秒才能生成回應。在需要近乎即時互動的應用中(例如,客戶服務機器人、互動式資料分析工具),在特定領域背景下,既要減少這種延遲,又要同時提高推理輸出的品質和相關性,這代表著一個重要的競爭差異化因素。因此,擁有深厚垂直領域專業知識的應用層公司可能會發現自己扮演著越來越關鍵的角色,不僅僅是構建工作流程,而且還積極優化推理效率,並為其特定利基市場微調模型行為。它們成為將原始 AI 力量轉化為實際商業價值的不可或缺的合作夥伴。
DeepSeek 的出現有力地證明了一個更廣泛的趨勢:對僅僅依靠預訓練規模作為通往卓越模型品質唯一途徑的依賴正在下降。相反,它的成功突顯了在推理階段——即測試時運算時代——優化計算日益增長的重要性。雖然 DeepSeek 的特定模型在西方企業軟體中的直接採用可能仍受到持續的安全和地緣政治審查的限制,但它們的間接影響已經顯現。它們所展示的技術和可能性無疑正在催化既有 AI 實驗室內部的研究和工程努力,迫使它們整合類似的 TTC 優化策略,以補充其在規模和資源方面的現有優勢。正如預期的那樣,這種競爭壓力似乎有望降低複雜模型推理的有效成本,而根據傑文斯悖論,這很可能正在促進更廣泛的實驗,並增加整個數位經濟中對先進 AI 能力的總體使用。