人工智能發展的步伐持續不懈,各大科技巨頭競相爭奪創造更強大、高效且多功能模型的霸主地位。在這場激烈的競爭中,Meta 投下了一枚新的戰帖,宣布推出其 Llama 4 系列,這是一組基礎 AI 模型,旨在顯著提升現有技術水平,並為從開發者工具到面向消費者的助理等廣泛應用提供動力。此次發布標誌著 Meta AI 雄心的關鍵時刻,不僅立即推出了兩款不同的模型,還預告了第三款可能具備突破性、目前正在進行嚴格訓練的龐然大物。Llama 4 家族代表了一次策略性的演進,融合了尖端的架構選擇,旨在挑戰 OpenAI、Google 和 Anthropic 等競爭對手所設定的既定基準。此舉突顯了 Meta 致力於塑造 AI 未來的承諾,既透過對開放研究社群做出貢獻(儘管帶有某些限制條件),也透過將這些先進能力直接整合到其龐大的社交媒體和通訊平台生態系統中。
Llama 4 Scout:小巧套件中的強大力量
打頭陣的是 Llama 4 Scout,這款模型的核心設計理念是效率與易用性。Meta 強調 Scout 的卓越能力,即在保持足夠小巧、能夠 ‘裝入單個 Nvidia H100 GPU’ 的同時,仍能有效運作。這是一項重大的技術成就,也是一項策略優勢。在計算資源,特別是像 H100 這樣的高端 GPU 既昂貴又需求旺盛的時代,一個能在單一單元上運行的強大模型,極大地降低了開發者、研究人員和小型組織的進入門檻。它為在資源受限的環境中部署複雜的 AI 能力開闢了可能性,可能實現更本地化或設備端的 AI 處理,從而減少延遲並增強隱私。
Meta 毫不避諱地將 Scout 與其競爭對手相比較。該公司聲稱,Scout 在其同級別中超越了幾個著名模型,包括 Google 的 Gemma 3 和 Gemini 2.0 Flash-Lite,以及廣受推崇的開源 Mistral 3.1 模型。這些說法基於 ‘在廣泛報導的基準測試中’ 的表現。雖然基準測試結果總是需要仔細審視——因為它們可能無法捕捉到真實世界性能的所有方面——但持續優於既定模型表明 Scout 擁有令人信服的力量與效率平衡。這些基準測試通常評估語言理解、推理、數學問題解決和程式碼生成等能力。在多樣化的基準測試中表現出色,表明 Scout 並非利基模型,而是一個能夠有效處理各種任務的多功能工具。
此外,Llama 4 Scout 擁有令人印象深刻的 1000 萬 token context window。Context window 基本上定義了 AI 模型在對話或任務期間一次能夠 ‘記住’ 或考慮的信息量。更大的 context window 使模型能夠在更長的互動中保持連貫性,理解複雜文件,遵循錯綜複雜的指令,並回憶輸入早期的細節。1000 萬 token 的容量相當可觀,使得諸如總結長篇報告、分析廣泛的程式碼庫,或進行持久的多輪對話而不會失去敘事線索等應用成為可能。此功能顯著增強了 Scout 在處理複雜、信息密集型任務方面的實用性,使其遠不止是一個輕量級的替代品。單 GPU 兼容性與大型 context window 的結合,使得 Scout 對於尋求強大 AI 而無需大量基礎設施投資的開發者來說,是一個特別引人入勝的選擇。
Maverick:主流競爭者
在 Llama 4 首批發布中,定位為更強大兄弟模型的是 Llama 4 Maverick。此模型旨在直接與 AI 世界的重量級選手競爭,與 OpenAI 的 GPT-4o 和 Google 的 Gemini 2.0 Flash 等強大模型相提並論。Maverick 代表了 Meta 在大規模、高性能 AI 領域爭奪領導地位的嘗試,旨在提供能夠處理最苛刻的生成式 AI 任務的能力。它旨在成為 Meta AI 助理中最複雜功能的引擎,該助理現已可在網路上使用,並整合到該公司的核心通訊應用程式中:WhatsApp、Messenger 和 Instagram Direct。
Meta 強調 Maverick 的實力,將其性能與主要競爭對手進行了有利比較。該公司聲稱 Maverick 能與 GPT-4o 和 Gemini 2.0 Flash 抗衡,甚至在某些情況下可能超越它們的能力。這些比較至關重要,因為 GPT-4o 和 Gemini 家族代表了廣泛可用 AI 模型的最前沿。在此取得成功意味著 Maverick 具備細緻的語言生成、複雜的推理、精密的解決問題能力,以及潛在的多模態互動能力(儘管初步發布主要側重於基於文本的基準測試)。
有趣的是,Meta 還強調了 Maverick 相對於其他高性能模型的效率,特別提到了在編碼和推理任務領域的 DeepSeek-V3。Meta 指出,Maverick 在使用 ‘不到一半的活躍參數’ 的情況下,達到了可比較的結果。這一說法指向了模型架構和訓練技術的重大進步。參數,粗略地說,是模型在訓練期間學習到的、儲存其知識的變量。’活躍參數’ 通常與諸如 Mixture of Experts (MoE) 等架構相關,在這種架構中,對於任何給定的輸入,只有總參數的一個子集被使用。以更少的活躍參數達到相似的性能,表明 Maverick 在運行時(推理成本)可能比具有更龐大活躍參數數量的模型更具計算成本效益,且可能更快,提供了更好的性能功耗比或性能成本比。這種效率對於在 Meta 運營的規模上部署 AI 至關重要,即使是微小的改進也可以轉化為可觀的成本節省和改善的用戶體驗。因此,Maverick 旨在於頂級性能和運營效率之間取得平衡,使其既適用於要求苛刻的開發者應用,也適合整合到服務數十億用戶的產品中。
Behemoth:備受期待的巨獸
雖然 Scout 和 Maverick 現已可用,但 Meta 也預先宣布了正在開發一款更大、可能更強大的模型:Llama 4 Behemoth。顧名思義,Behemoth 被設想為 AI 領域的巨擘。Meta CEO Mark Zuckerberg 已公開表示對此模型的雄心,稱其在完成訓練後可能成為 ‘世界上性能最高的基礎模型’。這表明 Meta 意圖突破 AI 能力的絕對界限。
Behemoth 的規模驚人。Meta 透露它擁有 2880 億活躍參數,這些參數來自一個包含 2 兆總參數 的龐大參數池。這強烈表明其採用了前所未有規模的複雜 Mixture of Experts (MoE) 架構。模型的龐大規模表明它正在利用海量數據集進行訓練,旨在捕捉極其複雜的模式和知識。雖然訓練這樣一個模型是一項艱鉅的任務,需要巨大的計算資源和時間,但潛在的回報同樣巨大。
儘管 Behemoth 尚未發布,Meta 已經對其性能設定了很高的期望。該公司聲稱,根據正在進行的訓練和評估,Behemoth 顯示出有潛力超越領先的競爭對手,如 OpenAI 預期的 GPT-4.5 和 Anthropic 的 Claude Sonnet 3.7,特別是 ‘在幾個 STEM 基準測試上’。在科學、技術、工程和數學 (STEM) 基準測試上的成功,通常被視為高級推理和解決問題能力的關鍵指標。在這些領域表現出色的模型,可能解鎖科學研究的突破,加速工程設計過程,並應對目前 AI 無法企及的複雜分析挑戰。對 STEM 的關注表明,Meta 不僅將 Behemoth 視為語言模型,更將其視為推動創新和發現的強大引擎。Behemoth 的開發突顯了 Meta 的長期策略:不僅要在最高水平上競爭,而且要潛在地重新定義基礎 AI 模型的性能上限。其最終發布將受到整個 AI 社群的密切關注。
深入探究:Mixture of Experts 的優勢
支撐 Llama 4 系列的一個關鍵技術轉變是 Meta 採用了 ‘mixture of experts’ (MoE) 架構。這代表了從單體模型設計(整個模型處理每個輸入)的重大演進。MoE 提供了一條構建更大、能力更強模型的途徑,而不會在推理(使用模型生成輸出的過程)期間導致計算成本成比例增加。
在 MoE 模型中,系統由眾多較小的、專業化的 ‘專家’ 網絡組成。當接收到輸入(如文本提示)時,一個門控網絡或路由機制會分析輸入,並確定哪個專家子集最適合處理該特定任務或信息類型。只有這些被選中的專家會被激活來處理輸入,其餘的則保持休眠狀態。這種條件計算是 MoE 的核心優勢。
其好處有兩方面:
- 可擴展性 (Scalability): 它允許開發者大幅增加模型中的總參數數量(如 Behemoth 的 2 兆),因為對於任何單次推理,只有其中一小部分(活躍參數,例如 Behemoth 的 2880 億)被啟用。這使得模型能夠在其專家網絡中儲存更大量的知識並學習更專業化的功能。
- 效率 (Efficiency): 因為在任何給定時間只有模型的一部分處於活躍狀態,所以推理所需的計算成本和能源消耗可以顯著低於同等總參數規模的密集模型。這使得運行非常大型的模型更加實用和經濟,尤其是在大規模部署時。
Meta 明確提到為 Llama 4 轉換到 MoE,表明該架構對於實現為 Scout、Maverick,尤其是龐大的 Behemoth 設定的性能和效率目標至關重要。雖然 MoE 架構引入了其自身的複雜性,特別是在有效訓練門控網絡和管理專家之間的通信方面,但像 Meta 這樣的主要參與者採用它,標誌著其在推動 AI 發展前沿方面日益增長的重要性。這種架構選擇很可能是 Maverick 相對於 DeepSeek-V3 聲稱的效率以及為 Behemoth 設想的龐大規模背後的關鍵因素。
分發策略:開放取用與整合體驗
Meta 正在推行一種雙管齊下的策略來傳播和利用其 Llama 4 模型,反映了其既希望培育廣泛的開發者生態系統,又希望利用自身龐大用戶基礎的願望。
首先,Llama 4 Scout 和 Llama 4 Maverick 正提供下載。開發者和研究人員可以直接從 Meta 或透過像 Hugging Face 這樣的流行平台(機器學習社群的中心樞紐)獲取模型。這種方法鼓勵實驗,允許外部各方在 Llama 4 之上構建應用程式,並促進對模型能力的獨立審查和驗證。透過提供模型下載,Meta 為更廣泛的 AI 領域做出了貢獻,使其自身產品團隊之外的創新成為可能。這至少部分符合歷史上加速該領域進步的開放研究與開發精神。
其次,與此同時,Meta 正在將 Llama 4 的能力深度整合到其自有產品中。由這些新模型驅動的 Meta AI 助理正在該公司的網站上推出,或許更重要的是,在其廣泛使用的通訊應用程式中推出:WhatsApp、Messenger 和 Instagram Direct。這立即將先進的 AI 工具交到了全球可能數十億用戶的手中。這種整合服務於多個策略目的:它為 Meta 平台的用戶提供了即時價值,產生了大量的真實世界互動數據(在遵守隱私考量的前提下,這對於進一步的模型改進可能非常寶貴),並將 Meta 的應用程式定位為注入了 AI 智能的尖端平台。它創造了一個強大的反饋循環,並確保 Meta 透過增強其核心服務直接從自身的 AI 進步中受益。
這種雙重策略與一些競爭對手採取的做法形成對比。雖然 OpenAI 主要透過 API 提供訪問(如 GPT-4),Google 將 Gemini 深度整合到其服務中,同時也提供 API 訪問,但 Meta 強調提供模型本身供下載(附帶許可條件)代表了一種獨特的做法,旨在同時在開發者社群和終端用戶市場中佔據心智份額。
開源問題:許可證的難題
Meta 一直將其 Llama 模型發布(包括 Llama 4)稱為 ‘開源’。然而,這個稱謂在技術社群中一直是一個反覆出現的爭議點,主要原因在於 Llama 許可證的具體條款。雖然這些模型確實提供給他人使用和修改,但該許可證施加了某些限制,這些限制偏離了像 Open Source Initiative (OSI) 這樣的組織所倡導的開源標準定義。
最顯著的限制涉及大規模商業用途。Llama 4 許可證規定,擁有超過 7 億月活躍用戶 (MAU) 的商業實體,在部署或利用 Llama 4 模型之前,必須獲得 Meta 的明確許可。這個門檻有效地阻止了最大的科技公司——Meta 潛在的直接競爭對手——在未經 Meta 同意的情況下,自由使用 Llama 4 來增強他們自己的服務。
這一限制導致 Open Source Initiative(一個廣泛認可的開源原則管理者)先前(針對具有類似條款的 Llama 2)表示,此類條件使許可證 ‘脫離了’開源’的範疇’。根據 OSI 的定義,真正的開源許可證不得歧視任何應用領域或特定個人或群體,並且通常允許廣泛的商業用途,而無需根據用戶的規模或市場地位要求特殊許可。
Meta 的做法可以被視為一種 ‘源碼可用’ 或 ‘社群’ 許可證,而非純粹的開源。這種許可策略背後的理由可能是多方面的。它允許 Meta 透過提供強大模型的訪問權限,在更廣泛的開發者和研究社群中贏得好感並促進創新。同時,它透過阻止其最大的競爭對手直接利用其重大的 AI 投資來對抗自己,從而保護了 Meta 的策略利益。雖然這種務實的做法可能服務於 Meta 的商業目標,但使用 ‘開源’ 一詞仍然存在爭議,因為它可能造成混淆,並可能稀釋這個在軟件開發界帶有特定自由和無限制訪問內涵的術語的意義。這場持續的辯論突顯了在快速發展的人工智能領域中,開放協作、企業策略和知識產權之間複雜的交集。
Meta 計劃在其即將於 4 月 29 日舉行的 LlamaCon 會議上分享更多關於其 AI 路線圖的細節,並與社群互動。這次活動可能會提供更多關於 Llama 4 技術基礎、未來潛在迭代以及該公司對 AI 在其生態系統內外角色的更廣泛願景的見解。Llama 4 Scout 和 Maverick 的發布,以及對 Behemoth 的承諾,清楚地表明了 Meta 決心成為 AI 革命的領導力量,透過技術創新和策略性傳播來塑造其發展軌跡。