Cerebras 擴張版圖,劍指高速 AI 推論

大規模擴展北美和歐洲的資料中心

Cerebras 宣布了一項重大發展,計劃新增六個 AI 資料中心,策略性地分佈在北美和歐洲。 此次擴張使其推論能力提高了二十倍,使其處理能力達到每秒超過 4000 萬個 token。 新設施將位於主要都會區,包括達拉斯、明尼阿波利斯、奧克拉荷馬城、蒙特婁、紐約和法國的一個地點。 值得注意的是,擴展後的產能中有 85% 將位於美國境內。

這項重大的基礎設施投資突顯了 Cerebras 的信念,即快速 AI 推論市場已準備好迎接爆炸性增長。 推論是訓練好的 AI 模型為實際應用產生輸出的階段,隨著企業尋求更快、更有效率的替代方案來取代 Nvidia 提供的傳統 GPU 解決方案,推論變得越來越重要。

與 Hugging Face 和 AlphaSense 的戰略合作夥伴關係

除了基礎設施擴展外,Cerebras 還與行業領導者 Hugging Face 和 AlphaSense 建立了重要的合作夥伴關係。 這些合作將顯著擴大 Cerebras 的影響力,並鞏固其在競爭激烈的 AI 領域的地位。

與廣泛用於 AI 開發人員的平台 Hugging Face 的整合尤其值得注意。 這種合作夥伴關係將使 Hugging Face 擁有 500 萬開發人員的龐大社群能夠無縫、一鍵式訪問 Cerebras Inference,而無需單獨註冊。 此舉有效地將 Hugging Face 轉變為 Cerebras 的主要分銷管道,特別是對於利用 Llama 3.3 70B 等開源模型的開發人員。

與為金融服務業提供服務的著名市場情報平台 AlphaSense 的合作,代表了 Cerebras 贏得了重要的企業客戶。 AlphaSense 的客戶群涵蓋了大約 85% 的財富 100 強公司,目前正從’全球排名前三的封閉原始碼 AI 模型供應商’轉向利用 Cerebras 的能力。 這一轉變突顯了市場情報等要求嚴苛的即時應用對高速推論的需求不斷增長,在這些應用中,快速獲取 AI 驅動的洞察至關重要。 AlphaSense 將利用 Cerebras 來增強其 AI 驅動的搜尋功能,提供更快、更有效率地訪問關鍵市場資料。

Cerebras 的重點:高速推論作為差異化因素

Cerebras 策略性地將自己定位為高速推論的專家。 該公司的晶圓級引擎 (WSE-3) 處理器是一項突破性的技術,據稱其提供的推論效能比傳統 GPU 解決方案快 10 到 70 倍。 隨著 AI 模型的不斷發展,這種速度優勢變得越來越重要,AI 模型納入了更複雜的推理能力,並且需要更多的計算能力。

AI 模型的演進在使用傳統硬體時會導致效能明顯下降。 這為 Cerebras 提供了一個獨特的機會,其專用硬體專為加速這些複雜的 AI 工作負載而設計。 該公司已經吸引了 Perplexity AI 和 Mistral AI 等知名客戶,他們依靠 Cerebras 來支援各自的 AI 搜尋和助理產品。

成本效益優勢

Cerebras 押注於卓越的速度和成本效益的結合將使其推論服務極具吸引力,即使對於目前使用 GPT-4 等領先模型的公司也是如此。

Meta 的 Llama 3.3 70B 是一個開源模型,Cerebras 已針對其硬體進行了精心優化,現在在智力測試中取得了與 OpenAI 的 GPT-4 相當的分數,同時提供了顯著降低的營運成本。 這種引人注目的價值主張使 Cerebras 成為市場上的有力競爭者,同時提供效能和經濟效益。

投資於彈性基礎設施

Cerebras 正在對強大且有彈性的基礎設施進行大量投資,作為其擴張戰略的核心組成部分。 該公司位於奧克拉荷馬城的設施計劃於 2025 年 6 月投入營運,其設計特別注重抵禦極端天氣事件。

該設施是與 Scale Datacenter 合作建設的,將容納超過 300 個 Cerebras CS-3 系統。 它將配備三重冗餘電站,即使在電網中斷的情況下也能確保不間斷運行。 此外,該設施將採用專為 Cerebras 獨特的晶圓級系統設計的客製化水冷解決方案,從而優化效能和可靠性。

目標關鍵應用領域

宣布的擴張和合作夥伴關係代表了 Cerebras 的關鍵時刻,因為該公司致力於在 Nvidia 主導的 AI 硬體市場中確立自己的地位。 Cerebras 策略性地瞄準了三個特定的應用領域,在這些領域中,快速推論可以提供最大的價值:

  • **即時語音和視訊處理:**需要立即處理音訊和視訊資料的應用,例如即時轉錄、視訊會議和即時內容分析,將從 Cerebras 的高速推論能力中受益匪淺。
  • **推理模型:**執行複雜推理任務、需要大量計算資源的複雜 AI 模型可以在 Cerebras 的專用硬體上更有效地執行。
  • **編碼應用:**AI 驅動的編碼助理和程式碼產生工具需要快速回應時間來提高開發人員的生產力,這與 Cerebras 的技術非常契合。

通過將精力集中在高速推論上,而不是試圖在整個 AI 工作負載範圍內競爭,Cerebras 已經確定了一個可以確立領導地位的利基市場,甚至超越了最大的雲端供應商的能力。

推論日益重要

Cerebras 擴張的時機與 AI 行業越來越重視推論能力完美契合。 隨著企業從生成式 AI 的實驗轉向在生產級應用中部署它,對速度和成本效益的需求變得至關重要。

Cerebras 在美國境內擁有 85% 的推論能力,這也使其策略性地定位為國內 AI 基礎設施發展的主要貢獻者。 在技術主權和國家安全問題推動人們關注加強國內能力的時代,這一點尤其重要。

推理模型的興起和對速度的需求

DeepSeek-R1 和 OpenAI 的 o3 等先進推理模型的出現進一步推動了對更快推論解決方案的需求。 根據該公司的說法,這些模型在傳統硬體上可能需要幾分鐘才能產生回應,但在 Cerebras 系統上幾乎可以立即運行。 這種回應時間的大幅縮短為即時應用開闢了新的可能性,並顯著增強了使用者體驗。

技術決策者的新選擇

對於評估 AI 基礎設施選項的技術領導者和決策者來說,Cerebras 的擴張為傳統的基於 GPU 的解決方案提供了一個引人注目的新替代方案。 對於回應時間是使用者體驗和整體應用效能的關鍵因素的應用而言,尤其如此。

雖然 Cerebras 是否能夠真正挑戰 Nvidia 在更廣泛的 AI 硬體市場中的主導地位的問題仍然懸而未決,但該公司對高速推論的堅定關注,加上其大量的基礎設施投資,表明了一個明確且定義明確的戰略,以佔領快速發展的 AI 領域中有價值的細分市場。 該公司對創新、戰略合作夥伴關係和彈性基礎設施的承諾使其成為 AI 未來的重要參與者。 對速度、成本效益和專用硬體的重視使 Cerebras 成為尋求大規模部署 AI 並釋放先進 AI 模型全部潛力的組織的一個引人注目的選擇。