北美和欧洲大规模数据中心增长
Cerebras 宣布了一项重大进展,计划新增六个 AI 数据中心,战略性地分布在北美和欧洲。 此次扩张使其推理能力提高了 20 倍,使其处理能力达到了每秒超过 4000 万个 token 的惊人水平。 新设施将位于主要都市区,包括达拉斯、明尼阿波利斯、俄克拉荷马城、蒙特利尔、纽约和法国的一个地点。 值得注意的是,扩大的产能中有 85% 将位于美国境内。
这项重大的基础设施投资强调了 Cerebras 的信念,即快速 AI 推理市场已为爆炸性增长做好了准备。 推理是训练有素的 AI 模型为实际的现实世界应用生成输出的阶段,随着企业寻求更快、更有效的替代 Nvidia 提供的传统基于 GPU 的解决方案,推理变得越来越重要。
与 Hugging Face 和 AlphaSense 的战略合作
除了基础设施扩张之外,Cerebras 还与行业领导者 Hugging Face 和 AlphaSense 建立了重要的合作伙伴关系。 这些合作将显著扩大 Cerebras 的影响力,并巩固其在竞争激烈的 AI 领域的地位。
与 AI 开发人员广泛使用的平台 Hugging Face 的集成尤其值得注意。 此次合作将使 Hugging Face 拥有 500 万开发人员的庞大社区能够无缝、一键式访问 Cerebras Inference,而无需单独注册。 此举有效地将 Hugging Face 转变为 Cerebras 的主要分销渠道,特别是对于利用 Llama 3.3 70B 等开源模型的开发人员。
与为金融服务行业提供服务的著名市场情报平台 AlphaSense 的合作,代表了 Cerebras 的一项重大企业客户胜利。 AlphaSense 的客户群包括约 85% 的财富 100 强公司,它正在从’全球排名前三的闭源 AI 模型供应商’转型为利用 Cerebras 的能力。 这一转变凸显了市场情报等要求苛刻的实时应用对高速推理的需求不断增长,在这些应用中,快速访问 AI 驱动的洞察力至关重要。 AlphaSense 将利用 Cerebras 来增强其 AI 驱动的搜索功能,从而更快、更有效地访问关键市场数据。
Cerebras 的重点:高速推理作为差异化因素
Cerebras 已将自己战略性地定位为高速推理领域的专家。 该公司的晶圆级引擎 (WSE-3) 处理器是一项突破性技术,据称其推理性能比传统的基于 GPU 的解决方案快 10 到 70 倍。 随着 AI 模型的发展,这种速度优势变得越来越重要,AI 模型包含了更复杂的推理能力,并且需要更多的计算能力。
AI 模型的发展在使用传统硬件时会导致性能明显下降。 这为 Cerebras 提供了一个独特的机会,其专用硬件专门用于加速这些复杂的 AI 工作负载。 该公司已经吸引了 Perplexity AI 和 Mistral AI 等知名客户,他们依靠 Cerebras 来支持各自的 AI 搜索和助手产品。
成本效益优势
Cerebras 押注于卓越的速度和成本效益的结合将使其推理服务极具吸引力,即使对于目前使用 GPT-4 等领先模型的公司也是如此。
Meta 的 Llama 3.3 70B 是一种开源模型,Cerebras 已针对其硬件进行了精心优化,现在在智力测试中获得了与 OpenAI 的 GPT-4 相当的分数,同时提供了显著降低的运营成本。 这种引人注目的价值主张使 Cerebras 成为市场上的有力竞争者,同时提供性能和经济效益。
对弹性基础设施的投资
Cerebras 正在对强大而有弹性的基础设施进行大量投资,作为其扩张战略的核心组成部分。 该公司位于俄克拉荷马城的设施计划于 2025 年 6 月投入运营,其设计特别注重抵御极端天气事件。
该设施是与 Scale Datacenter 合作建设的,将容纳超过 300 个 Cerebras CS-3 系统。 它将配备三重冗余电站,即使在电网中断的情况下也能确保不间断运行。 此外,该设施还将采用专门为 Cerebras 独特的晶圆级系统设计的定制水冷解决方案,从而优化性能和可靠性。
目标关键应用领域
宣布的扩张和合作伙伴关系代表了 Cerebras 的关键时刻,因为该公司致力于在 Nvidia 主导的 AI 硬件市场中确立自己的地位。 Cerebras 战略性地瞄准了三个特定的应用领域,在这些领域中,快速推理提供了最重要的价值:
- 实时语音和视频处理: 需要立即处理音频和视频数据的应用,例如实时转录、视频会议和实时内容分析,将从 Cerebras 的高速推理能力中受益匪浅。
- 推理模型: 执行复杂推理任务、需要大量计算资源的复杂 AI 模型可以在 Cerebras 的专用硬件上更有效地执行。
- 编码应用: AI 驱动的编码助手和代码生成工具需要快速响应时间来提高开发人员的工作效率,这与 Cerebras 的技术非常契合。
通过将精力集中在高速推理上,而不是试图在整个 AI 工作负载范围内竞争,Cerebras 已经确定了一个可以确立领导地位的利基市场,甚至超越了最大的云提供商的能力。
推理日益重要
Cerebras 扩张的时机与 AI 行业越来越重视推理能力完美契合。 随着企业从试验生成式 AI 转向在生产级应用中部署它,对速度和成本效益的需求变得至关重要。
Cerebras 的推理能力有 85% 位于美国境内,它还将自己战略性地定位为国内 AI 基础设施进步的主要贡献者。 在技术主权和国家安全问题推动人们关注加强国内能力的时代,这一点尤其重要。
推理模型的兴起和对速度的需求
DeepSeek-R1 和 OpenAI 的 o3 等高级推理模型的出现进一步推动了对更快推理解决方案的需求。 根据该公司的说法,这些模型在传统硬件上可能需要几分钟才能生成响应,但在 Cerebras 系统上几乎可以瞬间运行。 响应时间的这种显著减少为实时应用开辟了新的可能性,并显著增强了用户体验。
技术决策者的新选择
对于评估 AI 基础设施选项的技术领导者和决策者来说,Cerebras 的扩张为传统的基于 GPU 的解决方案提供了一个引人注目的新选择。 对于响应时间是用户体验和整体应用性能的关键因素的应用来说尤其如此。
虽然 Cerebras 是否能够真正挑战 Nvidia 在更广泛的 AI 硬件市场中的主导地位的问题仍然悬而未决,但该公司对高速推理的坚定关注,加上其大量的基础设施投资,表明了一个明确而明确的战略,以占领快速发展的 AI 领域的一个有价值的部分。 该公司对创新、战略合作伙伴关系和弹性基础设施的承诺使其成为 AI 未来中一个强大的参与者。 对速度、成本效益和专用硬件的强调使 Cerebras 成为寻求大规模部署 AI 并释放高级 AI 模型全部潜力的组织的一个引人注目的选择。