AI支出新视角:需求增长远超效率增益

最初的震动:DeepSeek与效率幻象

今年早些时候,中国 DeepSeek AI 的出现给科技投资领域带来了冲击波。其看似突破性的方法,承诺以显著降低的计算开销提供强大的人工智能,立即引发了猜测。一种叙事迅速形成:也许以大量购买专用芯片和系统为特征的、持续且昂贵的 AI 基础设施扩张即将减速。市场对此作出反应,反映出一种信念,即成本效益型 AI 的新时代可能会大幅削减预期的支出热潮。

然而,最近一次行业精英高层会议的见解描绘了一幅截然不同的景象。由 Bloomberg Intelligence 在纽约召开的一次生成式 AI 会议表明,最初仅关注潜在成本节约的解读忽略了更宏大的图景。该活动远未预示支出放缓,反而强调了对更大 AI 能力近乎永不满足的渴求。与会者的共识并非削减开支,而是如何在极度渴望菜单价格降低的同时,设法满足对智能系统呈指数级增长的需求。

来自前线的声音:对能力的无尽渴望

在为期一天的活动中,汇集了开发者、战略家和投资者,讨论始终围绕着需求升级推动巨额投资的主题。Bloomberg Intelligence 的高级技术分析师、活动组织者之一 Mandeep Singh 简洁地抓住了普遍情绪。回顾众多小组讨论和专家见解,他注意到一个普遍的反复论调:所有参与者都觉得他们没有足够的 AI 能力。压倒性的感觉是需要更多,而不是拥有太多。

至关重要的是,Singh 补充说,在快速扩张的科技行业中常见的“基础设施泡沫”的担忧,在这次对话中明显缺席。焦点仍然牢牢地放在整个行业面临的基础性挑战上。Singh 的同事、Bloomberg Intelligence 的 IT 服务与软件高级分析师 Anurag Rana 将其定义为最重要的问题:“我们处于那个 [AI 基础设施建设] 周期的哪个阶段?”

虽然承认精确定位这个大规模建设的确切阶段仍然困难(Rana 承认,“没人确切知道”),但 DeepSeek 现象无疑改变了人们的视角。它注入了一剂强心针,带来了重要的 AI 工作负载可能可以更经济地处理的希望。“DeepSeek 动摇了很多人,”Rana 观察到。其含义很清楚:如果复杂的 AI 模型确实可以在要求较低的硬件上高效运行,那么像涉及主要科技巨头的财团据传计划的数千亿美元级别的庞大项目,可能会被重新评估或以不同规模进行。

根据 Rana 的说法,整个行业的梦想是 AI 运营成本,特别是推理(inference)(训练好的模型生成预测或内容的阶段)成本,能够像过去十年云计算存储那样急剧下降。他回忆起在 Amazon Web Services (AWS) 等平台上存储大量数据的经济性是如何在大约八年内显著改善的。“成本曲线的下降……经济效益很好,”他说道。“这就是每个人都希望的,在推理方面……如果曲线下降到那个水平,哦天哪,AI 的采用率……将会是惊人的。” Singh 表示赞同,指出 DeepSeek 的到来从根本上“改变了每个人对实现效率的思维定式”。

在整个会议期间,这种对效率的渴望显而易见。虽然许多小组讨论深入探讨了将企业 AI 项目从概念阶段推向实际生产的实践问题,但一个并行的讨论始终强调迫切需要削减部署和运行这些 AI 模型的成本。目标很明确:通过使 AI 在经济上对更广泛的应用和用户可行,来实现民主化访问。Bloomberg 自己的首席技术官 Shawn Edwards 表示,DeepSeek 不一定完全出乎意料,而是普遍愿望的一个有力例证。“它让我想到的是,如果你能挥动魔杖让这些模型运行得极其高效,那将是多么美妙,”他评论道,并将这个愿望扩展到所有 AI 模型,而不仅仅是某一个特定的突破。

扩散原则:助长计算需求

尽管追求效率,但专家们预计 AI 基础设施投资将持续大幅增长的主要原因之一在于 AI 模型的绝对扩散。贯穿纽约会议的一个反复出现的主题是,明确摒弃了单一、庞大的 AI 模型能够处理所有任务的观念。

  • 模型家族: 正如 Bloomberg 的 Edwards 所说,“我们使用一个模型家族。不存在所谓的最佳模型。” 这反映出一种日益增长的理解,即不同的 AI 架构在不同任务上表现出色——语言生成、数据分析、图像识别、代码补全等等。
  • 企业定制化: 与会者普遍认为,虽然大型、通用的“基础”或“前沿”模型将继续由主要 AI 实验室开发和完善,但企业内部的真正行动涉及部署可能数以百计甚至数以千计的专门化 AI 模型。
  • 微调与专有数据: 许多这些企业模型将通过称为**微调(fine-tuning)**的过程从基础模型改编而来。这涉及在公司特定的、通常是专有的数据上重新训练预训练的神经网络。这使得 AI 能够理解独特的业务背景、术语和客户互动,提供比通用模型远为相关和有价值的结果。
  • 开发民主化: 数据科学平台 Dataiku 的代表 Jed Dougherty 强调了企业 AI Agent 需要“模型的可选性”。他强调了赋予公司对其 AI 工具的控制权、创建能力和**可审计性(auditability)**的重要性。“我们希望将构建这些东西的工具交到人们手中,”Dougherty 断言。“我们不希望十个博士来构建所有的 Agent。” 这种推动更广泛开发可及性的趋势本身就意味着需要更多的底层基础设施来支持这些分布式的创建工作。
  • 品牌特定 AI: 创意产业提供了一个典型的例子。Adobe 新业务风险投资负责人 Hannah Elsakr 解释了他们将定制模型作为关键差异化因素的策略。“我们可以为您的品牌训练定制的模型扩展,这可以帮助新的广告活动,”她举例说明,展示了如何定制 AI 以保持特定的品牌美学和信息传递。

除了模型的多样化,AI Agent 在企业工作流程中日益增长的部署是处理需求的另一个重要驱动力。这些 Agent 被设想为不仅是被动工具,而且是能够执行多步骤任务的主动参与者。

负责 Microsoft Copilot Studio Agent 和自动化工作的 Ray Smith 预测,未来用户将通过像 Copilot 这样的统一界面与可能数以百计的专业 Agent 互动。“你不会把整个流程塞进一个 Agent,你会把它分解成几个部分,”他解释道。他认为,这些 Agent 本质上是编程“新世界中的应用程序”。其愿景是用户只需陈述他们的目标——“告诉它我们想完成什么”——然后 Agent 就会协调必要的步骤。“Agentic apps 只是工作流的一种新方式,”Smith 说,并强调实现这一愿景与其说是技术可能性问题(“这在技术上都是可能的”),不如说是“我们构建它的速度问题”。

这种将 AI Agent 更深入地嵌入日常组织流程的推动力,进一步加剧了降低成本和高效部署的压力。微处理器巨头 ARM Holdings 的产品管理负责人 James McNiven 从可访问性的角度阐述了这一挑战。“我们如何在越来越多的设备上提供访问权限?”他思考道。观察到模型在特定任务上达到近乎“博士级”的能力,他将其与多年前将移动支付系统引入发展中国家的变革性影响相提并论。核心问题仍然是:“我们如何将那种 [AI 能力] 提供给能够使用这种能力的人?” 要让复杂的 AI Agent 作为助手广泛服务于大量劳动力,不仅需要巧妙的软件,还需要高效的硬件,并且不可避免地需要更多的底层基础设施投资,即使每次计算的效率有所提高。

规模化障碍:芯片、电力和云巨头

即使是使用最广泛的通用基础模型也在以惊人的速度增长,给现有基础设施带来了巨大压力。负责 Amazon Web Services (AWS) 计算和网络的 Dave Brown 透露,仅他们的平台就为客户提供了大约 1,800 种不同的 AI 模型。他强调 AWS 极度专注于“采取大量措施来降低”运行这些强大工具的成本。

像 AWS 这样的云提供商的一个关键策略是开发自己的定制芯片(custom silicon)。Brown 强调了 AWS 设计的芯片(如针对 AI 训练优化的 Trainium 处理器)的使用日益增加,他表示,“AWS 使用我们自己处理器的数量超过了其他公司的处理器。” 这种转向专业化、内部硬件的举措旨在掌控性能和成本,减少对像 Nvidia、AMD 和 Intel 这样的通用芯片供应商的依赖。尽管做出了这些努力,Brown 坦率地承认了基本现实:“如果成本更低,客户会做得更多。” 目前需求的上限更多地是由预算限制而非缺乏潜在应用所定义的。

领先 AI 开发者所需的资源规模是巨大的。Brown 提到了 AWS 与 Anthropic(复杂的 Claude 系列语言模型的创建者)的日常合作。Anthropic 的应用程序编程接口负责人 Michael Gerstenhaber 与 Brown 一同发言时指出,现代 AI 的计算密集性,特别是为复杂推理或“思考”设计的模型。这些模型通常会为其答案生成详细的分步解释,消耗大量的处理能力。“思考型模型导致大量容量被使用,”Gerstenhaber 说。

虽然 Anthropic 积极与 AWS 合作进行优化技术,如**“提示缓存”(prompt caching)**(存储和重用先前交互的计算以节省资源),但基本的硬件需求仍然巨大。Gerstenhaber 直言不讳地表示,Anthropic 需要“数十万个加速器”——专门的 AI 芯片——分布在“许多数据中心”,才能仅仅运行其当前的模型套件。这具体地展示了支撑仅仅一个主要 AI 参与者所需的计算资源的庞大规模。

除了采购和管理庞大芯片集群的挑战之外,与 AI 相关的能源消耗急剧上升也是一个问题。Brown 强调这是一个关键且迅速升级的担忧。目前支持密集 AI 工作负载的数据中心已经在消耗以数百兆瓦计的电力。预测表明,未来的需求将不可避免地攀升至千兆瓦级别——相当于大型发电厂的输出功率。“它消耗的电力,”Brown 指的是 AI 时警告说,“是巨大的,并且在许多数据中心占用的空间也很大。” 这种不断升级的能源需求不仅带来了巨大的运营成本,也为下一代 AI 基础设施的选址和供电带来了重大的环境和后勤挑战。

经济不确定性:笼罩在增长计划上的阴影

尽管技术进步和新兴用例带来了乐观前景,但一个重要的变量笼罩着所有 AI 投资的预测:更广泛的经济气候。在 Bloomberg Intelligence 会议结束时,与会者已经观察到市场因新宣布的全球关税方案(被认为比预期更广泛)而出现紧张情绪。

这是一个强有力的提醒,宏伟的技术路线图可能会被宏观经济逆风迅速打乱。Bloomberg 的 Rana 警告说,虽然 AI 支出最初可能在一定程度上受到保护,但企业 IT 投资的传统领域,如与 AI 无关的服务器和存储,可能在经济收缩中首当其冲。“我们关注的另一个大问题是非 AI 技术的支出,”他指出,表达了对主要科技服务提供商在进入财报季时可能受到的影响的担忧,甚至在考虑 AI 预算之前。

然而,有一种普遍的理论认为,AI 可能具有独特的韧性。Rana 提出,大型企业的首席财务官 (CFO) 在面临经济不确定性甚至衰退带来的预算限制时,可能会选择优先考虑 AI 计划。他们可能会将资金从不太关键的领域转移出来,以保护被视为对未来竞争力至关重要的战略性 AI 投资。

然而,这种乐观的看法远非板上钉钉。根据 Rana 的说法,最终的考验将是大型企业是否会在日益加剧的经济不确定性面前,维持其积极的资本支出目标,特别是用于建设 AI 数据中心的目标。关键问题仍然是:“他们会不会说,‘你知道吗?太不确定了。’” 答案将决定 AI 基础设施支出看似不可阻挡的势头是继续其不懈的攀升,还是面临由全球经济现实决定的意外停顿。