2025年人工智能领域最具创新力公司

1. Nvidia

对日益复杂的 AI 系统的追求,持续推动着大型语言模型开发商的大量投资。然而,有一家公司已经享受到了这场 AI 革命的果实:Nvidia。凭借其占主导地位的图形处理器 (GPU) 引发了 AI 竞赛,Nvidia 现在凭借其突破性的 Blackwell 处理器和平台,完美地支持了对人类水平智能的追求。

Blackwell 超越了其前身 H100,为通用模型训练任务提供高达 2.5 倍的性能,同时显著降低能耗。主要的数据中心运营商和 AI 实验室,包括 Google、Meta、Microsoft、OpenAI、Tesla 和 xAI 等行业巨头,都已承诺购买数十万个 Blackwell GPU。

尽管像 DeepSeek 和阿里巴巴这样的中国公司最近的模型,使用较旧、性能较低的 Nvidia GPU 展示了令人印象深刻的能力,但 Nvidia 并没有止步不前。该公司正在积极开发各种应用的平台,从药物发现 (Clara for Biopharma) 和自动驾驶汽车 (Drive AGX) 到视频制作 (Holoscan) 和数字孪生 (Omniverse)。通过在广泛的现实场景中促进 AI 进步,Nvidia 正在战略性地定位自己以实现持续增长,即使未来的模型表现出对纯粹计算能力的依赖性降低。

2. OpenAI

自 2019 年以来,OpenAI 一直通过扩展训练数据和计算资源来持续增强其模型,这一策略已在整个行业中得到广泛采用。然而,随着这种扩展方法的收益递减变得明显,OpenAI 认识到需要一条新的途径来实现 AGI——在大多数任务中超越人类智能的模型。

OpenAI 的解决方案以 o1 模型 的形式出现。OpenAI 并没有仅仅专注于在预训练期间扩大资源,而是设计了 o1,在推理阶段分配更多的时间和计算能力,即模型主动部署并响应用户提示的阶段。在此过程中,o1 会收集并保留来自用户和相关数据源的上下文信息。它采用试错法来确定答案的最佳路径。其结果是针对复杂问题生成博士级别的响应,将 o1 推向性能基准排名的榜首。

OpenAI 向 ChatGPT Plus 订阅者提供 o1 的’实验’和’迷你’版本。此外,一项名为 ChatGPT Pro 的高级服务以每月 200 美元的价格提供对完整 o1 模型的无限制访问。2024 年 12 月,OpenAI 推出了 o1 的继任者 o3,并在 2025 年 2 月向付费用户授予了 o3-mini 的访问权限,o3-mini 是一种更小、更快的变体,针对科学、数学和编码进行了优化。OpenAI 新的推理模型最深远的影响是,验证了在推理时扩大计算规模是实现 AGI 道路上进一步突破智能的有希望的途径。

3. Google DeepMind

为今天的聊天机器人铺平道路的基础研究起源于 2010 年代后期的 Google。在 ChatGPT 出现之前,Google 已经开发了一个大型语言模型驱动的聊天机器人。然而,据报道,对安全性、隐私和法律影响的担忧导致了一种谨慎的做法,推迟了它的公开发布。这种犹豫导致 Google 最初在 ChatGPT 发布后引发的 AI 竞赛中落后。

Google DeepMind 的 Gemini 2.0 于 2024 年发布,标志着 Google 的明确复苏。Gemini 2.0 代表了第一个本质上是多模态的大众市场 AI 模型,能够像处理文本一样流畅地处理和生成图像、视频、音频和计算机代码。这种能力使模型能够以惊人的速度和准确性分析和推理视频剪辑,甚至是来自手机摄像头的实时视频流。

Gemini 还因其控制其他 Google 服务(如地图和搜索)的能力而脱颖而出。这种集成展示了 Google 的战略优势,将其 AI 研究与其已建立的信息和生产力工具相结合。Gemini 是首批展示自主操作和代表用户推理复杂问题能力的 AI 模型之一。Gemini 2.0 Flash Thinking Experimental 模型甚至为用户提供了对用于得出答案的思维过程的洞察。此外,在 12 月,Google 推出了 Project Mariner,这是一种基于 Gemini 的代理 AI 功能,旨在自主执行在线杂货购物等任务。

4. Anthropic

生成式 AI 的主要应用迄今为止主要集中在文本写作、摘要和图像生成方面。下一步的演进涉及为大型语言模型配备推理能力和使用工具的能力。Anthropic 的’Computer Use’模型提供了对这一未来的早期一瞥。

从 2024 年的 Claude 3.5 Sonnet 开始,Anthropic 的模型可以感知屏幕上的活动,包括互联网内容。它可以操纵光标、单击按钮和输入文本。演示视频展示了 Claude 使用浏览器选项卡中可用的信息填写表格的能力。它可以完成诸如创建个人网站或组织一日游的后勤工作等任务。AI 的自主操作,例如打开新选项卡、进行搜索和填充数据字段,确实令人印象深刻。

虽然该模型目前运行速度较慢,并且可能并不总是产生正确的答案,但随着 Anthropic 识别并解决其局限性,预计将迅速改进。Google 前面提到的 Project Mariner 在 12 月跟随 Anthropic 的脚步,OpenAI 在 2025 年 1 月推出了自己的计算机使用模型 Operator。2025 年 2 月,Anthropic 推出了其下一个主要迭代版本 Claude 3.7 Sonnet,这是一个更大的模型,能够自动为具有挑战性的查询启用推理模式。

5. Microsoft

Microsoft 的 Phi 模型的开发源于该公司研究人员在 2023 年提出的一个基本问题:’能够表现出涌现智能迹象的最小模型尺寸是多少?’这一询问标志着’小型语言模型’发展的关键时刻,这些模型旨在在内存、处理能力或连接性有限的情况下实现最佳性能,在这些情况下,快速响应时间至关重要。

在整个 2024 年,Microsoft 发布了两代小型模型,这些模型展示了在训练期间未明确纳入的推理和逻辑能力。4 月,该公司推出了一系列 Phi-3 模型,这些模型在语言、推理、编码和数学基准测试中表现出色,这可能是由于它们在由更大、更有能力的 LLM 生成的合成数据上进行了训练。开源 Phi-3 的变体在 2024 年在 Hugging Face 上被下载了超过 450 万次。

2024 年底,Microsoft 推出了其 Phi-4 小型语言模型,该模型在以推理为中心的任务中超越了 Phi-3 模型,甚至在 GPQA(科学问题)和 MATH 基准测试中优于 OpenAI 的 GPT-4o。Microsoft 以开源和开放权重的许可发布了该模型,使开发人员能够为手机或笔记本电脑创建边缘模型或应用程序。在不到一个月的时间里,Phi-4 在 Hugging Face 上获得了 375,000 次下载。

6. Amazon

Amazon AWS 最近推出了 Trainium2,这是其用于 AI 的 Trainium 处理器的新版本,可能会在特定环境中挑战 Nvidia GPU 的主导地位。Trainium2 旨在提供训练最大的生成式 AI 模型和模型部署后推理时间操作所需的巨大计算能力。AWS 声称,对于类似的任务,Trainium 比 GPU 的成本效益高 30% 到 40%。

Trainium2 解决了在第一个 Trainium 芯片中观察到的功率和软件集成方面的不足,使 Amazon 有可能缩小与 Nvidia 的差距。(值得注意的是,AWS 本身仍然严重依赖 Nvidia 的 GPU。)由于客户锁定在 Nvidia 的 CUDA 软件层,取代 Nvidia 是一项艰巨的挑战,该软件层为研究人员提供了对其模型如何利用芯片资源的精细控制。Amazon 提供了自己的内核控制软件层 Neuron Kernel Interface (NKI),与 CUDA 类似,它允许研究人员对芯片内核交互进行细粒度控制。

重要的是要注意,Trainium2 尚未进行大规模测试。AWS 目前正在为 Anthropic 构建一个包含 400,000 个 Trainium2 芯片的服务器集群,这可以为优化其 AI 芯片在大型部署中的性能提供有价值的见解。

7. Arm

英国半导体设计商 Arm 长期以来一直是为手机、传感器和物联网硬件等小型设备供电的芯片架构的关键供应商。在边缘设备芯片将执行 AI 模型的新兴时代,这一角色变得更加重要。数据中心也将在这一演变中发挥关键作用,通常处理部分或全部最苛刻的 AI 处理并将结果交付给边缘设备。

随着数据中心在全球范围内激增,它们的电力消耗将成为一个日益紧迫的问题。根据该公司的说法,这一因素促成了 Arm 最新的 Neoverse CPU 架构对效率的强调。与使用竞争性 x86 架构的处理器相比,它的性能比上一代提高了 50%,每瓦性能提高了 20%。

Arm 报告称,Amazon、Microsoft、Google 和 Oracle 都已采用 Arm Neoverse 进行通用计算和基于 CPU 的 AI 推理和训练。例如,在 2024 年,Microsoft 宣布其首款专为云设计的定制芯片 Cobalt 100 处理器是基于 Arm Neoverse 构建的。一些最大的 AI 数据中心将依赖 NVIDIA 的 Grace Hopper 超级芯片,该芯片结合了 Hopper GPU 和基于 Neoverse 的 Grace CPU。Arm 计划今年推出自己的 CPU,Meta 是其最初的客户之一。

8. Gretel

在过去的一年中,AI 公司从使用从网络上抓取的越来越多的数据来训练他们的模型中获得的收益递减。因此,他们已将重点从训练数据的数量转移到其质量上。这导致对从出版商合作伙伴那里获得许可的非公开和专业内容的投资增加。AI 研究人员还需要解决其人为生成或人为注释的训练数据中的差距或盲点。为此,他们越来越多地转向由专门的 AI 模型生成的合成训练数据。

Gretel 在 2024 年因专注于创建和管理合成训练数据而声名鹊起。该公司宣布其旗舰产品 Gretel Navigator 全面上市,该产品使开发人员能够使用自然语言或 SQL 提示来生成、增强、编辑和管理合成训练数据集,以进行微调和测试。该平台已经吸引了超过 150,000 名开发人员的社区,他们已经合成了超过 3500 亿条训练数据。

其他行业参与者已经注意到 Gretel 的能力。Gretel 与 Google 合作,使其合成训练数据可供 Google Cloud 客户轻松访问。6 月宣布了与 Databricks 的类似合作,允许 Databricks 的企业客户访问合成训练数据,以用于在 Databricks 云中运行的模型。

9. Mistral AI

Mistral AI 是法国在生成式 AI 领域的竞争者,它一直在向 OpenAI、Anthropic 和 Google 施加压力,使其处于前沿 AI 模型开发的前沿。Mistral AI 在 2024 年发布了一系列包含重大技术进步的新模型,通过直接营销其 API 和战略合作伙伴关系展示了快速的业务增长。

今年早些时候,该公司推出了一对名为 Mixtral 的开源模型,这些模型因其创新性地使用’混合专家’架构而闻名,其中只有模型参数的专门子集参与处理查询,从而提高了效率。2024 年 7 月,Mistral 宣布了 Mistral Large 2,它拥有 1230 亿个参数,在代码生成、数学、推理和函数调用方面展示了显著的改进。这家法国公司还发布了 Ministral 3B 和 Ministral 8B,这两种较小的模型设计用于在笔记本电脑或手机上执行,能够存储用户提供的大约 50 个文本页面的上下文信息。

Mistral 通过将自己定位为 OpenAI 等美国 AI 公司的低成本和灵活的替代品,在欧洲取得了成功。它还在 2024 年继续扩展到美国企业市场。6 月,该公司获得了由风险投资公司 General Catalyst 领投的 6.4 亿美元融资,使 Mistral 的估值达到约 62 亿美元。

10. Fireworks AI

Fireworks 提供了一个自定义运行时环境,可以简化与构建 AI 部署基础设施相关的通常复杂的工程工作。使用 Fireworks 平台,企业可以集成 100 多个 AI 模型中的任何一个,然后针对其特定用例进行定制和微调。

该公司在 2024 年推出了新产品,这将使其能够利用 AI 行业的关键趋势。首先,开发人员越来越关注 AI 驱动的模型和应用程序的响应能力。Fireworks 推出了 FireAttention V2,这是一种优化和量化软件,可加速模型性能并减少网络延迟。其次,AI 系统越来越多地演变为通过 API 调用各种模型和工具的’管道’。新的 FireFunction V2 软件充当这些日益复杂的系统中所有组件的协调器,特别是当企业部署更多自主 AI 应用程序时。

Fireworks 报告称,2024 年收入增长了 600%。其客户群包括 Verizon、DoorDash、Uber、Quora 和 Upwork 等知名公司。

11. Snorkel AI

企业已经意识到,其 AI 系统的有效性与其数据的质量直接相关。Snorkel AI 通过协助企业准备其专有数据以用于 AI 模型,建立了一项蓬勃发展的业务。该公司的 Snorkel Flow AI 数据开发平台为公司提供了一种经济高效的方法来标记和管理其专有数据,使其能够用于定制和评估 AI 模型以满足其特定的业务需求。

在 2024 年,Snorkel 扩展了其支持范围以包括图像,允许公司使用自己的专有图像来训练多模态 AI 模型和图像生成器。它还将检索增强生成 (RAG) 纳入其平台,使客户能够仅从冗长的文档(例如专有知识库内容)中检索最相关的信息片段,以用于 AI 训练。Snorkel Custom 是一种新的、更高接触的服务级别,涉及 Snorkel 的机器学习专家直接与客户合作开展项目。

Snorkel 表示,其 2024 年的年度预订量同比增长了一倍,过去三年中每年的年度预订量都实现了三位数的增长。据该公司称,六家最大的银行现在都在使用 Snorkel Flow,以及 Chubb、Wayfair 和 Experian 等品牌。

12. CalypsoAI

随着 AI 在关键决策过程中发挥越来越重要的作用,企业正在寻求增强对模型内部运作的可见性。这种需求在必须持续监控偏差和其他意外输出的受监管行业中尤为明显。CalypsoAI 是最早认识到这一新兴需求的公司之一,并迅速在其 AI 基础设施平台中提供了增强的可解释性功能。

Calypso 的与众不同之处在于其可观察性技术的广度。2024 年,该公司推出了其 AI 安全平台,该平台通过保护、审计和监控公司可能正在使用的所有活动生成式 AI 模型来保护企业数据,无论模型供应商是谁,也无论模型是托管在内部还是外部。Calypso 还推出了新的可视化工具,允许用户实时观察 AI 决策背后的逻辑。

市场对 Calypso 对 AI 可观察性的重视做出了积极反应。该公司报告称,2024 年的收入增长了十倍,并预计 2025 年将进一步增长五倍。

13. Galileo

虽然与一年前相比,AI 系统表现出的事实幻觉和偏见的情况较少,但它们仍然容易受到这些问题的影响。这给任何使用 AI 的企业带来了重大担忧,尤其是那些在医疗保健和银行等受监管行业的企业。AI 开发团队使用 Galileo 的 AI 平台来衡量、优化和监控其模型和应用程序的准确性。

2024 年初,经过两年的研究,Galileo 发布了 Luna,这是一套经过训练以识别有害输出的评估模型。这些模型使 Galileo 的平台能够在 LLM 组装构成其响应的标记时快速审查和评分。此过程大约需要 200 毫秒,从而有足够的时间标记并阻止 AI 的输出显示给用户。虽然标准 LLM 可以执行此任务,但成本会高得多。Galileo 的专用模型提供了卓越的准确性、成本效益,以及至关重要的速度。

Galileo 报告称,其 2024 年的客户群翻了两番,客户包括 Twilio、Reddit、Chegg、Comcast 和 JPMorgan Chase。这家初创公司还从 Hugging Face 首席执行官 Clément Delangue 等投资者那里获得了 6800 万美元的融资。

14. Runway

围绕 AI 最重要的愿望和焦虑之一是它有可能生成足够高质量的视频,从而彻底改变电影制作的艺术和经济。这项技术在 2024 年朝着这个未来迈出了实质性的一步,总部位于纽约的视频生成初创公司 Runway 发挥了主导作用。Runway 的 Gen-3 Alpha 模型于 2024 年 6 月发布,因其生成的视频的逼真度显著提高而获得了 AI 社区的广泛赞誉。

Runway 还对其用于控制 AI 视频美学的工具进行了重大改进。该模型在图像和视频上都进行了训练,并且可以根据文本或图像输入生成视频。该公司随后发布了 Gen-3 Alpha Turbo,这是 Gen-3 的更具成本效益和更快的版本。

好莱坞一直在密切关注生成式 AI 的进展,Runway 报告称,它已开始为其娱乐行业的参与者制作其模型的定制版本。它于 2024 年 9 月与 Lionsgate Studios 建立了正式的合作伙伴关系。Runway 为这家制作公司开发了一个定制模型,并使用 Lionsgate 的电影目录对其进行了训练。Runway 表示,该模型旨在帮助 Lionsgate 的电影制作人、导演和其他创意人员’增强’他们的工作,同时’节省时间、金钱和资源’。Runway 认为,它与 Lionsgate 的安排可以作为与其他制作公司进行类似合作的蓝图。

15. Cerebras Systems

AI 系统,特别是大型前沿模型,需要巨大的计算能力才能大规模运行。这需要互连数千或数百万个芯片来分配工作负载。然而,芯片之间的网络连接可能会引入性能瓶颈。Cerebras Systems 的技术旨在利用将大量计算能力集成到单个超大芯片上的速度和效率优势。

例如,该公司最新的 WSE-3(第三代晶圆级引擎)芯片尺寸为 814 平方毫米,相当于一个餐盘的大小,比 Nvidia 市场领先的 H100 芯片大 56 倍。该芯片包含惊人的 4 万亿个晶体管,并提供 44 Gb 的内存。这些芯片可以集群形成超级计算机,例如 Condor Galaxy,这是 Cerebras 正在与其最大的客户 G42(一家总部位于阿联酋的 AI 和云计算公司)合作开发的互连超级计算机的’星座’。

迄今为止,Cerebras 已在大型研究机构中找到了一个利基市场,包括 Mayo Clinic、Sandia National Laboratories、Lawrence Livermore National Laboratory 和 Los Alamos National Laboratory。该公司于 2024 年 9 月申请 IPO。招股说明书显示,该公司的销售额在 2023 年增长了两倍多,达到 7870 万美元,并在 2024 年上半年飙升至 1.364 亿美元。