CoreWeave已成为云计算领域的领跑者,为用户提供对 NVIDIA GB200 NVL72 系统的广泛访问。包括 Cohere、IBM 和 Mistral AI 在内的领先人工智能 (AI) 实体已经在使用这些资源来改进 AI 模型和应用程序。
作为首家普遍提供 NVIDIA Grace Blackwell 的云提供商,CoreWeave 使用 NVIDIA GB200 NVL72 展示了卓越的 MLPerf 基准测试结果。这个强大的平台专为推理和 AI 代理而设计,现在 CoreWeave 的客户可以使用它,从而可以访问数千个 NVIDIA Blackwell GPU。
‘我们与 NVIDIA 密切合作,以确保我们的客户拥有用于 AI 模型训练和推理的最先进的解决方案,’CoreWeave 首席执行官 Mike Intrator 表示。’借助新的 Grace Blackwell 机架级系统,我们的客户可以率先体验大规模 AI 创新带来的性能优势。’
数千个 NVIDIA Blackwell GPU 的部署有助于将原始数据快速转化为可操作的智能,并计划进一步扩展。
使用 CoreWeave 等云提供商的公司正在集成基于 NVIDIA Grace Blackwell 构建的系统。这些系统有望将数据中心转变为 AI 工厂,大规模生产智能,并以更高的速度、准确性和效率将原始数据转化为洞察力。
全球 AI 领导者正在利用 GB200 NVL72 的功能来开发各种应用程序,包括 AI 代理和高级模型。
个性化 AI 代理
Cohere 正在利用 Grace Blackwell Superchip 来增强安全企业 AI 应用程序的开发,从而利用先进的研究和模型开发方法。其企业 AI 平台 North 使团队能够创建个性化的 AI 代理,以安全地自动化企业工作流程和实时洞察力。
通过在 CoreWeave 上使用 NVIDIA GB200 NVL72,与上一代 NVIDIA Hopper GPU 相比,Cohere 在训练 1000 亿参数模型时的性能提高了三倍,即使没有针对 Blackwell 的特定优化也是如此。
进一步的优化利用 GB200 NVL72 的统一内存、FP4 精度和 72-GPU NVIDIA NVLink 域来提高吞吐量。每个 GPU 协同运行,从而以更短的时间获得更高的吞吐量,从而为首次和后续令牌提供更高的性能和成本效益的推理。
‘通过访问云中的一些首批 NVIDIA GB200 NVL72 系统,我们很高兴看到我们的工作负载可以轻松移植到 NVIDIA Grace Blackwell 架构,’Cohere 工程副总裁 Autumn Moulder 说。’这在我们的堆栈中释放了令人难以置信的性能效率——从我们在单个 Blackwell GPU 上运行的垂直集成的 North 应用程序到跨数千个 GPU 扩展训练作业。我们期待通过更多的优化尽快实现更高的性能。’
面向企业的 AI 模型
IBM 正在利用 NVIDIA GB200 NVL72 系统的初始部署之一,在 CoreWeave 上扩展到数千个 Blackwell GPU,以训练其下一代 Granite 模型。这些开源、企业就绪的 AI 模型在确保安全、速度和成本效益的同时提供最先进的性能。Granite 模型系列受到强大的合作伙伴生态系统的支持,其中包括将大型语言模型嵌入其技术中的领先软件公司。
Granite 模型是 IBM watsonx Orchestrate 等解决方案的基础,该解决方案使企业能够开发和部署 AI 代理,从而自动化和加速工作流程。
CoreWeave 为 IBM 部署的 NVIDIA GB200 NVL72 还利用了 IBM Storage Scale System,为 AI 提供高性能存储。CoreWeave 客户可以在 CoreWeave 的专用环境和 AI 云平台中访问 IBM Storage 平台。
‘我们很高兴看到 NVIDIA GB200 NVL72 可以为训练我们的 Granite 模型系列带来加速,’IBM Research 的 AI 副总裁 Sriram Raghavan 说。’与 CoreWeave 的这种合作将增强 IBM 的能力,以帮助构建先进、高性能且经济高效的模型,从而利用 IBM watsonx 为企业和代理 AI 应用程序提供支持。’
大规模的计算资源
Mistral AI 现在正在集成其首批一千个 Blackwell GPU,以构建下一代开源 AI 模型。
Mistral AI 是一家位于巴黎的开源 AI 领导者,正在利用 CoreWeave 的基础设施(现在配备了 GB200 NVL72)来加速其语言模型的开发。凭借 Mistral Large 等模型提供的强大推理能力,Mistral 需要大规模的快速计算资源。
为了有效地训练和部署这些模型,Mistral AI 需要一家云提供商,该提供商提供具有 NVIDIA Quantum InfiniBand 网络和可靠基础设施管理的大型高性能 GPU 集群。CoreWeave 在大规模部署 NVIDIA GPU 方面的专业知识,再加上通过 CoreWeave Mission Control 等工具实现的行业领先的可靠性和弹性,可以满足这些需求。
‘开箱即用,无需任何进一步的优化,我们发现密集模型训练的性能提高了 2 倍,’Mistral AI 联合创始人兼首席技术官 Thimothee Lacroix 说。’NVIDIA GB200 NVL72 令人兴奋的是它为模型开发和推理开辟了新的可能性。’
扩大 Blackwell 实例的可用性
CoreWeave 不仅提供长期的客户解决方案,还提供具有跨 72 个 NVIDIA Blackwell GPU 和 36 个 NVIDIA Grace CPU 的机架级 NVIDIA NVLink 的实例,使用 NVIDIA Quantum-2 InfiniBand 网络最多可扩展到 110,000 个 GPU。
这些实例由 NVIDIA GB200 NVL72 机架级加速计算平台加速,可提供开发和部署下一代 AI 推理模型和代理所需的规模和性能。
深入了解 CoreWeave 的技术基础设施
CoreWeave之所以能在云计算领域占据举足轻重的地位,很大程度上归功于其致力于提供尖端的硬件解决方案和强大的基础设施,这些都专门针对人工智能和机器学习工作负载的需求而量身定制。NVIDIA GB200 NVL72 系统的集成更加凸显了这一点。这些系统不仅仅是渐进式的升级,它们代表了计算能力和效率方面的巨大飞跃,使各组织能够应对以前认为无法克服的挑战。
NVIDIA GB200 NVL72的架构经过精心设计,旨在最大限度地提高各种人工智能应用中的性能。通过将72个NVIDIA Blackwell GPU与36个NVIDIA Grace CPU集成在一起,该平台提供了一个平衡而强大的计算环境。这种平衡对于需要密集计算和大量数据处理能力的工作负载至关重要。NVIDIA的NVLink技术的使用通过实现GPU之间的高速通信进一步提高了系统的效率,从而最大限度地减少了延迟并最大限度地提高了吞吐量。
CoreWeave的基础设施还以其可扩展性为特征。使用NVIDIA Quantum-2 InfiniBand网络扩展到多达110,000个GPU的能力使该平台能够支持即使是最苛刻的AI项目。这种可扩展性不仅仅是关于原始计算能力,还涉及确保网络基础设施能够处理与大规模AI训练和推理相关的大量数据流。NVIDIA Quantum-2 InfiniBand网络提供必要的带宽和低延迟,以在系统扩展时保持最佳性能。
早期采用的战略重要性
CoreWeave采用NVIDIA Grace Blackwell GPU等新技术的积极态度使其成为处于AI创新前沿的公司的战略合作伙伴。通过成为首批提供这些高级资源的云提供商之一,CoreWeave使其客户能够在各自的市场中获得竞争优势。这种早期访问权限允许公司试验新模型,优化其现有工作流程,并最终加快其上市时间。
早期采用的好处不仅仅在于访问高级硬件。它还涉及与NVIDIA等技术提供商的密切合作,使CoreWeave能够微调其基础设施和软件堆栈,以充分利用新硬件的功能。这种合作带来了一个更加优化和高效的平台,这转化为更好的性能和CoreWeave客户的成本节约。
此外,CoreWeave的早期采用策略在公司内部培养了一种创新文化。通过不断突破云计算可能实现的界限,CoreWeave吸引了顶尖人才,并确立了自己作为行业领导者的地位。反过来,这增强了其提供尖端解决方案并保持其竞争优势的能力。
对人工智能模型开发的影响
在CoreWeave的平台上部署NVIDIA Grace Blackwell GPU对人工智能模型的发展具有深远的影响。与前几代硬件相比,这些GPU增强的计算能力和效率使研究人员和工程师能够在更短的时间内训练更大、更复杂的模型。训练过程的加速对于在快速发展的人工智能领域保持领先地位至关重要。
此外,NVIDIA GB200 NVL72系统有助于开发能够执行更复杂任务的更复杂的人工智能模型。例如,这些系统特别适合于训练需要广泛推理能力的模型,例如那些用于自然语言处理和计算机视觉的模型。处理大量数据并执行复杂计算的能力使这些模型更加准确、可靠,并且能够处理真实世界的场景。
对特定应用程序的影响是巨大的。在自然语言处理中,新硬件支持创建更强大的语言模型,这些模型可以更流畅、更连贯地理解和生成类似人类的文本。这导致了聊天机器人、虚拟助手和机器翻译等应用程序的改进。在计算机视觉中,增强的计算能力允许开发更准确的对象识别系统,这对于自动驾驶汽车、医学成像和监控等应用程序至关重要。
CoreWeave在人工智能民主化中的作用
CoreWeave努力使更多人能够访问高级计算资源,这在人工智能民主化中发挥着重要作用。通过以具有成本效益的方式访问尖端硬件,CoreWeave使较小的公司和研究机构能够与传统上在人工智能领域占据主导地位的较大组织竞争。人工智能的民主化促进了创新,并促进了人工智能技术开发中更多样化的观点。
强大的基于云的资源的可获得性也降低了对人工智能感兴趣的个人和创业公司的进入门槛。通过消除对硬件的大量前期投资的需求,CoreWeave允许有抱负的人工智能开发人员专注于他们的想法和创新。这可能会导致创建新的应用程序和解决方案,否则这些应用程序和解决方案可能无法实现。
此外,CoreWeave致力于提供用户友好的平台和全面的支持服务,这进一步促进了人工智能的民主化。通过使用户更容易访问和利用高级计算资源,CoreWeave使他们能够实现其目标并为人工智能的进步做出贡献。
通过人工智能改造行业
CoreWeave部署NVIDIA Grace Blackwell GPU所实现的进步有望改变各个行业。这些系统增强的计算能力和效率将推动创新,并在从医疗保健到金融等各个领域创造新的机会。
在医疗保健领域,人工智能正被用于开发更准确的诊断工具,个性化治疗计划并加速药物发现。高级计算资源的可获得性使研究人员能够分析大量的医疗数据并识别手动无法检测到的模式。这可能会导致治疗疾病的突破并改善患者的治疗效果。
在金融领域,人工智能正被用于检测欺诈,管理风险并自动化交易流程。实时处理大量财务数据的能力使公司能够做出更明智的决策并快速响应不断变化的市场状况。这可能会提高效率,降低成本并提高盈利能力。
可能被人工智能改变的其他行业包括制造业,运输业和零售业。在制造业中,人工智能正被用于优化生产流程,提高质量控制并减少浪费。在运输中,人工智能正在推动自动驾驶汽车和更高效的物流系统的发展。在零售业中,人工智能正被用于个性化客户体验,优化定价并改善供应链管理。
CoreWeave对未来的愿景
CoreWeave部署NVIDIA Grace Blackwell GPU不仅仅是一次性的事件,它是对云计算和人工智能未来的更广泛愿景的一部分。CoreWeave致力于不断投资新技术并扩展其基础设施,以满足客户不断变化的需求。这包括探索新架构,开发更高效的软件以及促进与领先技术提供商的合作。
CoreWeave的愿景不仅限于提供高级计算资源。它还涉及创建一个由开发人员,研究人员和公司组成的蓬勃发展的生态系统,他们正在努力突破人工智能的界限。通过促进创新和合作,CoreWeave旨在加速人工智能技术的开发和在各个行业的采用。
该公司对可持续发展的承诺也是其愿景的关键组成部分。CoreWeave正在通过使用可再生能源和实施节能技术来积极努力减少其对环境的影响。这反映了人们越来越意识到可持续发展在科技行业中的重要性,并致力于创造一个对环境更负责任的未来。