英伟达与谷歌云:Gemini和Blackwell引领AI创新

Gemini 模型通过 Nvidia Blackwell 实现本地部署

现在,谷歌 Gemini 可以通过谷歌分布式云,使用 Nvidia Blackwell 在本地进行部署。这种部署使组织能够在自己的数据中心安全地使用 Gemini 模型,从而获得强大的 Agentic AI 功能。

理解 Gemini 模型

Gemini 系列模型代表了谷歌迄今为止最先进的 AI 模型。这些模型专为复杂的推理、编码和多模态理解而设计,使其成为各种应用的通用工具。

谷歌分布式云

谷歌分布式云为本地环境、气隙环境和边缘计算提供完全托管的解决方案。这使客户能够在保持对其数据控制的同时,仍然可以利用谷歌 AI 技术的强大功能。

本地部署的优势

增强控制: 组织可以完全控制其数据,确保符合隐私法规和内部策略。
安全性: 在其自己的数据中心内部署 Gemini 模型可以实现更高的安全性和对敏感信息的保护。
定制: 本地部署允许更大程度地定制 AI 解决方案,以满足特定的业务需求。

这种合作伙伴关系确保客户可以在遵守严格的数据治理策略的同时,使用 Gemini 进行创新。

优化 Gemini 和 Gemma 以适应 Nvidia GPU

Nvidia 和谷歌已经合作优化了 Nvidia GPU 上基于 Gemini 的推理工作负载的性能,特别是在谷歌云的 Vertex AI 平台中。这种优化使谷歌能够高效地处理在 Vertex AI 和谷歌分布式云的 Nvidia 加速基础设施上 Gemini 模型的巨量用户查询。

Vertex AI 平台

Vertex AI 是谷歌云用于机器学习的综合平台,提供用于训练、部署和管理 AI 模型的工具和服务。Gemini 在 Vertex AI 中针对 Nvidia GPU 的优化增强了该平台的功能,并使开发人员更容易构建和部署 AI 解决方案。

Gemma 模型家族

Gemma 系列轻量级开源模型已经过优化,可使用 Nvidia TensorRT-LLM 库进行推理。预计这些模型将作为易于部署的 Nvidia NIM 微服务提供,使更广泛的开发人员可以访问它们。

Nvidia TensorRT-LLM

Nvidia TensorRT-LLM 是一个用于在 Nvidia GPU 上优化和部署大型语言模型 (LLM) 的库。通过使用 TensorRT-LLM 优化 Gemma 模型,Nvidia 和谷歌正在使开发人员更容易在其应用程序中利用 LLM 的强大功能。

开发人员的可访问性

这些优化最大限度地提高了性能,并使先进 AI 更容易为开发人员所用,使他们能够在数据中心和本地基于 Nvidia RTX 的 PC 和工作站上的各种架构上运行其工作负载。

启动谷歌云和 Nvidia 开发者社区

谷歌云和 Nvidia 已经启动了一个新的联合开发者社区,以加速跨领域学习和创新。这个社区汇集了专家和同行,共同协作和分享知识,使开发人员更容易构建、扩展和部署下一代 AI 应用程序。

开发者社区的优势

知识共享: 该社区提供了一个平台,供开发人员分享他们的专业知识并向他人学习。
协作: 开发人员可以协作处理项目并共享代码,从而加快开发过程。
支持: 该社区为构建 AI 应用程序的开发人员提供支持和指导。

该举措结合了卓越的工程技术、开源领导力以及充满活力的开发者生态系统,旨在赋能开发者并推动 AI 领域的创新。

开源框架

这些公司通过优化开源框架(例如 JAX)以在 Blackwell GPU 上实现无缝扩展来支持开发者社区。这使 AI 工作负载能够在成千上万个节点上高效运行,从而更容易训练和部署大规模 AI 模型。

JAX 优化

JAX 是谷歌开发的高性能数值计算库。通过针对 Blackwell GPU 优化 JAX,Nvidia 和谷歌正在使开发人员更容易在其 AI 应用程序中利用 JAX 的强大功能。

带有 Nvidia H100 GPU 的保密 VM 和 GKE 节点

谷歌云的保密虚拟机 (VM),在由 Nvidia H100 GPU 加速优化的 A3 机器系列上,现已提供预览版。同样,其保密 Google Kubernetes Engine (GKE) 节点也正在提供中。这些保密计算解决方案可确保在使用受保护的 GPU 时,AI、机器学习和科学模拟工作负载的机密性和完整性。

保密虚拟机

保密 VM 加密正在使用中的数据,从而为敏感工作负载提供额外的安全层。这可确保即使在处理过程中,数据仍受到保护,从而降低未经授权访问的风险。

Google Kubernetes Engine

Google Kubernetes Engine (GKE) 是一种托管的 Kubernetes 服务,可简化容器化应用程序的部署和管理。保密 GKE 节点提供与保密 VM 相同级别的安全性,从而确保容器化工作负载受到保护。

安全优势

数据保护: 保密 VM 和 GKE 节点可保护正在使用中的数据,从而降低数据泄露的风险。
合规性: 这些解决方案可帮助组织遵守隐私法规和行业标准。
信任: 保密计算通过确保数据在整个生命周期中保持机密和受保护来建立信任。

这使数据和模型所有者能够保持对其数据历程的直接控制,Nvidia 保密计算为加速计算带来先进的硬件支持安全保障。这在创建和采用创新 AI 解决方案和服务时提供了更大的信心。

谷歌基于 Nvidia Blackwell GPU 的新 A4 VM 正式发布

2 月,谷歌云推出了其新的 A4 虚拟机,该虚拟机具有八个由 Nvidia NVLink 互连的 Blackwell GPU。与上一代相比,这提供了显着的性能提升,从而更容易训练和部署大规模 AI 模型。谷歌云基于 Nvidia HGX B200 的新 A4 VM 现已正式发布,为客户提供对最新 AI 硬件的访问。

Nvidia NVLink 是一种高速互连技术,可在 GPU 之间实现快速通信。通过使用 NVLink 互连八个 Blackwell GPU,谷歌云的 A4 VM 为 AI 工作负载提供了无与伦比的性能。

性能提升

A4 VM 与上一代相比提供了显着的性能提升,使其成为训练和部署大规模 AI 模型的理想选择。这使开发人员能够更快地迭代并使用其 AI 应用程序获得更好的结果。

通过 Vertex AI 和 GKE 访问

谷歌的新 VM 和 AI 超级计算机架构可以通过 Vertex AI 和 GKE 等服务访问,使客户可以选择以某种方式大规模开发和部署 Agentic AI 应用程序。这使组织更容易在其应用程序中利用 AI 的强大功能。

深入了解 Blackwell GPU 架构

Nvidia 的 Blackwell GPU 架构标志着计算能力的一次巨大飞跃,从根本上改变了 AI 和高性能计算的格局。要真正了解 A4 VM 的功能及其对 AI 创新的影响,了解 Blackwell GPU 的底层技术至关重要。

变革性的计算能力

Blackwell 架构旨在处理最苛刻的 AI 工作负载,包括训练大型语言模型 (LLM) 和运行复杂的模拟。其主要功能包括:

  • 第二代 Transformer 引擎: 该引擎专为 Transformer 模型进行优化,这些模型是许多现代 AI 应用程序的基础。它可以显着加快这些模型的训练和推理。
  • 第五代 NVLink: 如前所述,NVLink 可以在 GPU 之间实现高速通信,使它们能够在复杂的任务上无缝地协同工作。这对于训练需要多个 GPU 协同处理能力的超大型模型尤为重要。
  • 保密计算支持: Blackwell GPU 包含基于硬件的安全功能,可以实现保密计算,从而确保敏感数据的隐私和完整性。
  • 先进的内存技术: Blackwell GPU 采用最新的内存技术,提供高带宽和容量来处理 AI 应用程序中使用的大量数据集。

对 AI 工作负载的影响

这些功能的结合为各种 AI 工作负载带来了显着的性能改进。Blackwell GPU 使开发人员能够:

  • 训练更大的模型: 增加的计算能力和内存容量允许训练更大、更复杂的 AI 模型,从而提高准确性和性能。
  • 减少训练时间: 优化的架构和高速互连显着减少了训练 AI 模型所需的时间,从而加快了开发过程。
  • 更高效地部署: Blackwell GPU 专为能源效率而设计,允许大规模部署 AI 模型而不会过度消耗电力。
  • 开启新的 AI 应用程序: Blackwell GPU 无与伦比的性能为由于计算限制而以前不可能实现的新 AI 应用程序开辟了可能性。

对谷歌云及其客户的战略意义

谷歌云和 Nvidia 之间围绕 Gemini、Blackwell 和支持基础设施的增强合作伙伴关系,对两家公司及其客户都具有重大的战略意义。

谷歌云的竞争优势

  • 吸引以 AI 为中心的业务: 通过提供由 Nvidia Blackwell GPU 驱动的尖端 AI 基础设施,谷歌云可以吸引大量投资于 AI 研发的业务。
  • 与竞争对手区分开来: Gemini 的集成和谷歌云 VM 的优化性能使其有别于其他云提供商。
  • 加强其 AI 生态系统: 这种合作伙伴关系通过赋能开发人员、促进创新以及提供对先进工具和资源的访问来促进强大的 AI 生态系统。

客户的优势

  • 加速 AI 创新: 客户可以利用 Gemini 和 Blackwell GPU 的强大功能来加速其 AI 计划,使他们能够更快地开发和部署创新解决方案。
  • 提高性能和可扩展性: 优化的基础设施可确保 AI 工作负载高效运行并可扩展以满足不断增长的需求。
  • 增强的安全性和合规性: 保密 VM 和 GKE 节点提供保护敏感数据所需的安全性和合规性功能。
  • 降低成本: 通过针对 Nvidia GPU 优化 AI 工作负载,客户可以潜在地降低其计算成本。

AI 开发的未来

这种合作伙伴关系代表了 AI 开发演进过程中的一个重要进步。通过将谷歌在 AI 模型方面的专业知识与 Nvidia 在 GPU 技术方面的领导地位相结合,这两家公司正在推动创新,并使先进的 AI 工具更容易为开发人员所用。毫无疑问,这将导致新的和令人兴奋的 AI 应用程序的创建,这些应用程序将改变行业和改善生活。

理解 Nvidia NIM 微服务的作用

联合倡议的一个重要组成部分是 Nvidia NIM 微服务的推出。要把握它们的重要性,我们应该更仔细地研究它们。

定义和功能

Nvidia NIM(Nvidia 推理微服务)是一种软件解决方案,旨在简化 AI 模型的部署。它将预先训练的模型、推理引擎和必要的依赖项封装到容器化的微服务中。这意味着 NIM 提供了一种标准化方式来部署 AI 模型,无论框架或硬件如何。

Nvidia NIM 的主要优势:

  • 简化部署: NIM 显着降低了部署 AI 模型的复杂性,使开发人员能够专注于构建应用程序而不是管理基础设施。
  • 硬件加速: NIM 针对 Nvidia GPU 进行了优化,利用其加速功能来提供高性能推理。
  • 可扩展性: NIM 旨在横向扩展,使开发人员能够在不影响性能的情况下处理日益增长的需求。
  • 模块化: NIM 允许模块化和快速更新不同的模型,而不会中断其他模型。

NIM 如何使开发人员和组织受益:

  • 更快地上市: 通过简化部署,NIM 帮助开发人员更快地将 AI 驱动的应用程序推向市场。
  • 降低成本: NIM 通过优化资源利用率来最大限度地降低基础设施和运营成本。
  • 提高性能: 通过 NIM 进行硬件加速可提供更高的吞吐量和更低的延迟,从而增强用户体验。
  • 提高灵活性: 使用 NIM 进行标准化部署可提供更大的灵活性,并允许开发人员轻松地在不同的 AI 模型之间切换。

结论要点

谷歌云和 Nvidia 之间扩展的协作标志着 AI 开发的显着进步。将谷歌的 Gemini 模型与 Nvidia 的 Blackwell GPU 集成,为 AI 工作负载优化建立了新的基准。这种合作伙伴关系不仅加速了创新,还增强了参与 AI 的开发人员和组织的安全、可扩展性和可访问性。此外,谷歌 A4 VM 和 Nvidia NIM 微服务的推出标志着赋能 AI 应用程序的关键时刻,从而促进了 AI 解决方案以更大规模高效部署的未来。