Avance de Nvidia: IA y Agentes

En su conferencia GTC 2025, Nvidia señaló un importante impulso en el floreciente campo de la inteligencia artificial agentica. La compañía no solo se está enfocando en la infraestructura subyacente que impulsa estos sistemas; también está desarrollando los modelos que impulsarán la próxima generación de agentes de IA autónomos.

El auge de Llama Nemotron: Razonamiento mejorado para una IA más inteligente

El elemento central de la estrategia de Nvidia es la presentación de la familia de modelos de IA Llama Nemotron. Estos modelos cuentan con capacidades de razonamiento significativamente mejoradas, lo que marca un paso adelante en la búsqueda de una IA más sofisticada. Construida sobre los modelos Llama de código abierto de Meta Platforms Inc., la serie Nemotron está diseñada para proporcionar a los desarrolladores una base sólida para crear agentes de IA avanzados. Estos agentes están diseñados para realizar tareas con una mínima supervisión humana, lo que representa un avance significativo en la autonomía de la IA.

Nvidia logró estas mejoras a través de meticulosas mejoras posteriores al entrenamiento. Piense en ello como tomar a un estudiante ya capacitado y brindarle tutoría especializada. Esta ‘tutoría’ se centró en mejorar las habilidades de los modelos en matemáticas de varios pasos, codificación, toma de decisiones complejas y razonamiento general. El resultado, según Nvidia, es un aumento del 20% en la precisión en comparación con los modelos Llama originales. Pero las mejoras no se detienen en la precisión. La velocidad de inferencia, esencialmente, la rapidez con la que el modelo puede procesar información y proporcionar una respuesta, ha experimentado un aumento de cinco veces. Esto se traduce en el manejo de tareas más complejas con costos operativos reducidos, un factor crucial para la implementación en el mundo real.

Los modelos Llama Nemotron se ofrecen en tres tamaños distintos a través de la plataforma de microservicios NIM de Nvidia:

  • Nano: Diseñado para su implementación en dispositivos con potencia de procesamiento limitada, como computadoras personales y dispositivos perimetrales. Esto abre posibilidades para que los agentes de IA operen en entornos con recursos limitados.
  • Super: Optimizado para su ejecución en una sola unidad de procesamiento de gráficos (GPU). Esto proporciona un equilibrio entre rendimiento y requisitos de recursos.
  • Ultra: Diseñado para un rendimiento máximo, que requiere múltiples servidores GPU. Esto se adapta a aplicaciones que exigen los niveles más altos de capacidad de IA.

El proceso de refinamiento en sí mismo aprovechó la plataforma Nvidia DGX Cloud, utilizando datos sintéticos de alta calidad de Nvidia Nemotron, junto con los propios conjuntos de datos seleccionados de Nvidia. En un movimiento que promueve la transparencia y la colaboración, Nvidia está haciendo públicos estos conjuntos de datos, las herramientas utilizadas y los detalles de sus técnicas de optimización. Este enfoque abierto anima a la comunidad de IA en general a construir sobre el trabajo de Nvidia y desarrollar sus propios modelos de razonamiento fundamentales.

El impacto de Llama Nemotron ya es evidente en las asociaciones que Nvidia ha forjado. Los principales actores como Microsoft Corp. están integrando estos modelos en sus servicios basados en la nube.

  • Microsoft los está poniendo a disposición en su servicio Azure AI Foundry.
  • También se ofrecerán como una opción para los clientes que creen nuevos agentes utilizando el servicio Azure AI Agent para Microsoft 365.
  • SAP SE está aprovechando Llama Nemotron para mejorar su asistente de IA, Joule, y su cartera más amplia de soluciones SAP Business AI.
  • Otras compañías prominentes, incluidas Accenture Plc, Atlassian Corp., Box Inc. y ServiceNow Inc., también están colaborando con Nvidia para brindar a sus clientes acceso a estos modelos.

Más allá de los modelos: un ecosistema integral para la IA agentica

Nvidia entiende que la construcción de agentes de IA requiere más que solo modelos de lenguaje potentes. Se necesita un ecosistema completo, que abarque infraestructura, herramientas, canalizaciones de datos y más. La compañía está abordando estas necesidades con un conjunto de bloques de construcción de IA agentica adicionales, también anunciados en GTC 2025.

El Blueprint Nvidia AI-Q: Conectando el conocimiento con la acción

Este marco está diseñado para facilitar la conexión entre las bases de conocimiento y los agentes de IA, permitiéndoles actuar de forma autónoma. Construido utilizando microservicios Nvidia NIM e integrado con Nvidia NeMo Retriever, el blueprint simplifica el proceso de recuperación de datos multimodales (información en varios formatos como texto, imágenes y audio) para agentes de IA.

La plataforma de datos Nvidia AI: optimización del flujo de datos para el razonamiento

Este diseño de referencia personalizable se está poniendo a disposición de los principales proveedores de almacenamiento. El objetivo es ayudar a empresas como Dell Technologies Inc., Hewlett Packard Enterprise Co., Hitachi Vantara, IBM Corp., NetApp Inc.. Nutanix Inc., Vast Data Inc. y Pure Storage Inc. a desarrollar plataformas de datos más eficientes específicamente para cargas de trabajo de inferencia de IA agentica. Al combinar recursos de almacenamiento optimizados con el hardware de computación acelerada de Nvidia, los desarrolladores pueden esperar ganancias significativas de rendimiento en el razonamiento de la IA. Esto se logra asegurando un flujo de información fluido y rápido desde la base de datos hasta el modelo de IA.

Microservicios Nvidia NIM mejorados: aprendizaje continuo y adaptabilidad

Los microservicios NIM de Nvidia se han actualizado para optimizar la inferencia de IA agentica, lo que permite el aprendizaje continuo y la adaptabilidad. Estos microservicios permiten a los clientes implementar de manera confiable los modelos de IA agentica más recientes y potentes, incluidos Llama Nemotron de Nvidia y alternativas de compañías como Meta, Microsoft y Mistral AI.

Microservicios Nvidia NeMo: Construyendo ciclos de datos robustos

Nvidia también está mejorando sus microservicios NeMo, que proporcionan un marco para que los desarrolladores creen ciclos de datos robustos y eficientes. Esto es crucial para garantizar que los agentes de IA puedan aprender y mejorar continuamente en función de la retroalimentación generada tanto por humanos como por la IA.

Asociaciones estratégicas: impulsando la innovación en todo el panorama de la IA

El compromiso de Nvidia con la IA agentica se extiende a sus colaboraciones con otros líderes de la industria.

Ampliación de la asociación con Oracle: IA agentica en Oracle Cloud Infrastructure

Nvidia está ampliando su colaboración con Oracle Corp. para llevar las capacidades de IA agentica a Oracle Cloud Infrastructure (OCI). Esta asociación implica la integración de las GPU aceleradas y el software de inferencia de Nvidia en la infraestructura en la nube de Oracle, haciéndolos compatibles con los servicios de IA generativa de Oracle. Esto acelerará el desarrollo de agentes de IA en OCI. Nvidia ahora ofrece más de 160 herramientas de IA y microservicios NIM de forma nativa a través de la consola de OCI. Las dos compañías también están trabajando para acelerar la búsqueda de vectores en la plataforma Oracle Database 23ai.

Profundización de la colaboración con Google: mejora del acceso y la integridad de la IA

Nvidia también proporcionó actualizaciones sobre sus colaboraciones ampliadas con Google LLC, revelando varias iniciativas destinadas a mejorar el acceso a la IA y sus herramientas subyacentes.

Un punto destacado clave es que Nvidia se convierte en la primera organización en aprovechar SynthID de Google DeepMind. Esta tecnología incorpora directamente marcas de agua digitales en el contenido generado por IA, incluidas imágenes, videos y texto. Esto ayuda a preservar la integridad de los resultados de la IA y a combatir la desinformación. SynthID se está integrando inicialmente con los modelos de base Cosmos World de Nvidia.

Además, Nvidia ha colaborado con los investigadores de DeepMind de Google para optimizar Gemma, una familia de modelos de IA de código abierto y ligeros, para las GPU de Nvidia. Las dos compañías también están colaborando en una iniciativa para construir robots impulsados por IA con habilidades de agarre, entre otros proyectos.

Las colaboraciones entre los investigadores e ingenieros de Google y Nvidia están abordando una amplia gama de desafíos. Desde el descubrimiento de fármacos hasta la robótica, destacando el potencial transformador de.