NeuReality: Economía IA Reinventada

NeuReality está remodelando la economía de la IA: acceso inmediato y listo para usar a LLM, al tiempo que reduce el costo total de propiedad de la inferencia de la IA

Las empresas y los proveedores de servicios están implementando aplicaciones y agentes de IA a un ritmo récord, y se centran en ofrecer…

NeuReality, una empresa pionera en la reinvención de la arquitectura de inferencia de IA para satisfacer las demandas de los modelos y cargas de trabajo de IA actuales, ha anunciado que su dispositivo de inferencia NR1 ahora viene precargado con modelos populares de IA empresarial, incluidos Llama, Mistral, Qwen, Granite 1, y admite tanto nubes privadas de IA generativa como clústeres locales. Este dispositivo listo para IA generativa y de agentes se pone en marcha y en funcionamiento en menos de 30 minutos, lo que proporciona una velocidad de valorización 3 veces mayor, lo que permite a los clientes innovar más rápido. Las pruebas de concepto (PoC) actuales muestran hasta 6,5 veces más rendimiento de tokens con el mismo presupuesto de coste y energía en comparación con los servidores de inferencia basados en CPU x86, lo que permite que empresas y gobiernos de todos los tamaños accedan y utilicen la IA de forma más asequible.

En el interior del dispositivo, el chip NR1® es la primera AI-CPU verdaderamente construida para la orquestación de inferencias: gestión de datos, tareas e integración, con software, servicios y API integrados. No sólo consolida las arquitecturas tradicionales de CPU y NIC en una sola, sino que también incluye 6 veces más capacidad de procesamiento en el chip para seguir el ritmo de los rápidos avances de las GPU, al tiempo que elimina los cuellos de botella tradicionales de la CPU.

Emparejado con cualquier GPU o acelerador de IA dentro de su dispositivo, el chip NR1 ofrece una eficiencia revolucionaria en coste, energía y espacio, que es crítica para la adopción generalizada de la IA empresarial. Por ejemplo, al comparar el mismo modelo Llama 3.3-70B y la misma configuración de GPU o acelerador de IA, el dispositivo basado en AI-CPU de NeuReality logra un coste total por millón de tokens de IA más bajo que un servidor basado en CPU x86.

Moshe Tanach, cofundador y CEO de NeuReality, dijo: "Nadie cuestiona el tremendo potencial de la IA. El desafío es hacer que la implementación de la inferencia de la IA sea económicamente factible. La innovadora tecnología AI-CPU de NeuReality elimina los cuellos de botella, lo que nos permite proporcionar el rendimiento adicional necesario para liberar toda la potencia de las GPU, al tiempo que coordina las consultas y los tokens de IA para maximizar el rendimiento y el ROI de estos costosos sistemas de IA."

Tanach continuó: "Ahora, estamos llevando la facilidad de uso a un nivel completamente nuevo con nuestro dispositivo de inferencia de IA integrado de silicio a software. Viene precargado con modelos de IA y todas las herramientas para ayudar a los desarrolladores de software de IA a implementar la IA más rápido, más fácilmente y de forma más asequible que nunca, lo que les permite cambiar los recursos para aplicar la IA en su negocio en lugar de la integración y optimización de la infraestructura."

Un estudio reciente encontró que aproximadamente el 70% de las empresas informan el uso de IA generativa en al menos una función comercial, lo que indica una mayor demanda. Sin embargo, sólo el 25% de las empresas tienen procesos totalmente habilitados para la IA y se están dando cuenta de una adopción generalizada, mientras que sólo un tercio ha comenzado a implementar casos de uso limitados de la IA.

Hoy en día, los cuellos de botella en el rendimiento de la CPU en los servidores que gestionan cargas de trabajo de modelos grandes y multimodales son un factor importante que contribuye a una baja utilización media de la GPU del 30-40%. Esto conduce al derroche de silicio caro en las implementaciones de IA, así como a un mercado desatendido que todavía enfrenta barreras de complejidad y costo.

Rashid Attar, vicepresidente sénior de ingeniería de Qualcomm Technologies, Inc., dijo: "Las empresas y los proveedores de servicios están implementando aplicaciones y agentes de IA a un ritmo récord, y se centran en ofrecer rendimiento de una manera económicamente viable. Al integrar los aceleradores Qualcomm Cloud AI 100 Ultra con la arquitectura AI-CPU de NeuReality, los usuarios pueden lograr nuevos niveles de eficiencia de costes y rendimiento de la IA sin comprometer la facilidad de implementación y escalado."

El dispositivo NR1 de NeuReality, que ya se ha implementado con clientes de servicios financieros y en la nube, está diseñado específicamente para acelerar la adopción de la IA con su economía, accesibilidad y eficiencia espacial para opciones de inferencia como servicio locales y en la nube. Además de los nuevos modelos de IA generativa y de agentes precargados, y las nuevas versiones cada trimestre, también está totalmente optimizado con kits de desarrollo de software y API preconfigurados para visión artificial, IA conversacional o solicitudes personalizadas que admiten una amplia gama de casos de uso empresarial y mercados (por ejemplo, servicios financieros, ciencias de la vida, gobierno, proveedores de servicios en la nube).

El primer dispositivo NR1 combina el módulo NR1® (tarjeta PCIe) con un acelerador Qualcomm® Cloud AI 100 Ultra.

NeuReality expondrá en InnoVEX (celebrado junto con Computex) en Taipei, Taiwán, del 20 al 23 de mayo de 2025 en el pabellón israelí, puesto S0912 del pabellón 2 (cerca del escenario central). La compañía presentará demostraciones en vivo del dispositivo de inferencia NR1, incluyendo la migración de una aplicación de chat en minutos y una demostración de rendimiento del chip NR1 ejecutando Smooth Factory Models y DeepSeek-R1-Distill-Llama-8B.

NeuReality, fundada en 2019, es una empresa pionera en arquitecturas de inferencia de IA dedicadas impulsadas por el chip NR1® - la primera AI-CPU para la orquestación de inferencias. Basada en una arquitectura abierta y basada en estándares, la NR1 es totalmente compatible con cualquier acelerador de IA. La misión de NeuReality es hacer que la IA sea accesible y ubicua mediante la ampliación de la adopción de la inferencia de IA al reducir las barreras asociadas con los altos costes, el consumo de energía y la complejidad, aprovechando su tecnología disruptiva. La compañía tiene 80 empleados en instalaciones en Israel, Polonia y Estados Unidos.

Los 1 Modelos de IA precargados y optimizados para clientes empresariales incluyen: Llama 3.3 70B, Llama 3.1 8B (próximamente la serie Llama 4); Mistral 7B, Mistral 8x7B y Mistral Small; Qwen 2.5 incluyendo Coder (próximamente Qwen 3); DeepSeek R1**-**Distill-Llama 8B, R1 Distill-Llama 70b; y Granite 3, 3.1 8B (próximamente Granite 3.3).

NR1 Dispositivo de Inferencia: Un Cambiador de Juego

En el corazón del dispositivo de inferencia NR1 se encuentra laAI-CPU construida a propósito de NeuReality, que actúa como un centro de control centralizado para datos, tareas e integraciones. A diferencia de las arquitecturas tradicionales de CPU y NIC, el chip NR1 integra estos componentes en una sola unidad, reduciendo los cuellos de botella y maximizando la potencia de procesamiento. Este enfoque integrado permite que el chip se mantenga al día con los rápidos avances en las GPU, al tiempo que optimiza las consultas y los tokens de IA para mejorar el rendimiento y el retorno de la inversión.

La IA Lista para Usar: Simplificando la Implementación

Para mejorar aún más la facilidad de uso, el dispositivo de inferencia NR1 viene precargado con modelos de IA empresarial populares, incluidos Llama, Mistral, Qwen y Granite. Esta característica elimina la complejidad de la configuración y la optimización, lo que permite a los desarrolladores de software de IA centrarse en la aplicación de la IA en sus negocios en lugar de gastar tiempo en la integración de la infraestructura. El dispositivo se puede poner en marcha y en funcionamiento en menos de 30 minutos, proporcionando a los clientes una rápida realización de valor.

IA Asequible: Acelerando la Adopción

La tecnología de NeuReality permite a las empresas acceder y utilizar la IA de forma más asequible al ofrecer un coste total más bajo por millón de tokens de IA que los servidores basados en CPU x86. Esta rentabilidad es crucial para empresas y gobiernos de todos los tamaños, ya que reduce las barreras a la implementación de la IA y permite una adopción más amplia.

Colaboración con Qualcomm Technologies: Liberando Nuevos Niveles de Rendimiento

La asociación estratégica entre NeuReality y Qualcomm Technologies mejora aún más las capacidades del dispositivo de inferencia NR1. Al integrar los aceleradores Qualcomm Cloud AI 100 Ultra con la arquitectura AI-CPU de NeuReality, los usuarios pueden lograr nuevos niveles de eficiencia de costes y rendimiento de la IA sin comprometer la facilidad de implementación y escalabilidad. Este enfoque colaborativo demuestra la dedicación de NeuReality a aprovechar las tecnologías de vanguardia para optimizar las soluciones de inferencia de IA.

Abordando los Desafíos de la IA Empresarial: Mejorando la Utilización de la GPU

NeuReality está abordando un desafío significativo que enfrentan las empresas: los cuellos de botella en el rendimiento de la CPU en los servidores que impactan la utilización de la GPU. Tradicionalmente, los servidores que gestionan cargas de trabajo de modelos grandes y multimodales sufren una utilización promedio de la GPU tan baja como del 30-40%. Esta baja utilización conduce al desperdicio de silicio caro en las implementaciones de IA y limita la adopción de la IA en los mercados desatendidos. La tecnología AI-CPU de NeuReality aborda este problema eliminando los cuellos de botella de rendimiento, lo que permite a las empresas aprovechar completamente las capacidades de sus GPU en las aplicaciones de IA.

Satisfaciendo la Demanda de IA Generativa: Aumento de la Utilización

La solución de NeuReality está bien posicionada para la demanda de rápido crecimiento en el mercado de la IA generativa. Estudios recientes indican que aproximadamente el 70% de las empresas informa el uso de IA generativa en al menos una función comercial. Sin embargo, solo el 25% de las empresas tiene procesos totalmente habilitados para la IA y se da cuenta de una adopción generalizada. El dispositivo de inferencia NR1 de NeuReality permite a las empresas acelerar sus iniciativas de IA generativa eliminando las barreras a la adopción mediante la mejora de la facilidad de uso, la rentabilidad y el rendimiento.

Facilidad de Uso: Reduciendo las Barreras a la Implementación

Además del rendimiento y la rentabilidad, la facilidad de uso es un impulsor clave de las soluciones de IA de NeuReality. El dispositivo de inferencia NR1 viene precargado con modelos de IA y kits de desarrollo de software, agilizando el proceso de implementación y reduciendo la necesidad de integración y optimización de la infraestructura. Esta facilidad de uso permite a los desarrolladores de software de IA centrarse en la construcción e implementación de aplicaciones de IA innovadoras en lugar de dedicar tiempo a lidiar con una infraestructura compleja.

Amplias Aplicaciones: Múltiples Industrias

El dispositivo de inferencia NR1 de NeuReality está diseñado para admitir una amplia gama de casos de uso empresarial y mercados. El dispositivo está optimizado con kits de desarrollo de software y API preconfigurados para visión artificial, IA conversacional y solicitudes personalizadas. Esta versatilidad hace que el dispositivo de inferencia NR1 sea adecuado para diversas industrias, incluidos los servicios financieros, las ciencias de la vida, el gobierno y los proveedores de servicios en la nube.

Acelerando la Adopción de la IA: Asequibilidad, Accesibilidad y Eficiencia Espacial

El dispositivo NR1 de NeuReality promueve la adopción de la IA al ofrecer simultáneamente asequibilidad y accesibilidad, lo que lo hace adecuado para la infraestructura local y en la nube. Muchas organizaciones luchan por escalar sus iniciativas de IA debido a sus altos costes y complejidad, pero la solución de NeuReality aborda estas barreras al proporcionar una plataforma rentable y de estándares abiertos que agiliza el desarrollo y la implementación de la IA.

Aspectos Destacados de la Demostración

NeuReality mostrará su motor de inferencia NR1 en InnoVEX en Computex Taiwán en Taipei, Taiwán del 20 al 23 de mayo de 2025, mostrando sus capacidades. En el evento, la compañía demostrará la fácil migración de una aplicación de chat en minutos y exhibirá el rendimiento del chip NR1 en Smooth Factory Models y DeepSeek-R1-Distill-Llama-8B.

Innovación Continua: Preparándose para el Futuro

NeuReality está comprometido con mejorar las capacidades de su dispositivo de inferencia NR1 a través de lanzamientos regulares de nuevos modelos de IA generativa y de agentes, así como kits de desarrollo de software optimizados. Esta innovación continua permite a las empresas mantenerse actualizadas con las últimas tecnologías de IA y garantizar que su infraestructura de IA esté optimizada para cargas de trabajo futuras.

NeuReality: Potenciando a las Empresas para que Abarquen el Potencial de la IA

La innovadora tecnología AI-CPU de NeuReality presenta una forma rentable de implementar las implementaciones de IA de inferencia, maximizando el rendimiento de las GPU mientras optimiza las consultas y los tokens de IA para obtener el máximo rendimiento y retorno de la inversión. A medida que NeuReality continúe innovando y expandiendo las capacidades de su dispositivo de inferencia NR1, surgirá como un aliado crítico para las empresas que buscan prosperar en el floreciente mundo de la IA.

Al combinar su enfoque en el rendimiento, la rentabilidad y la facilidad de uso con un compromiso con la innovación continua, NeuReality está en posición de remodelar la economía de la IA y empoderar a las empresas de todos los tamaños para que abarquen el potencial de la IA.