Empresas IA Más Innovadoras 2025

El panorama de la inteligencia artificial experimentó un cambio drástico en 2024, marcando un momento crucial en el camino hacia la inteligencia artificial general (AGI). El aumento inicial del progreso, que dio origen a impresionantes chatbots como ChatGPT y Claude, fue impulsado en gran medida por el escalado de modelos, datos de entrenamiento y potencia informática. Sin embargo, a medida que las ganancias del tamaño puro comenzaron a estabilizarse, los investigadores reconocieron la necesidad de un enfoque novedoso, uno que se extendiera más allá del entrenamiento, para lograr el ambicioso objetivo de la AGI: modelos que posean capacidades cognitivas más amplias que superen a las de los humanos.

Un desarrollo innovador surgió de OpenAI con su modelo pivotal o1. Esto marcó un punto de inflexión, ya que los investigadores comenzaron a canalizar más recursos informáticos hacia el razonamiento en tiempo real, el proceso cognitivo que un modelo realiza inmediatamente después de recibir la solicitud o consulta de un usuario. Si bien el tiempo de respuesta de o1 podría haber excedido el de otros modelos, la calidad de sus respuestas superó demostrablemente a la de los modelos que carecían de esta capacidad de razonamiento. Su rápido ascenso a la cima de las clasificaciones de pruebas de referencia sirvió como catalizador, lo que llevó a otros actores importantes como Google DeepMind, Anthropic y DeepSeek a incorporar el razonamiento en tiempo real en el entrenamiento de sus modelos.

Este cambio de paradigma hacia el razonamiento en tiempo real intensificó la demanda de GPU de Nvidia, que ya eran esenciales para el entrenamiento. El precio de las acciones de Nvidia experimentó un asombroso aumento del 171% en 2024, un testimonio de la previsión de la compañía. Habiendo anticipado esta tendencia, Nvidia había integrado ingeniosamente nuevas características en sus GPU, haciéndolas aún más adeptas a la inferencia en tiempo real. Esto culminó en la arquitectura Blackwell y los chips B100 y B200. Presentadas en marzo de 2024, estas nuevas GPU fueron rápidamente adquiridas por los principales operadores de centros de datos, y el suministro de todo el año se agotó casi de inmediato.

Incluso antes de la llegada de los modelos de razonamiento, varias empresas pioneras de IA ya habían estado superando los límites del desarrollo de sistemas de IA. Google DeepMind logró un avance con su familia de modelos Gemini, inherentemente multimodal, capaz de comprender imágenes y audio con la misma competencia que el lenguaje. Anthropic mantuvo su búsqueda incesante, desafiando el dominio de OpenAI, y notablemente se convirtió en el primero en lanzar un modelo capaz de interactuar con la computadora de un usuario. Mistral, junto con Microsoft, introdujo impresionantes modelos de lenguaje pequeños como Ministral 3B, Ministral 8B, Phi-3 y Phi-4, diseñados para un funcionamiento eficiente en computadoras portátiles e incluso teléfonos inteligentes. Al mismo tiempo, Runway continuó redefiniendo el estado del arte con sus modelos de generación de video Gen-3 Alpha.

En medio de estos avances, un laboratorio de IA relativamente pequeño en China, DeepSeek, estaba logrando avances significativos en silencio. A finales de 2024, los modelos de DeepSeek, incluidos los modelos de razonamiento, comenzaron a generar revuelo en la industria de la IA. Lograron resultados de vanguardia con costos y potencia de GPU notablemente más bajos de lo que se creía posible anteriormente, compartiendo abiertamente su investigación y modelos. Los avances de DeepSeek, si bien causaron cierta consternación inicial, están preparados para acelerar la innovación entre las principales empresas de IA del mundo en el próximo año.

2. Nvidia

La búsqueda de sistemas de IA cada vez más sofisticados continúa impulsando una inversión sustancial de los desarrolladores de modelos de lenguaje grandes. Sin embargo, una empresa ya está disfrutando de los frutos de esta revolución de la IA: Nvidia. Habiendo encendido la carrera de la IA con sus unidades de procesamiento gráfico (GPU) dominantes, Nvidia ahora está perfectamente posicionada con su innovador procesador y plataforma Blackwell para apoyar la búsqueda de inteligencia a nivel humano.

Blackwell supera a su predecesor, el H100, ofreciendo hasta 2.5 veces más potencia para tareas generales de entrenamiento de modelos, al mismo tiempo que consume significativamente menos energía. Los principales operadores de centros de datos y laboratorios de IA, incluidos gigantes de la industria como Google, Meta, Microsoft, OpenAI, Tesla y xAI, se han comprometido a comprar cientos de miles de GPU Blackwell.

Si bien los modelos recientes de empresas chinas como DeepSeek y Alibaba han demostrado capacidades impresionantes utilizando GPU Nvidia más antiguas y menos potentes, Nvidia no se está durmiendo en los laureles. La compañía está desarrollando activamente plataformas para diversas aplicaciones, que van desde el descubrimiento de fármacos (Clara for Biopharma) y vehículos autónomos (Drive AGX) hasta la producción de video (Holoscan) y gemelos digitales (Omniverse). Al fomentar el progreso de la IA en un amplio espectro de escenarios del mundo real, Nvidia se está posicionando estratégicamente para un crecimiento sostenido, incluso si los modelos futuros exhiben una menor dependencia de la potencia computacional pura.

3. OpenAI

Desde 2019, OpenAI ha mejorado constantemente sus modelos expandiendo los datos de entrenamiento y los recursos informáticos, una estrategia que ha sido ampliamente adoptada en toda la industria. Sin embargo, a medida que los rendimientos decrecientes de este enfoque de escalado se hicieron evidentes, OpenAI reconoció la necesidad de un nuevo camino para lograr la AGI: modelos que superen la inteligencia humana en la mayoría de las tareas.

La solución de OpenAI llegó en forma del modelo o1. En lugar de centrarse únicamente en aumentar los recursos durante el preentrenamiento, OpenAI diseñó o1 para asignar más tiempo y potencia informática durante la inferencia, la fase en la que el modelo se implementa activamente y responde a las indicaciones del usuario. Durante este proceso, o1 recopila y retiene información contextual, tanto del usuario como de fuentes de datos relevantes. Emplea una metodología de prueba y error para determinar la ruta óptima hacia una respuesta. El resultado es la generación de respuestas de nivel de doctorado a preguntas complejas, lo que impulsa a o1 a la cima de las clasificaciones de referencia de rendimiento.

OpenAI ofrece versiones ‘experimentales’ y ‘mini’ de o1 a los suscriptores de ChatGPT Plus. Además, un servicio premium llamado ChatGPT Pro proporciona acceso ilimitado al modelo o1 completo por $200 al mes. En diciembre de 2024, OpenAI presentó el sucesor de o1, o3, y en febrero de 2025, otorgó a los usuarios de pago acceso a o3-mini, una variante más pequeña y rápida optimizada para ciencia, matemáticas y codificación. El impacto más profundo de los nuevos modelos de razonamiento de OpenAI es la validación de la ampliación de la computación en el momento de la inferencia como una vía prometedora para lograr nuevos avances en la inteligencia en el camino hacia la AGI.

4. Google DeepMind

La investigación fundamental que allanó el camino para los chatbots de hoy se originó en Google a finales de la década de 2010. Google había desarrollado un chatbot impulsado por un modelo de lenguaje grande mucho antes de la aparición de ChatGPT. Sin embargo, las preocupaciones con respecto a la seguridad, la privacidad y las implicaciones legales supuestamente llevaron a un enfoque cauteloso, retrasando su lanzamiento público. Esta vacilación resultó en que Google inicialmente se quedara atrás en la carrera de IA resultante desencadenada por el lanzamiento de ChatGPT.

El lanzamiento de Gemini 2.0 de Google DeepMind en 2024 señaló el resurgimiento definitivo de Google. Gemini 2.0 representa el primer modelo de IA del mercado masivo que es inherentemente multimodal, capaz de procesar y generar imágenes, video, audio y código de computadora con la misma fluidez que el texto. Esta capacidad permite que el modelo analice y razone sobre videoclips, o incluso transmisiones de video en vivo desde la cámara de un teléfono, con una velocidad y precisión notables.

Gemini también se destaca por su capacidad para controlar otros servicios de Google, como Maps y Search. Esta integración muestra la ventaja estratégica de Google, combinando su investigación de IA con sus herramientas de información y productividad establecidas. Gemini se encuentra entre los primeros modelos de IA que demuestran un funcionamiento autónomo y la capacidad de razonar a través de problemas complejos en nombre del usuario. El modelo Gemini 2.0 Flash Thinking Experimental incluso proporciona a los usuarios información sobre el proceso de pensamiento empleado para llegar a una respuesta. Además, en diciembre, Google presentó Project Mariner, una función de IA agentica basada en Gemini diseñada para realizar tareas como compras de comestibles en línea de forma autónoma.

5. Anthropic

Las principales aplicaciones de la IA generativa hasta ahora se han centrado en la escritura de texto, el resumen y la generación de imágenes. El siguiente paso evolutivo implica equipar a los modelos de lenguaje grandes con capacidades de razonamiento y la capacidad de utilizar herramientas. El modelo ‘Computer Use’ de Anthropic proporcionó una primera visión de este futuro.

Comenzando con Claude 3.5 Sonnet en 2024, el modelo de Anthropic puede percibir la actividad en pantalla, incluido el contenido de Internet. Puede manipular un cursor, hacer clic en botones e ingresar texto. Un video de demostración mostró la capacidad de Claude para completar un formulario utilizando información disponible en sitios web abiertos en pestañas del navegador. Puede realizar tareas como crear un sitio web personal u organizar la logística de una excursión de un día. Las acciones autónomas de la IA, como abrir nuevas pestañas, realizar búsquedas y completar campos de datos, son realmente notables.

Si bien el modelo actualmente opera a un ritmo más lento y es posible que no siempre produzca la respuesta correcta, se anticipan mejoras rápidas a medida que Anthropic identifica y aborda sus limitaciones. El mencionado Project Mariner de Google siguió el ejemplo de Anthropic en diciembre, y OpenAI presentó su propio modelo de uso de computadora, Operator, en enero de 2025. En febrero de 2025, Anthropic presentó su próxima iteración importante, Claude 3.7 Sonnet, un modelo más grande capaz de activar automáticamente el modo de razonamiento para consultas desafiantes.

6. Microsoft

El desarrollo de los modelos Phi de Microsoft surgió de una pregunta fundamental planteada por los investigadores de la compañía en 2023: “¿Cuál es el tamaño de modelo más pequeño que puede exhibir signos de inteligencia emergente?”. Esta consulta marcó un momento crucial en la evolución de los “modelos de lenguaje pequeños”, modelos diseñados para un rendimiento óptimo en escenarios con memoria, potencia de procesamiento o conectividad limitadas, donde los tiempos de respuesta rápidos son cruciales.

A lo largo de 2024, Microsoft lanzó dos generaciones de modelos pequeños que mostraban capacidades de razonamiento y lógica que no se incorporaron explícitamente durante el entrenamiento. En abril, la compañía presentó una serie de modelos Phi-3 que sobresalieron en los puntos de referencia de lenguaje, razonamiento, codificación y matemáticas, probablemente debido a su entrenamiento con datos sintéticos generados por LLM significativamente más grandes y capaces. Las variantes del Phi-3 de código abierto se descargaron más de 4.5 millones de veces en Hugging Face durante 2024.

A finales de 2024, Microsoft lanzó sus modelos de lenguaje pequeños Phi-4, que superaron a los modelos Phi-3 en tareas centradas en el razonamiento e incluso superaron al GPT-4o de OpenAI en los puntos de referencia GPQA (preguntas científicas) y MATH. Microsoft lanzó el modelo bajo una licencia de código abierto y pesos abiertos, lo que permite a los desarrolladores crear modelos perimetrales o aplicaciones para teléfonos o computadoras portátiles. En menos de un mes, Phi-4 obtuvo 375,000 descargas en Hugging Face.

7. Amazon

Amazon AWS presentó recientemente Trainium2, una nueva versión de su procesador Trainium para IA, que potencialmente desafía el dominio de las GPU de Nvidia en entornos específicos. Trainium2 está diseñado para ofrecer la potencia informática masiva requerida para entrenar los modelos de IA generativa más grandes y para operaciones en tiempo de inferencia después de la implementación del modelo. AWS afirma que Trainium es entre un 30% y un 40% más rentable que las GPU para tareas comparables.

Trainium2 aborda las deficiencias de potencia e integración de software observadas en el primer chip Trainium, lo que posiciona a Amazon para cerrar potencialmente la brecha con Nvidia. (Vale la pena señalar que AWS sigue dependiendo en gran medida de Nvidia para las GPU). Desplazar a Nvidia es un desafío formidable debido al bloqueo del cliente con la capa de software CUDA de Nvidia, que proporciona a los investigadores un control granular sobre cómo sus modelos utilizan los recursos del chip. Amazon ofrece su propia capa de software de control de kernel, Neuron Kernel Interface (NKI), que, al igual que CUDA, otorga a los investigadores un control detallado sobre las interacciones del kernel del chip.

Es importante tener en cuenta que Trainium2 aún no se ha probado a escala. AWS está construyendo actualmente un clúster de servidores con 400,000 chips Trainium2 para Anthropic, lo que podría proporcionar información valiosa sobre la optimización del rendimiento de sus chips de IA en implementaciones a gran escala.

8. Arm

El diseñador británico de semiconductores Arm ha sido durante mucho tiempo un proveedor clave de la arquitectura utilizada en los chips que alimentan pequeños dispositivos como teléfonos, sensores y hardware de IoT. Este papel adquiere una mayor importancia en la era emergente donde los chips de dispositivos perimetrales ejecutarán modelos de IA. Los centros de datos también desempeñarán un papel crucial en esta evolución, a menudo manejando parte o la totalidad del procesamiento de IA más exigente y entregando resultados a los dispositivos perimetrales.

A medida que los centros de datos proliferan a nivel mundial, su consumo de energía eléctrica se convertirá en una preocupación cada vez más apremiante. Este factor contribuye al énfasis en la eficiencia en la última arquitectura de CPU Neoverse de Arm. Cuenta con una mejora del rendimiento del 50% con respecto a las generaciones anteriores y un 20% mejor rendimiento por vatio en comparación con los procesadores que utilizan arquitecturas x86 competidoras, según la compañía.

Arm informa que Amazon, Microsoft, Google y Oracle han adoptado Arm Neoverse tanto para la informática de propósito general como para la inferencia y el entrenamiento de IA basados en CPU. Por ejemplo, en 2024, Microsoft anunció que su primer silicio personalizado diseñado para la nube, el procesador Cobalt 100, se construyó sobre Arm Neoverse. Algunos de los centros de datos de IA más grandes dependerán del Grace Hopper Superchip de NVIDIA, que combina una GPU Hopper y una CPU Grace basada en Neoverse. Arm está programado para lanzar su propia CPU este año, con Meta como uno de sus clientes iniciales.

9. Gretel

Durante el año pasado, las empresas de IA han experimentado rendimientos decrecientes al entrenar sus modelos con volúmenes cada vez mayores de datos extraídos de la web. En consecuencia, han cambiado su enfoque de la cantidad bruta de datos de entrenamiento a su calidad. Esto ha llevado a una mayor inversión en contenido no público y especializado con licencia de socios editores. Los investigadores de IA también deben abordar las brechas o los puntos ciegos dentro de sus datos de entrenamiento generados por humanos o anotados por humanos. Para este propósito, han recurrido cada vez más a datos de entrenamiento sintéticos generados por modelos de IA especializados.

Gretel ganó prominencia en 2024 al especializarse en la creación y curación de datos de entrenamiento sintéticos. La compañía anunció la disponibilidad general de su producto estrella, Gretel Navigator, que permite a los desarrolladores usar lenguaje natural o indicaciones SQL para generar, aumentar, editar y curar conjuntos de datos de entrenamiento sintéticos para el ajuste fino y las pruebas. La plataforma ya ha atraído a una comunidad de más de 150,000 desarrolladores que han sintetizado más de 350 mil millones de piezas de datos de entrenamiento.

Otros actores de la industria han tomado nota de las capacidades de Gretel. Gretel se asoció con Google para que sus datos de entrenamiento sintéticos sean fácilmente accesibles para los clientes de Google Cloud. En junio se anunció una asociación similar con Databricks, que otorga a los clientes empresariales de Databricks acceso a datos de entrenamiento sintéticos para sus modelos que se ejecutan dentro de la nube de Databricks.

10. Mistral AI

Mistral AI, el contendiente de Francia en el campo de la IA generativa, ha ejercido constantemente presión sobre OpenAI, Anthropic y Google a la vanguardia del desarrollo de modelos de IA de frontera. Mistral AI lanzó una serie de nuevos modelos que incorporan importantes avances tecnológicos en 2024, demostrando un rápido crecimiento empresarial a través del marketing directo de sus API y asociaciones estratégicas.

A principios de año, la compañía presentó un par de modelos de código abierto llamados Mixtral, notables por su uso innovador de la arquitectura de “mezcla de expertos”, donde solo un subconjunto especializado de los parámetros del modelo se activa para manejar una consulta, mejorando la eficiencia. En julio de 2024, Mistral anunció Mistral Large 2, que, con 123 mil millones de parámetros, mostró mejoras significativas en la generación de código, matemáticas, razonamiento y llamadas a funciones. La compañía francesa también lanzó Ministral 3B y Ministral 8B, modelos más pequeños diseñados para ejecutarse en computadoras portátiles o teléfonos, capaces de almacenar aproximadamente 50 páginas de texto de información contextual proporcionada por el usuario.

Mistral ha logrado el éxito en Europa posicionándose como una alternativa de bajo costo y flexible a las empresas estadounidenses de IA como OpenAI. También continuó su expansión en el mercado empresarial estadounidense durante 2024. En junio, la compañía aseguró una ronda de financiación de $640 millones, liderada por la firma de capital de riesgo General Catalyst, elevando la valoración de Mistral a aproximadamente $6.2 mil millones.

11. Fireworks AI

Fireworks ofrece un entorno de tiempo de ejecución personalizado que simplifica el trabajo de ingeniería, a menudo complejo, asociado con la construcción de infraestructura para implementaciones de IA. Utilizando la plataforma Fireworks, las empresas pueden integrar cualquiera de los más de 100 modelos de IA y luego personalizarlos y ajustarlos para sus casos de uso específicos.

La compañía introdujo nuevos productos durante 2024 que la posicionarán para capitalizar las tendencias clave en la industria de la IA. Primero, los desarrolladores se han centrado cada vez más en la capacidad de respuesta de los modelos y aplicaciones impulsados por IA. Fireworks presentó FireAttention V2, software de optimización y cuantificación que acelera el rendimiento del modelo y reduce la latencia de la red. En segundo lugar, los sistemas de IA están evolucionando cada vez más hacia “tuberías” que invocan varios modelos y herramientas a través de API. El nuevo software FireFunction V2 actúa como un orquestador para todos los componentes dentro de estos sistemas cada vez más complejos, particularmente a medida que las empresas implementan aplicaciones de IA más autónomas.

Fireworks informa un aumento del 600% en el crecimiento de los ingresos en 2024. Su base de clientes incluye empresas destacadas como Verizon, DoorDash, Uber, Quora y Upwork.

12. Snorkel AI

Las empresas se han dado cuenta de que la eficacia de sus sistemas de IA está directamente relacionada con la calidad de sus datos. Snorkel AI ha construido un negocio próspero ayudando a las empresas a preparar sus datos patentados para su uso en modelos de IA. La plataforma de desarrollo de datos de IA Snorkel Flow de la compañía proporciona un método rentable para que las empresas etiqueten y curen sus datos patentados, lo que permite su uso en la personalización y evaluación de modelos de IA para sus necesidades comerciales específicas.

En 2024, Snorkel amplió su soporte para incluir imágenes, lo que permite a las empresas entrenar modelos de IA multimodales y generadores de imágenes utilizando sus propias imágenes patentadas. También incorporó la generación aumentada de recuperación (RAG) en su plataforma, lo que permite a los clientes recuperar solo los segmentos de información más relevantes de documentos extensos, como contenido de base de conocimiento patentado, para su uso en el entrenamiento de IA. Snorkel Custom, un nuevo nivel de servicio de mayor contacto, involucra a los expertos en aprendizaje automático de Snorkel colaborando directamente con los clientes en proyectos.

Snorkel afirma que sus reservas anuales año tras año se duplicaron durante 2024, con un crecimiento de tres dígitos en las reservas anuales durante cada uno de los últimos tres años. Seis de los bancos más grandes ahora utilizan Snorkel Flow, según la compañía, junto con marcas como Chubb, Wayfair y Experian.

13. CalypsoAI

Amedida que la IA desempeña un papel cada vez más crucial en los procesos críticos de toma de decisiones, las empresas buscan una mayor visibilidad del funcionamiento interno de los modelos. Esta necesidad es particularmente pronunciada en las industrias reguladas que deben monitorear continuamente el sesgo y otros resultados no deseados. CalypsoAI fue uno de los primeros en reconocer este requisito emergente y respondió rápidamente con funciones de explicabilidad mejoradas en su plataforma de infraestructura de IA.

Lo que distingue a Calypso es la amplitud de su tecnología de observabilidad. En 2024, la compañía lanzó su Plataforma de Seguridad de IA, que protege los datos empresariales al asegurar, auditar y monitorear todos los modelos de IA generativa activos que una empresa puede estar utilizando, independientemente del proveedor del modelo o de si el modelo está alojado internamente o externamente. Calypso también introdujo nuevas herramientas de visualización que permiten a los usuarios observar la lógica subyacente a las decisiones de IA en tiempo real.

El mercado está respondiendo positivamente al énfasis de Calypso en la observabilidad de la IA. La compañía informa un aumento de diez veces en los ingresos durante 2024 y anticipa un aumento adicional de cinco veces en 2025.

14. Galileo

Si bien los sistemas de IA exhiben menos instancias de alucinaciones fácticas y sesgos en comparación con hace un año, siguen siendo susceptibles a estos problemas. Esto plantea una preocupación significativa para cualquier empresa que utilice IA, particularmente aquellas en sectores regulados como la atención médica y la banca. Los equipos de desarrollo de IA emplean la plataforma de IA de Galileo para medir, optimizar y monitorear la precisión de sus modelos y aplicaciones.

A principios de 2024, después de dos años de investigación, Galileo lanzó Luna, un conjunto de modelos de evaluación entrenados para identificar resultados dañinos. Estos modelos permiten que la plataforma de Galileo examine y califique rápidamente el trabajo de un LLM a medida que ensambla los tokens que constituyen su respuesta. Este proceso tarda aproximadamente 200 milisegundos, lo que permite tiempo suficiente para marcar y evitar que la salida de la IA se muestre a un usuario. Si bien un LLM estándar podría realizar esta tarea, sería considerablemente más caro. Los modelos especialmente diseñados de Galileo ofrecen una precisión superior, rentabilidad y, lo que es más importante, velocidad.

Galileo informa una cuadruplicación de su base de clientes en 2024, con clientes que incluyen Twilio, Reddit, Chegg, Comcast y JPMorgan Chase. La startup también aseguró una ronda de financiación de $68 millones de inversores como el CEO de Hugging Face, Clément Delangue.

15. Runway

Una de las aspiraciones, y ansiedades, más significativas en torno a la IA es su potencial para generar video de calidad suficiente para revolucionar el arte y la economía del cine. La tecnología avanzó sustancialmente hacia este futuro en 2024, con Runway, una startup de generación de video con sede en Nueva York, desempeñando un papel de liderazgo. El lanzamiento del modelo Gen-3 Alpha de Runway en junio de 2024 obtuvo una gran aclamación dentro de la comunidad de IA por la credibilidad significativamente mejorada del video generado.

Runway también implementó mejoras importantes en sus herramientas para controlar la estética del video de IA. El modelo fue entrenado tanto en imágenes como en video y puede generar video basado en entradas de texto o imágenes. Posteriormente, la compañía lanzó Gen-3 Alpha Turbo, una versión más rentable y rápida de Gen-3.

Hollywood ha estado monitoreando de cerca el progreso de la IA generativa, y Runway informa que ha comenzado a producir versiones personalizadas de sus modelos para los actores de la industria del entretenimiento. Entró en una asociación formal con Lionsgate Studios en septiembre de 2024. Runway desarrolló un modelo personalizado para la productora y lo entrenó con el catálogo de películas de Lionsgate. Runway afirma que el modelo está destinado a ayudar a los cineastas, directores y otros creativos de Lionsgate a “aumentar” su trabajo al tiempo que “ahorra tiempo, dinero y recursos”. Runway cree que su acuerdo con Lionsgate podría servir como modelo para colaboraciones similares con otras productoras.

16. Cerebras Systems

Los sistemas de IA, particularmente los grandes modelos de frontera, exigen una inmensa potencia informática para operar a escala. Esto requiere la interconexión de miles o millones de chips para distribuir la carga de trabajo. Sin embargo, las conexiones de red entre chips pueden introducir cuellos de botella en el rendimiento. La tecnología de Cerebras Systems está diseñada para aprovechar las ventajas de velocidad y eficiencia de integrar una gran cantidad de potencia informática en un solo chip excepcionalmente grande.

El último chip WSE-3 (Wafer Scale Engine de tercera generación) de la compañía, por ejemplo, mide 814 milímetros cuadrados, el tamaño de un plato de comida, y es 56 veces más grande que los chips H100 líderes en el mercado de Nvidia. El chip incorpora la asombrosa cifra de 4 billones de transistores y ofrece 44 gigabits de memoria. Estos chips se pueden agrupar para formar supercomputadoras, como Condor Galaxy, una “constelación” de supercomputadoras interconectadas que Cerebras está desarrollando en colaboración con su mayor cliente, G42, una empresa de IA y computación en la nube con sede en los EAU.

Hasta la fecha, Cerebras ha encontrado un nicho en grandes organizaciones de investigación, incluidas Mayo Clinic, Sandia National Laboratories, Lawrence Livermore National Laboratory y Los Alamos National Laboratory. La compañía solicitó una oferta pública inicial en septiembre de 2024. El prospecto indica que las ventas de la compañía se triplicaron con creces a $78.7 millones en 2023 y aumentaron a $136.4 millones en la primera mitad de 2024.