Meta ha presentado recientemente las últimas iteraciones de su modelo de inteligencia artificial (IA) Llama, lo que supone un importante paso adelante en el compromiso constante de la empresa con la innovación en IA. Entre las nuevas ofrendas se encuentran Llama 4 Scout y Llama 4 Maverick, que Meta ha denominado “modelos multimodales”, destacando su capacidad para procesar e interactuar con diversas formas de medios más allá del mero texto.
Además, Meta adelantó Llama 4 Behemoth, posicionado como uno de los LLM más inteligentes a nivel mundial y destinado a servir como maestro para los modelos recién lanzados.
Este anuncio subraya las importantes inversiones de Meta en IA durante los dos años anteriores. El CEO Mark Zuckerberg ha declarado públicamente su intención de asignar hasta 65.000 millones de dólares en 2025 para mejorar aún más las capacidades de IA de la empresa. Las ambiciones de Meta se extienden más allá de su dominio de las redes sociales, explorando posibles suscripciones premium para su asistente de IA, Meta AI, para gestionar tareas como la reserva de reservas y la creación de vídeos.
El esfuerzo de código abierto de OpenAI
En paralelo, OpenAI está considerando, según informes, el lanzamiento de una versión de código abierto de su LLM, una desviación de sus prácticas recientes. Este movimiento otorgaría a los usuarios la libertad de utilizar, modificar y distribuir el modelo sin incurrir en tarifas de licencia. OpenAI busca la opinión de la comunidad de desarrolladores, investigadores y el público en general para optimizar la utilidad del modelo.
Se anticipa que el modelo de código abierto se lanzará dentro de unos meses. La última vez que OpenAI adoptó los principios de código abierto fue en 2019 con el LLM GPT-2. Su LLM más reciente es GPT-4.5. OpenAI cambió hacia modelos propietarios después de asegurar una inversión de mil millones de dólares de Microsoft, formando una estrecha alianza para avanzar en el desarrollo de modelos de IA. Desde entonces, Microsoft ha invertido más de 13.000 millones de dólares en OpenAI, y los modelos de OpenAI son exclusivos para los clientes de los servicios en la nube Azure de Microsoft.
Llama de Meta, el LLM de Mistral y DeepSeek son algunos de los modelos de código abierto que han estado ganando popularidad recientemente. Zuckerberg mencionó en Threads que Llama ha sido descargado mil millones de veces. Llama se lanzó en 2023.
El modelo de IA “Behemoth” de Meta enfrenta demoras
Sin embargo, Meta está retrasando, según informes, el lanzamiento de “Behemoth”, originalmente programado para un lanzamiento en verano, con el lanzamiento posible más temprano ahora proyectado para el otoño. Las fuentes sugieren que el progreso del modelo no ha sido lo suficientemente “significativo” como para justificar un lanzamiento en junio, y representa una demora desde la conferencia de desarrolladores de Meta.
La demora proyecta una sombra sobre el lanzamiento por parte de Meta de la familia insignia de modelos de lenguaje grande Llama. The Wall Street Journal dice que han sido elogiados por la velocidad de su lanzamiento. Llama ha sido fundamental para empoderar a los desarrolladores dentro de empresas más pequeñas, organizaciones sin fines de lucro e instituciones académicas. Es una alternativa a los modelos cerrados y propietarios ofrecidos por empresas como OpenAI, Google y Amazon.
El impacto de la demora de Behemoth en empresas más grandes es menos pronunciado, ya que a menudo confían en modelos propietarios basados en la nube. Aunque las empresas más pequeñas pueden personalizar los modelos Llama de código abierto, requieren servicios de implementación adicionales que Meta no ofrece. El uso de Llama por parte de Meta está orientado a mejorar sus propias herramientas de redes sociales, lo que permite a Zuckerberg mantener el control sobre su trayectoria de IA.
Un factor significativo detrás de la demora radica en si el modelo demuestra suficientes mejoras sustanciales para justificar un lanzamiento público.
El imperativo para la innovación
En el mundo de ritmo rápido de la industria tecnológica, los nuevos lanzamientos deben exhibir avances tangibles para justificar su introducción. En LlamaCon, Meta mostró dos modelos Llama 4 más pequeños, cada uno con capacidades impresionantes:
- Maverick cuenta con 400 mil millones de parámetros totales con una ventana de contexto de 1 millón de tokens (750,000 palabras).
- Scout cuenta con 109 mil millones de parámetros y una ventana de contexto de 10 millones de tokens (7.5 millones de palabras).
Behemoth estaba inicialmente programado para su lanzamiento concurrente, incorporando 2 billones de parámetros.
Según The Wall Street Journal, Meta está cada vez más impaciente con su equipo de Llama 4 debido a sus continuas inversiones en IA. En 2024, la empresa ha asignado hasta 72.000 millones de dólares en gastos de capital, principalmente dirigidos al desarrollo de IA.
Crecientes preocupaciones
Zuckerberg y otros altos ejecutivos aún no han anunciado una fecha de lanzamiento definitiva para Behemoth. Los iniciados temen que su rendimiento pueda no cumplir con las expectativas establecidas por las declaraciones públicas de Meta.
Las fuentes indican una creciente insatisfacción entre el liderazgo de Meta con el progreso realizado por el equipo que desarrolla los modelos Llama 4. Esto ha llevado a discusiones sobre posibles cambios de liderazgo dentro de su grupo de productos de IA.
Meta ha promocionado a Behemoth como un sistema altamente capaz, superando a competidores como OpenAI, Google y Anthropic en benchmarks específicos. Desafíos internos han obstaculizado su eficiencia, según afirman aquellos familiarizados con su desarrollo.
OpenAI también ha encontrado demoras. Su próximo modelo principal, GPT-5, estaba originalmente programado para su lanzamiento a mediados de 2024. The Wall Street Journal informó en diciembre que el desarrollo se había retrasado.
En febrero, el CEO de OpenAI, Sam Altman, dijo que el modelo interino sería GPT-4.5, mientras que GPT-5 permanecía a meses de distancia.
Posibles causas para el progreso estancado
Varios factores pueden contribuir a la desaceleración en el desarrollo de modelos de IA, incluyendo:
Disminución de datos de alta calidad
Los modelos de lenguaje grande requieren cantidades masivas de datos para el entrenamiento, reflejando la vasta extensión de Internet. Pueden estar agotando las fuentes de datos disponibles públicamente mientras enfrentan responsabilidades legales relacionadas con los derechos de autor.
Esto ha llevado a OpenAI, Google y Microsoft a abogar por la preservación de su derecho a entrenar con material protegido por derechos de autor.
OpenAI mencionó que el gobierno puede asegurar la libertad de los estadounidenses para aprender de la IA, y evitar la pérdida del liderazgo de la IA ante la República Popular China [People’s Republic of China] preservando la capacidad de los modelos de IA estadounidenses para aprender de material protegido por derechos de autor.
Obstáculos algorítmicos
La creencia de que aumentar el tamaño del modelo, usar más computación y entrenar con más datos produciría avances notables ha sido probada como incorrecta. Bloomberg dice que ha habido rendimientos decrecientes causando que algunos digan que las leyes de escala se están ralentizando.