Meta Expande Arsenal de IA com Modelos Llama Multimodais

A Meta expandiu recentemente seu arsenal de inteligência artificial (IA) com as últimas iterações de seu modelo de IA Llama, sinalizando um significativo passo adiante no compromisso contínuo da empresa com a inovação em IA. Entre as novas ofertas estão o Llama 4 Scout e o Llama 4 Maverick, que a Meta apelidou de “modelos multimodais”, destacando sua capacidade de processar e interagir com várias formas de mídia além de mero texto.

Além disso, a Meta provocou o Llama 4 Behemoth, posicionado como um dos LLMs mais inteligentes globalmente e destinado a servir como professor para os modelos recém-lançados.

Este anúncio sublinha os investimentos substanciais da Meta em IA nos dois anos precedentes. O CEO Mark Zuckerberg declarou publicamente sua intenção de alocar até US$ 65 bilhões em 2025 para aprimorar ainda mais as capacidades de IA da empresa. As ambições da Meta se estendem além de seu domínio de mídia social, explorando potenciais assinaturas premium para seu assistente de IA, Meta AI, para lidar com tarefas como fazer reservas e criação de vídeo.

A Iniciativa de Código Aberto da OpenAI

Em desenvolvimentos paralelos, a OpenAI está supostamente contemplando lançar uma versão de código aberto de seu LLM, um desvio de suas práticas recentes. Essa medida concederia aos usuários a liberdade de utilizar, modificar e distribuir o modelo sem incorrer em taxas de licenciamento. A OpenAI busca feedback da comunidade de desenvolvedores, pesquisadores e do público em geral para otimizar a utilidade do modelo.

O modelo de código aberto está previsto para ser lançado dentro de alguns meses. A última vez em que a OpenAI adotou princípios de código aberto foi em 2019 com o LLM GPT-2. Seu LLM mais recente é o GPT-4.5. A OpenAI mudou para modelos proprietários depois de garantir um investimento de um bilhão de dólares da Microsoft, formando uma estreita aliança para avançar no desenvolvimento de modelos de IA. Desde então, a Microsoft investiu mais de US$ 13 bilhões na OpenAI, com os modelos da OpenAI sendo exclusivos para os clientes de serviços em nuvem Azure da Microsoft.

O Llama da Meta, o LLM da Mistral e o DeepSeek são alguns dos modelos de código aberto que têm ganhado popularidade recentemente. Zuckerberg mencionou no Threads que o Llama foi baixado 1 bilhão de vezes. O Llama foi lançado em 2023.

Atrasos no Modelo de IA “Behemoth” da Meta

No entanto, de acordo com relatos, a Meta está atrasando o lançamento do “Behemoth”, originalmente programado para um lançamento no verão, com o lançamento possível mais cedo agora projetado para o outono. As fontes sugerem que o progresso do modelo não foi “significativo” o suficiente para justificar um lançamento em junho, e representa um atraso desde a conferência de desenvolvedores da Meta.

O atraso lança uma sombra sobre o lançamento da Meta da família principal de modelos de linguagem grandes Llama. O Wall Street Journal diz que eles foram elogiados pela velocidade de seu lançamento. O Llama tem sido fundamental para capacitar desenvolvedores dentro de empresas menores, organizações sem fins lucrativos e instituições acadêmicas. É uma alternativa aos modelos fechados e proprietários oferecidos por empresas como OpenAI, Google e Amazon.

O impacto do atraso do Behemoth em empresas maiores é menos pronunciado, pois elas geralmente dependem de modelos proprietários baseados em nuvem. Mesmo que empresas menores possam personalizar os modelos Llama de código aberto, elas exigem serviços de implantação adicionais que a Meta não oferece. O uso da Meta do Llama é voltado para aprimorar suas próprias ferramentas de mídia social, permitindo que Zuckerberg mantenha o controle sobre sua trajetória de IA.

Um fator significativo por trás do atraso reside em se o modelo demonstra melhorias substanciais o suficiente para justificar um lançamento público.

O Imperativo para a Inovação

No mundo acelerado da indústria de tecnologia, novos lançamentos devem exibir avanços tangíveis para justificar sua introdução. Na LlamaCon, a Meta exibiu dois modelos Llama 4 menores, cada um possuindo capacidades impressionantes:

  • O Maverick possui 400 bilhões de parâmetros totais com uma janela de contexto de 1 milhão de tokens (750.000 palavras).
  • O Scout possui 109 bilhões de parâmetros e uma janela de contexto de 10 milhões de tokens (7,5 milhões de palavras).

O Behemoth foi inicialmente programado para lançamento simultâneo, incorporando 2 trilhões de parâmetros.

De acordo com o Wall Street Journal, a Meta está ficando impaciente com sua equipe Llama 4 por causa de seus contínuos investimentos em IA. Em 2024, a empresa alocou até US$ 72 bilhões em despesas de capital, principalmente direcionadas ao desenvolvimento de IA.

Preocupações Crescentes

Zuckerberg e outros executivos seniores ainda não anunciaram uma data de lançamento definitiva para o Behemoth. Informantes temem que seu desempenho possa não atender às expectativas definidas pelas declarações públicas da Meta.

Fontes indicam crescente insatisfação entre a liderança da Meta com o progresso feito pela equipe que desenvolve os modelos Llama 4. Isso levou a discussões sobre possíveis mudanças de liderança dentro de seu grupo de produtos de IA.

A Meta alardeou o Behemoth como um sistema altamente capaz, superando concorrentes como OpenAI, Google e Anthropic em benchmarks específicos. Desafios internos têm prejudicado sua eficiência, conforme alegado por aqueles familiarizados com seu desenvolvimento.

A OpenAI também encontrou atrasos. Seu próximo modelo principal, GPT-5, foi originalmente programado para lançamento em meados de 2024. O Wall Street Journal relatou em dezembro que o desenvolvimento havia ficado atrasado.

Em fevereiro, o CEO da OpenAI, Sam Altman, disse que o modelo provisório seria o GPT-4.5, enquanto o GPT-5 permanecia a meses de distância.

Possíveis Causas para o Progresso Interrompido

Vários fatores podem contribuir para a desaceleração no desenvolvimento de modelos de IA, incluindo:

Diminuição de Dados de Alta Qualidade

Grandes modelos de linguagem exigem grandes quantidades de dados para treinamento, espelhando a vasta extensão da internet. Eles podem estar exaurindo fontes de dados publicamente disponíveis, enfrentando responsabilidades legais relacionadas a direitos autorais.

Isso levou a OpenAI, o Google e a Microsoft a defender a preservação de seu direito de treinar em material protegido por direitos autorais.

A OpenAI mencionou que o governo pode garantir a liberdade dos americanos de aprender com a IA e evitar perder a liderança em IA para a RPC [República Popular da China], preservando a capacidade dos modelos de IA americanos de aprender com material protegido por direitos autorais.

Obstáculos Algorítmicos

A crença de que aumentar o tamanho do modelo, usar mais computação e treinar em mais dados produziria avanços notáveis foi comprovada como errada. A Bloomberg diz que houve retornos decrescentes, fazendo com que alguns digam que as leis de escala estão diminuindo a velocidade.