Meta Espande il suo Arsenale AI con Llama Multimodale

Meta ha recentemente svelato le ultime iterazioni del suo modello di intelligenza artificiale (AI) Llama, segnando un significativo passo avanti nel continuo impegno dell’azienda per l’innovazione dell’AI. Tra le nuove offerte ci sono Llama 4 Scout e Llama 4 Maverick, che Meta ha soprannominato "modelli multimodali", evidenziando la loro capacità di elaborare e interagire con varie forme di media oltre al semplice testo.

Inoltre, Meta ha anticipato Llama 4 Behemoth, posizionato come uno dei LLM più intelligenti a livello globale e destinato a servire da insegnante per i modelli appena rilasciati.

Questo annuncio sottolinea i sostanziali investimenti di Meta in AI negli ultimi due anni. L’amministratore delegato Mark Zuckerberg ha dichiarato pubblicamente la sua intenzione di stanziare fino a 65 miliardi di dollari nel 2025 per migliorare ulteriormente le capacità di AI dell’azienda. Le ambizioni di Meta si estendono oltre il suo dominio dei social media, esplorando potenziali abbonamenti premium per il suo assistente AI, Meta AI, per gestire attività come la prenotazione di prenotazioni e la creazione di video.

L’Iniziativa Open-Source di OpenAI

Parallelamente, OpenAI sta presumibilmente considerando di rilasciare una versione open-source del suo LLM, una deviazione dalle sue recenti pratiche. Questa mossa concederebbe agli utenti la libertà di utilizzare, modificare e distribuire il modello senza incorrere in costi di licenza. OpenAI cerca l’input della comunità di sviluppatori, ricercatori e del pubblico più ampio per ottimizzare l’utilità del modello.

Il modello open-source dovrebbe essere lanciato entro pochi mesi. L’ultima volta che OpenAI ha abbracciato i principi dell’open-source è stato nel 2019 con il GPT-2 LLM. Il suo LLM più recente è GPT-4.5. OpenAI è passata a modelli proprietari dopo aver ottenuto un investimento di un miliardo di dollari da Microsoft, formando una stretta alleanza per far avanzare lo sviluppo di modelli AI. Microsoft ha investito da allora oltre 13 miliardi di dollari in OpenAI, con i modelli di OpenAI esclusivi per i clienti dei servizi cloud Azure di Microsoft.

Llama di Meta, l’LLM di Mistral e DeepSeek sono alcuni dei modelli open-source che hanno guadagnato popolarità di recente. Zuckerberg ha menzionato su Threads che Llama è stato scaricato 1 miliardo di volte. Llama è stato lanciato nel 2023.

Il Modello AI "Behemoth" di Meta Affronta Ritardi

Tuttavia, Meta starebbe ritardando il rilascio di "Behemoth", originariamente previsto per un lancio estivo, con il primo rilascio possibile ora previsto per l’autunno. Le fonti suggeriscono che i progressi del modello non sono stati "abbastanza significativi" da giustificare un rilascio a giugno, e rappresenta un ritardo rispetto alla conferenza degli sviluppatori di Meta.

Il ritardo getta un’ombra sul rilascio da parte di Meta della famiglia di punta Llama di grandi modelli linguistici. Il Wall Street Journal afferma che sono stati elogiati per la velocità del loro rilascio. Llama è stato fondamentale per potenziare gli sviluppatori all’interno di aziende più piccole, organizzazioni senza scopo di lucro e istituzioni accademiche. È un’alternativa ai modelli chiusi e proprietari offerti da aziende come OpenAI, Google e Amazon.

L’impatto del ritardo di Behemoth sulle aziende più grandi è meno pronunciato, poiché spesso si affidano a modelli proprietari basati su cloud. Anche se le aziende più piccole possono personalizzare i modelli Llama open-source, richiedono servizi di implementazione aggiuntivi che Meta non offre. L’uso di Llama da parte di Meta è orientato a migliorare i propri strumenti di social media, consentendo a Zuckerberg di mantenere il controllo sulla sua traiettoria AI.

Un fattore significativo alla base del ritardo risiede nel fatto che il modello dimostri miglioramenti sufficientemente sostanziali da giustificare un lancio pubblico.

L’Imperativo per l’Innovazione

Nel mondo frenetico dell’industria tecnologica, le nuove versioni devono mostrare progressi tangibili per giustificarne l’introduzione. A LlamaCon, Meta ha mostrato due modelli Llama 4 più piccoli, ognuno dei quali possiede capacità impressionanti:

  • Maverick vanta 400 miliardi di parametri totali con una finestra di contesto di 1 milione di token (750.000 parole).
  • Scout presenta 109 miliardi di parametri e una finestra di contesto di 10 milioni di token (7,5 milioni di parole).

Behemoth era inizialmente previsto per il rilascio in concomitanza, incorporando 2 trilioni di parametri.

Secondo il Wall Street Journal, Meta sta diventando impaziente con il suo team Llama 4 a causa dei suoi continui investimenti in AI. Nel 2024, l’azienda ha stanziato fino a 72 miliardi di dollari in spese in conto capitale, per lo più dirette allo sviluppo dell’AI.

Preoccupazioni Crescenti

Zuckerberg e altri dirigenti senior non hanno ancora annunciato una data di rilascio definitiva per Behemoth. Gli addetti ai lavori temono che le sue prestazioni potrebbero non soddisfare le aspettative fissate dalle dichiarazioni pubbliche di Meta.

Le fonti indicano un crescente malcontento tra la leadership di Meta per i progressi compiuti dal team che sviluppa i modelli Llama 4. Ciò ha portato a discussioni su possibili cambiamenti di leadership all’interno del suo gruppo di prodotti AI.

Meta ha pubblicizzato Behemoth come un sistema altamente capace, che supera i concorrenti come OpenAI, Google e Anthropic su benchmark specifici. Le sfide interne ne hanno ostacolato l’efficienza, come affermato da coloro che hanno familiarità con il suo sviluppo.

Anche OpenAI ha incontrato dei ritardi. Il loro prossimo modello principale, GPT-5, era originariamente previsto per il rilascio a metà del 2024. Il Wall Street Journal ha riferito a dicembre che lo sviluppo era in ritardo rispetto al programma.

A febbraio, l’amministratore delegato di OpenAI, Sam Altman, ha affermato che il modello intermedio sarebbe stato GPT-4.5, mentre GPT-5 sarebbe rimasto a mesi di distanza.

Possibili Cause del Rallentamento dei Progressi

Diversi fattori possono contribuire al rallentamento nello sviluppo di modelli AI, tra cui:

Diminuzione dei Dati di Alta Qualità

I grandi modelli linguistici richiedono enormi quantità di dati per l’addestramento, rispecchiando la vasta estensione di Internet. Potrebbero esaurire le fonti di dati disponibili pubblicamente affrontando al contempo responsabilità legali relative al copyright.

Ciò ha portato OpenAI, Google e Microsoft a sostenere la conservazione del loro diritto di formare su materiale protetto da copyright.

OpenAI ha menzionato che il governo può garantire la libertà degli americani di imparare dall’AI ed evitare di perdere la leadership AI alla RPC [Repubblica Popolare Cinese] preservando la capacità dei modelli AI americani di imparare da materiale protetto da copyright.

Ostacoli Algoritmici

La convinzione che l’aumento delle dimensioni del modello, l’utilizzo di più calcolo e l’addestramento su più dati produrrebbero notevoli progressi si è dimostrata errata. Bloomberg afferma che ci sono stati rendimenti decrescenti che hanno portato alcuni a dire che le leggi di ridimensionamento stanno rallentando.

I grandi modelli linguistici richiedono una quantità significativa di potenza di calcolo per l’addestramento. Poiché diventano più grandi, aumenta la potenza richiesta. Tuttavia, le scorte di chip di intelligenza artificiale ad alte prestazioni rimangono limitate.