Il Percorso di Huang tra le IA

Jensen Huang, CEO di Nvidia, ha parlato alla conferenza annuale degli sviluppatori di software dell’azienda a San Jose, in California, affermando la forte posizione di Nvidia in mezzo a una significativa trasformazione nel settore dell’intelligenza artificiale. Ha sottolineato il passaggio in corso dalla fase di training dei modelli di IA alla fase di inference, in cui le aziende si concentrano sempre più sull’estrazione di informazioni dettagliate e utilizzabili da questi modelli.

Affrontare le Preoccupazioni degli Investitori e le Dinamiche di Mercato

La presentazione di Huang, tenuta con la sua caratteristica giacca di pelle nera e jeans, è servita come difesa della posizione dominante di Nvidia nel mercato dei chip per l’IA, un mercato ad alta posta in gioco. Le recenti preoccupazioni degli investitori, alimentate da rapporti di concorrenti come la cinese DeepSeek che hanno raggiunto prestazioni di chatbot comparabili con potenzialmente meno chip per l’IA, hanno gettato un’ombra sul vantaggio apparentemente inattaccabile di Nvidia.

Nonostante il discorso fiducioso di Huang, il mercato ha risposto con un certo scetticismo. Le azioni di Nvidia hanno subito un calo del 3,4%, rispecchiando un calo più ampio dell’indice dei chip, che ha chiuso in calo dell’1,6%. Questa reazione suggerisce che il mercato potrebbe aver già scontato gran parte delle notizie previste, riflettendo un approccio di “attesa” alla strategia a lungo termine di Nvidia.

Dissipare le Idee Sbagliate ed Evidenziare le Esigenze Computazionali

Huang ha affrontato direttamente quella che percepiva come una diffusa incomprensione riguardo ai requisiti computazionali in evoluzione dell’IA. Ha affermato con coraggio: “Quasi tutto il mondo ha sbagliato”, sottolineando l’aumento esponenziale della potenza di calcolo necessaria per le applicazioni avanzate di IA, in particolare nel campo dell’”IA agentica”.

L’IA agentica, caratterizzata da agenti autonomi in grado di svolgere compiti di routine con un intervento umano minimo, richiede capacità di elaborazione significativamente maggiori. Huang ha stimato che le esigenze computazionali per l’IA agentica e il ragionamento sono “facilmente 100 volte superiori a quanto pensavamo di aver bisogno l’anno scorso in questo periodo”. Questo drammatico aumento sottolinea la continua, e forse sottovalutata, domanda di soluzioni di calcolo ad alte prestazioni.

La Dicotomia Training vs. Inference

Un elemento chiave dell’attuale sfida di Nvidia risiede nelle dinamiche in evoluzione del mercato dell’IA. L’industria sta passando da un focus primario sul training, in cui enormi set di dati vengono utilizzati per infondere intelligenza ai modelli di IA come i chatbot, all’inference. L’inference è la fase in cui il modello addestrato sfrutta le conoscenze acquisite per fornire agli utenti risposte e soluzioni specifiche.

Questo cambiamento rappresenta un potenziale ostacolo per Nvidia, poiché i suoi chip più redditizi sono stati tradizionalmente ottimizzati per la fase di training ad alta intensità di calcolo. Mentre Nvidia ha coltivato un forte ecosistema di strumenti software e supporto per gli sviluppatori negli ultimi dieci anni, sono i chip per data center, che costano decine di migliaia di dollari, ad aver generato la maggior parte delle sue entrate, per un totale di 130,5 miliardi di dollari l’anno scorso.

Sostenere lo Slancio: L’Impennata di Tre Anni e Oltre

Le azioni di Nvidia hanno assistito a un’ascesa meteorica, più che quadruplicando il loro valore negli ultimi tre anni. Questa notevole crescita è stata alimentata dal ruolo fondamentale dell’azienda nel potenziare l’emergere di sofisticati sistemi di IA, tra cui ChatGPT, Claude e numerosi altri. L’hardware dell’azienda è diventato sinonimo di sviluppo di IA all’avanguardia.

Tuttavia, mantenere questo slancio richiede l’adattamento alle mutevoli esigenze del mercato focalizzato sull’inference. Mentre la visione a lungo termine di un’industria dell’IA costruita sui chip di Nvidia rimane convincente, le aspettative degli investitori a breve termine sono più sensibili alle sfide e alle opportunità immediate presentate dalla rivoluzione dell’inference.

Svelare i Chip di Prossima Generazione: Blackwell Ultra e Oltre

Huang ha utilizzato la conferenza come piattaforma per annunciare una serie di nuove versioni di chip, progettate per consolidare la posizione di Nvidia nel panorama in evoluzione dell’IA. Tra questi annunci c’era la presentazione del chip GPU Blackwell Ultra, previsto per il rilascio nella seconda metà di quest’anno.

Blackwell Ultra vanta una capacità di memoria migliorata rispetto al suo predecessore, il chip Blackwell di attuale generazione. Questa maggiore memoria gli consente di supportare modelli di IA più grandi e complessi, soddisfacendo le crescenti esigenze delle applicazioni di IA avanzate.

Doppio Focus: Reattività e Velocità

Huang ha sottolineato che i chip di Nvidia sono progettati per affrontare due aspetti critici delle prestazioni dell’IA: reattività e velocità. I chip devono consentire ai sistemi di IA di fornire risposte intelligenti a un vasto numero di query degli utenti, fornendo contemporaneamente tali risposte con una latenza minima.

Huang ha sostenuto che la tecnologia di Nvidia è in una posizione unica per eccellere in entrambe le aree. Ha tracciato un parallelo con la ricerca sul web, affermando: “Se ci metti troppo tempo a rispondere a una domanda, il cliente non tornerà”. Questa analogia evidenzia l’importanza della velocità e dell’efficienza nel mantenere il coinvolgimento e la soddisfazione degli utenti nelle applicazioni basate sull’IA.

Roadmap per il Futuro: Vera Rubin e Feynman

Guardando oltre Blackwell Ultra, Huang ha fornito uno sguardo alla futura roadmap dei chip di Nvidia, rivelando dettagli sull’imminente sistema Vera Rubin. Previsto per il rilascio nella seconda metà del 2026, Vera Rubin è progettato per succedere a Blackwell, offrendo velocità ancora maggiori e capacità migliorate.

Più avanti, Huang ha annunciato che i chip Rubin sarebbero stati seguiti dai chip Feynman, previsti per il 2028. Questa roadmap multi-generazionale dimostra l’impegno di Nvidia per l’innovazione continua e la sua determinazione a mantenere un vantaggio tecnologico nel mercato dell’hardware per l’IA in rapida evoluzione.

Affrontare le Sfide del Settore e il Lancio di Blackwell

La presentazione di questi nuovi chip arriva in un momento in cui l’ingresso sul mercato di Blackwell è stato più lento del previsto. Un difetto di progettazione avrebbe portato a problemi di produzione, contribuendo ai ritardi. Questa situazione riflette le difficoltà più ampie del settore, poiché l’approccio tradizionale di alimentare set di dati sempre più grandi in enormi data center pieni di chip Nvidia ha iniziato a mostrare rendimenti decrescenti.

Nonostante queste sfide, Nvidia ha riferito il mese scorso che gli ordini per Blackwell erano “incredibili”, suggerendo una forte domanda per il nuovo chip nonostante le battute d’arresto iniziali.

Espandere l’Ecosistema: DGX Workstation e Innovazioni Software

Oltre agli annunci principali sui chip, Huang ha introdotto un nuovo potente personal computer, la DGX Workstation, basata sui chip Blackwell. Questa workstation, che sarà prodotta da aziende leader come Dell, Lenovo e HP, rappresenta una sfida per alcune delle offerte Mac di fascia alta di Apple.

Huang ha mostrato con orgoglio una scheda madre per uno di questi dispositivi, dichiarando: “Ecco come dovrebbe essere un PC”. Questa mossa segnala l’ambizione di Nvidia di espandere la sua presenza nel mercato del calcolo ad alte prestazioni oltre i data center e nel regno delle workstation professionali.

Dynamo: Accelerare il Ragionamento e la Collaborazione con General Motors

Sul fronte del software, Huang ha annunciato il rilascio di Dynamo, un nuovo strumento software progettato per accelerare il processo di ragionamento nelle applicazioni di IA. Dynamo viene offerto gratuitamente, con l’obiettivo di favorire una più ampia adozione e accelerare l’innovazione nel campo.

Inoltre, Huang ha rivelato una significativa partnership con General Motors, che ha scelto Nvidia per alimentare la sua flotta di auto a guida autonoma. Questa collaborazione sottolinea la crescente influenza di Nvidia nel settore automobilistico e il suo impegno a far progredire la tecnologia di guida autonoma. Questa è una vittoria di alto profilo e mostra quanto siano diverse le applicazioni per Nvidia.

Il Percorso Futuro

Nvidia sta scommettendo molto sul futuro dell’IA e la sua continua innovazione è fondamentale. Riconosce la necessità di adattarsi al passaggio verso l’inference e sta già sviluppando chip in grado di fare entrambe le cose. Con la sua storia di successo e il suo impegno nella ricerca e sviluppo, Nvidia è destinata a rimanere un attore importante nel settore dell’IA per gli anni a venire. Le partnership con le principali aziende tecnologiche e automobilistiche sono un’indicazione della direzione in cui si sta muovendo Nvidia.