CoreWeave: NVIDIA Grace Blackwell per l'AI

CoreWeave si afferma come leader nel cloud computing, offrendo un ampio accesso ai sistemi NVIDIA GB200 NVL72. Importanti realtà dell’intelligenza artificiale (AI), tra cui Cohere, IBM e Mistral AI, stanno già sfruttando queste risorse per perfezionare modelli e applicazioni AI.

Come primo provider cloud a offrire NVIDIA Grace Blackwell in generale, CoreWeave ha dimostrato notevoli risultati di benchmark MLPerf utilizzando NVIDIA GB200 NVL72. Questa potente piattaforma, progettata per il ragionamento e gli agenti AI, è ora accessibile alla clientela di CoreWeave, offrendo l’accesso a migliaia di GPU NVIDIA Blackwell.

‘Collaboriamo strettamente con NVIDIA per garantire ai nostri clienti le soluzioni più avanzate per il training e l’inferenza dei modelli AI’, ha affermato Mike Intrator, CEO di CoreWeave. ‘Con i nuovi sistemi Grace Blackwell a livello di rack, i nostri clienti sono tra i primi a sperimentare i vantaggi in termini di prestazioni dell’innovazione AI su larga scala’.

L’implementazione di migliaia di GPU NVIDIA Blackwell facilita la rapida conversione di dati grezzi in informazioni fruibili, con ulteriori espansioni pianificate.

Le aziende che utilizzano provider cloud come CoreWeave sono in procinto di integrare sistemi basati su NVIDIA Grace Blackwell. Questi sistemi sono pronti a trasformare i data center in fabbriche di AI, producendo intelligenza su larga scala e convertendo i dati grezzi in approfondimenti con maggiore velocità, accuratezza ed efficienza.

I leader globali dell’AI stanno sfruttando le capacità di GB200 NVL72 per varie applicazioni, tra cui gli agenti AI e lo sviluppo di modelli avanzati.

Agenti AI Personalizzati

Cohere sta utilizzando Grace Blackwell Superchips per migliorare lo sviluppo di applicazioni AI aziendali sicure, sfruttando la ricerca avanzata e le metodologie di sviluppo dei modelli. La sua piattaforma AI aziendale, North, consente ai team di creare agenti AI personalizzati per l’automazione sicura dei flussi di lavoro aziendali e informazioni in tempo reale.

Utilizzando NVIDIA GB200 NVL72 su CoreWeave, Cohere ha riscontrato un aumento delle prestazioni fino a tre volte nel training di modelli da 100 miliardi di parametri rispetto alle GPU NVIDIA Hopper di precedente generazione, anche senza ottimizzazioni specifiche per Blackwell.

Ulteriori ottimizzazioni che sfruttano la memoria unificata, la precisione FP4 e un dominio NVIDIA NVLink a 72 GPU di GB200 NVL72 migliorano la produttività. Ogni GPU opera in concerto, offrendo una maggiore produttività con tempi più brevi per il primo token e per i successivi, per un’inferenza più performante ed economica.

‘Con l’accesso ad alcuni dei primi sistemi NVIDIA GB200 NVL72 nel cloud, siamo soddisfatti della facilità con cui i nostri carichi di lavoro vengono trasferiti all’architettura NVIDIA Grace Blackwell’, ha affermato Autumn Moulder, vicepresidente dell’ingegneria di Cohere. ‘Questo sblocca un’incredibile efficienza delle prestazioni in tutto il nostro stack, dalla nostra applicazione North integrata verticalmente in esecuzione su una singola GPU Blackwell al ridimensionamento dei lavori di training su migliaia di essi. Non vediamo l’ora di ottenere prestazioni ancora maggiori con ulteriori ottimizzazioni a breve’.

Modelli AI per l’Azienda

IBM sta utilizzando una delle prime implementazioni del sistema NVIDIA GB200 NVL72, scalando a migliaia di GPU Blackwell su CoreWeave, per addestrare i suoi modelli Granite di prossima generazione. Questi modelli AI open-source, pronti per l’azienda, offrono prestazioni all’avanguardia garantendo al contempo sicurezza, velocità ed economicità. La famiglia di modelli Granite è supportata da un robusto ecosistema di partner, tra cui le principali società di software che incorporano modelli linguistici di grandi dimensioni nelle loro tecnologie.

I modelli Granite fungono da base per soluzioni come IBM watsonx Orchestrate, che consente alle aziende di sviluppare e implementare agenti AI che automatizzano e accelerano i flussi di lavoro.

L’implementazione di NVIDIA GB200 NVL72 di CoreWeave per IBM utilizza anche IBM Storage Scale System, offrendo storage ad alte prestazioni per l’AI. I clienti CoreWeave possono accedere alla piattaforma IBM Storage all’interno degli ambienti dedicati di CoreWeave e della piattaforma cloud AI.

‘Siamo entusiasti di vedere l’accelerazione che NVIDIA GB200 NVL72 può apportare all’addestramento della nostra famiglia di modelli Granite’, ha affermato Sriram Raghavan, vicepresidente dell’AI presso IBM Research. ‘Questa collaborazione con CoreWeave aumenterà le capacità di IBM per aiutare a costruire modelli avanzati, ad alte prestazioni ed economici per alimentare applicazioni AI aziendali e agentiche con IBM watsonx’.

Risorse di Calcolo su Scala

Mistral AI sta ora integrando i suoi primi mille GPU Blackwell per costruire la prossima generazione di modelli AI open-source.

Mistral AI, leader con sede a Parigi nell’AI open-source, sta sfruttando l’infrastruttura di CoreWeave, ora dotata di GB200 NVL72, per accelerare lo sviluppo dei suoi modelli linguistici. Con modelli come Mistral Large che offrono solide capacità di ragionamento, Mistral richiede risorse di calcolo veloci su larga scala.

Per addestrare e implementare efficacemente questi modelli, Mistral AI ha bisogno di un provider cloud che offra cluster GPU di grandi dimensioni e ad alte prestazioni con la rete NVIDIA Quantum InfiniBand e una gestione affidabile dell’infrastruttura. L’esperienza di CoreWeave nell’implementazione di GPU NVIDIA su larga scala, combinata con l’affidabilità e la resilienza leader del settore attraverso strumenti come CoreWeave Mission Control, soddisfa queste esigenze.

‘Subito fuori dalla scatola e senza ulteriori ottimizzazioni, abbiamo riscontrato un miglioramento delle prestazioni di 2 volte per il training di modelli densi’, ha affermato Thimothee Lacroix, cofondatore e chief technology officer di Mistral AI. ‘Ciò che è entusiasmante di NVIDIA GB200 NVL72 sono le nuove possibilità che apre per lo sviluppo e l’inferenza dei modelli’.

Ampliare la Disponibilità delle Istanze Blackwell

CoreWeave non solo offre soluzioni a lungo termine per i clienti, ma fornisce anche istanze con NVIDIA NVLink a livello di rack su 72 GPU NVIDIA Blackwell e 36 CPU NVIDIA Grace, scalando fino a 110.000 GPU con la rete NVIDIA Quantum-2 InfiniBand.

Queste istanze, accelerate dalla piattaforma di elaborazione accelerata a livello di rack NVIDIA GB200 NVL72, offrono la scalabilità e le prestazioni necessarie per sviluppare e implementare la prossima ondata di modelli e agenti di ragionamento AI.

Approfondimento sull’Infrastruttura Tecnologica di CoreWeave

CoreWeave si è affermata come un attore fondamentale nell’ambito del cloud computing, principalmente grazie al suo impegno nel fornire soluzioni hardware all’avanguardia e un’infrastruttura robusta su misura per le esigenze dell’AI e dei carichi di lavoro di machine learning. L’integrazione dei sistemi NVIDIA GB200 NVL72 sottolinea questa dedizione. Questi sistemi non sono semplici aggiornamenti incrementali; rappresentano un significativo passo avanti in termini di potenza computazionale ed efficienza, consentendo alle organizzazioni di affrontare sfide precedentemente ritenute insormontabili.

L’architettura dell’NVIDIA GB200 NVL72 è meticolosamente progettata per massimizzare le prestazioni in un ampio spettro di applicazioni AI. Integrando 72 GPU NVIDIA Blackwell con 36 CPU NVIDIA Grace, la piattaforma fornisce un ambiente di calcolo bilanciato e potente. Questo equilibrio è fondamentale per i carichi di lavoro che richiedono sia un calcolo intensivo che sostanziali capacità di elaborazione dei dati. L’utilizzo della tecnologia NVLink di NVIDIA migliora ulteriormente l’efficienza del sistema consentendo una comunicazione ad alta velocità tra le GPU, riducendo al minimo la latenza e massimizzando la produttività.

L’infrastruttura di CoreWeave è anche caratterizzata dalla sua scalabilità. La capacità di scalare fino a 110.000 GPU utilizzando la rete NVIDIA Quantum-2 InfiniBand consente alla piattaforma di supportare anche i progetti AI più impegnativi. Questa scalabilità non riguarda solo la potenza di calcolo grezza; implica anche garantire che l’infrastruttura di rete possa gestire i massicci flussi di dati associati al training e all’inferenza AI su larga scala. La rete NVIDIA Quantum-2 InfiniBand fornisce la larghezza di banda e la bassa latenza necessarie per mantenere prestazioni ottimali man mano che il sistema si scala.

L’Importanza Strategica dell’Adozione Precoce

L’approccio proattivo di CoreWeave all’adozione di nuove tecnologie come le GPU NVIDIA Grace Blackwell l’ha posizionata come partner strategico per le aziende all’avanguardia nell’innovazione AI. Essendo tra i primi provider cloud a offrire queste risorse avanzate, CoreWeave consente ai propri clienti di ottenere un vantaggio competitivo nei rispettivi mercati. Questo accesso anticipato consente alle aziende di sperimentare nuovi modelli, ottimizzare i flussi di lavoro esistenti e, in definitiva, accelerare il time to market.

I vantaggi dell’adozione precoce vanno oltre il semplice accesso all’hardware avanzato. Implica anche una stretta collaborazione con fornitori di tecnologia come NVIDIA, consentendo a CoreWeave di ottimizzare la propria infrastruttura e stack software per sfruttare appieno le capacità del nuovo hardware. Questa collaborazione si traduce in una piattaforma più ottimizzata ed efficiente, che si traduce in migliori prestazioni e risparmi sui costi per i clienti di CoreWeave.

Inoltre, la strategia di adozione precoce di CoreWeave promuove una cultura dell’innovazione all’interno dell’azienda. Spingendo costantemente i confini di ciò che è possibile con il cloud computing, CoreWeave attrae i migliori talenti e si afferma come leader del settore. Questo, a sua volta, rafforza la sua capacità di fornire soluzioni all’avanguardia e mantenere il suo vantaggio competitivo.

Implicazioni per lo Sviluppo di Modelli AI

L’implementazione delle GPU NVIDIA Grace Blackwell sulla piattaforma di CoreWeave ha profonde implicazioni per lo sviluppo di modelli AI. La maggiore potenza computazionale ed efficienza di queste GPU consente a ricercatori e ingegneri di addestrare modelli più grandi e complessi in una frazione del tempo rispetto alle precedenti generazioni di hardware. Questa accelerazione del processo di training è fondamentale per rimanere al passo con il campo dell’AI in rapida evoluzione.

Inoltre, i sistemi NVIDIA GB200 NVL72 facilitano lo sviluppo di modelli AI più sofisticati in grado di svolgere compiti più complessi. Ad esempio, questi sistemi sono particolarmente adatti per l’addestramento di modelli che richiedono ampie capacità di ragionamento, come quelli utilizzati nell’elaborazione del linguaggio naturale e nella visione artificiale. La capacità di elaborare grandi quantità di dati ed eseguire calcoli complessi rende questi modelli più accurati, affidabili e in grado di gestire scenari del mondo reale.

L’impatto sulle applicazioni specifiche è sostanziale. Nell’elaborazione del linguaggio naturale, il nuovo hardware consente la creazione di modelli linguistici più potenti in grado di comprendere e generare testo simile a quello umano con maggiore fluidità e coerenza. Ciò porta a miglioramenti in applicazioni come chatbot, assistenti virtuali e traduzione automatica. Nella visione artificiale, la maggiore potenza computazionale consente lo sviluppo di sistemi di riconoscimento degli oggetti più accurati, essenziali per applicazioni come veicoli autonomi, imaging medico e sorveglianza.

Il Ruolo di CoreWeave nella Democratizzazione dell’AI

Gli sforzi di CoreWeave per rendere le risorse di calcolo avanzate accessibili a un pubblico più ampio svolgono un ruolo significativo nella democratizzazione dell’AI. Fornendo un accesso economico all’hardware all’avanguardia, CoreWeave consente alle aziende più piccole e agli istituti di ricerca di competere con le organizzazioni più grandi che tradizionalmente hanno dominato il panorama dell’AI. Questa democratizzazione dell’AI promuove l’innovazione e promuove una gamma più diversificata di prospettive nello sviluppo delle tecnologie AI.

La disponibilità di potenti risorse basate su cloud abbassa anche la barriera all’ingresso per individui e startup interessati a esplorare l’AI. Eliminando la necessità di ingenti investimenti iniziali in hardware, CoreWeave consente agli aspiranti sviluppatori di AI di concentrarsi sulle proprie idee e innovazioni. Questo può portare alla creazione di nuove applicazioni e soluzioni che altrimenti non sarebbero state possibili.

Inoltre, l’impegno di CoreWeave nel fornire una piattaforma intuitiva e servizi di supporto completi contribuisce ulteriormente alla democratizzazione dell’AI. Rendendo più facile per gli utenti accedere e utilizzare risorse di calcolo avanzate, CoreWeave consente loro di raggiungere i propri obiettivi e contribuire al progresso dell’AI.

Trasformare i Settori con l’AI

I progressi resi possibili dall’implementazione delle GPU NVIDIA Grace Blackwell di CoreWeave sono pronti a trasformare vari settori. La maggiore potenza computazionale ed efficienza di questi sistemi guiderà l’innovazione e creerà nuove opportunità in settori che vanno dall’assistenza sanitaria alla finanza.

Nell’assistenza sanitaria, l’AI viene utilizzata per sviluppare strumenti diagnostici più accurati, personalizzare i piani di trattamento e accelerare la scoperta di farmaci. La disponibilità di risorse di calcolo avanzate consente ai ricercatori di analizzare grandi quantità di dati medici e identificare modelli che sarebbero impossibili da rilevare manualmente. Questo può portare a scoperte nella cura delle malattie e migliorare i risultati dei pazienti.

Nella finanza, l’AI viene utilizzata per rilevare frodi, gestire i rischi e automatizzare i processi di trading. La capacità di elaborare grandi volumi di dati finanziari in tempo reale consente alle aziende di prendere decisioni più informate e rispondere rapidamente alle mutevoli condizioni del mercato. Questo può portare a una maggiore efficienza, riduzione dei costi e miglioramento della redditività.

Altri settori che probabilmente saranno trasformati dall’AI includono la produzione, i trasporti e la vendita al dettaglio. Nella produzione, l’AI viene utilizzata per ottimizzare i processi di produzione, migliorare il controllo della qualità e ridurre gli sprechi. Nei trasporti, l’AI sta consentendo lo sviluppo di veicoli autonomi e sistemi logistici più efficienti. Nella vendita al dettaglio, l’AI viene utilizzata per personalizzare le esperienze dei clienti, ottimizzare i prezzi e migliorare la gestione della supply chain.

La Visione di CoreWeave per il Futuro

L’implementazione delle GPU NVIDIA Grace Blackwell di CoreWeave non è solo un evento una tantum; fa parte di una visione più ampia per il futuro del cloud computing e dell’AI. CoreWeave si impegna a investire continuamente in nuove tecnologie e ad espandere la propria infrastruttura per soddisfare le esigenze in evoluzione dei propri clienti. Ciò include l’esplorazione di nuove architetture, lo sviluppo di software più efficienti e la promozione della collaborazione con i principali fornitori di tecnologia.

La visione di CoreWeave va oltre la semplice fornitura di risorse di calcolo avanzate. Implica anche la creazione di un vivace ecosistema di sviluppatori, ricercatori e aziende che stanno lavorando per spingere i confini dell’AI. Promuovendo l’innovazione e la collaborazione, CoreWeave mira ad accelerare lo sviluppo e l’adozione delle tecnologie AI in tutti i settori.

L’impegno dell’azienda per la sostenibilità è anche una parte fondamentale della sua visione. CoreWeave sta lavorando attivamente per ridurre il proprio impatto ambientale utilizzando fonti di energia rinnovabile e implementando tecnologie ad alta efficienza energetica. Ciò riflette una crescente consapevolezza dell’importanza della sostenibilità nel settore tecnologico e un impegno a creare un futuro più responsabile dal punto di vista ambientale.