NVIDIA e Microsoft: Innovazione AI Agente

NVIDIA e Microsoft stanno intensificando i loro sforzi collaborativi per promuovere i progressi nelle applicazioni di AI agente, che spaziano dalle soluzioni basate su cloud ai personal computer. Questa partnership approfondita è destinata ad accelerare le scoperte scientifiche e promuovere l’innovazione in vari settori.

Potenziamento della Ricerca Scientifica con l’AI

Microsoft Discovery è impostato per integrare il microservizio ALCHEMI NIM di NVIDIA. Questa integrazione è fondamentale per ottimizzare l’inferenza AI per simulazioni chimiche complesse, accelerando significativamente la ricerca nella scienza dei materiali attraverso la previsione precisa delle proprietà e la raccomandazione efficace dei candidati. Questo miglioramento promette di semplificare l’identificazione di nuovi materiali con le caratteristiche desiderate, riducendo i tempi e le risorse tradizionalmente richiesti.

Inoltre, Microsoft Discovery incorporerà i microservizi BioNeMo NIM di NVIDIA. Questi microservizi sono progettati per sfruttare i flussi di lavoro AI pre-addestrati, accelerando sostanzialmente il processo di sviluppo del modello AI per la scoperta di farmaci. Sfruttando questi strumenti, i ricercatori possono sviluppare e perfezionare rapidamente modelli AI che prevedono l’efficacia del farmaco e i potenziali effetti collaterali, portando a processi di sviluppo di farmaci più efficienti e mirati.

Queste integrazioni sono meticolosamente progettate per fornire ai ricercatori prestazioni accelerate, riducendo i tempi necessari per le scoperte scientifiche. Garantiscono che i ricercatori possano gestire vasti set di dati e simulazioni complesse con velocità e precisione senza precedenti, consentendo loro di affrontare alcuni dei problemi più impegnativi nella ricerca scientifica.

Un’applicazione pratica di questi progressi è stata dimostrata dai ricercatori di Microsoft. Hanno utilizzato con successo Microsoft Discovery per individuare un nuovo prototipo di refrigerante che mostrava proprietà promettenti per il raffreddamento a immersione nei data center in meno di 200 ore. Questa tempistica è in netto contrasto con i mesi o addirittura gli anni tipicamente richiesti dai metodi convenzionali. Il raffreddamento a immersione, che prevede l’immersione di componenti elettronici in un liquido refrigerante non conduttivo, sta diventando sempre più vitale per la gestione del calore generato dai sistemi di calcolo ad alte prestazioni.

GPU NVIDIA Blackwell nei Data Center di Azure

Per rafforzare le prestazioni e l’efficienza, Microsoft sta rapidamente implementando centinaia di migliaia di GPU NVIDIA Blackwell all’interno dei data center Azure ottimizzati per l’AI in tutto il mondo. Queste GPU sono integrate nei sistemi rack-scale NVIDIA GB200 NVL72, che sono progettati per gestire i carichi di lavoro AI più impegnativi.

Molti dei principali clienti di Microsoft, tra cui OpenAI, stanno attualmente eseguendo carichi di lavoro di produzione su questa infrastruttura avanzata. L’utilizzo delle GPU NVIDIA Blackwell consente a queste organizzazioni di eseguire attività AI complesse in modo più efficiente ed efficace. Questa implementazione sottolinea l’impegno di Microsoft nel fornire capacità AI all’avanguardia ai propri clienti.

Le macchine virtuali ND GB200 v6 di Azure rappresentano un significativo passo avanti nella potenza di calcolo. Offrono fino a 35 volte più throughput di inferenza rispetto alle precedenti VM ND H100 v5. Le vecchie VM, accelerate da otto GPU NVIDIA H100, ora impallidiscono rispetto alle prestazioni migliorate offerte dalla nuova generazione, segnando un nuovo punto di riferimento per i carichi di lavoro AI. Questo livello di miglioramento delle prestazioni può ridurre significativamente i tempi ei costi associati all’esecuzione di modelli AI su larga scala.

Questa impressionante scala e alte prestazioni sono supportate da progetti di server personalizzati, interconnessioni NVIDIA NVLink ad alta velocità e networking NVIDIA Quantum InfiniBand. Queste tecnologie facilitano il ridimensionamento senza interruzioni a migliaia di GPU Blackwell, fondamentali per la gestione di applicazioni AI generative e agentiche impegnative. La sofisticata interconnettività garantisce una comunicazione a bassa latenza tra le GPU, migliorando le prestazioni complessive del sistema.

Satya Nadella, presidente e CEO di Microsoft, e Jensen Huang, fondatore e CEO di NVIDIA, hanno sottolineato che la loro collaborazione sta producendo significativi guadagni di prestazioni attraverso continue ottimizzazioni del software su tutte le architetture NVIDIA su Azure. Questo approccio è progettato per massimizzare la produttività degli sviluppatori, ridurre il costo totale di proprietà e accelerare tutti i carichi di lavoro, inclusi l’AI e l’elaborazione dei dati. In definitiva, ciò porta a una maggiore efficienza per dollaro e per watt per i clienti.

Espansione delle Capacità con l’Integrazione NIM

Basandosi sull’integrazione NIM in Azure AI Foundry, Microsoft e NVIDIA stanno espandendo la piattaforma con la famiglia di modelli di ragionamento aperti NVIDIA Llama Nemotron e i microservizi BioNeMo NIM di NVIDIA. Questi sono progettati per fornire inferenza containerizzata di livello enterprise per processi decisionali complessi e carichi di lavoro AI specifici del dominio.

Gli sviluppatori possono ora sfruttare i microservizi NIM ottimizzati per il ragionamento avanzato all’interno di Azure AI Foundry. Questi includono i modelli NVIDIA Llama Nemotron Super e Nano, che forniscono ragionamento multistep avanzato, codifica e capacità agentiche. Offrono fino al 20% di precisione in più e un’inferenza cinque volte più veloce rispetto ai modelli precedenti, consentendo agli sviluppatori di creare applicazioni AI più sofisticate ed efficienti.

I microservizi BioNeMo NIM, specificamente adattati per applicazioni sanitarie, rispondono a esigenze critiche nella biologia digitale, nella scoperta di farmaci e nell’imaging medico. Consentono a ricercatori e clinici di accelerare la scienza delle proteine, la modellazione molecolare e l’analisi genomica, portando a una migliore assistenza ai pazienti e a un’innovazione scientifica più rapida. Questi strumenti consentono agli operatori sanitari di prendere decisioni più informate e sviluppare trattamenti più efficaci.

Questa integrazione ampliata consente alle organizzazioni di implementare rapidamente agenti AI ad alte prestazioni. Collegandosi a questi modelli e ad altre soluzioni sanitarie specializzate, le organizzazioni possono ottenere una solida affidabilità e una scalabilità semplificata, soddisfacendo così le diverse esigenze di vari settori e applicazioni.

AI Generativa su PC RTX AI

L’AI generativa sta rivoluzionando il software per PC introducendo esperienze completamente nuove che vanno dagli umani digitali agli assistenti di scrittura, agli agenti intelligenti e agli strumenti creativi. I PC NVIDIA RTX AI facilitano la sperimentazione con l’AI generativa e migliorano le prestazioni su Windows 11, rendendo l’AI all’avanguardia accessibile a un pubblico più ampio.

A Microsoft Build, NVIDIA e Microsoft hanno presentato uno stack di inferenza AI progettato per semplificare lo sviluppo e migliorare le prestazioni di inferenza per i PC Windows 11. Questo toolset è fondamentale per abilitare un’esperienza AI senza interruzioni sui personal computer, rendendo gli strumenti AI più reattivi ed efficienti.

NVIDIA TensorRT è stato riprogettato specificamente per i PC RTX AI. Combina le prestazioni di TensorRT con la creazione di motori just-in-time su dispositivo e un pacchetto otto volte più piccolo per l’implementazione AI senza interruzioni su oltre 100 milioni di PC RTX AI. Questa ottimizzazione consente un’elaborazione AI più veloce ed efficiente sui PC, aprendo la strada a nuove applicazioni e capacità.

Annunciato a Microsoft Build, TensorRT per RTX è supportato nativamente da Windows ML, un nuovo stack di inferenza che fornisce agli sviluppatori di app un’ampia compatibilità hardware e prestazioni all’avanguardia. TensorRT per RTX è disponibile nell’anteprima di Windows ML a partire da oggi e sarà disponibile come kit di sviluppo software autonomo da NVIDIA Developer a giugno. Questo sviluppo semplifica il processo per gli sviluppatori che desiderano integrare le capacità AI nelle loro applicazioni Windows, garantendo che l’AI sia accessibile a una vasta gamma di soluzioni software.

In sostanza, la collaborazione tra NVIDIA e Microsoft sta creando un ecosistema sinergico in cui i progressi nella tecnologia AI si traducono rapidamente in applicazioni del mondo reale, a vantaggio di ricercatori, sviluppatori e utenti finali. Questa partnership è strategicamente posizionata per mantenere la sua leadership nel campo dell’intelligenza artificiale in rapida evoluzione.

Analisi Dettagliata dei Progressi

Tecnologie All’Avanguardia

La collaborazione tra NVIDIA e Microsoft sfrutta diverse tecnologie all’avanguardia per ottenere progressi nell’AI agentica. Qui approfondiamo questi componenti chiave.

  • Microservizio ALCHEMI NIM NVIDIA: Questo microservizio è uno strumento specializzato ottimizzato per l’inferenza AI nelle simulazioni chimiche. La sua funzione principale è quella di accelerare la ricerca nella scienza dei materiali attraverso la previsione accurata delle proprietà e la raccomandazione efficiente dei candidati. Consentendo simulazioni più veloci e precise, consente ai ricercatori di identificare materiali promettenti molto più rapidamente di quanto consentano i metodi tradizionali.

  • Microservizi BioNeMo NIM NVIDIA: Questi microservizi forniscono flussi di lavoro AI pre-addestrati per accelerare lo sviluppo di modelli AI per la scoperta di farmaci. I ricercatori possono utilizzarli per sviluppare rapidamente modelli che prevedano l’efficacia del farmaco e i potenziali effetti collaterali, accelerando significativamente lo sviluppo di nuovi farmaci.

  • GPU Blackwell NVIDIA: Queste GPU offrono prestazioni ed efficienza migliorate nei carichi di lavoro AI all’interno dei data center di Azure. Integrate in sistemi rack-scale, supportano clienti come OpenAI nell’esecuzione di attività complesse in modo fluido ed efficace.

  • Interconnessioni NVLink NVIDIA: Queste interconnessioni ad alta velocità servono a garantire una comunicazione a bassa latenza tra le GPU, migliorando significativamente le prestazioni complessive del sistema. Il risultato è un calcolo più veloce e una maggiore efficienza in varie operazioni AI.

  • Networking InfiniBand Quantum NVIDIA: Questo supporta il ridimensionamento senza interruzioni a migliaia di GPU Blackwell, rendendolo fondamentale per la gestione di carichi di lavoro AI generativi e agentici impegnativi. Le capacità di rete assicurano che i modelli AI su larga scala possano essere implementati e gestiti in modo efficace.

  • Modelli Nemotron Llama NVIDIA: I modelli Nemotron Llama Super e Nano NVIDIA sono progettati per fornire ragionamento multistep avanzato, codifica e capacità agentiche. La maggiore precisione e le velocità di inferenza più elevate consentono agli sviluppatori di creare applicazioni AI più sofisticate ed efficienti.

Impatto sulla Ricerca Scientifica

L’integrazione delle tecnologie NVIDIA nelle piattaforme Microsoft ha profonde implicazioni per la ricerca scientifica in molteplici discipline.

  • Scienza dei Materiali: Il microservizio ALCHEMI NIM NVIDIA aiuta nella previsione precisa delle proprietà e nella raccomandazione dei candidati, consentendo un’identificazione più rapida di nuovi materiali con le caratteristiche desiderate.

  • Scoperta di Farmaci: I microservizi BioNeMo NIM accelerano lo sviluppo di modelli AI, consentendo ai ricercatori di sviluppare modelli che prevedano l’efficacia del farmaco e i potenziali effetti collaterali.

  • Raffreddamento del Data Center: Microsoft ha utilizzato Microsoft Discovery per rilevare un nuovo prototipo di refrigerante ideale per il raffreddamento a immersione nei data center in meno di 200 ore invece di mesi o anni con i metodi tradizionali. Questo evidenzia la rapida accelerazione delle scoperte scientifiche.

  • Scienza delle Proteine, Modellazione Molecolare e Analisi Genomica: I microservizi BioNeMo NIM consentono l’accelerazione in questi domini. Portano a una migliore assistenza ai pazienti e a un’innovazione scientifica più rapida.

Infrastruttura AI di Azure

Azure AI Foundry di Microsoft e i suoi data center rappresentano significativi investimenti nella creazione di un ambiente ottimale per l’esecuzione di carichi di lavoro AI.

  • Macchine Virtuali ND GB200 v6: Offrono fino a 35 volte più throughput di inferenza rispetto alle precedenti VM ND H100 v5, stabilendo un nuovo punto di riferimento per i carichi di lavoro AI.

  • Progetti di Server Personalizzati: I progetti di server personalizzati sono sviluppati per massimizzare le prestazioni e l’efficienza, consentendo alle GPU Blackwell di operare al loro pieno potenziale.

  • Ottimizzazioni NVIDIA su Azure: Le continue ottimizzazioni del software su tutte le architetture NVIDIA su Azure massimizzano la produttività degli sviluppatori, riducono il costo totale di proprietà e accelerano tutti i carichi di lavoro, migliorando l’efficienza per dollaro e per watt per i clienti.

AI Generativa sui Personal Computer

I progressi nella tecnologia AI stanno trovando la loro strada anche nei personal computer, guidando nuove possibilità per le applicazioni software e le esperienze utente.

  • PC RTX AI NVIDIA: La sperimentazione semplificata con l’AI generativa e il miglioramento delle prestazioni su Windows 11 sono facilitate dai PC RTX AI NVIDIA. Rendono la tecnologia AI all’avanguardia più accessibile a un pubblico più ampio.

  • NVIDIA TensorRT: Questo kit di sviluppo software (SDK) è stato ottimizzato per i PC RTX AI. Combina alte prestazioni con un pacchetto otto volte più piccolo per un’implementazione AI senza interruzioni. Ciò semplifica l’integrazione di funzionalità AI nell’applicazione per gli sviluppatori.

  • Supporto Windows ML: Il supporto nativo per TensorRT in Windows ML garantisce un’ampia compatibilità hardware e prestazioni all’avanguardia. Ciò facilita l’integrazione senza interruzioni dell’AI nelle applicazioni Windows.

  • Nuove Esperienze Utente: Dagli umani digitali agli assistenti di scrittura, agli agenti intelligenti e agli strumenti creativi, l’AI generativa sta rimodellando il software per PC e introducendo esperienze completamente nuove. Gli utenti possono beneficiare di applicazioni più interattive, intelligenti e creative.

La Visione Strategica

La collaborazione tra NVIDIA e Microsoft si basa su una visione strategica, che mira a guidare il progresso della tecnologia AI in vari settori. Gli sforzi collaborativi e le tecnologie sono progettati per accelerare l’adozione dell’AI in diversi domini, a vantaggio non solo di ricercatori e sviluppatori, ma anche di utenti finali e organizzazioni in tutto il mondo.

  • Innovazione: La continuaenfasi sull’innovazione e la collaborazione accelera i progressi tecnologici. Questo aiuta a mantenere la leadership in un campo in rapida evoluzione.

  • Accessibilità: NVIDIA e Microsoft stanno democratizzando l’AI rendendola accessibile a sviluppatori e utenti attraverso strumenti ottimizzati, integrazione con piattaforme popolari e miglioramenti nell’efficienza dei costi.

  • Prestazioni ed Efficienza: L’attenzione al miglioramento sia delle prestazioni che dell’efficienza dei costi garantisce che i vantaggi delle tecnologie AI siano disponibili per una vasta gamma di utenti, dai singoli ricercatori alle grandi imprese.

  • Applicazioni del Mondo Reale: Traducendo i progressi dell’AI in soluzioni del mondo reale, NVIDIA e Microsoft stanno guidando vantaggi tangibili e trasformando i settori in tutto il mondo.