Siamo entusiasti di partecipare ancora una volta alla conferenza Build, un momento speciale ogni anno per entrare in contatto con la comunità mondiale degli sviluppatori. È esaltante condividere a cosa stiamo lavorando e vedere come gli sviluppatori usano le piattaforme Microsoft per costruire la prossima generazione di innovazioni.
In Microsoft, crediamo che il futuro dell’intelligenza artificiale si stia costruendo sul cloud, sull’edge e su Windows. Windows è, e rimarrà, una piattaforma aperta che offre agli sviluppatori la possibilità di svolgere al meglio il proprio lavoro e di avere la massima flessibilità.
La nostra stella polare è chiara: rendere Windows la piattaforma migliore per gli sviluppatori, su misura per la nuova era dell’intelligenza artificiale, in cui l’intelligenza è integrata in software, chip e hardware. Dall’uso di Windows 11 sul client all’uso di Windows 365 sul cloud, stiamo costruendo una piattaforma che supporta un’ampia gamma di scenari, dallo sviluppo dell’intelligenza artificiale ai flussi di lavoro IT principali, il tutto con la sicurezza al primo posto.
Nell’ultimo anno, abbiamo dedicato del tempo ad ascoltare gli sviluppatori, a capire cosa apprezzano di più e quali sono le opportunità che abbiamo per rendere Windows un ambiente di sviluppo ancora migliore, in particolare nell’era dello sviluppo dell’intelligenza artificiale. Questo feedback ha plasmato la nostra visione della piattaforma di sviluppo Windows e gli aggiornamenti che stiamo presentando oggi.
Nuove funzionalità di Windows alla conferenza Build:
Windows AI Foundry è l’evoluzione di Windows Copilot Runtime, che fornisce una piattaforma unificata e affidabile per supportare l’intero ciclo di vita dello sviluppo dell’intelligenza artificiale, dalla selezione del modello all’ottimizzazione, alla messa a punto fino alla distribuzione su client e cloud. Windows AI Foundry include le seguenti funzionalità:
Windows ML è alla base della piattaforma di intelligenza artificiale ed è il runtime di inferenza AI integrato in Windows. Questo consente agli sviluppatori di portare i propri modelli e di distribuirli in modo efficiente nell’ecosistema di partner di chip, tra cui AMD, Intel, NVIDIA e Qualcomm, estendendosi a CPU, GPU e NPU.
Windows AI Foundry integra Foundry Local e altri cataloghi di modelli come Ollama e NVIDIA NIM, fornendo agli sviluppatori un accesso rapido a un’ampia gamma di modelli open-source pronti per essere utilizzati sui chip Windows. Questo consente agli sviluppatori di esplorare, testare, interagire e distribuire modelli nelle loro applicazioni locali.
Inoltre, Windows AI Foundry fornisce API AI pronte all’uso supportate da modelli integrati di Windows su Copilot+ PC, per attività chiave di linguaggio e visione come intelligenza del testo, descrizione di immagini, riconoscimento del testo, prompt personalizzati e cancellazione di oggetti. Stiamo annunciando nuove funzionalità come il LoRA (low-rank-adaption) per la messa a punto, con dati personalizzati, del nostro SLM Phi Silica integrato. Stiamo anche annunciando nuove API per la ricerca semantica e il recupero di conoscenza, in modo che gli sviluppatori possano utilizzare i propri dati personalizzati per costruire la ricerca in linguaggio naturale e scenari RAG (Retrieval Augmented Generation) nelle loro applicazioni.
Evoluzione di Windows 11 per un futuro ambiente Agentic con il supporto nativo per il Model Context Protocol (MCP). L’integrazione di MCP con Windows fornirà agli agenti AI un framework standardizzato per connettersi ad applicazioni Windows native, consentendo alle applicazioni di partecipare senza problemi alle interazioni Agentic. Le applicazioni Windows possono esporre funzionalità specifiche per migliorare le competenze e le capacità degli agenti installati su un PC Windows. Nei prossimi mesi, forniremo un’anteprima di sviluppo privata con partner selezionati per iniziare a raccogliere feedback.
Azioni dell’applicazione su Windows, una nuova funzionalità per gli sviluppatori di applicazioni per creare azioni per funzionalità specifiche nelle loro applicazioni e aumentarne la rilevabilità, sbloccando nuovi punti di ingresso per gli sviluppatori per coinvolgere nuovi utenti.
Nuove funzionalità di sicurezza di Windows, come VBS (Virtualization-Based Security) Enclave SDK e crittografia post-quantistica (PQC), offrono agli sviluppatori strumenti aggiuntivi per sviluppare più facilmente soluzioni sicure man mano che il panorama delle minacce continua ad evolversi.
Windows Subsystem for Linux (WSL) open source, che invita gli sviluppatori a contribuire, personalizzare e aiutarci a integrare Linux in modo più fluido in Windows.
Nuovi miglioramenti agli strumenti di sviluppo Windows popolari, inclusi Terminal, WinGet e PowerToys, che consentono agli sviluppatori di aumentare la produttività e di concentrarsi su ciò che sanno fare meglio: elaborare codice.
Nuove funzionalità di crescita di Microsoft Store, che ora includono la registrazione gratuita per gli sviluppatori, il programma di installazione Web per applicazioni Win32, report di analisi, programmi di promozione delle applicazioni e molto altro, per aiutare gli sviluppatori di applicazioni ad aumentare l’acquisizione, la rilevabilità e il coinvolgimento degli utenti su Windows.
Windows AI Foundry
Desideriamo democratizzare la capacità per gli sviluppatori di costruire, sperimentare e raggiungere gli utenti con esperienze di intelligenza artificiale rivoluzionarie. Abbiamo sentito da sviluppatori che hanno appena iniziato con l’intelligenza artificiale che preferiscono soluzioni pronte all’uso per capacità di attività specifiche al fine di accelerare l’integrazione dell’IA nelle applicazioni. Gli sviluppatori ci hanno anche detto che hanno bisogno di un modo semplice per esplorare, testare e integrare modelli open-source nelle loro applicazioni. Gli sviluppatori che creano i propri modelli avanzati ci hanno detto che preferiscono soluzioni rapide e potenti per distribuire in modo efficiente modelli su vari chip. Per soddisfare un’ampia gamma di esigenze di sviluppo, abbiamo sviluppato Windows Copilot Runtime e lo abbiamo elevato a Windows AI Foundry, che offre molte funzionalità potenti.
Accesso reso più semplice per gli sviluppatori a modelli open-source pronti all’uso
Windows AI Foundry integra Foundry Local e altri cataloghi di modelli come Ollama e NVIDIA NIM per fornire agli sviluppatori un accesso rapido a un’ampia gamma di modelli open-source pronti all’uso sui chip Windows. Attraverso il catalogo di modelli Foundry Local, abbiamo già fatto il difficile lavoro di ottimizzare questi modelli su CPU, GPU e NPU, rendendoli immediatamente utilizzabili.
Durante l’anteprima, gli sviluppatori possono accedere a Foundry Local installando da WinGet (winget install Microsoft.FoundryLocal) e Foundry Local CLI per esplorare, scaricare e testare modelli. Foundry Local rileverà automaticamente l’hardware del dispositivo (CPU, GPU e NPU) ed elencherà i modelli compatibili che gli sviluppatori possono provare. Gli sviluppatori possono anche sfruttare Foundry Local SDK per integrare facilmente Foundry Local nelle loro applicazioni. Nei prossimi mesi, renderemo disponibili queste funzionalità direttamente in Windows 11 e Windows App SDK per ottimizzare l’esperienza sviluppatore per la pubblicazione di applicazioni di produzione utilizzando Foundry Local.
Sebbene forniamo modelli open-source pronti all’uso, abbiamo un numero crescente di sviluppatori che stanno costruendo i propri modelli e offrono esperienze rivoluzionarie per gli utenti finali. Windows ML è alla base della piattaforma AI ed è il runtime di inferenza AI integrato che semplifica e distribuisce in modo efficiente modelli su CPU, GPU e NPU.
Windows ML è un runtime di inferenza locale ad alte prestazioni integrato direttamente in Windows, che semplifica la spedizione di applicazioni di produzione che dispongono di modelli open source o proprietari, comprese le nostre esperienze Copilot+ PC. È stato costruito fin dall’inizio per l’ottimizzazione delle prestazioni del modello e l’agilità e per rispondere alle velocità di innovazione delle architetture del modello, degli operatori e delle ottimizzazioni su tutti i livelli dello stack. Windows ML è un’evoluzione di DirectML (DML) basata sulle nostre lezioni apprese dello scorso anno, ascoltando il feedback di molti sviluppatori, dei nostri partner di chip e dei nostri team che creano le esperienze AI di Copilot+ PC. Windows ML è progettato tenendo conto di questo feedback, consentendo ai nostri partner di chip (AMD, Intel, Nvidia, Qualcomm) di sfruttare i contratti del provider di esecuzione per ottimizzare le prestazioni del modello e tenere il passo con il ritmo dell’innovazione.
Windows ML offre una serie di vantaggi:
Semplifica la distribuzione: consente agli sviluppatori di spedire applicazioni di produzione senza dover impacchettare il runtime ML, i provider di esecuzione hardware o i driver con le loro applicazioni. Windows ML rileva l’hardware sul dispositivo client, estrae il provider di esecuzione appropriato e seleziona il provider di esecuzione corretto per l’inferenza in base alla configurazione fornita dallo sviluppatore.
Si adatta automaticamente alle generazioni future di silicio AI: Windows ML consente agli sviluppatori di creare con sicurezza applicazioni AI in un ecosistema di chip in rapida evoluzione. Man mano che viene introdotto nuovo hardware, Windows ML mantiene aggiornate e adatta le nuove dipendenze di silicio, pur mantenendo la precisione del modello e la compatibilità hardware.
Strumenti per preparare e spedire modelli ad alte prestazioni: potenti strumenti inclusi in AI Toolkit per VS Code per varie attività, dalla conversione e quantizzazione del modello all’ottimizzazione, semplificano il processo di preparazione e spedizione di modelli ad alte prestazioni.
Stiamo lavorando a stretto contatto con tutti i partner di chip (AMD, Intel, Nvidia, Qualcomm) per integrare perfettamente i loro provider di esecuzione con Windows ML per fornire le migliori prestazioni del modello per il loro silicio specifico.
Molti sviluppatori di applicazioni come Adobe, Bufferzone, McAfee, Reincubate, Topaz Labs, Powder e Wondershare hanno già collaborato con noi per sfruttare Windows ML per la distribuzione di modelli su silicio AMD, Intel, Nvidia e Qualcomm. Per saperne di più su Windows ML, visita questo blog.
Integra rapidamente e facilmente l’IA con API alimentate da modelli integrati di Windows
Stiamo fornendo API AI pronte all’uso alimentate da modelli integrati di Windows per attività mission-critical come l’intelligence testuale e l’elaborazione delle immagini. Queste includono API di linguaggio come il riepilogo e la riscrittura del testo e API visive come la descrizione delle immagini, il riconoscimento del testo (OCR), la super risoluzione delle immagini e la segmentazione delle immagini, tutte disponibili in versione stabile nell’ultima versione di Windows App SDK 1.7.2. Queste API eliminano l’overhead della creazione o della distribuzione di modelli. Queste API vengono eseguite localmente sul dispositivo, il che aiuta a fornire privacy, sicurezza e conformità a costo zero e sono ottimizzate per la NPU su Copilot+ PC. Gli sviluppatori di applicazioni come Dot Vista, Filmora di Wondershare, Pieces for Developers, Powder, iQIYI e altri stanno già sfruttando le nostre API AI pronte all’uso nelle loro applicazioni.
Abbiamo anche imparato dagli sviluppatori che hanno bisogno di mettere a punto i LLM con i loro dati personalizzati per ottenere l’output necessario per scenari specifici. Molti hanno anche espresso che la messa a punto di modelli di base è un compito arduo. Questo è il motivo per cui stiamo annunciando che LoRA (low-rank-adaptation) sarà supportato per Phi Silica.
Introduzione di LoRA (low-rank-adaptation) per Phi Silica per mettere a punto il nostro SLM integrato con dati personalizzati
LoRA aumenta l’efficienza della messa a punto aggiornando solo una piccola frazione dei parametri nel modello con dati personalizzati. Ciò consente di migliorare le prestazioni per le attività desiderate senza influire sulle capacità complessive del modello. Questa è disponibile in anteprima pubblica a partire da oggi sulla NPU Snapdragon X Series e sarà disponibile per i PC Intel e AMD Copilot+ nei prossimi mesi. Gli sviluppatori possono accedere a LoRA per Phi Silica in Windows App SDK 1.8 Experimental 2.
Gli sviluppatori possono iniziare l’addestramento con LoRA per Phi Silica tramite AI Toolkit per VS Code. Seleziona lo strumento di messa a punto, scegli il modello Phi Silica, configura il progetto e avvia l’addestramento in Azure con il tuo set di dati personalizzato. Dopo l’addestramento, gli sviluppatori possono scaricare l’adattatore LoRA, utilizzarlo sopra l’API Phi Silica e sperimentare per vedere la differenza nella risposta con e senza l’adattatore LoRA.
Presentazione della ricerca semantica e del recupero della conoscenza per LLM
Stiamo introducendo nuove API di ricerca semantica per aiutare gli sviluppatori a creare potenti esperienze di ricerca con i propri dati dell’applicazione. Supportano la ricerca semantica (ricerca di significato, inclusa la ricerca di immagini) e la ricerca lessicale (ricerca di parole esatte), consentendo agli utenti di trovare ciò di cui hanno bisogno in modo più intuitivo e flessibile.
Queste API di ricerca vengono eseguite localmente su tutti i tipi di dispositivi e forniscono prestazioni e privacy perfette. In Copilot+ PC, sono abilitate funzionalità semantiche per un’esperienza premium.
Oltre alla ricerca tradizionale, queste API supportano anche RAG (Retrieval Augmented Generation), che consente agli sviluppatori di utilizzare i propri dati personalizzati per supportare l’output LLM.
Queste API sono attualmente disponibili in anteprima privata.
In sintesi, Windows AI Foundry offre molte funzionalità che sono a portata di mano degli sviluppatori per soddisfare le loro esigenze nel loro percorso AI. Fornisce API pronte all’uso alimentate da modelli integrati, strumenti per personalizzare i modelli integrati di Windows e un runtime di inferenza ad alte prestazioni per aiutare gli sviluppatori a distribuire i propri modelli e a distribuirli su silicio. Gli sviluppatori possono anche accedere a un ricco catalogo di modelli open source tramite l’integrazione di Foundry Local in Windows AI Foundry.
Adozione di Windows AI Foundry ISV
Siamo entusiasti di celebrare l’incredibile comunità di sviluppatori che stanno creando esperienze con l’IA su dispositivo su Windows 11 oggi e non vediamo l’ora di vedere cosa costruiranno gli sviluppatori con queste ricche funzionalità offerte da Windows AI Foundry.
Introduzione del supporto Model Context Protocol (MCP) nativo per supportare un ecosistema Agentic su Windows 11
Mentre il mondo si sta muovendo verso un futuro Agentic, Windows si sta evolvendo per fornire strumenti, funzionalità e paradigmi di sicurezza in cui gli agenti possono essere eseguiti e migliorare le loro competenze per fornire valore significativo ai clienti.
La piattaforma MCP su Windows fornirà agli agenti AI un framework standardizzato per connettersi ad applicazioni Windows native che possono esporre funzionalità specifiche per migliorare le competenze e le capacità di tali agenti su un PC Windows 11. Questa infrastruttura sarà disponibile in una anteprima per sviluppatori privata con partner selezionati nei prossimi mesi per iniziare a raccogliere feedback.
Sicurezza e privacy prima di tutto: con le nuove funzionalità MCP, riconosciamo che poiché continuiamo a espandere MCP e altre funzionalità Agentic, impareremo continuamente e la nostra priorità numero uno è assicurarci di costruire su una base sicura. Ecco alcuni dei principi che guidano il nostro approccio allo sviluppo di MCP in modo responsabile su Windows 11:
Ci impegnamo a garantire che il registro MCP per Windows diventi un ecosistema affidabile di server MCP che soddisfa solidi standard di riferimento di sicurezza.
Il controllo dell’utente è uno dei principi guida quando sviluppiamo questa integrazione. L’accesso degli agenti ai server MCP è disattivato per impostazione predefinita. Quando è abilitato, tutte le azioni sensibili eseguite da un agente per conto dell’utente saranno controllabili e trasparenti.
L’accesso al server MCP sarà gestito secondo il principio del privilegio minimo, che viene applicato tramite funzionalità dichiarative e isolamento, ove applicabile. Ciò garantisce che gli utenti abbiano il controllo sui privilegi concessi a un server MCP e contribuisce a limitare l’impatto di qualsiasi attacco su un server specifico.
La sicurezza non è una funzionalità una tantum, ma un impegno continuo. Man mano che espandiamo MCP e altre funzionalità Agentic, continueremo a far evolvere le nostre difese. Per saperne di più sul nostro approccio alla sicurezza, visita Protezione del Model Context Protocol: costruzione di un futuro Agentic sicuro su Windows.
Nella piattaforma MCP su Windows stiamo introducendo i seguenti componenti:
Registro MCP per Windows: questa è una fonte unica, sicura e affidabile per scoprire i server MCP su Windows a cui gli agenti AI possono accedere. Gli agenti possono scoprire i server MCP installati sul dispositivo client tramite il registro MCP per Windows, sfruttando la loro competenza e fornendo valore significativo agli utenti finali.
Server MCP per Windows: includerà funzionalità del sistema Windows come il file system, Windows e Windows Subsystem for Linux come server MCP con cui gli agenti interagiscono.
Gli sviluppatori possono racchiudere le funzionalità e le competenze desiderate dalle loro applicazioni come server MCP e renderli disponibili tramite il registro MCP per Windows. Stiamo introducendo le azioni dell’applicazione su Windows, una nuova funzionalità per gli sviluppatori, che può anche essere utilizzata come server MCP integrato, consentendo alle applicazioni di fornire le loro funzionalità agli agenti.
Architettura MCP su Windows
Stiamo collaborando con sviluppatori di applicazioni come Anthropic, Perplexity, OpenAI e Figma alla costruzione di questa piattaforma, che stanno integrando le loro funzionalità MCP con le applicazioni per Windows.
Come condiviso da Rich O’Connell, responsabile delle alleanze strategiche di Anthropic, “Siamo entusiasti di vedere la continua adozione del Model Context Protocol e un fiorente ecosistema di integrazioni costruito da servizi e comunità popolari. LLM traggono vantaggio dalla connessione al tuo mondo di dati e strumenti e siamo ansiosi di vedere il valore che gli utenti sperimentano collegando Claude a Windows.“
Aravind Srinivas, co-fondatore e CEO di Perplexity, ha condiviso: “In Perplexity, come Microsoft, ci concentriamo su esperienze utili e affidabili che importano. MCP in Windows porta esperienze AI di assistenza a uno dei sistemi operativi più influenti al mondo.“
Kevin Weil, Chief Product Officer di OpenAI, ha condiviso: “Siamo entusiasti di vedere Windows abbracciare le esperienze di agenti AI adottando il Model Context Protocol. Ciò apre la strada a ChatGPT per connettersi senza problemi agli strumenti e ai servizi Windows che le persone utilizzano quotidianamente. Non vediamo l’ora di consentire a sviluppatori e utenti di creare esperienze potenti e ricche di contesto attraverso questa integrazione.“
Queste prime partnership gettano le basi per il nostro impegno a mantenere Windows una piattaforma aperta e a farla evolvere per il futuro agentic. Lo slancio di MCP offre agli sviluppatori un’eccellente opportunità per aumentare la rilevabilità e il coinvolgimento delle applicazioni.
Presentazione delle azioni dell’app Windows, una nuova funzionalità per gli sviluppatori per aumentare la rilevabilità della loro app
Abbiamo appreso dagli sviluppatori che mantenere la loro app nella memoria degli utenti e aumentarne l’utilizzo è fondamentale per la loro crescita. Noi stessi siamo un’azienda che crea applicazioni e quindi comprendiamo profondamente questa esigenza fondamentale. Pertanto, stiamo introducendo le azioni dell’app Windows. Le azioni dell’app offrono agli sviluppatori una nuova funzionalità per aumentare la rilevabilità delle funzionalità delle loro app, sbloccando nuovi punti di ingresso per gli sviluppatori per coinvolgere nuovi utenti.
Attualmente, le app principali in diversi settori verticali, tra cui produttività, creatività e comunicazione, utilizzano le azioni dell’app per sbloccare nuove superfici di coinvolgimento. Zoom, Filmora, Goodnotes, Todoist, Raycast, Pieces for Developers e Spark Mailare sono tra i primi sviluppatori che si uniscono a questa funzionalità.
Gli sviluppatori possono utilizzare:
Le API delle azioni dell’app per creare azioni per le funzionalità desiderate. Gli sviluppatori possono anche utilizzare le azioni sviluppate da altre app correlate per offrire funzionalità complementari, aumentando il tempo di interazione nelle loro app. Gli sviluppatori possono accedere a queste API tramite Windows SDK 10.0.26100.4188 o versione successiva.
L’ambiente di test delle azioni dell’app per testare la funzionalità e l’esperienza utente delle loro azioni dell’app. Gli sviluppatori possono scaricare lo strumento di test tramite Microsoft Store.
Potenti workstation per sviluppatori AI per affrontare carichi di lavoro ad alta intensità di calcolo e inferenza locale
Gli sviluppatori che creano carichi di lavoro AI ad alta intensità di elaborazione ci hanno detto che hanno bisogno non solo di software affidabile, ma anche di hardware potente per supportare lo sviluppo AI locale. Abbiamo collaborato con una gamma di partner OEM e di chip per offrire potenti workstation per sviluppatori AI.
Partner OEM come Dell, HP e Lenovo forniscono una gamma di sistemi basati su Windows per fornire flessibilità in termini di specifiche hardware e budget. Dell Pro Max Towe offre specifiche hardware impressionanti per prestazioni potenti che sono un’ottima opzione per l’iterazione del modello AI su GPU o CPU, nonché per la messa a punto del modello locale. Per la potenza di elaborazione in un ingombro di spazio efficiente, HP Z2 Mini G1a è una potente mini workstation. I nuovi Dell Pro Max 16 Premium, HP Zbook Ultra G1a e Lenovo P14s/P16s sono Copilot+ PC che offrono agli sviluppatori un’incredibile mobilità.
Nuove funzionalità per la sicurezza della piattaforma Windows
Presentazione di VBS Enclave SDK (anteprima) per esigenze di calcolo sicuro
la sicurezza è in prima linea nell’innovazione di Microsoft e in tutto ciò che facciamo. Nell’era dell’intelligenza artificiale, un numero crescente di applicazioni deve proteggere i propri dati da malware o persino da utenti e amministratori dannosi. Nel 2024, abbiamo introdotto la tecnologia VBS (Virtualization-Based Security) Enclave per fornire un ambiente di esecuzione affidabile in cui le applicazioni possono eseguire calcoli sicuri, tra cui operazioni di crittografia, proteggendosi dagli attacchi a livello di amministratore. Questa è la stessa base che ha protetto le nostre esperienze di Recall su Copilot+ PC. Ora stiamo consentendo agli sviluppatori di utilizzare questa funzionalità di base per la sicurezza. VBS Enclave SDK è ora disponibile in anteprima pubblica, che include un insieme di librerie e strumenti per un’area sicura che può essere sottoposta a programmazione con un’esperienza più naturale, dove è possibile clonare il repository.
Si inizia con lo strumento per creare il livello di proiezione API. Gli sviluppatori possono ora definire un’interfaccia tra l’applicazione host e l’area sicura e questo strumento fa tutto il lavoro pesante di convalida