Nous sommes ravis de participer une fois de plus à la conférence Build, un moment spécial chaque année pour dialoguer avec la communauté mondiale des développeurs. C’est exaltant de partager ce sur quoi nous avons travaillé et de voir comment les développeurs utilisent les plateformes Microsoft pour construire la prochaine génération d’innovations.
Chez Microsoft, nous croyons que l’avenir de l’intelligence artificielle se construit dans le cloud, en périphérie et sur Windows. Windows est, et restera, une plateforme ouverte qui permet aux développeurs de réaliser leur meilleur travail et offre une flexibilité maximale.
Notre étoile polaire est claire : faire de Windows la meilleure plateforme pour les développeurs, conçue pour la nouvelle ère de l’IA, où l’intelligence est intégrée aux logiciels, aux puces et au matériel. De l’utilisation de Windows 11 côté client à l’utilisation de Windows 365 dans le cloud, nous construisons une plateforme qui prend en charge un large éventail de scénarios, du développement de l’IA aux flux de travail informatiques essentiels, le tout avec une approche axée sur la sécurité.
Au cours de l’année écoulée, nous avons pris le temps d’écouter les développeurs, de comprendre ce qui compte le plus pour eux et les domaines où nous pouvons continuer à faire de Windows un meilleur environnement de développement, en particulier à l’ère du développement de l’IA. Ces commentaires ont façonné notre vision de la plateforme de développement Windows et les mises à jour que nous présentons aujourd’hui.
Nouvelles fonctionnalités de Windows à la conférence Build :
Windows AI Foundry est l’évolution de Windows Copilot Runtime, offrant une plateforme unifiée et fiable pour soutenir le cycle de vie du développement de l’IA, de la sélection du modèle à l’optimisation, au fine-tuning et au déploiement sur le client et le cloud. Windows AI Foundry comprend les capacités suivantes :
Windows ML est le fondement de la plateforme IA et le runtime d’inférence IA intégré à Windows. Il permet aux développeurs d’apporter leurs propres modèles et de les déployer efficacement sur un écosystème de partenaires de puces, notamment AMD, Intel, NVIDIA et Qualcomm, couvrant ainsi les CPU, GPU et NPU.
Windows AI Foundry intègre Foundry Local et d’autres catalogues de modèles comme Ollama et NVIDIA NIMs, offrant aux développeurs un accès rapide à une grande variété de modèles open source prêts à l’emploi sur les puces Windows. Cela permet aux développeurs d’explorer, de tester, d’interagir et de déployer des modèles au sein de leurs applications locales.
De plus, Windows AI Foundry fournit des API d’IA prêtes à l’emploi, alimentées par des modèles intégrés à Windows sur les Copilot+ PC, pour les tâches clés de langage et de vision, telles que l’intelligence textuelle, la description d’images, la reconnaissance de texte, les invites personnalisées et la suppression d’objets. Nous annonçons de nouvelles fonctionnalités comme LoRA (low-rank-adaption) pour le fine-tuning de notre SLM Phi Silica intégré avec des données personnalisées. Nous annonçons également de nouvelles API pour la recherche sémantique et la récupération de connaissances pour que les développeurs puissent créer une recherche en langage naturel et des scénarios RAG (Retrieval Augmented Generation) dans leurs applications avec leurs données personnalisées.
Évolution de Windows 11 pour le futur environnement Agentique grâce à la prise en charge native du Model Context Protocol (MCP). L’intégration de MCP à Windows fournira aux agents IA un cadre standardisé pour se connecter aux applications Windows natives, permettant à ces applications de participer de manière transparente aux interactions Agentiques. Les applications Windows peuvent exposer des fonctionnalités spécifiques pour améliorer les compétences et les capacités des agents installés sur un PC Windows. Dans les mois à venir, nous mettrons à disposition un aperçu développeur privé avec des partenaires sélectionnés pour commencer à recueillir des commentaires.
Opérations d’application dans Windows, une nouvelle fonctionnalité pour les développeurs d’applications qui permet de créer des actions et d’améliorer la détectabilité pour des fonctionnalités spécifiques dans une application, déverrouillant ainsi de nouveaux points d’entrée pour que les développeurs attirent de nouveaux utilisateurs.
Nouvelles fonctionnalités de sécurité Windows, telles que le VBS (Virtualization-Based Security) Enclave SDK et la PQC (Post-Quantum Cryptography), offrant aux développeurs des outils supplémentaires pour faciliter le développement de solutions sécurisées à mesure que le paysage des menaces évolue.
Windows Subsystem for Linux (WSL) open source, invitant les développeurs à contribuer, à personnaliser et à nous aider à intégrer Linux plus facilement à Windows.
Nouvelles améliorations aux outils de développement Windows populaires, notamment Terminal, WinGet et PowerToys, permettant aux développeurs d’accroître leur productivité et de se concentrer sur ce qu’ils font de mieux : coder.
Nouvelles fonctionnalités de croissance de Microsoft Store, incluant désormais l’inscription gratuite pour les développeurs, Web Installer pour les applications Win32, des rapports analytiques, des programmes de promotion d’applications, etc., pour aider les développeurs d’applications à accroître l’acquisition, la découverte et l’engagement des utilisateurs sur Windows.
Windows AI Foundry
Nous souhaitons démocratiser la capacité des développeurs à créer, à expérimenter et à joindre des utilisateurs grâce à des expériences d’IA révolutionnaires. Nous avons entendu de développeurs qui débutent tout juste avec le développement de l’IA qu’ils préféraient des solutions prêtes à l’emploi pour des fonctionnalités spécifiques, afin d’accélérer l’intégration de l’IA dans leurs applications. Les développeurs nous ont également dit qu’ils avaient besoin d’un moyen simple d’explorer, de tester et d’intégrer des modèles open source dans leurs applications. Les développeurs qui construisent leurs propres modèles avancés nous ont dit qu’ils préféraient des solutions rapides et puissantes pour déployer efficacement des modèles sur diverses puces. Afin de répondre à divers besoins de développement, nous avons évolué Windows Copilot Runtime en Windows AI Foundry, qui offre un certain nombre de fonctionnalités puissantes.
Un accès plus facile aux modèles open-source prêts à l’emploi pour les développeurs
Windows AI Foundry intègre Foundry Local et d’autres catalogues de modèles, tels qu’Ollama et NVIDIA NIMs, offrant ainsi aux développeurs un accès rapide à un grand choix de modèles open-source prêts à l’emploi sur des puces Windows. Grâce au catalogue de modèles Foundry Local, nous avons déjà effectué le travail fastidieux d’optimisation de ces modèles sur les CPU, les GPU et les NPU, afin qu’ils soient immédiatement utilisables.
Pendant la période d’aperçu, les développeurs peuvent accéder à Foundry Local en l’installant à partir de WinGet (winget install Microsoft.FoundryLocal) et Foundry Local CLI pour explorer, télécharger et tester des modèles. Foundry Local détectera automatiquement le matériel de l’appareil (CPU, GPU et NPU) et répertoriera les modèles compatibles que les développeurs peuvent essayer. Les développeurs peuvent également utiliser Foundry Local SDK pour intégrer facilement Foundry Local dans leurs applications. Dans les mois à venir, nous fournirons ces fonctionnalités directement dans Windows 11 et Windows App SDK, optimisant ainsi l’expérience des développeurs qui utilisent Foundry Local pour publier des applications de production.
Bien que nous fournissions des modèles open source prêts à l’emploi, un nombre croissant de développeurs construisent leurs propres modèles et offrent des expériences révolutionnaires aux utilisateurs finaux. Windows ML est le fondement de la plateforme d’IA, ainsi qu’un moteur d’exécution d’inférence d’IA intégré qui rationalise et déploie efficacement les modèles sur les CPU, les GPU et les NPU.
Windows ML est un moteur d’exécution d’inférence local à hautes performances, intégré directement à Windows, qui permet de rationaliser le transport d’applications de production de modèles open source ou propriétaires (y compris nos propres expériences Copilot+ PC). Il a été conçu dès le départ pour être optimisé en termes de performances et d’agilité des modèles, et répond à la cadence d’innovation en matière d’architectures, d’opérateurs et d’optimisations de modèles sur toutes les couches de la pile. Windows ML est une évolution de DirectML (DML) basée sur nos leçons apprises au cours de la dernière année (en écoutant les commentaires de nombreux développeurs, de nos partenaires de puce et de nos propres équipes développant des expériences IA pour les PC Copilot+). Windows ML est conçu pour prendre en compte ces commentaires, permettant à nos partenaires de puces (AMD, Intel, NVIDIA, Qualcomm) d’exploiter les contrats de fournisseurs d’exécution pour optimiser les performances des modèles et rester au fait du rythme de l’innovation.
Windows ML offre plusieurs avantages :
Déploiement simplifié : permet aux développeurs de publier des applications de production sans empaqueter le moteur d’exécution ML, les fournisseurs d’exécution matériels ou les pilotes avec leur application. Windows ML détecte le matériel sur l’appareil client, extrait le fournisseur d’exécution approprié et sélectionne le fournisseur d’exécution approprié pour l’inférence en fonction de la configuration fournie par les développeurs.
S’adapte automatiquement aux futures générations de matériel d’IA : Windows ML permet aux développeurs de créer des applications d’IA en toute confiance dans un écosystème de puces en évolution rapide. À mesure que de nouveaux matériels sont lancés, Windows ML maintient toutes les dépendances requises à jour et s’adapte aux nouvelles puces, tout en conservant la précision des modèles et la compatibilité matérielle.
Outils pour préparer et publier des modèles hautes performances : de puissants outils inclus dans AI Toolkit for VS Code pour diverses tâches, de la conversion de modèles à la quantification en passant par l’optimisation, simplifient le processus de préparation et de publication de modèles hautes performances.
Nous travaillons en étroite collaboration avec tous les partenaires de puces (AMD, Intel, NVIDIA, Qualcomm) pour intégrer de manière transparente leurs fournisseurs d’exécution à Windows ML, offrant ainsi des performances de modèle optimales pour leurs puces spécifiques.
De nombreux développeurs d’applications (tels qu’Adobe, Bufferzone, McAfee, Reincubate, Topaz Labs, Powder et Wondershare) ont déjà collaboré avec nous pour déployer des modèles à l’aide de Windows ML sur les puces AMD, Intel, NVIDIA et Qualcomm. Pour en savoir plus sur Windows ML, consultez ce blog.
Intégrez rapidement et facilement l’IA à l’aide d’API alimentées par des modèles intégrés à Windows
Nous fournissons des API d’IA prêtes à l’emploi, alimentées par des modèles intégrés à Windows, pour les tâches essentielles, telles que l’intelligence textuelle et le traitement d’images. Il s’agit notamment des API de langage (telles que la synthèse de texte et la réécriture) et des API visuelles (telles que la description d’images, la reconnaissance de texte (OCR), la super-résolution d’images et la segmentation d’images), qui sont toutes disponibles en version stable dans la dernière version du SDK d’application Windows 1.7.2. Ces API éliminent les frais généraux liés à la création ou au déploiement de modèles. Ces API s’exécutent localement sur l’appareil, ce qui permet de garantir confidentialité, sécurité et conformité sans frais supplémentaires, et sont optimisées pour la NPU sur les PC Copilot+. Les développeurs d’applications (tels que Dot Vista, Filmora de Wondershare, Pieces pour les développeurs, Powder, iQIYI, etc.) tirent déjà parti de nos API d’IA prêtes à l’emploi dans leurs applications.
Les développeurs nous ont également fait savoir qu’ils avaient besoin de fine-tuning les LLM avec leurs données personnalisées pour obtenir les résultats spécifiques requis pour les scénarios. Nombreux sont ceux qui ont également exprimé que le fine-tuning d’un modèle de base est une tâche ardue. C’est pourquoi nous annonçons la prise en charge de LoRA (low-rank-adaption) pour Phi Silica.
Introduction de LoRA (low-rank-adaption) pour Phi Silica, afin de fine-tuning notre SLM intégré à l’aide de données personnalisées
LoRA améliore l’efficacité du fine-tuning en mettant à jour uniquement une petite partie des paramètres du modèle à l’aide de données personnalisées. Cela permet d’améliorer les performances de la charge requise sans compromettre les capacités globales du modèle. Cela est disponible en aperçu public en commençant dès aujourd’hui sur la NPU Snapdragon X Series, et sera disponible dans les mois à venir pour les PC Intel et AMD Copilot+. Les développeurs peuvent accéder à LoRA pour Phi Silica dans la version expérimentale 2 du SDK d’application Windows 1.8.
Les développeurs peuvent commencer à utiliser la formation LoRA pour Phi Silica via AI Toolkit for VS Code. Sélectionnez l’outil de fine-tuning, choisissez le modèle Phi Silica, configurez le projet et démarrez la formation dans Azure à l’aide de l’ensemble de données personnalisé. Une fois la formation terminée, les développeurs peuvent télécharger l’adaptateur LoRA, l’utiliser par-dessus l’API Phi Silica et faire des expériences pour voir la différence de réponse avec et sans adaptateur LoRA.
Présentation de la recherche sémantique et de la récupération des connaissances pour les LLM
Nous introduisons de nouvelles API de recherche sémantique pour aider les développeurs à créer des expériences de recherche puissantes à l’aide des données de leur propre application. Ces API permettent la recherche sémantique (recherche par signification, y compris la recherche d’images) et la recherche lexicale (recherche par mots exacts), permettant aux utilisateurs de trouver ce dont ils ont besoin de manière plus intuitive et flexible.
Ces API de recherche s’exécutent en mode natif sur tous les types d’appareils et garantissent des performances et une confidentialité transparentes. Sur les PC Copilot+, les fonctionnalités sémantiques sont activées pour une expérience premium.
Outre la recherche traditionnelle, ces API prennent également en charge la RAG (Retrieval Augmented Generation), permettant aux développeurs d’utiliser leurs propres donnés personnalisées pour prendre en charge la sortie LLM.
Ces API sont actuellement disponibles en aperçu privé.
En résumé, Windows AI Foundry offre aux développeurs un certain nombre de fonctionnalités qui peuvent répondre aux besoins de leur parcours d’IA. Il fournit des API prêtes à l’emploi optimisées par des modèles intégrés, des outils pour la personnalisation des modèles Windows intégrés et un environnement d’exécution d’inférence hautes performances pour aider les développeurs à mettre au point et à déployer leurs propres modèles sur des puces. Grâce à l’intégration de Foundry Local dans Windows AI Foundry, les développeurs peuvent également accéder à un riche catalogue de modèles open source.
Adoption de Windows AI Foundry par les éditeurs de logiciels indépendants
Nous sommes ravis de célébrer l’incroyable communauté de développeurs qui crée aujourd’hui des expériences basées sur l’IA sur les appareils Windows 11, et nous sommes impatients de voir ce que les développeurs créeront d’autre avec ces riches fonctionnalités offertes par Windows AI Foundry.
Introduction de la prise en charge native du Protocole de contexte de modèle (MCP) pour alimenter l’écosystème Agentique sur Windows 11
Alors que le monde évolue vers un avenir Agentique, Windows évolue pour fournir les outils, les capacités et les paradigmes de sécurité pour permettre aux Agents de fonctionner et d’améliorer leurs compétences, offrant ainsi une valeur significative à leurs clients.
La plateforme MCP sur Windows fournira aux agents d’IA un cadre standardisé pour se connecter aux applications Windows natives, qui peuvent exposer des compétences et des capacités spécifiques pour améliorer ces agents sur un PC Windows 11. Cette infrastructure sera disponible dans un aperçu pour développeurs privé avec des partenaires sélectionnés dans les mois à venir pour commencer à recueillir des commentaires.
La sécurité et la confidentialité d’abord : avec les nouvelles capacités MCP, nous reconnaissons qu’à mesure que nous continuons à étendre MCP et d’autres capacités Agentiques, nous apprendrons constamment et notre priorité absolue est de nous assurer que nous établissons des bases solides. Voici quelques-uns des principes qui guident notre développement responsable de MCP sur Windows 11 :
Nous nous engageons à faire du registre MCP de Windows un écosystème d’un serveur MCP digne de confiance qui répond à des références de base de sécurité élevées.
Le contrôle de l’utilisateur est un principe directeur dans la conception de cette intégration. L’accès des Agents aux serveurs MCP est désactivé par défaut. Une fois activées, toutes les opérations sensibles exécutées par les Agents au nom d’un utilisateur seront auditables et transparentes.
L’accès au serveur MCP sera géré en suivant le principe du moindre privilège, qui est appliquée via une fonctionnalité déclarative et un pare-feu, le cas échéant, en veillant à ce que les utilisateurs puissent contrôler les privilèges accordés aux serveurs MCP et en permettant de limiter l’impact d’une attaque sur un serveur particulier.
La sécurité n’est pas une fonctionnalité ponctuelle, mais plutôt un engagement continu. À mesure que nous étendons MCP et d’autres capacités Agentiques, nous continuerons d’améliorer nos défenses. Pour en savoir plus sur les approches de la sécurité, consultez Protection du protocole de contexte de modèle : Construire un avenir Agentique sécurisé sur Windows.
Nous introduisons les composants suivants dans la plateforme MCP sous Windows :
Registre MCP pour Windows : il s’agit d’une source unique, sûre et digne de confiance qui permet aux agents IA d’accéder aux serveurs MCP Windows. Grâce au registre MCP de Windows, les agents peuvent déceler les serveurs MCP installés sur l’appareil client, tirer parti de leur expertise et apporter une valeur significative aux utilisateurs finaux.
Serveur MCP pour Windows : il comprendra les fonctionnalités du système Windows, telles que le système de fichiers, les fenêtres et le sous-système Windows pour Linux, en tant que serveurs MCP avec lesquels les Agents interagissent.
Les développeurs peuvent empaqueter la fonctionnalité voulue de leurs applications en tant que serveur MCP et la rendre disponible par le biais du registre MCP pour Windows. Nous introduisons les opérations d’application sur Windows, une nouvelle fonctionnalité pour développeurs désormais disponible qui peut également servir de serveur MCP intégré permettant aux applications de fournir leurs fonctionnalités aux Agents.
Architecture MCP sur Windows
Nous collaborons avec des développeurs d’applications tels qu’Anthropic, Perplexity, OpenAI et Figma pour créer cette plateforme, et ils intègrent leurs fonctionnalités MCP pour les applications sur Windows.
Comme l’a partagé Rich O’Connell, responsable des alliances stratégiques d’Anthropic : « Nous sommes heureux de voir l’adoption continue du Protocole de contexte de modèle, ainsi qu’un écosystème florissant d’intégrations conçu par les fournisseurs et la communauté. Les LLM tirent parti d’une connexion au monde de vos données et de vos outils, et nous sommes impatients de voir la valeur que les utilisateurs connaîtront en connectant Claude à Windows. »
Aravind Srinivas, cofondateur et PDG de Perplexity, a partagé : « Chez Perplexity, nous nous concentrons, tout comme Microsoft, sur des expérience fiables réellement utiles. MCP dans Windows apporte les expériences IA assistées à l’un des systèmes d’exploitation les plus influents du monde. »
Kevin Weil, responsable des produits d’OpenAI, a partagé : « Nous sommes heureux de voir qu’avec l’adoption du Protocole de contexte de modèle, Windows accepte les expériences d’Agents IA. Cela ouvre la voie à une connexion transparente vers ChatGPT servant d’outil et de services Windows utilisés par les utilisateurs quotidiennement. Nous sommes impatients de donner aux développeurs et aux utilisateurs les moyens de créer des expériences contextuelles puissantes grâce à cette intégration. »
Ces premières collaborations jettent les bases de notre engagement à maintenir Windows comme une plateforme ouverte et à la faire évoluer pour un avenir d’Agents. L’élan derrière MCP offre aux développeurs une excellente occasion d’augmenter la détection et l’engagement d’applications.
Introduction des opérations d’application Windows, une nouvelle fonctionnalité permettant aux développeurs d’augmenter la détectabilité de leurs applications
Nous avons entendu de développeurs que le fait de garder leur application à l’esprit des utilisateurs et d’accroître l’utilisation est primordial pour leur croissance. En tant que société de développement nous-mêmes, nous comprenons bien ce besoin essentiel. Par conséquent, nous introduisons les opérations d’application Windows. Les opérations d’application offrent aux développeurs une nouvelle fonctionnalité pour augmenter la détectabilité des fonctionnalités de leur application, déverrouillant de nouveaux points d’entrée pour que les développeurs attirent de nouveaux utilisateurs.
Actuellement, les principales applications de différents secteurs (notamment la productivité, la créativité et la communication) utilisent les opérations d’application pour déverrouiller de nouvelles interfaces d’engagement. Zoom, Filmora, Goodnotes, Todoist, Raycast, Pieces for Developers et Spark Mail font partie des premiers développeurs à rejoindre cette fonctionnalité.
Les développeurs peuvent utiliser :
Les API d’opérations d’application pour créer des opérations pour les fonctionnalités qu’ils souhaitent. Les développeurs peuvent également tirer parti des opérations développées par d’autres applications associées afin de fournir des fonctionnalités complémentaires, ce qui augmentera le temps passé sur leur application. Les développeurs peuvent accéder à ces API via le SDK Windows 10.0.26100.4188 ou version ultérieure.
Un environnement de test des opérations d’application pour tester la fonctionnalité et l’expérience utilisateur de leurs opérations d’application. Les développeurs peuvent télécharger l’outil de test via le Microsoft Store.
De puissantes stations de travail de développement de l’IA pour répondre aux besoins des charges de travail informatiques lourdes et d’inférence locale
Les développeurs qui créent des charges de travail d’IA à fort volume de calcul nous ont dit qu’ils avaient non seulement besoin d’un logiciel fiable, mais aussi d’un matériel puissant pour prendre en charge le développement d’IA local. Nous avons collaboré avec toute une série de partenaires OEM et de processeurs afin de proposer de puissantes stations de travail de développement de l’IA.
Les partenaires OEM tels que Dell, HP et Lenovo proposent une gamme de systèmes basés sur Windows qui offrent une flexibilité en termes de spécifications matérielles et de budget. La tour Dell Pro Max offre des spécifications matérielles impressionnantes pour offrir des performances puissantes, ce qui en fait un excellent choix pour l’itération de modèles d’IA sur GPU ou CPU, ainsi que pour le fine-tuning de modèles local. Pour une puissance de traitement peu encombrante, le HP Z2 Mini G1a est une puissante mini-station de travail. Les nouveaux Dell Pro Max 16 Premium, HP Zbook Ultra G1a et Lenovo P14s/P16s sont tous des PC Copilot+, offrant aux développeurs une mobilité incroyable.
Nouvelles fonctionnalités de sécurité de la plateforme Windows
Présentation du Kit SDK d’enclave VBS (aperçu) pour les besoins de calcul sécurisé
La sécurité est au premier plan de l’innovation et de tout ce que fait Microsoft. À l’ère de l’intelligence artificielle, de plus en plus d’applications doivent protéger leurs données contre les logiciels malveillants, voire les utilisateurs et administrateurs malveillants. En 2024, nous avons lancé la technologie d’enclave de sécurité basée sur la virtualisation (VBS) pour offrir un environnement d’exécution approuvé, où les applications peuvent effectuer un calcul sécurisé (y compris des opérations de chiffrement), se protégeant ainsi des attaques au niveau de l’administration. Il s’agit de la même base qui sécurise notre expérience Rappel sur les PC Copilot+. Nous permettons désormais aux développeurs d’utiliser ces fonctionnalités. Le Kit SDK d’enclave VBS est désormais disponible en avant-première publique, incluant un ensemble de bibliothèques et d’outils pour faciliter l’utilisation des zones sécurisées, dans lesquelles les développeurs peuvent cloner des référentiels.
Il commence par un outil qui crée une couche de projection d’API. Les développeurs peuvent désormais définir une interface entre l’application hôte et la zone sécurisée, et l’outil effectue toutes les tâches pénibles pour valider les paramètres et gérer la gestion de la mémoire et les contrôles de sécurité. Cela permet aux développeurs de se concentrer sur leur logique d’activité, tandis que la zone sécurisée protège les paramètres, les données et la mémoire. De plus, ces bibliothèques permettent aux développeurs de gérer facilement les tâches courantes, telles que la création de zones sécurisées, le chiffrement et le déchiffrement des données, la gestion des pools de threads et la création de rapports de télémétrie.
La cryptographie post-quantique arrive sur Windows Insiders et Linux
Nous avons déjà évoqué les défis de sécurité posés par les progrès de l’informatique quantique et avons pris des mesures pour contribuer à la sécurité quantique de l’ensemble du secteur, notamment en ajoutant des algorithmes PQC à notre bibliothèque de chiffrement de base SymCrypt.
Nous déploierons prochainement des fonctionnalités PQC pour Windows Insiders et Linux (version 1.9.0 de SymCrypt-OpenSSL). Cette intégration est une première étape importante pour permettre aux développeurs de tester PQC dans leurs environnements et d’évaluer la compatibilité, les performances et l’intégration avec les systèmes de sécurité existants. L’accès anticipé aux fonctionnalités PQC aide les équipes de sécurité à identifier les défis, à optimiser les stratégies et à simplifier les transitions à mesure que les normes du secteur continuent d’évoluer. En nous attaquant de manière proactive aux problèmes de sécurité des normes de chiffrement actuelles, nous nous efforçons d’ouvrir la voie à un avenir numérique qui réalise les avantages quantiques et atténue les risques de sécurité.
Nouvelles expériences conçues pour accroître la productivité de chaque développeur sur Windows 11
Windows Subsystem for Linux (WSL) fournit une puissante plateforme pour le développement de l’IA sur Windows en facilitant l’exécution simultanée des charges de travail Windows et Linux. Les développeurs peuvent aisément partager des fichiers, créer une application GUI, un GPU, etc. avec les environnements Windows et Linux sans avoir à effectuer de configuration supplémentaire.
Annonce de l’ouverture du code source de Windows Subsystem for Linux
Nous sommes heureux d’annoncer que nous allons ouvrir le code source de Windows Subsystem for Linux. Ce faisant, nous ouvrirons le code qui crée et prend en charge la machine virtuelle derrière les distributions WSL, en l’intégrant aux fonctionnalités et aux ressources Windows, permettant ainsi à la communauté d’y contribuer. Cela déverrouillera de nouveaux gains en matière de performances et d’extensibilité. Il s’agit d’une invitation ouverte à la communauté des développeurs pour nous aider à intégrer Linux plus facilement à Windows et à faire de Windows la plateforme de choix pour le développement multiplateforme moderne.
À vrai dire, avec le recul, l’ouverture de WSL était la première question soumise dans ce référentiel. À l’époque, toute la logique de ce projet ne pouvait pas être séparée de l’image Windows elle-même, mais depuis lors, nous avons apporté des modifications aux distributions WSL 2 et rendu WSL disponible en tant que sa propre application distincte. Grâce à cela, nous pouvons clore la première demande ! Merci