マイクロソフトは、世界中の開発者コミュニティと交流する特別な機会であるBuild大会に再び参加できることを嬉しく思います。私たちが取り組んできたことを共有し、開発者がマイクロソフトのプラットフォームを使用して次世代の革新的なテクノロジーを構築する方法を知ることは、非常に刺激的です。
マイクロソフトでは、人工知能の未来はクラウド、エッジ、そしてWindows上で構築されていると信じています。Windowsは現在、そして将来も、開発者が最高の仕事をする能力を与え、究極の柔軟性を提供するオープンなプラットフォームです。
私たちの北極星は明確です。それは、Windowsを開発者にとって最適なプラットフォームにし、ソフトウェア、チップ、ハードウェアにインテリジェンスが統合された人工知能の新時代のために構築することです。クライアントでWindows 11を使用することから、クラウドでWindows 365を使用することまで、人工知能開発からコアITワークフローまで、幅広いシナリオをサポートするプラットフォームを構築しており、そのすべてがセキュリティ第一主義に基づいています。
過去1年間、私たちは開発者の意見に耳を傾け、彼らが最も重視するものを理解し、特に人工知能開発の時代において、Windowsをより優れた開発環境にする機会がどこにあるかを把握することに時間を費やしました。これらのフィードバックは、Windows Developer Platformに対する私たちの見解と、本日発表するアップデートを形作ってきました。
Build大会でのWindowsの新機能
Windows AI Foundryは、Windows Copilot Runtimeの進化版であり、モデルの選択、最適化、ファインチューニングからクライアントとクラウドを跨いだデプロイまで、AI開発ライフサイクルをサポートする統一された信頼性の高いプラットフォームを提供します。Windows AI Foundryには、以下の機能が含まれます。
Windows MLは、AIプラットフォームの基盤であり、Windowsに組み込まれたAI推論ランタイムです。これにより、開発者は独自のモデルを持ち込み、AMD、インテル、NVIDIA、Qualcommを含むチップパートナーのエコシステム全体で、CPU、GPU、NPUを網羅して、これらのモデルを効率的にデプロイできます。
Windows AI Foundryは、Foundry LocalやOllama、NVIDIA NIMsなどの他のモデルカタログと統合されています。これにより、開発者はさまざまなWindowsチップで、すぐに利用できるオープンソースモデルに迅速にアクセスできます。これにより、開発者はローカルアプリケーションでモデルを閲覧、テスト、操作、デプロイできます。
さらに、Windows AI Foundryは、Copilot+ PC上のWindows組み込みモデルによって動作する、テキストインテリジェンス、画像記述、テキスト認識、カスタムプロンプト、オブジェクト消去などの重要な言語およびビジョンタスクのための、すぐに利用できるAI APIも提供します。カスタムデータを使用して組み込みSLM Phi SilicaをファインチューニングするためのLoRA (low-rank-adaption)などの新機能を発表します。また、開発者がカスタムデータを使用してアプリケーションで自然言語検索とRAG(検索拡張生成)シナリオを構築できるように、セマンティック検索とナレッジ検索のための新しいAPIを発表します。
モデルコンテキストプロトコル(MCP)のネイティブサポートにより、将来のエージェント環境に向けてWindows 11を発展させます。MCPとWindowsの統合により、AIエージェントに標準化されたフレームワークを提供して、ネイティブのWindowsアプリケーションに接続できるようになり、アプリケーションはAgenticインタラクションにシームレスに参加できます。Windowsアプリケーションは、特定の機能を公開して、Windows PCにインストールされているエージェントのスキルと能力を向上させることができます。今後数か月以内に、選ばれたパートナーと一緒にプライベート開発者プレビューを提供し、フィードバックの収集を開始します。
Windows上のアプリケーション操作。これは、アプリケーション内の特定の機能のアクションを作成して可視性を高めることで、開発者が新しいエントリポイントをアンロックして新しいユーザーを引き付けることができる新しいアプリケーション開発者機能です。
新しいWindowsセキュリティ機能。たとえば、仮想化ベースのセキュリティ(VBS)Enclave SDKやポスト量子暗号(PQC)などがあり、これらは脅威の状況が進化し続けるにつれて、開発者が安全なソリューションをより簡単に開発できるようにするための追加のツールを提供します。
Windows Subsystem for Linux (WSL) のオープンソース化。開発者を招待して、貢献、カスタマイズし、LinuxをWindowsにシームレスに統合するのを支援します。
一般的なWindows開発者ツールに対する新しい改善。たとえば、ターミナル、WinGet、PowerToysなどがあり、これらにより、開発者は生産性を向上させ、得意とすることであるコーディングに集中できます。
新しいMicrosoft Storeの成長機能。これには、無料の開発者登録、Win32アプリケーション用のWeb Installer、分析レポート、アプリケーションプロモーションプログラムなどが含まれており、アプリケーション開発者がWindows上でのユーザー獲得、発見、エンゲージメントを向上させるのに役立ちます。
Windows AI Foundry
私たちは、画期的なAIエクスペリエンスを構築、実験し、ユーザーにリーチする能力を開発者に民主化したいと考えています。AI開発を始めたばかりの開発者からは、アプリケーションへのAIの統合を加速するために、特定のタスク機能のためのすぐに利用できるソリューションを好むという意見を聞いています。また、開発者は、アプリケーションでオープンソースモデルを閲覧、テスト、統合する簡単な方法が必要であるとも述べています。独自の高度なモデルを構築する開発者は、さまざまなチップ全体でモデルを効率的にデプロイできるように、高速で強力なソリューションを好むと語っています。さまざまな開発ニーズを満たすために、Windows Copilot RuntimeをWindows AI Foundryとして開発しました。これにより、多くの強力な機能が提供されます。
開発者は、すぐに利用できるオープンソースモデルに、より簡単にアクセスできます
Windows AI Foundryは、Foundry LocalやOllama、NVIDIA NIMsなどの他のモデルカタログと統合されているため、開発者はさまざまなWindowsチップで、すぐに利用できるオープンソースモデルに迅速にアクセスできます。Foundry Localモデルカタログを使用することで、CPU、GPU、NPU全体でこれらのモデルを最適化するという大変な作業を完了し、すぐに使用できるようにしました。
プレビュー期間中、開発者はWinGetからのインストール(winget install Microsoft.FoundryLocal)およびFoundry Local CLIからFoundry Localにアクセスして、モデルを閲覧、ダウンロード、テストできます。Foundry Localは、デバイスハードウェア(CPU、GPU、NPU)を自動的に検出し、開発者が試すことができる互換性のあるモデルをリストします。また、開発者はFoundry Local SDKを利用して、Foundry Localをアプリケーションに簡単に統合することもできます。今後数か月以内に、これらの機能をWindows 11とWindows App SDKで直接提供し、Foundry Localを使用して本番アプリケーションを公開する開発者のエクスペリエンスを最適化します。
すぐに利用できるオープンソースモデルを提供していますが、ますます多くの開発者が独自のモデルを構築し、エンドユーザーに画期的なエクスペリエンスを提供しています。 Windows MLは、AIプラットフォームの基盤であり、CPU、GPU、NPUでモデルのデプロイを簡素化および効率化する組み込みAI推論ランタイムです。
Windows MLは、Windowsに直接構築された高性能のローカル推論ランタイムであり、独自のCopilot+ PCエクスペリエンスを含む、オープンソースまたはプロプライエタリモデルの本番アプリケーションの出荷を簡素化します。モデルのパフォーマンスとアジリティ、およびモデルアーキテクチャ、オペレーター、スタック全体に対する最適化の革新のスピードに最適化するように構築されています。Windows MLは、昨年の経験(多数の開発者、チップパートナー、およびCopilot+ PCのAIエクスペリエンスを開発する自社チームからのフィードバックを傾聴)から得られたDirectML(DML)の進化です。Windows MLはこれらのフィードバックを考慮するように設計されており、チップパートナー(AMD、インテル、NVIDIA、Qualcomm)が実行プロバイダー契約を利用してモデルのパフォーマンスを最適化し、イノベーションのペースに歩調を合わせることができます。
Windows MLには、次のようないくつかの利点があります。
デプロイの簡素化:開発者は、MLランタイム、ハードウェア実行プロバイダー、またはドライバーをアプリケーションと一緒にパッケージ化せずに、本番アプリケーションをリリースできます。Windows MLは、クライアントデバイスでハードウェアを検出し、適切な実行プロバイダーを抽出し、開発者が提供する構成に基づいて推論に使用する正しい実行プロバイダーを選択します。
**将来のAIハードウェア世代への自動適応:**Windows MLを使用すると、開発者は急速に進化するチップエコシステムで自信を持ってAIアプリケーションを構築できます。新しいハードウェアがリリースされると、Windows MLは必要なすべての依存関係を最新の状態に保ち、新しいチップに適応しながら、モデルの精度とハードウェアの互換性を維持します。
**高性能モデルの準備と公開のツール:**AI Toolkit for VS Codeに含まれている、モデル変換、量子化から最適化まで、さまざまなタスクに使用できる強力なツールにより、高性能モデルの準備と公開のプロセスが簡素化されます。
私たちは、すべてのチップパートナー(AMD、インテル、NVIDIA、Qualcomm)と緊密に連携して、それらの実行プロバイダーをWindows MLとシームレスに統合し、特定のチップに最適なモデルパフォーマンスを提供しています。
Adobe、Bufferzone、McAfee、Reincubate、Topaz Labs、Powder、Wondershareなどの多くのアプリケーション開発者は、すでに私たちと協力して、Windows MLを利用してAMD、インテル、NVIDIA、Qualcommチップ全体にモデルをデプロイしています。Windows MLの詳細については、このブログを参照してください。
Windows組み込みモデルによって提供されるAPIを使用して、AIを迅速かつ簡単に統合する
テキストインテリジェンスや画像処理などの重要なタスクのために、Windows組み込みモデルによって提供される、すぐに利用できるAI APIを提供しています。これらには、言語API(テキストの要約や書き換えなど)と、画像API(画像の記述、テキスト認識(OCR)、画像の超解像、画像セグメンテーションなど)が含まれており、これらはすべてWindows App SDK 1.7.2の最新バージョンで安定版として提供されています。これらのAPIは、モデルの構築やデプロイのオーバーヘッドを排除します。これらのAPIはデバイスローカルで実行され、追加コストなしでプライバシー、セキュリティ、コンプライアンスを提供し、特にCopilot+ PC上のNPU向けに最適化されています。Dot Vista、WondershareのFilmora、developerのPieces、Powder、iQIYIなどのアプリケーション開発者は、すでにアプリケーションで、すぐに利用できるAI APIを利用しています。
また、開発者からは、特定のシナリオに必要な出力を得るために、カスタムデータを使用してLLMをファインチューニングする必要があるという意見も聞いています。多くの人はまた、基本モデルのファインチューニングは困難なタスクであると述べています。これが、Phi SilicaのLoRA(low-rank-adaption)サポートを発表する理由です。
LoRA(low-rank-adaption)により、カスタムデータを使用してPhi Silicaをファインチューニングし、組み込みSLMを調整
LoRAは、カスタムデータを使用してモデルのパラメーターのほんの一部だけを更新することで、ファインチューニングの効率を向上させます。これにより、モデルの全体的な機能を損なうことなく、必要なタスクのパフォーマンスを向上させることができます。これは本日からSnapdragon XシリーズNPUでパブリックプレビューで利用可能になり、今後数か月以内にIntelおよびAMD Copilot+ PCで利用できるようになります。開発者は、Windows App SDK 1.8 Experimental 2でPhi SilicaのLoRAにアクセスできます。
開発者は、AI Toolkit for VS CodeからPhi SilicaのLoRAトレーニングを開始できます。ファインチューニングツールを選択し、Phi Silicaモデルを選択し、プロジェクトを構成し、カスタムデータセットを使用したトレーニングをAzureで開始します。トレーニングが完了すると、開発者はLoRAアダプターをダウンロードし、それをPhi Silica APIの上で使用して実験し、LoRAアダプターを使用した場合と使用しない場合の応答の違いを確認できます。
LLMのセマンティック検索とナレッジ検索の紹介
開発者が独自のアプリケーションデータを使用して強力な検索エクスペリエンスを作成できるように、新しいセマンティック検索APIを導入しています。これらのAPIは、セマンティック検索(意味による検索、画像検索を含む)とボキャブラリー検索(正確な単語による検索)をサポートし、ユーザーがより直感的で柔軟な方法で必要なものを見つけることができます。
これらの検索APIは、すべてのデバイスタイプでローカルに実行され、シームレスなパフォーマンスとプライバシーを提供します。Copilot+ PCでは、セマンティック機能が有効になり、高品質のエクスペリエンスが提供されます。
従来の検索に加えて、これらのAPIはRAG(検索拡張生成)をサポートしているため、開発者は独自のカスタムデータを使用してLLM出力をサポートできます。
これらのAPIは現在、プライベートプレビューで提供されています。
要するに、Windows AI Foundryは、AIジャーニーのニーズを満たす多くの機能を開発者に提供します。組み込みモデルによって提供されるすぐに利用できるAPI、カスタムWindows組み込みモデル用のツール、高性能推論ランタイムを提供し、開発者が独自のモデルを提供し、チップにデプロイするのに役立ちます。Foundry LocalをWindows AI Foundryに統合することで、開発者は豊富なオープンソースモデルカタログにもアクセスできます。
Windows AI Foundry ISVの採用
私たちは本日、Windows 11でデバイス上のAIを使用してエクスペリエンスを構築している信じられないほどの開発者コミュニティを祝うことができて非常にうれしく、開発者がWindows AI Foundryによって提供されるこれらの豊富な機能を使用して他に何を作成するのか、本当に待ちきれません。
Windows 11上のAgenticエコシステムをサポートするためのネイティブのモデルコンテキストプロトコル(MCP)サポートの導入
世界がAgenticな未来に向かって発展するにつれて、Windowsも発展し、エージェントが実行され、スキルを向上させるためのツール、機能、および安全なパラダイムを提供して、顧客に有意義な価値を提供します。
Windows上のMCPプラットフォームは、AIエージェントに標準化されたフレームワークを提供して、ネイティブのWindowsアプリケーションに接続します。ネイティブのWindowsアプリケーションは、特定の機能を公開して、Windows 11 PC上のそれらのエージェントのスキルと能力を向上させることができます。このインフラストラクチャは、今後数か月以内に選ばれたパートナーと一緒にプライベート開発者プレビューとして提供され、フィードバックの収集を開始します。
**セキュリティとプライバシーを第一に:**新しいMCP機能により、MCPや他のAgentic機能を拡張し続けるにつれて、私たちが常に学習し、安全な基盤の上に構築することを保証することが私たちの最優先事項であることを認識しています。以下は、Windows 11でMCPを責任を持って開発するための指針となる、いくつかの原則です。
私たちは、WindowsのMCPレジストリを、厳格なセキュリティベンチマーク標準を満たす信頼できるMCPサーバーエコシステムにすることに尽力しています。
ユーザーコントロールは、この統合を開発するための指針となる原則です。デフォルトでは、エージェントのMCPサーバーへのアクセスはオフになっています。有効にすると、エージェントがユーザーに代わって実行するすべての機密性の高い操作は、監査可能で透明性があります。
MCPサーバーアクセスは、最小特権の原則に従って管理されます。この原則は、宣言型機能と隔離(該当する場合)を適用し、ユーザーがMCPサーバーに付与する特権を制御できるようにし、特定のサーバーに対する攻撃の影響を制限するのに役立ちます。
セキュリティは一度限りの機能ではなく、継続的なコミットメントです。MCPや他のAgentic機能を拡張するにつれて、防御を進化させ続けます。セキュリティアプローチの詳細については、「モデルコンテキストプロトコルの保護:Windows上に安全なAgenticな未来を構築する」を参照してください。
Windows上のMCPプラットフォームに次のコンポーネントを導入しています。
**WindowsのMCPレジストリ:**これは、AIエージェントがWindowsでMCPサーバーにアクセスできる、単一の安全で信頼できるソースです。エージェントは、WindowsのMCPレジストリを通じて、クライアントデバイスにインストールされているMCPサーバーを発見し、専門知識を活用してエンドユーザーに有意義な価値を提供できます。
**WindowsのMCPサーバー:**これには、ファイルシステム、ウィンドウ、Windows Subsystem for LinuxなどのWindowsシステム機能が含まれており、エージェントが対話するMCPサーバーとして機能します。
開発者は、アプリケーション内の必要な機能と機能をMCPサーバーとしてパッケージ化し、WindowsのMCPレジストリを介して利用可能にすることができます。Windows上のアプリケーション操作を紹介しています。これは、組み込みMCPサーバーとしても機能する新しい開発者機能であり、アプリケーションがその機能をエージェントに提供できるようにします。
Windows上のMCPアーキテクチャ
Anthropic、Perplexity、OpenAI、Figmaなどのアプリケーション開発者と協力してこのプラットフォームを構築しています。これらの開発者は、Windows上のアプリケーションにMCP機能を統合しています。
Anthropicの戦略的アライアンス部長であるRich O’Connellが共有しているように、「モデルコンテキストプロトコルの継続的な採用と、人気のあるサービスやコミュニティによって構築された活発な統合エコシステムが見られることを嬉しく思います。LLMは、データとツールの世界への接続から恩恵を受けるため、ユーザーがClaudeをWindowsに接続することで体験する価値を知りたいと思っています。」
Perplexityの共同創業者兼CEOであるAravind Srinivasは、次のように述べています。「Perplexityでは、Microsoftと同様に、私たちは本当に役立つ信頼できるエクスペリエンスに焦点を当てています。WindowsのMCPは、世界で最も影響力のあるオペレーティングシステムの1つに補助AIエクスペリエンスをもたらします。」
OpenAIの最高製品責任者であるKevin Weilは、次のように述べています。「_Windowsがモデルコンテキストプロトコルを採用してAIエージェントエクスペリエンスを受け入れているのを見るのが嬉しいです。これにより、ChatGPTがユーザーが毎日使用