เรารู้สึกตื่นเต้นที่จะได้เข้าร่วมงาน Build อีกครั้ง ช่วงเวลาพิเศษของทุกปีที่เราได้เชื่อมต่อกับชุมชนนักพัฒนาทั่วโลก เป็นแรงบันดาลใจอย่างยิ่งที่จะได้แบ่งปันสิ่งที่เรากำลังทำงานอย่างหนัก และเรียนรู้ว่านักพัฒนากำลังใช้แพลตฟอร์มของ Microsoft สร้างสรรค์นวัตกรรมแห่งอนาคตอย่างไร
ที่ Microsoft เราเชื่อว่าอนาคตของ AI กำลังถูกสร้างขึ้นบนคลาวด์, Edge และ Windows Windows เป็นและจะเป็นแพลตฟอร์มเปิดที่ช่วยให้นักพัฒนาสามารถทำงานได้ดีที่สุด และมอบความยืดหยุ่นสูงสุด
เป้าหมายหลักของเราชัดเจน: ทำให้ Windows เป็นแพลตฟอร์มที่ดีที่สุดสำหรับนักพัฒนา สร้างขึ้นเพื่อยุคใหม่ของ AI ที่ซึ่งความฉลาดถูกรวมเข้ากับซอฟต์แวร์, ชิป และฮาร์ดแวร์ ตั้งแต่การใช้ Windows 11 บนไคลเอนต์ ไปจนถึงการใช้ Windows 365 บนคลาวด์ เรากำลังสร้างแพลตฟอร์มที่รองรับสถานการณ์ที่หลากหลาย ตั้งแต่การพัฒนา AI ไปจนถึงเวิร์กโฟลว์ IT หลัก ทั้งหมดนี้อยู่บนหลักการความปลอดภัยเป็นอันดับแรก
ในช่วงปีที่ผ่านมา เราใช้เวลาในการรับฟังความคิดเห็นจากนักพัฒนา เพื่อทำความเข้าใจว่าพวกเขาให้ความสำคัญกับอะไรมากที่สุด และโอกาสที่เราจะทำให้ Windows เป็นสภาพแวดล้อมการพัฒนาที่ดีขึ้น โดยเฉพาะอย่างยิ่งในยุคของการพัฒนา AI ข้อเสนอแนะเหล่านี้ได้กำหนดมุมมองของเราเกี่ยวกับแพลตฟอร์มนักพัฒนา Windows และการอัปเดตที่เรานำเสนอในวันนี้
ฟีเจอร์ใหม่สำหรับ Windows ในงาน Build:
Windows AI Foundry คือวิวัฒนาการของ Windows Copilot Runtime ซึ่งเป็นแพลตฟอร์มแบบครบวงจรที่น่าเชื่อถือ รองรับวงจรการพัฒนา AI ตั้งแต่การเลือกโมเดล, การปรับให้เหมาะสม, การปรับแต่ง ไปจนถึงการปรับใช้ข้ามไคลเอนต์และคลาวด์ Windows AI Foundry ประกอบด้วยความสามารถดังต่อไปนี้:
Windows ML คือรากฐานของแพลตฟอร์ม AI และเป็นรันไทม์การอนุมาน AI ในตัวบน Windows สิ่งนี้ช่วยให้นักพัฒนาสามารถนำโมเดลของตนเองมาใช้ และปรับใช้ได้อย่างมีประสิทธิภาพในระบบนิเวศของพันธมิตรชิป ซึ่งรวมถึง AMD, Intel, NVIDIA และ Qualcomm ครอบคลุม CPU, GPU และ NPU
Windows AI Foundry ผสานรวม Foundry Local และแคตตาล็อกโมเดลอื่นๆ เช่น Ollama และ NVIDIA NIMs เพื่อให้นักพัฒนาเข้าถึงโมเดลโอเพนซอร์สที่พร้อมใช้งานบนชิป Windows ที่หลากหลายได้อย่างรวดเร็ว สิ่งนี้ช่วยให้นักพัฒนาสามารถเรียกดู, ทดสอบ, โต้ตอบ และปรับใช้โมเดลในแอปพลิเคชันภายในเครื่องได้
นอกจากนี้ Windows AI Foundry ยังมี AI API ที่พร้อมใช้งาน ซึ่งขับเคลื่อนโดยโมเดลในตัวของ Windows บน Copilot+ PC สำหรับงานด้านภาษาและการมองเห็นที่สำคัญ เช่น ความฉลาดทางข้อความ, คำอธิบายรูปภาพ, การจดจำข้อความ, พรอมต์ที่กำหนดเอง และการลบวัตถุ เรากำลังประกาศฟีเจอร์ใหม่ๆ เช่น LoRA (low-rank-adaption) สำหรับการปรับแต่ง SLM Phi Silica ในตัวของเราโดยใช้ข้อมูลที่กำหนดเอง นอกจากนี้เรายังประกาศAPI ใหม่สำหรับการค้นหาเชิงความหมายและการดึงข้อมูลความรู้ เพื่อให้นักพัฒนาสามารถสร้างการค้นหาภาษาธรรมชาติและสถานการณ์ RAG (Retrieval Augmented Generation) ในแอปพลิเคชันของตนได้โดยใช้ข้อมูลที่กำหนดเอง
พัฒนา Windows 11 สำหรับสภาพแวดล้อม Agentic ในอนาคตผ่านการรองรับ Model Context Protocol (MCP) ดั้งเดิม การรวม MCP เข้ากับ Windows จะมอบเฟรมเวิร์กที่เป็นมาตรฐานสำหรับ AI Agent ในการเชื่อมต่อกับแอปพลิเคชัน Windows ดั้งเดิม ทำให้แอปพลิเคชันสามารถมีส่วนร่วมในการโต้ตอบ Agentic ได้อย่างราบรื่น แอปพลิเคชัน Windows สามารถเปิดเผยฟังก์ชันเฉพาะเพื่อเพิ่มทักษะและความสามารถของ Agent ที่ติดตั้งบน Windows PC ในอีกไม่กี่เดือนข้างหน้า เราจะนำเสนอตัวอย่างสำหรับนักพัฒนาส่วนตัวพร้อมกับพันธมิตรที่เลือก เพื่อเริ่มรวบรวมข้อเสนอแนะ
Application Actions บน Windows ฟีเจอร์ใหม่สำหรับนักพัฒนาแอปพลิเคชันที่สามารถสร้าง Action สำหรับฟังก์ชันเฉพาะในแอปพลิเคชันและเพิ่มการค้นพบ ซึ่งจะปลดล็อกจุดเริ่มต้นใหม่ๆ ให้นักพัฒนาในการดึงดูดผู้ใช้ใหม่
ฟีเจอร์ความปลอดภัยใหม่ของ Windows เช่น Virtualization-Based Security (VBS) Enclave SDK และ Post-Quantum Cryptography (PQC) มอบเครื่องมือเพิ่มเติมแก่นักพัฒนา ทำให้พวกเขาสามารถพัฒนาโซลูชันที่ปลอดภัยได้ง่ายขึ้น เมื่อภัยคุกคามมีการพัฒนาอย่างต่อเนื่อง
Windows Subsystem for Linux (WSL) โอเพนซอร์ส เชิญชวนนักพัฒนาให้มีส่วนร่วม, ปรับแต่ง และช่วยให้เราผสานรวม Linux เข้ากับ Windows ได้อย่างราบรื่นยิ่งขึ้น
การปรับปรุงใหม่สำหรับเครื่องมือนักพัฒนา Windows ยอดนิยม ซึ่งรวมถึง Terminal, WinGet และ PowerToys ช่วยให้นักพัฒนาสามารถเพิ่มประสิทธิภาพการทำงานและมุ่งเน้นไปที่สิ่งที่พวกเขาทำได้ดีที่สุด นั่นคือ การเขียนโค้ด
ฟีเจอร์การเติบโตใหม่ของ Microsoft Store ซึ่งขณะนี้รวมถึงการลงทะเบียนนักพัฒนาฟรี, Web Installer สำหรับแอปพลิเคชัน Win32, รายงานการวิเคราะห์, โปรแกรมส่งเสริมการขายแอปพลิเคชัน และอื่นๆ อีกมากมาย เพื่อช่วยให้นักพัฒนาแอปพลิเคชันเพิ่มการได้มาซึ่งผู้ใช้, การค้นพบ และการมีส่วนร่วมบน Windows
Windows AI Foundry
เราต้องการ democratize ความสามารถของนักพัฒนาในการสร้าง, ทดลอง และเข้าถึงผู้ใช้ด้วยประสบการณ์ AI ที่ก้าวกระโดด เราได้ยินจากนักพัฒนาที่เพิ่งเริ่มต้นการพัฒนา AI ว่าพวกเขาชอบโซลูชันที่พร้อมใช้งานสำหรับความสามารถเฉพาะ เพื่อเร่งการผสานรวม AI ในแอปพลิเคชัน นักพัฒนายังบอกเราว่าพวกเขาต้องการวิธีที่ง่ายในการเรียกดู, ทดสอบ และผสานรวมโมเดลโอเพนซอร์สในแอปพลิเคชันของตน นักพัฒนาที่สร้างโมเดลขั้นสูงของตนเองบอกเราว่าพวกเขาชอบโซลูชันที่รวดเร็วและมีประสิทธิภาพ เพื่อปรับใช้โมเดลได้อย่างมีประสิทธิภาพในชิปที่หลากหลาย เพื่อตอบสนองความต้องการในการพัฒนาที่หลากหลาย เราได้พัฒนา Windows Copilot Runtime ให้เป็น Windows AI Foundry ซึ่งมีฟังก์ชันที่มีประสิทธิภาพมากมาย
นักพัฒนาสามารถเข้าถึงโมเดลโอเพนซอร์สที่พร้อมใช้งานได้ง่ายขึ้น
Windows AI Foundry ผสานรวม Foundry Local และแคตตาล็อกโมเดลอื่นๆ เช่น Ollama และ NVIDIA NIMs ทำให้นักพัฒนาเข้าถึงโมเดลโอเพนซอร์สที่พร้อมใช้งานบนชิป Windows ที่หลากหลายได้อย่างรวดเร็ว ผ่านแคตตาล็อกโมเดล Foundry Local เราได้ทำงานอย่างหนักในการปรับโมเดลเหล่านี้ให้เหมาะสมกับ CPU, GPU และ NPU ทำให้สามารถใช้งานได้ทันที
ในช่วง Preview นักพัฒนาสามารถเข้าถึง Foundry Local ได้โดยการติดตั้งจาก WinGet (winget install Microsoft.FoundryLocal) และ Foundry Local CLI เพื่อเรียกดู, ดาวน์โหลด และทดสอบโมเดล Foundry Local จะตรวจจับฮาร์ดแวร์ของอุปกรณ์ (CPU, GPU และ NPU) โดยอัตโนมัติ และแสดงรายการโมเดลที่เข้ากันได้ที่นักพัฒนาสามารถลองใช้ได้ นักพัฒนายังสามารถใช้ประโยชน์จาก Foundry Local SDK เพื่อผสานรวม Foundry Local เข้ากับแอปพลิเคชันของตนได้อย่างง่ายดาย ในอีกไม่กี่เดือนข้างหน้า เราจะนำเสนอความสามารถเหล่านี้โดยตรงใน Windows 11 และ Windows App SDK เพื่อเพิ่มประสิทธิภาพประสบการณ์ของนักพัฒนาที่เผยแพร่แอปพลิเคชัน Production โดยใช้ Foundry Local
แม้ว่าเราจะนำเสนอโมเดลโอเพนซอร์สที่พร้อมใช้งาน แต่เราก็มีนักพัฒนาจำนวนมากขึ้นเรื่อยๆ ที่กำลังสร้างโมเดลของตนเอง และนำเสนอประสบการณ์ที่ก้าวกระโดดแก่ผู้ใช้ปลายทาง Windows ML คือรากฐานของแพลตฟอร์ม AI และเป็นรันไทม์การอนุมาน AI ในตัวที่ช่วยลดความซับซ้อนและปรับใช้โมเดลได้อย่างมีประสิทธิภาพบน CPU, GPU และ NPU
Windows ML เป็นรันไทม์การอนุมานภายในเครื่องที่มีประสิทธิภาพสูง ซึ่งสร้างขึ้นโดยตรงใน Windows สามารถลดความซับซ้อนในการจัดส่งแอปพลิเคชัน Production ของโมเดลโอเพนซอร์สหรือกรรมสิทธิ์ ซึ่งรวมถึงประสบการณ์ Copilot+ PC ของเราเอง สร้างขึ้นตั้งแต่เริ่มต้นเพื่อปรับประสิทธิภาพโมเดลและความคล่องตัว และตอบสนองต่อสถาปัตยกรรมโมเดล, ตัวดำเนินการ และความเร็วของนวัตกรรมการปรับให้เหมาะสมในทุกเลเยอร์ของ Stack Windows ML เป็นวิวัฒนาการของ DirectML (DML) โดยอิงจากบทเรียนที่เราได้เรียนรู้ในช่วงปีที่ผ่านมา (รับฟังข้อเสนอแนะจากนักพัฒนาจำนวนมาก, พันธมิตรชิปของเรา และทีมงานของเราเองที่พัฒนาประสบการณ์ AI ของ Copilot+ PC) Windows ML ได้รับการออกแบบมาโดยคำนึงถึงข้อเสนอแนะเหล่านี้ ทำห้พันธมิตรชิปของเรา (AMD, Intel, NVIDIA, Qualcomm) สามารถใช้ประโยชน์จากสัญญา Execution Provider เพื่อปรับประสิทธิภาพโมเดลให้เหมาะสม และปรับให้เข้ากับความเร็วของนวัตกรรม
Windows ML มีข้อดีหลายประการ:
ลดความซับซ้อนในการปรับใช้: ช่วยให้นักพัฒนาสามารถเผยแพร่แอปพลิเคชัน Production ได้ โดยไม่จำเป็นต้องจัดแพ็กรันไทม์ ML, Execution Provider ของฮาร์ดแวร์ หรือไดรเวอร์ร่วมกับแอปพลิเคชัน Windows ML จะตรวจจับฮาร์ดแวร์บนอุปกรณ์ไคลเอนต์, ดึง Execution Provider ที่เกี่ยวข้อง และเลือก Execution Provider ที่ถูกต้องสำหรับการอนุมานตามการกำหนดค่าที่นักพัฒนาให้ไว้
ปรับตัวให้เข้ากับฮาร์ดแวร์ AI รุ่นอนาคตโดยอัตโนมัติ: Windows ML ช่วยให้นักพัฒนาสามารถสร้างแอปพลิเคชัน AI ได้อย่างมั่นใจในระบบนิเวศของชิปที่พัฒนาอย่างรวดเร็ว เมื่อฮาร์ดแวร์ใหม่เปิดตัว Windows ML จะทำให้ Dependency ที่จำเป็นทั้งหมดเป็นปัจจุบัน และปรับให้เข้ากับชิปใหม่ ในขณะที่ยังคงรักษาความถูกต้องของโมเดลและความเข้ากันได้ของฮาร์ดแวร์
เครื่องมือในการเตรียมและเผยแพร่โมเดลประสิทธิภาพสูง: เครื่องมือที่มีประสิทธิภาพใน AI Toolkit for VS Code สำหรับงานต่างๆ ตั้งแต่การแปลงโมเดล, การวัดปริมาณ ไปจนถึงการปรับให้เหมาะสม ช่วยลดความซับซ้อนในกระบวนการเตรียมและเผยแพร่โมเดลประสิทธิภาพสูง
เรากำลังทำงานอย่างใกล้ชิดกับพันธมิตรชิปทั้งหมด (AMD, Intel, NVIDIA, Qualcomm) เพื่อผสานรวม Execution Provider ของพวกเขาเข้ากับ Windows ML อย่างราบรื่น เพื่อมอบประสิทธิภาพโมเดลที่ดีที่สุดสำหรับชิปเฉพาะของพวกเขา
นักพัฒนาแอปพลิเคชันจำนวนมาก เช่น Adobe, Bufferzone, McAfee, Reincubate, Topaz Labs, Powder และ Wondershare ได้ร่วมมือกับเราเพื่อใช้ประโยชน์จาก Windows ML ในการปรับใช้โมเดลข้ามชิป AMD, Intel, NVIDIA และ Qualcomm หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับ Windows ML โปรดไปที่ บล็อกนี้
ผสานรวม AI อย่างรวดเร็วและง่ายดายโดยใช้ API ที่ขับเคลื่อนโดยโมเดลในตัวของ Windows
เรากำลังนำเสนอ AI API ที่พร้อมใช้งาน ซึ่งขับเคลื่อนโดยโมเดลในตัวของ Windows สำหรับงานที่สำคัญ เช่น ความฉลาดทางข้อความและการประมวลผลภาพ ซึ่งรวมถึง Language API (เช่น การสรุปข้อความและการเขียนใหม่) และ Visual API (เช่น คำอธิบายรูปภาพ, การจดจำข้อความ (OCR), Super-Resolution ของรูปภาพ และ Image Segmentation) ทั้งหมดนี้มีให้ใช้งานในเวอร์ชันเสถียรใน Windows App SDK 1.7.2 เวอร์ชันล่าสุด API เหล่านี้ขจัดค่าใช้จ่ายในการสร้างหรือปรับใช้โมเดล API เหล่านี้ทำงานบนอุปกรณ์ภายในเครื่อง ช่วยให้มีความเป็นส่วนตัว, ความปลอดภัย และการปฏิบัติตามข้อกำหนดโดยไม่มีค่าใช้จ่ายเพิ่มเติม และปรับให้เหมาะสมสำหรับ NPU บน Copilot+ PC นักพัฒนาแอปพลิเคชัน (เช่น Dot Vista, Filmora ของ Wondershare, Pieces สำหรับนักพัฒนา, Powder, iQIYI และอื่นๆ) กำลังใช้ประโยชน์จาก AI API ที่พร้อมใช้งานของเราในแอปพลิเคชันของตน
เรายังได้ยินจากนักพัฒนาว่าพวกเขาต้องการปรับแต่ง LLM โดยใช้ข้อมูลที่กำหนดเอง เพื่อให้ได้ Output ที่พวกเขาต้องการสำหรับสถานการณ์เฉพาะ หลายคนยังบอกว่าการปรับแต่งโมเดลพื้นฐานเป็นงานที่ยากลำบาก นี่คือเหตุผลที่เราประกาศการรองรับ LoRA (low-rank-adaption) สำหรับ Phi Silica
แนะนำ LoRA (low-rank-adaption) สำหรับ Phi Silica เพื่อปรับแต่ง SLM ในตัวของเราโดยใช้ข้อมูลที่กำหนดเอง
LoRA เพิ่มประสิทธิภาพการปรับแต่งโดยการอัปเดตพารามิเตอร์เพียงส่วนเล็กๆ ของโมเดลโดยใช้ข้อมูลที่กำหนดเองเท่านั้น สิ่งนี้ช่วยให้เพิ่มประสิทธิภาพสำหรับงานที่ต้องการ โดยไม่กระทบต่อความสามารถโดยรวมของโมเดล สิ่งนี้เปิดตัวใน Public Preview บน Snapdragon X Series NPU ในวันนี้ และจะพร้อมใช้งานสำหรับ Intel และ AMD Copilot+ PC ในอีกไม่กี่เดือนข้างหน้า นักพัฒนาสามารถเข้าถึง LoRA สำหรับ Phi Silica ใน Windows App SDK 1.8 Experimental 2
นักพัฒนาสามารถเริ่มต้นใช้งาน LoRA Training สำหรับ Phi Silica ผ่าน AI Toolkit for VS Code เลือกเครื่องมือ Fine-Tuning, เลือกโมเดล Phi Silica, กำหนดค่าโปรเจกต์ และเปิดใช้งานการฝึกอบรมโดยใช้ชุดข้อมูลที่กำหนดเองใน Azure เมื่อการฝึกอบรมเสร็จสมบูรณ์ นักพัฒนาสามารถดาวน์โหลด LoRA Adapter และใช้มันเหนือ Phi Silica API และทดลองเพื่อดูความแตกต่างของการตอบสนองโดยมีและไม่มี LoRA Adapter
แนะนำการค้นหาเชิงความหมายและการดึงข้อมูลความรู้สำหรับ LLM
เรากำลังแนะนำ Semantic Search API ใหม่ เพื่อช่วยให้นักพัฒนาสร้างประสบการณ์การค้นหาที่มีประสิทธิภาพโดยใช้ข้อมูลแอปพลิเคชันของตนเอง API เหล่านี้รองรับ Semantic Search (ค้นหาตามความหมาย รวมถึงการค้นหารูปภาพ) และ Lexical Search (ค้นหาตามคำที่แน่นอน) ช่วยให้ผู้ใช้สามารถค้นหาสิ่งที่ต้องการได้อย่างเป็นธรรมชาติและยืดหยุ่นมากขึ้น
API การค้นหาเหล่านี้ทำงานภายในเครื่องบนอุปกรณ์ทุกประเภท มอบประสิทธิภาพและความเป็นส่วนตัวที่ราบรื่น บน Copilot+ PC ความสามารถ Semantic Search เปิดใช้งานเพื่อประสบการณ์ที่เหนือกว่า
นอกเหนือจากการค้นหาแบบดั้งเดิมแล้ว API เหล่านี้ยังรองรับ RAG (Retrieval Augmented Generation) ทำให้นักพัฒนาสามารถใช้ข้อมูลที่กำหนดเองของตนเองเพื่อรองรับ Output ของ LLM
API เหล่านี้มีให้ใช้งานใน Private Preview ในปัจจุบัน
โดยสรุป Windows AI Foundry มอบฟังก์ชันมากมายให้นักพัฒนา เพื่อตอบสนองความต้องการในเส้นทาง AI ของพวกเขา มี API ที่พร้อมใช้งานซึ่งขับเคลื่อนโดยโมเดลในตัว เครื่องมือในการปรับแต่งโมเดลในตัวของ Windows และรันไทม์การอนุมานประสิทธิภาพสูง เพื่อช่วยให้นักพัฒนาส่งมอบโมเดลของตนเองและปรับใช้บนชิป นักพัฒนายังสามารถเข้าถึงแคตตาล็อกโมเดลโอเพนซอร์สที่หลากหลายผ่านการรวม Foundry Local เข้ากับ Windows AI Foundry
Windows AI Foundry ISV Adoption
เรารู้สึกตื่นเต้นที่จะได้เฉลิมฉลองชุมชนนักพัฒนาที่น่าทึ่งของเราที่สร้างประสบการณ์บน AI บนอุปกรณ์ใน Windows 11 ในวันนี้ และเราแทบรอไม่ไหวที่จะได้เห็นว่านักพัฒนาจะสร้างอะไรเพิ่มเติมด้วยฟังก์ชันมากมายที่ Windows AI Foundry มอบให้
แนะนำการรองรับ Model Context Protocol (MCP) ภายในเครื่อง เพื่อรองรับระบบนิเวศ Agentic บน Windows 11
ขณะที่โลกกำลังก้าวไปสู่อนาคตของ Agentic Windows กำลังพัฒนา เพื่อจัดหาเครื่องมือ, ฟังก์ชัน และกระบวนทัศน์ความปลอดภัยที่ Agent สามารถทำงานและยกระดับทักษะของตนเอง เพื่อมอบมูลค่าที่มีความหมายแก่ลูกค้า
แพลตฟอร์ม MCP บน Windows จะมอบเฟรมเวิร์กที่เป็นมาตรฐานสำหรับ AI Agent ในการเชื่อมต่อกับแอปพลิเคชัน Windows ภายในเครื่อง ซึ่งสามารถเปิดเผยฟังก์ชันเฉพาะเพื่อยกระดับทักษะและความสามารถของ Agent เหล่านั้นบน Windows 11 PC โครงสร้างพื้นฐานนี้จะนำเสนอตัวอย่างสำหรับนักพัฒนาส่วนตัวพร้อมกับพันธมิตรที่เลือกในอีกไม่กี่เดือนข้างหน้า เพื่อเริ่มรวบรวมข้อเสนอแนะ
ความปลอดภัยและความเป็นส่วนตัวเป็นสิ่งสำคัญอันดับแรก: ด้วยฟังก์ชัน MCP ใหม่ เราตระหนักดีว่าขณะที่เราขยาย MCP และฟังก์ชัน Agentic อื่นๆ อย่างต่อเนื่อง เราจะเรียนรู้อย่างต่อเนื่อง และภารกิจอันดับแรกของเราคือการตรวจสอบให้แน่ใจว่าเราสร้างขึ้นบนพื้นฐานที่ปลอดภัย นี่คือหลักการบางประการที่แนะนำเราในการพัฒนา MCP บน Windows 11 อย่างมีความรับผิดชอบ:
เรามุ่งมั่นที่จะทำให้ Windows MCP Registry เป็นระบบนิเวศของ MCP เซิร์ฟเวอร์ที่เชื่อถือได้และเป็นที่เคารพ ซึ่งเป็นไปตามมาตรฐานเกณฑ์มาตรฐานด้านความปลอดภัยที่แข็งแกร่ง
การควบคุมของผู้ใช้เป็นหลักการชี้นำของเราในการพัฒนาการผสานรวมนี้ โดยค่าเริ่มต้น การเข้าถึง MCP เซิร์ฟเวอร์ของ Agent จะถูกปิดใช้งาน เมื่อเปิดใช้งาน การดำเนินการที่ละเอียดอ่อนทั้งหมดที่ Agent ดำเนินการในนามของผู้ใช้จะสามารถตรวจสอบได้และโปร่งใส
การเข้าถึง MCP เซิร์ฟเวอร์จะได้รับการจัดการตามหลักการสิทธิ์ขั้นต่ำ ซึ่งบังคับใช้ผ่านความสามารถในการประกาศและแยก (หากมี) เพื่อให้มั่นใจว่าผู้ใช้สามารถควบคุมสิทธิ์ที่มอบให้กับ MCP เซิร์ฟเวอร์ และช่วยจำกัดผลกระทบของการโจมตีใดๆ ต่อเซิร์ฟเวอร์ใดเซิร์ฟเวอร์หนึ่ง
ความปลอดภัยไม่ใช่ฟังก์ชันครั้งเดียว แต่เป็นความมุ่งมั่นอย่างต่อเนื่อง เราจะพัฒนาการป้องกันของเราต่อไป ขณะที่เราขยาย MCP และฟังก์ชัน Agentic อื่นๆ หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับวิธีการรักษาความปลอดภัย โปรดไปที Protecting Model Context Protocol: Building a Secure Agentic Future on Windows
เรากำลังแนะนำคอมโพเนนต์ต่อไปนี้ในแพลตฟอร์ม MCP บน Windows:
Windows MCP Registry: นี่คือแหล่งที่มาเดียว, ปลอดภัย และเชื่อถือได้ที่ AI Agent สามารถใช้เพื่อเข้าถึง MCP เซิร์ฟเวอร์บน Windows Agent สามารถค้นพบ MCP เซิร์ฟเวอร์ที่ติดตั้งบนอุปกรณ์ไคลเอนต์ผ่าน Windows MCP Registry ใช้ประโยชน์จากความเชี่ยวชาญของพวกเขา และมอบมูลค่าที่มีความหมายแก่ผู้ใช้ปลายทาง
Windows MCP Server: ซึ่งจะรวมถึงฟังก์ชันระบบ Windows เช่น ไฟล์ระบบ, หน้าต่าง และ Windows Subsystem for Linux เป็น MCP เซิร์ฟเวอร์ที่ Agents โต้ตอบด้วย
นักพัฒนาสามารถแพ็กฟังก์ชันและความสามารถที่ต้องการจากแอปพลิเคชันเป็น MCP เซิร์ฟเวอร์ และทำให้พร้อมใช้งานผ่าน Windows MCP Registry เรากำลังแนะนำ Application Actions บน Windows ซึ่งเป็นฟังก์ชันใหม่สำหรับนักพัฒนาที่สามารถใช้เป็น MCP เซิร์ฟเวอร์ในตัว ทำให้แอปพลิเคชันสามารถจัดหาฟังก์ชันให้กับ Agents ได้
Windows MCP Architecture
เรากำลังทำงานร่วมกับนักพัฒนาแอปพลิเคชัน (เช่น Anthropic, Perplexity, OpenAI และ Figma) เพื่อสร้างแพลตฟอร์มนี้ ซึ่งกำลังผสานรวมความสามารถ MCP เข้ากับแอปพลิเคชันของตนบน Windows
ดังที่ Rich O’Connell หัวหน้าฝ่ายStrategic Alliances ที่ Anthropic กล่าวว่า “เรารู้สึกตื่นเต้นที่ได้เห็นการนำ Model Context Protocol มาใช้อย่างต่อเนื่อง และระบบนิเวศของการผสานรวมที่เฟื่องฟูซึ่งสร้างขึ้นโดยบริการและชุมชนที่ได้รับความนิยม LLM ได้รับประโยชน์จากการเชื่อมต่อกับโลกของข้อมูลและเครื่องมือของคุณ และเราหวังว่าจะได้เห็นคุณค่าที่ผู้ใช้สัมผัสได้จากการเชื่อมต่อ Claude เข้ากับ Windows“
Aravind Srinivas ผู้ร่วมก่อตั้งและซีอีโอของ Perplexity กล่าวว่า “ที่ Perplexity เช่นเดียวกับ Microsoft เรามุ่งเน้นไปที่ประสบการณ์ที่น่าเชื่อถือและเป็นประโยชน์อย่างแท้จริง MCP ใน Windows นำประสบการณ์ AI ที่ช่วยเสริมพลังมาสู่หนึ่งในระบบปฏิบัติการที่มีอิทธิพลมากที่สุดในโลก“
Kevin Weil หัวหน้าเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ที่ OpenAI กล่าวว่า “เรารู้สึกตื่นเต้นที่ได้เห็น Windows โอบรับประสบการณ์ AI Agent โดยการนำ Model Context Protocol มาใช้ สิ่งนี้ปูทางให้ ChatGPT เชื่อมต่อกับเครื่องมือและบริการ Windows ที่ผู้ใช้ใช้เป็นประจำได้อย่างราบรื่น เราหวังว่าจะให้อำนาจนแก่นักพัฒนาและผู้ใช้ในการสร้างประสบการณ์ที่ทรงพลังและสมบูรณ์ตามบริบทผ่านการผสานรวมนี้“
ความร่วมมือในช่วงแรกเหล่านี้วางรากฐานสำหรับความมุ่งมั่นของเราในการรักษา Windows ให้เป็นแพลตฟอร์มเปิดและพัฒนาสำหรับอนาคตของ Agentic แรงผลักดันเบื้องหลัง MCP มอบโอกาสที่ยอดเยี่ยมสำหรับนักพัฒนาในการเพิ่มการตรวจพบแอปพลิเคชันและการมีส่วนร่วม
เปิดตัว Windows App Actions ซึ่งเป็นฟีเจอร์ใหม่สำหรับนักพัฒนาเพื่อเพิ่มการค้นพบแอปของตน
เราได้ยินจากนักพัฒนาว่าการทำให้ผู้ใช้สนใจแอปของตน และเพิ่มการใช้งานเป็นสิ่งสำคัญต่อการเติบโตของพวกเขา เราเป็นบริษัทนักพัฒนาด้วยกัน ดังนั้นเราจึงเข้าใจความต้องการหลักนี้อย่างลึกซึ้ง นั่นคือเหตุผลที่เราเปิดตัว Windows App Actions App Actions มอบฟังก์ชันใหม่แก่นักพัฒนาเพื่อเพิ่มการค้นพบฟังก์ชันของแอปของตน เพื่อปลดล็อกจุดเริ่มต้นใหม่ๆ ให้นักพัฒนาในการดึงดูดผู้ใช้ใหม่
ปัจจุบัน แอปชั้นนำในอุตสาหกรรมต่างๆ ซึ่งรวมถึง Productivity, Creativity และ Communication กำลังใช้ App Actions เพื่อปลดล็อกอินเทอร์เฟซการมีส่วนร่วมใหม่ Zoom, Filmora, Goodnotes, Todoist, Raycast, Pieces for Developers และ Spark Mailare เป็นนักพัฒนาชุดแรกที่เข้าร่วมฟีเจอร์นี้
นักพัฒนาสามารถใช้:
App Actions API เพื่อสร้าง Action สำหรับฟังก์ชันที่พวกเขาต้องการ นักพัฒนายังสามารถใช้ App Actions ที่พัฒนาโดยแอปอื่นๆ ที่เกี่ยวข้อง เพื่อมอบฟังก์ชันที่เสริมกัน เพื่อเพิ่มเวลาการมีส่วนร่วมในแอปของตน นักพัฒนาสามารถเข้าถึง API เหล่านี้ผ่าน Windows SDK 10.0.26100.4188 หรือสูงกว่า
App Actions Testing Environment เพื่อทดสอบฟังก์ชันและการใช้งาน App Actions ของตน นักพัฒนาสามารถดาวน์โหลดเครื่องมือทดสอบผ่าน Microsoft Store
Powerful AI Developer Workstations สำหรับตอบสนองความต้องการของปริมาณงานการคำนวณสูงและ AI การอนุมานในเครื่อง
นักพัฒนาที่สร้างปริมาณงาน AI การคำนวณสูงบอกเราว่าพวกเขาต้องการไม่เพียงแต่ซอฟต์แวร์ที่เชื่อถือได้เท่านั้น แต่ยังรวมถึงฮาร์ดแวร์ที่ทรงพลังเพื่อรองรับการพัฒนา AI ในเครื่องด้วย เราได้ร่วมมือกับ OEM และพันธมิตรชิปจำนวนหนึ่งเพื่อนำเสนอ AI Developer Workstations ที่ทรงพลัง
OEM Partners เช่น Dell, HP และ Lenovo นำเสนอระบบ Windows ที่หลากหลายเพื่อให้มีความยืดหยุ่นทั้งในด้านข้อกำหนดฮาร์ดแวร์และงบประมาณ Dell Pro Max Towe มอบข้อกำหนดฮาร์ดแวร์ที่น่าประทับใจเพื่อประสิทธิภาพที่ทรงพลัง ซึ่งเป็นตัวเลือกที่ยอดเยี่ยมสำหรับการอนุมานโมเดล AI บน GPU หรือ CPU และสำหรับการปรับแต่งโมเดลในเครื่อง เพื่อให้ได้ขุมพลังการประมวลผลที่มีประสิทธิภาพด้านพื้นที่ HP Z2 Mini G1a เป็นมินิเวิร์กสเตชันที่ทรงพลัง Dell Pro Max 16 Premium, HP Zbook Ultra G1a และ Lenovo P14s/P16s รุ่นใหม่ทั้งหมดเป็น Copilot+ PC มอบความคล่องตัวที่น่าทึ่งแก่นักพัฒนา
ฟีเจอร์ใหม่เพื่อความปลอดภัยของแพลตฟอร์ม Windows
เปิดตัว VBS Enclave SDK (Preview) สำหรับความต้องการในการคำนวณที่ปลอดภัย
Security คือแถวหน้าของการสร้างสรรค์นวัตกรรมและทุกสิ่งที่เราทำที่ Microsoft ในยุคของ AI แอปพลิเคชันจำนวนมากขึ้นเรื่อยๆ จำเป็นต้องปกป้องข้อมูลของตนจากการโจมตีของมัลแวร์ หรือแม้แต่ผู้ใช้และผู้ดูแลระบบที่เป็นอันตราย ในปี 2024 เราได้เปิดตัวเทคโนโลยี Virtualization-Based Security (VBS) Enclave เพื่อจัดหาสภาพแวดล้อมการดำเนินการที่น่าเชื่อถือ ที่แอปพลิเคชันสามารถดำเนินการคำนวณที่ปลอดภัยได้