การมาถึงของ Large Language Models (LLMs) ได้ปฏิวัติวงการปัญญาประดิษฐ์อย่างปฏิเสธไม่ได้ อย่างไรก็ตาม ความท้าทายที่ยังคงอยู่คือ การรวมโมเดลเหล่านี้เข้ากับข้อมูลที่เป็นกรรมสิทธิ์อย่างมีประสิทธิภาพ แม้ว่า LLMs จะมีความเชี่ยวชาญในการประมวลผลข้อมูลจำนวนมหาศาลจากอินเทอร์เน็ต แต่ศักยภาพที่แท้จริงของพวกมันอยู่ที่การทำหน้าที่เป็นอินเทอร์เฟซภาษาธรรมชาติสำหรับแอปพลิเคชันและข้อมูลของเรา ช่วยให้เราสามารถควบคุมความสามารถในการทำนายและการสร้างภายในสภาพแวดล้อมที่ควบคุมได้
เพื่อให้มั่นใจในความน่าเชื่อถือและความเกี่ยวข้องของผลลัพธ์ LLM กลยุทธ์ต่างๆ ได้เกิดขึ้น โดยแต่ละกลยุทธ์ได้รับการออกแบบมาเพื่อเชื่อมช่องว่างระหว่างโมเดลเหล่านี้และชุดข้อมูลเฉพาะ กลยุทธ์เหล่านี้มีตั้งแต่การสร้าง embeddings แบบกำหนดเองและการใช้เทคนิค retrieval-augmented generation (RAG) – การใช้ประโยชน์จากฐานข้อมูลกราฟเพื่อค้นพบความสัมพันธ์ที่ซับซ้อนภายในข้อมูล – ไปจนถึงการใช้ LLMs เพื่อกลั่นกรองและนำเสนอข้อมูลที่ได้รับผ่านการเรียก OpenAPI ที่ทริกเกอร์โดยการแจ้งเตือนของผู้ใช้ นอกจากนี้ โมเดลปลั๊กอินที่ได้รับความนิยมจาก ChatGPT ของ OpenAI ยังมีช่องทางอื่นสำหรับการรวมข้อมูล ท่ามกลางแนวทางที่หลากหลายเหล่านี้ Model Context Protocol (MCP) โดดเด่นในฐานะโซลูชันที่น่าสนใจสำหรับการสร้างมาตรฐานการเชื่อมต่อระหว่าง LLMs และแหล่งข้อมูลภายนอก
การเปิดตัว Model Context Protocol
Model Context Protocol ซึ่งเปิดตัวโดย Anthropic ในช่วงปลายปี 2024 ถือเป็นก้าวสำคัญในการปรับปรุงปฏิสัมพันธ์ระหว่าง LLMs และข้อมูลเฉพาะของผู้ใช้ โปรโตคอลนี้เน้นย้ำถึงบทบาทสำคัญของบริบทในแอปพลิเคชัน AI โดยตระหนักว่าความสามารถของ AI ในการส่งมอบผลลัพธ์ที่สอดคล้องและมีความหมายขึ้นอยู่กับความพร้อมใช้งานของข้อมูลตามบริบทที่เกี่ยวข้อง การพึ่งพาการแจ้งเตือนแชทเพียงอย่างเดียวเพื่อให้ได้คำตอบที่สมเหตุสมผลนั้น อย่างดีที่สุดคือการออกกำลังกายในการมองโลกในแง่ดี และอย่างเลวร้ายที่สุดคือสูตรสำหรับผลลัพธ์ที่ไม่ถูกต้องหรือทำให้เข้าใจผิด ในการสร้างเอเจนต์กึ่งอัตโนมัติที่แข็งแกร่งซึ่งสามารถจัดการเวิร์กโฟลว์รอบๆ ข้อมูลของเรา กลไกที่เชื่อถือได้สำหรับการส่งมอบข้อมูลนั้นไปยังเอเจนต์เหล่านี้เป็นสิ่งจำเป็น
ในฐานะที่เป็นโครงการริเริ่มโอเพนซอร์ส MCP มีการใช้งาน SDK สำหรับภาษาโปรแกรมที่หลากหลาย พร้อมด้วยเอกสารที่ครอบคลุมภายในที่เก็บ GitHub เอกสารนี้ช่วยให้นักพัฒนาสามารถใช้งานหรือใช้เซิร์ฟเวอร์ MCP ได้อย่างมีประสิทธิภาพ คำอธิบายโครงการของ MCP ในฐานะ ‘พอร์ต USB-C สำหรับแอปพลิเคชัน AI’ จับภาพสาระสำคัญได้อย่างเหมาะสม โดยเน้นถึงความสามารถในการสร้างมาตรฐานการเชื่อมต่อกับแหล่งข้อมูลที่หลากหลาย สร้างขึ้นบนรากฐานที่เป็นมาตรฐาน MCP สามารถรวมเข้ากับโครงการที่มีอยู่ได้อย่างง่ายดาย โดยเชื่อมต่อกับ LLMs และผู้ให้บริการอนุมานต่างๆ ได้อย่างราบรื่น
สถาปัตยกรรมของ MCP เป็นไปตามรูปแบบไคลเอนต์/เซิร์ฟเวอร์ที่ได้รับการยอมรับอย่างดี โดยที่โบรกเกอร์รับผิดชอบในการแปลคำขอ MCP เป็นคำขอในเครื่องหรือจากระยะไกล การออกแบบนี้สะท้อนถึงฟังก์ชันการทำงานของภาษาคำจำกัดความอินเทอร์เฟซ เช่น CORBA โดยแปลง MCP เป็นเลเยอร์การทำงานร่วมกันที่หลากหลาย ซึ่งช่วยให้สามารถสลับระหว่างแหล่งข้อมูลและแอปพลิเคชัน LLM ได้อย่างราบรื่น การใช้ประโยชน์จากการเชื่อมต่อ JSON RPC ทำให้ MCP สามารถควบคุมได้อย่างละเอียดในระดับผู้ใช้แต่ละคนผ่านเครื่องมือต่างๆ เช่น Azure API Management
MCP ส่งเสริมการพัฒนาอินเทอร์เฟซทั่วไปสำหรับโค้ดที่ขับเคลื่อนด้วย AI ซึ่งเห็นได้จากการนำไปใช้เพิ่มขึ้นในแพลตฟอร์มการพัฒนา AI ของ Microsoft ตั้งแต่การรวมเข้ากับเครื่องมือจัดระเบียบโมเดล Semantic Kernel ไปจนถึงการปรับใช้เป็นเซิร์ฟเวอร์ MCP ที่เข้ากันได้กับ Azure OpenAI และ Azure AI Foundry MCP กำลังได้รับความนิยมอย่างรวดเร็ว Microsoft ยังปรับปรุง Azure API Management ด้วยคุณสมบัติในการควบคุมการเข้าถึงข้อมูลตามข้อมูลประจำตัวของผู้ใช้ ซึ่งเป็นการเสริมความแข็งแกร่งให้กับบทบาทของ MCP ในการปรับใช้ AI ที่ปลอดภัยและมีการควบคุม
Azure MCP Server: การใช้งานในช่วงแรก
Azure MCP Server แบบโอเพนซอร์สที่เพิ่งเปิดตัวในการแสดงตัวอย่างต่อสาธารณชนแสดงให้เห็นถึงการใช้งาน MCP ในช่วงแรกบนแพลตฟอร์มของ Microsoft เซิร์ฟเวอร์นี้ทำหน้าที่เป็นโบรกเกอร์ทั่วไปสำหรับการเข้าถึง AI ไปยังบริการ Azure ที่สำคัญ โดยยึดมั่นในหลักการโอเพนซอร์สที่โครงการ Azure ล่าสุดหลายโครงการนำมาใช้ รหัสของมันสามารถเข้าถึงได้ง่ายบน GitHub Azure MCP Server ให้การเข้าถึงส่วนสำคัญของแพลตฟอร์ม Azure รวมถึงฐานข้อมูล โซลูชันการจัดเก็บ และบริการต่างๆ เช่น Azure CLI
การรวมการสนับสนุนสำหรับ Azure CLI (และ Developer CLI) เป็นสิ่งที่น่าสังเกตเป็นพิเศษ เนื่องจากช่วยให้เอเจนต์ที่ขับเคลื่อนด้วย MCP สามารถโต้ตอบกับ Azure ได้โดยตรง โดยถือว่าการเรียก MCP เป็นตัวดำเนินการ ความสามารถนี้ปูทางสำหรับการสร้างเอเจนต์ที่นำเสนออินเทอร์เฟซบริการตนเองภาษาธรรมชาติไปยัง Azure ตัวอย่างเช่น เอเจนต์สามารถอธิบายโครงสร้างพื้นฐานและสร้างเทมเพลต ARM ที่จำเป็นสำหรับการปรับใช้โดยอัตโนมัติ ขยายแนวคิดนี้ต่อไป เราสามารถจินตนาการถึงเอเจนต์ multimodal ที่วิเคราะห์ภาพร่างไวท์บอร์ด อนุมานคำอธิบายของทรัพยากรที่จำเป็น แล้วปรับใช้โครงสร้างพื้นฐาน ทำให้สามารถพัฒนาโค้ดได้ทันที บริการการดูแลระบบระบบเพิ่มเติมที่สามารถเข้าถึงได้ผ่าน Azure MCP Server ครอบคลุมถึงการแสดงรายการกลุ่มทรัพยากรปัจจุบันและการใช้ประโยชน์จาก KQL เพื่อค้นหาบันทึก Azure Monitoring
การรวม Azure MCP Server เข้ากับ GitHub Copilot Chat
เนื่องจากเป็นไปตามมาตรฐาน MCP Azure MCP Server จึงผสานรวมกับเครื่องมือ AI ใดๆ ที่รองรับ MCP ได้อย่างราบรื่น เช่น GitHub Copilot Agent Mode เพียงเพิ่มเซิร์ฟเวอร์ในผู้เช่าของคุณ คุณก็สามารถเริ่มถามคำถามผ่าน Copilot ได้ ไม่ว่าจะโดยตรงหรือผ่านการรวม Visual Studio Code ตัวเลือกหลังนี้เป็นวิธีที่มีประสิทธิภาพในการเรียนรู้วิธีใช้ประโยชน์จาก MCP และสร้างข้อความแจ้งสำหรับแอปพลิเคชัน AI ที่ใช้ MCP ของคุณเอง
ปัจจุบัน Microsoft ยังไม่ได้เปิดตัวเครื่องมือ MCP เฉพาะสำหรับภาษาโปรแกรม ทำให้ต้องใช้ SDK อย่างเป็นทางการในการพัฒนาโค้ดที่กำหนดเอง ด้วยการสนับสนุนสำหรับ TypeScript, C# และ Python นักพัฒนาจึงสามารถเข้าถึงเครื่องมือที่จำเป็นในการสร้างเอเจนต์ Azure MCP ของตนเอง การทดลองสามารถดำเนินการได้ภายใน Visual Studio Code โดยใช้ข้อมูลประจำตัว Azure ที่มีอยู่
เซิร์ฟเวอร์ทำงานบนพีซีสำหรับพัฒนาของคุณและต้องใช้ Node.js การติดตั้งทำได้โดยตรงจากที่เก็บ GitHub ของโครงการลงใน VS Code เมื่อติดตั้งแล้ว ตรวจสอบให้แน่ใจว่าทั้งส่วนขยาย GitHub Copilot และ GitHub Copilot Chat ได้รับการกำหนดค่าให้ใช้โหมดเอเจนต์ทดลอง (เข้าถึงได้ผ่านเครื่องมือตั้งค่า VS Code) จากนั้น เปิดบานหน้าต่างแชท GitHub Copilot แล้วสลับไปที่โหมดเอเจนต์ ตรวจสอบว่า Azure MCP Server ได้รับการติดตั้งภายในเมนูแบบเลื่อนลงของเครื่องมือ ตอนนี้คุณสามารถส่งคำถามได้ เช่น ‘แสดงรายการการสมัครสมาชิก Azure ของฉัน’
เครื่องมือที่เป็นผลลัพธ์นั้นมีค่าอย่างยิ่งสำหรับทุกคนที่ทำงานกับ Azure และขยายไปไกลกว่าการรวม Copilot Azure MCP Server สามารถติดตั้งได้ทุกที่ที่รองรับ Node.js ทำให้สามารถรวมเข้ากับเอเจนต์ที่กำหนดเองได้
บทบาทของ MCP ใน Azure AI Foundry
Microsoft กำลังขยายพอร์ตโฟลิโอของเครื่องมือ MCP อย่างรวดเร็ว โดยเปิดเผยฟังก์ชันการทำงานที่มีอยู่ผ่าน MCP หรือเปิดใช้งานการใช้งานภายในแอปพลิเคชันเอเจนต์ การเปิดตัวอย่างรวดเร็วนี้รวมถึงเครื่องมือสำหรับการพัฒนาเอเจนต์แบบไม่ต้องใช้โค้ดของ Copilot Studio ซึ่งประกาศในระหว่างการเขียนบทความนี้
Azure AI Foundry ซึ่งเป็นแพลตฟอร์มการพัฒนาหลักของ Microsoft สำหรับการพัฒนาแอปพลิเคชัน AI ขนาดใหญ่ ยังได้พัฒนา MCP Server อย่างแข็งขันเพื่อเสริมบริการ AI Agent ของ Azure การรวมนี้มีจุดมุ่งหมายเพื่อเชื่อมต่อเอเจนต์ที่ทำงานภายใน Azure AI Foundry กับไคลเอนต์ที่ทำงานเป็นส่วนหนึ่งของแอปพลิเคชัน AI อื่นๆ
บริการนี้ช่วยให้คุณสามารถนำโค้ดและบริการ AI ที่มีอยู่กลับมาใช้ใหม่ได้อย่างรวดเร็ว และเชื่อมโยงเข้ากับแอปพลิเคชันใหม่ บริการต่างๆ เช่น Fabric เปิดเผยคุณสมบัติเอเจนต์เป็นจุดสิ้นสุด AI Agent Service ช่วยให้แอปพลิเคชัน AI สามารถเชื่อมต่อกับข้อมูลสายธุรกิจหลักได้อย่างราบรื่น โดยให้พื้นฐานที่จำเป็นเพื่อลดความเสี่ยงของการหลงผิดและข้อผิดพลาด
เมื่อติดตั้งแล้ว เซิร์ฟเวอร์จะจัดเตรียมชุดการดำเนินการ MCP สำหรับการเชื่อมต่อกับเอเจนต์และการส่งคำถาม นอกจากนี้ยังสามารถแสดงรายการเอเจนต์ที่มีอยู่หรือใช้เอเจนต์เริ่มต้นสำหรับงานเฉพาะ การสนับสนุนสำหรับเธรดการสนทนารวมอยู่ด้วย โดยให้เอเจนต์มีความจำเชิงความหมายพื้นฐานสำหรับการสนทนาตามบริบท คุณจะต้องมี ID เอเจนต์ Azure AI Agent Service เพื่อเรียกใช้โดยใช้ MCP
เซิร์ฟเวอร์ถูกนำไปใช้งานใน Python และสามารถติดตั้งได้โดยใช้ Azure CLI ผ่าน pip
หรืออีกทางหนึ่ง เวอร์ชัน TypeScript มีให้สำหรับผู้ที่ต้องการ ในทำนองเดียวกับ Azure MCP Server เซิร์ฟเวอร์นี้ทำงานนอกสภาพแวดล้อม AI Foundry ช่วยให้สามารถติดตั้งบนพีซีสำหรับพัฒนาหรือเป็นส่วนหนึ่งของแอปพลิเคชันที่โฮสต์บนคลาวด์ภายในคอนเทนเนอร์หรือ VM ของตัวเอง โดยมีการสนับสนุนสำหรับ Windows, macOS และ Linux
การใช้ประโยชน์จาก MCP Servers จากแอปพลิเคชัน Semantic Kernel AI
ในฐานะที่เป็นมาตรฐานเปิด MCP ช่วยให้เซิร์ฟเวอร์สามารถใช้งานร่วมกับไคลเอนต์ใดๆ ได้ ที่เก็บ GitHub มีคำแนะนำเกี่ยวกับวิธีการสร้างการเชื่อมต่อโดยใช้ Claude Desktop ของ Anthropic แต่คุณค่าที่แท้จริงอยู่ที่การสร้างเวิร์กโฟลว์เอเจนต์ที่กำหนดเองภายใน Semantic Kernel
Microsoft จัดเตรียมตัวอย่างโค้ดที่แสดงวิธีการรวมการสนับสนุน MCP เข้ากับการจัดระเบียบ Semantic Kernel โดยถือว่าเป็นปลั๊กอินเคอร์เนลที่รวมเข้ากับการเรียกฟังก์ชันที่คุ้นเคย การรวมเหล่านี้สามารถห่อเป็นเอเจนต์และเข้าถึงได้ตามต้องการ แม้ว่าการรวม MCP ภายใน Semantic Kernel ยังอยู่ระหว่างการพัฒนา แต่ก็ผสานรวมกับชุดคุณสมบัติที่มีอยู่อย่างราบรื่น โดยต้องใช้โค้ดเพิ่มเติมน้อยที่สุดเพื่อเปิดเผยเครื่องมือ MCP จากเซิร์ฟเวอร์ไปยังแอปพลิเคชัน AI
เครื่องมือต่างๆ เช่น MCP เป็นส่วนประกอบสำคัญของสแต็ก AI สมัยใหม่ ซึ่งเป็นแนวทางที่เป็นมาตรฐานในการสร้างอินเทอร์เฟซที่ค้นพบได้สำหรับทั้งแอปพลิเคชันภายในเครื่องและจากระยะไกล เมื่อกำหนดแล้ว เครื่องมือ MCP จะถูกเรียกใช้อย่างง่ายดาย โดยเซิร์ฟเวอร์จะแสดงรายการเครื่องมือที่มีอยู่ และ MCP จะให้ LLMs ด้วยวิธีการที่เป็นมาตรฐานในการเรียกเครื่องมือเหล่านั้นและใช้ประโยชน์จากเอาต์พุตของเครื่องมือเหล่านั้น แนวทางนี้มีส่วนช่วยอย่างมากในการจัดหาเครื่องมือพื้นฐานสากลสำหรับแอปพลิเคชัน AI โดยทำงานร่วมกับ API มาตรฐาน การสืบค้นฐานข้อมูล และเอเจนต์ AI