הופעתם של מודלים שפתיים גדולים (LLMs) חוללה מהפכה בנוף הבינה המלאכותית. עם זאת, אתגר מתמשך אחד נותר בעינו: שילוב יעיל של מודלים אלה עם נתונים קנייניים. בעוד LLMs מצטיינים בעיבוד כמויות עצומות של מידע מהאינטרנט, הפוטנציאל האמיתי שלהם טמון בשימוש בהם כממשקי שפה טבעית עבור היישומים והנתונים שלנו, מה שמאפשר לנו לרתום את היכולות החיזוי והיצירתיות שלהם בסביבה מבוקרת.
כדי להבטיח את המהימנות והרלוונטיות של תוצרי LLM, צצו אסטרטגיות שונות, שכל אחת מהן נועדה לגשר על הפער בין מודלים אלה לבין מערכות נתונים ספציפיות. אסטרטגיות אלה נעות בין יצירת הטבעות מותאמות אישית ושימוש בטכניקות של יצירה מוגברת אחזור (RAG) - מינוף מסדי נתונים גרפיים כדי לחשוף קשרים מורכבים בתוך הנתונים - לבין שימוש ב-LLMs כדי לזקק ולהציג נתונים המתקבלים באמצעות קריאות OpenAPI המופעלות על ידי הנחיות משתמש. יתר על כן, מודל התוספים שאותו פופולרי ChatGPT של OpenAI מציע דרך נוספת לשילוב נתונים. בין גישות מגוונות אלה, פרוטוקול הקשר של מודלים (MCP) בולט כפתרון מבטיח לסטנדרטיזציה של החיבור בין LLMs למקורות נתונים חיצוניים.
חשיפת פרוטוקול הקשר של מודלים
פרוטוקול הקשר של מודלים, שנחשף על ידי Anthropic בסוף 2024, מייצג צעד משמעותי לקראת ייעול האינטראקציה בין LLMs לבין נתונים ספציפיים למשתמש. פרוטוקול זה מדגיש את התפקיד הקריטי של הקשר ביישומי AI, ומכיר בכך שהיכולת של AI לספק תוצרים קוהרנטיים ומשמעותיים תלויה בזמינות של מידע הקשרי רלוונטי. להסתמך אך ורק על הנחיות צ’אט כדי לחלץ תגובות הגיוניות הוא, במקרה הטוב, תרגיל באופטימיות ובמקרה הרע, מתכון לתוצאות לא מדויקות או מטעות. כדי לבנות סוכנים חזקים, חצי אוטונומיים, המסוגלים לתזמר תהליכי עבודה סביב הנתונים שלנו, מנגנון אמין להעברת נתונים אלה לסוכנים אלה הוא חיוני.
כיוזמה בקוד פתוח, MCP מספק יישומי SDK למגוון רחב של שפות תכנות, בליווי תיעוד מקיף בתוך מאגר ה-GitHub שלו. תיעוד זה מעצים מפתחים ליישם או להשתמש בשרתי MCP ביעילות. תיאור הפרויקט את MCP כ”יציאת USB-C ליישומי AI” תופס בצורה נכונה את המהות שלו, ומדגיש את יכולתו לתקנן חיבורים למקורות נתונים מגוונים. MCP, הבנוי על בסיס סטנדרטי, משתלב בקלות עם פרויקטים קיימים, ומתממשק בצורה חלקה עם LLMs שונים וספקי הסקת מסקנות.
הארכיטקטורה של MCP עוקבת אחר מודל לקוח/שרת מבוסס, שבו ברוקר נוטל על עצמו את האחריות לתרגום בקשות MCP לבקשות מקומיות או מרוחקות. עיצוב זה משקף את הפונקציונליות של שפות הגדרת ממשקים כמו CORBA, והופך את MCP לשכבת פעולה הדדית רב-תכליתית המאפשרת מעבר חלק בין מקורות מידע ויישומי LLM. תוך מינוף חיבור JSON RPC, MCP מאפשר שליטה מדויקת ברמת המשתמש הבודד באמצעות כלים כמו Azure API Management.
MCP מטפח את הפיתוח של ממשקים גנריים לקוד מונחה AI, כפי שמעידה האימוץ הגובר שלו בפלטפורמות פיתוח AI של Microsoft. משילובו בתוך כלי תזמור המודלים של Semantic Kernel ועד לפריסתו כשרתי MCP התואמים ל-Azure OpenAI ו-Azure AI Foundry, MCP צובר תאוצה במהירות. Microsoft גם משפרת את Azure API Management עם תכונות לשליטה על גישה לנתונים בהתבסס על אישורי משתמש, ומגבשת עוד יותר את תפקידו של MCP בפריסות AI מאובטחות ומנוהלות.
שרת Azure MCP: יישום מוקדם
שרת Azure MCP בקוד פתוח, שפורסם לאחרונה בתצוגה מקדימה ציבורית, מדגים יישום מוקדם של MCP בפלטפורמה של Microsoft. שרת זה משמש כברוקר נפוץ לגישת AI לשירותי Azure מרכזיים, תוך הקפדה על עקרונות הקוד הפתוח שאומצו על ידי פרויקטי Azure רבים לאחרונה. הקוד שלו נגיש בקלות ב-GitHub. שרת Azure MCP מספק גישה לחלק ניכר מפלטפורמת Azure, כולל מסדי נתונים, פתרונות אחסון ושירותים כמו Azure CLI.
הכללת התמיכה ב-Azure CLI (וב-Developer CLI) ראויה לציון במיוחד, מכיוון שהיא מעצימה סוכנים מונעי MCP ליצור אינטראקציה עם Azure ישירות, תוך התייחסות לקריאות MCP כאופרטורים. יכולת זו סוללת את הדרך לבניית סוכנים המציעים ממשק שירות עצמי בשפה טבעית ל-Azure. לדוגמה, סוכן יכול לקחת תיאור של תשתית וליצור באופן אוטומטי את תבניות ARM הנדרשות לפריסה שלה. בהרחבת קונספט זה הלאה, אפשר לדמיין סוכן מולטי-מודאלי המנתח סקיצה של לוח לבן, מפיק תיאור של המשאבים הדרושים ולאחר מכן פורס את התשתית, ומאפשר פיתוח קוד מיידי. שירותי ניהול מערכת נוספים הנגישים דרך שרת Azure MCP כוללים רישום קבוצות משאבים נוכחיות ומינוף KQL לשאילתת יומני Azure Monitoring.
שילוב שרת Azure MCP עם GitHub Copilot Chat
מכיוון שהוא מציית לתקן MCP, שרת Azure MCP משתלב בצורה חלקה עם כל כלי AI התומך ב-MCP, כגון מצב הסוכן GitHub Copilot. על ידי הוספת השרת לדייר שלך, תוכל להתחיל להציג שאלות דרך Copilot, ישירות או באמצעות שילוב Visual Studio Code. אפשרות אחרונה זו מספקת אמצעי יעיל ללמוד כיצד למנף את MCP ולבנות הנחיות עבור יישומי AI מבוססי MCP משלך.
נכון לעכשיו, Microsoft עדיין לא שחררה כלי MCP ייעודי עבור שפות התכנות שלה, מה שמצריך שימוש ב-SDK רשמיים לפיתוח קוד מותאם אישית. עם תמיכה ב-TypeScript, C# ו-Python, למפתחים יש גישה לכלים הדרושים ליצירת סוכני Azure MCP משלהם. ניתן לבצע ניסויים בתוך Visual Studio Code, תוך שימוש באישורי Azure קיימים.
השרת פועל במחשב הפיתוח שלך ודורש Node.js. ההתקנה מתבצעת ישירות ממאגר ה-GitHub של הפרויקט לתוך VS Code. לאחר ההתקנה, ודא שההרחבות GitHub Copilot ו-GitHub Copilot Chat מוגדרות להשתמש במצב סוכן ניסיוני (נגיש באמצעות כלי ההגדרות של VS Code). לאחר מכן, פתח את חלונית הצ’אט GitHub Copilot ועבור למצב סוכן. ודא ששרת Azure MCP מותקן בתוך תפריט הכלים הנפתח. כעת תוכל לשלוח שאילתות, כגון “רשום את מינויי Azure שלי.”
הכלי המתקבל מתגלה כבעל ערך רב לכל מי שעובד עם Azure ומשתרע מעבר לשילוב Copilot. ניתן להתקין את שרת Azure MCP בכל מקום שבו Node.js נתמך, מה שמאפשר את שילובו בסוכנים מותאמים אישית.
תפקידו של MCP ב-Azure AI Foundry
Microsoft מרחיבה במהירות את תיק הכלים MCP שלה, וחושפת פונקציונליות קיימת באמצעות MCP או מאפשרת את הצריכה שלהם ביישומי סוכנות. השקה מהירה זו כוללת כלים לפיתוח סוכנים ללא קוד של Copilot Studio, שהוכרזו במהלך כתיבת מאמר זה.
Azure AI Foundry, פלטפורמת הפיתוח העיקרית של Microsoft לפיתוח יישומי AI בקנה מידה גדול, מפתחת גם שרת MCP כדי להשלים את שירות סוכני ה-AI של Azure. שילוב זה נועד לחבר סוכנים הפועלים בתוך Azure AI Foundry עם לקוחות הפועלים כחלק מיישומי AI אחרים.
שירות זה מאפשר לך למחזר במהירות קוד ושירותי AI קיימים ולקשר אותם ליישומים חדשים. שירותים כגון Fabric חושפים את תכונות הסוכן שלהם כנקודות קצה של שירות סוכני ה-AI, ומאפשרים ליישומי AI להתחבר בצורה חלקה לנתונים עסקיים מרכזיים, ומספקים קרקע חיונית כדי להפחית את הסיכונים של הזיות ושגיאות.
לאחר ההתקנה, השרת מספק קבוצה של פעולות MCP לחיבור לסוכנים ושליחת שאילתות אליהם. הוא יכול גם לרשום סוכנים זמינים או להשתמש בסוכן ברירת מחדל למשימות ספציפיות. תמיכה בשרשורי שיחה כלולה, ומספקת לסוכנים זיכרון סמנטי בסיסי לשיחות הקשריות. תזדקק למזהי הסוכן של שירות סוכני ה-AI של Azure כדי להפעיל אותם באמצעות MCP.
השרת מיושם ב-Python וניתן להתקין אותו באמצעות Azure CLI באמצעות pip
. לחלופין, גרסת TypeScript זמינה למי שמעדיף אותה. בדומה לשרת Azure MCP, שרת זה פועל מחוץ לסביבת AI Foundry, ומאפשר להתקין אותו במחשב פיתוח או כחלק מיישום המתארח בענן בתוך מיכל או VM משלו, עם תמיכה ב-Windows, macOS ו-Linux.
מינוף שרתי MCP מיישומי Semantic Kernel AI
כתקן פתוח, MCP מאפשר תאימות שרתים לכל לקוח. מאגר ה-GitHub מספק הוראות כיצד ליצור חיבור באמצעות Claude Desktop של Anthropic, אך הערך האמיתי טמון בבניית תהליכי עבודה של סוכנים מותאמים אישית בתוך Semantic Kernel.
Microsoft מספקת קוד לדוגמה המדגים כיצד לשלב תמיכה ב-MCP בתזמור Semantic Kernel, תוך התייחסות אליו כתוסף גרעיני המשתלב עם קריאות פונקציה מוכרות. ניתן לעטוף שילובים אלה כסוכנים ולגשת אליהם לפי הצורך. בעוד ששילוב MCP בתוך Semantic Kernel עדיין נמצא בפיתוח, הוא משתלב בצורה חלקה עם סט התכונות הקיים שלו, ודורש קוד נוסף מינימלי כדי לחשוף כלי MCP משרת ליישומי AI.
כלים כמו MCP הם מרכיבים קריטיים במערך AI מודרני, ומספקים גישה סטנדרטית לבניית ממשקים ניתנים לגילוי עבור יישומים מקומיים ומרוחקים כאחד. לאחר שהוגדרו, כלי MCP מופעלים בקלות, כאשר שרת מספק רשימה של כלים זמינים ו-MCP מספק ל-LLMs אמצעי סטנדרטיים לקרוא לכלים אלה ולהשתמש בפלטים שלהם. גישה זו תורמת משמעותית למתן כלי קרקע אוניברסלי ליישומי AI, הפועלים עם ממשקי API סטנדרטיים, שאילתות מסדי נתונים וסוכני AI כאחד.