מהפכת MCP: עיצוב מחדש של נוף הבינה המלאכותית

שחר של MCP ו-A2A: שינוי פרדיגמה

הופעתם של פרוטוקול הקשר מודל (MCP) ופרוטוקול סוכן לסוכן (A2A) בשנת 2025 מסמנת רגע מכריע בהתפתחות פיתוח יישומי הבינה המלאכותית. MCP שואף לתקנן ממשקים כדי לשבור סילו נתונים, ולאפשר ל-LLM לגשת למשאבים חיצוניים ביעילות וליצור זרימת נתונים חלקה בין מערכות ופלטפורמות. A2A מקדם עוד יותר אינטראקציה חלקה בין סוכנים, ומטפח שיתוף פעולה ותקשורת כדי ליצור מערכות מגובשות ומשולבות.

המעבר מ-MCP ל-A2A מדגיש את הדגש הגובר על ‘פתיחות’ כמניע מרכזי במערכת האקולוגית של יישומי AI. פתיחות זו מקיפה הן יכולת פעולה הדדית טכנית והן רוח שיתופית. מנקודת מבט רחבה יותר, טרנספורמציה זו משקפת התקדמות טבעית בפיתוח טכנולוגיה: מעבר מהתרגשות ראשונית ליישום מעשי, ומחדשנות מבודדת לאבולוציה של מערכת אקולוגית שיתופית.

מבחינה היסטורית, הערך של LLM יוחס באופן לא פרופורציונלי לגודל הפרמטרים וליכולות עצמאיות. כיום, MCP ו-A2A מתמודדים עם הסוגיה הקריטית של קישוריות בין יישומי AI ומעצבים מחדש את הדינמיקה התחרותית של מערכת האקולוגית של LLM. פיתוח יישומי AI מתפתח מגישה של ‘זאב בודד’ למודל של קישוריות. זה מחייב הערכה מחדש של ערך ה-AI עבור CTOs, והעברת המוקד ממרדף אחר גודל מודל ואסטרטגיות ‘הכל כלול’ למינוף פלטפורמות המחברות בין יכולות AI מגוונות. המטרה היא להטמיע בינה מלאכותית באופן אורגני בתהליכים עסקיים ומערכות ייצור קיימות, לשפר את היעילות הכוללת באמצעות שיתוף פעולה ותקינה, לפתור בעיות קריטיות עם משאבי מחשוב מינימליים ולהתגבר על ‘דילמת ההחזר על ההשקעה’.

מכת חישוב מבוזבז ותרחישים לא מותאמים

חוסר היכולת להתגבר על צוואר הבקבוק של השקעה גבוהה ותפוקה נמוכה הטרידה מזה זמן רב את היישום של LLM. תופעה זו משקפת סתירות עמוקות בפיתוח AI. ראשית, יש בזבוז משמעותי בכוח מחשוב. נתונים מצביעים על כך שמרכזי מחשוב לשימוש כללי ברמת הארגון פועלים בניצול של 10-15% בלבד, ומותירים כמויות עצומות של משאבי מחשוב בטלים. שנית, יש אי התאמה של תרחישים שבהם ביצועי המודל אינם עומדים בצרכים האמיתיים של תרחישים עסקיים.

בעיה נפוצה אחת היא ‘יותר מדי’ של שימוש במודלים גדולים למשימות קלות משקל. חלק מהעסקים מסתמכים יתר על המידה על LLM לשימוש כללי עבור יישומים פשוטים. בנוסף, האופי הייחודי של תרחישים עסקיים יוצר דילמות. שימוש במודלים גדולים גורר עלויות חישוביות גבוהות וזמני הסקה ארוכים. בחירה במודלים קטנים יותר עלולה שלא לעמוד בדרישות העסקיות. סכסוך זה ניכר במיוחד בתרחישים עסקיים הדורשים ידע תחום מיוחד.

שקול את תרחיש התאמת הכישרונות למשרה בתעשיית הגיוס. חברות דורשות מודלים עם יכולות הנמקה עמוקות כדי להבין את היחסים המורכבים בין קורות חיים ותיאורי משרות, תוך שהן דורשות גם זמני תגובה מהירים. זמני ההסקה הארוכים של LLM לשימוש כללי יכולים לפגוע משמעותית בחוויית המשתמש, במיוחד תחת דרישות משתמשים במקביל גבוה.

כדי לאזן בין ביצועים ליעילות, זיקוק מודלים צבר תאוצה בשנים האחרונות. השקת DeepSeek-R1 מוקדם יותר השנה הדגישה עוד יותר את הערך של טכניקה זו. בטיפול במשימות הנמקה מורכבות, זיקוק מודלים לוכד את דפוס ‘שרשרת המחשבה’ של DeepSeek-R1, ומאפשר למודלי סטודנטים קלי משקל לרשת את יכולות הנימוק שלהם במקום לחקות רק את תוצאות הפלט.

לדוגמה, Zhaopin, פלטפורמת גיוס מובילה, העסיקה את DeepSeek-R1 (600+ מיליארד פרמטרים) כמודל מורה כדי לזקק את שרשרת המחשבה והלוגיקה של קבלת ההחלטות המשמשות במשימות התאמת כישרונות למשרה. הם השתמשו בפלטפורמת פיתוח המודלים Qianfan של Baidu AI Cloud כדי לזקק את מודל המורה ולהעביר אותו למודל ERNIE Speed (10+ מיליארד פרמטרים), מודל הסטודנט. גישה זו השיגה ביצועים דומים למודל המורה (DeepSeek-R1 השיג 85% דיוק בתוצאות קישור ההנמקה, בעוד שמודל הסטודנט השיג מעל 81%), שיפר את מהירות ההסקה לרמה מקובלת, והפחית את העלויות ל-30% מהמקוריות תוך השגת מהירויות מהירות פי 1 מ-DeepSeek-R1 המלא.

נכון לעכשיו, עסקים בדרך כלל מאמצים שתי גישות לזיקוק מודלים: בניית מערכת טכנית שלמה מתשתית ומעבדים גרפיים ועד למסגרות הדרכה, או שימוש בפתרונות מבוססי פלטפורמה כגון פלטפורמת פיתוח המודלים Qianfan או ספקים אחרים. יאו סיג’יה, מומחה ליישומי AI ב-Zhaopin, הצהיר שלמרות של-Zhaopin יש מסגרת הדרכה משלה, הם בחרו בפלטפורמת פיתוח המודלים Qianfan לזיקוק מודלים בשל שלושה שיקולים עיקריים:

  • תמיכה מקיפה: פלטפורמת פיתוח המודלים Qianfan מספקת תמיכה מובילה בתעשייה לזיקוק מודלים, ומייעלת עמוקות את כל השרשרת הטכנית סביב תרחישי זיקוק.
  • בקרת עלויות: בהשוואה לרכישה ותחזוקה של חומרה באופן עצמאי, פלטפורמת פיתוח המודלים Qianfan מציעה יתרונות משמעותיים בבקרת עלויות והקצאת משאבים גמישה יותר.
  • הבנה עמוקה של תרחישים עסקיים: צוות הפתרונות המקצועיים של Baidu מבין לעומק דרישות ליבה כגון ‘התאמה מדויקת’ ו’תגובה במקביל גבוה’ בתחום הגיוס ומשתף פעולה עם חברות כדי לחקור פתרונות.

יאו סיג’יה הוסיף כי Zhaopin תמשיך להיות חלוצה בתרחישי AI+ גיוס, תוך שימוש בטכנולוגיית למידת חיזוקים כוונון עדין (RFT) של Qianfan כדי לשפר עוד יותר את ביצועי המודל. הם מתכננים לבדוק האם ניתן לשפר עוד יותר את מודל המורה והאם מנגנוני תגמול טובים יותר יכולים לייעל מודלים של סטודנטים שכבר זוקקו כדי לשפר את הדיוק. Qianfan היא הפלטפורמה הראשונה בסין שהפכה למוצר שיטות למידת חיזוקים מובילות כגון RFT ו-GRPO. על ידי הפיכת שיטות למידת חיזוקים חדישות אלה לפתרונות ניתנים ליישום, Qianfan מציעה לחברות כמו Zhaopin אפשרויות נוספות לייעל את ביצועי המודל.

עם זאת, זיקוק מודלים מייעל רק את הביצועים של מודל בודד. בתרחישים עסקיים מורכבים, יש צורך להתאים במדויק יכולות AI מגוונות לתרחישים.

שקול סמארטפון. בתרחישי זיהוי כוונות כגון עוזרי שיחות, מודלים קלי משקל משמשים בדרך כלל כדי לזהות במהירות בעיות משתמשים. עבור תרחישי שאלות ותשובות ידע כללי כגון שאילתות מזג אוויר ושליפת חדשות, מודלים בינוניים משמשים בדרך כלל כדי לספק במהירות תשובות מדויקות ואינפורמטיביות. בתרחישי ניתוח נתונים והנמקה לוגית הדורשים חשיבה מעמיקה, מודלים גדולים משמשים בדרך כלל.

משמעות הדבר היא שסמארטפון צריך לקרוא בגמישות למספר LLM בתרחישי ביקוש משתמשים שונים. עבור יצרני טלפונים, זה מציג אתגרים כגון עלויות בחירת מודל גבוהות ותהליכי קריאה מורכבים עקב פרוטוקולי ממשק מודל שונים.

כדי לטפל בנקודות כאב אלה בתעשייה, פלטפורמת פיתוח המודלים Qianfan הפכה לממשקי ניתוב מודלים למוצר. בהשוואה לשימוש ישיר במודלים מקוריים של מפעל, היא מספקת יכולות מוצר של פיתוח מותאם אישית וקריאות API מהקופסה, ועוזרת לחברות לחסוך במאמץ הנדסי ובזמן פיתוח תוך הפחתת עלויות. בנוסף, פלטפורמת פיתוח המודלים Qianfan תומכת בקריאה גמישה עבור משתמשים בקנה מידה גדול, ומבטיחה מהירות ויציבות גם תחת דרישות קריאה בתדירות גבוהה ובמקביל גבוה.

ברמת המודל, יכולות טכניות כגון זיקוק מודלים וקריאה למודלים מרובים עוזרות ליותר ויותר חברות לייעל את הקצאת המשאבים, ומאפשרות ליכולות AI להתאים בדיוק לתרחישים עסקיים תוך הפחתת עלויות. ברמת היישום, MCP ו-A2A, שצברו תשומת לב משמעותית בתעשייה, מפחיתים עוד יותר את עלויות הניסוי והטעייה של AI, עוזרים לחברות לייעל את פרדיגמות שיתוף הפעולה של היישומים, ומשנים את מודל ‘המצאת הגלגל מחדש’ הלא יעיל בפיתוח סוכנים מסורתי.

‘שילוב אגרוף’ ממודלים ליישומים הוא התשובה המושלמת לעזרה ל-LLM להתגבר על ‘דילמת ההחזר על ההשקעה’.

מסגור לסגור: הורדת המחסום לניסוי AI

מאז 2023, מילת המפתח ליישום יישומי AI עברה בהדרגה לסוכן. עד 2024, כמעט כל החברות דנות ביישומי ופיתוח סוכנים. עם זאת, לסוכנים באותה תקופה חסרות יכולות תכנון אמיתיות והם התבססו בעיקר על נקודות מבט של זרימת עבודה, וחיברו LLM עם יישומים בסיסיים על ידי תפירה או פרוצדורליזציה של רכיבים באמצעות כללים המונעים על ידי מומחים.

עם העלייה האחרונה של פרוטוקולי MCP ו-A2A, 2025 הפכה ל’שנת האפס של הסוכנים’ האמיתית. בפרט, ההשפעה של MCP על תחום ה-AI דומה לזו של פרוטוקול TCP/IP על האינטרנט.

ג’ואו זא’אן, מנכ”ל Biyao Technology, הצהיר בראיון ל-InfoQ כי הערך הליבה של MCP עבור תחום ה-AI בא לידי ביטוי בשלושה ממדים:

  • תקינה של קריאת כלי LLM: בעבר, לכל חברה הייתה יישום Function Call משלה, עם הבדלים משמעותיים ביניהם. MCP מבסס תקן גישה מאוחד, המאפשר תקינה אמיתית של סכמות תזמון יישומים בין לקוחות ושרתים. בנוסף, MCP מאפשר אינטראקציה לא רק בין LLM התומכים ב-Function Call אלא גם עם LLM שאין להם תכונה זו.
  • פתרון אתגרי שיתוף הפעולה בכלי: התקן המאוחד של פרוטוקול MCP הופך את בניית שירותי סוכנים למגוונת יותר. מפתחים צריכים לשקול לא רק את הסוכנים ושירותי ה-MCP שלהם, אלא גם כיצד לשלב יכולות חיצוניות כדי להשיג פונקציות סוכנים חזקות יותר.
  • שליטה בכל ההקשר באמצעות LLM, וכתוצאה מכך אינטראקציה ידידותית יותר למשתמש: בעת בניית תהליכים, הוא יכול להשתמש במגוון רחב יותר של מקורות נתונים כדי לפתור משימות מורכבות שהיו בעבר בלתי אפשריות.

“בדרך כלל, פרוטוקול MCP מוריד משמעותית את המחסום לחברות לאמץ טכנולוגיית AI. בעבר, תהליך האינטגרציה הטכנית לגישה לסוכנים היה מורכב. כעת, חברות אינן צריכות עוד להבין לעומק פרטי יישום טכניים מורכבים, אלא רק צריכות להבהיר את הצרכים העסקיים שלהן”, אמר ג’ואו זא’אן. Biyao Technology פתחה במלואה את יכולות עיבוד המסמכים של ה-LLM האנכי לתעשיית משאבי האנוש שפותח עצמית “Bole” באמצעות פרוטוקול MCP, כולל חוזים, קורות חיים ומצגות, והפכה לאחד ממפתחי הארגונים הראשונים שהשיקו רכיבי MCP בפלטפורמת פיתוח היישומים Qianfan. נכון לעכשיו, כל ארגון או מפתח פרטי יכול לקרוא ישירות ליכולות המקצועיות שלו בפלטפורמת Qianfan.

“Baidu תעזור למפתחים לאמץ באופן פעיל ומקיף את MCP.” בוועידת מפתחי ה-AI של Create2025 Baidu שהתקיימה ב-25 באפריל, פלטפורמת Qianfan השיקה רשמית שירותי MCP ברמת הארגון. מייסד Baidu, לי יאנהונג, הדגים את המקרה של פלטפורמת Qianfan המאמצת MCP, ומאפשרת למפתחים לגשת בגמישות ל-1000 שרתי MCP, כולל חיפוש Baidu AI, מפות ו-Wenku, בעת יצירת סוכנים. בנוסף, Qianfan השיקה כלי דל קוד ליצירת שרתי MCP, המאפשר למפתחים לפתח בקלות שרתי MCP משלהם ב-Qianfan ולפרסם אותם בכיכר Qianfan MCP בלחיצה אחת. שרתי MCP אלה יאותרו וישתמשו בהם גם במהירות על ידי חיפוש Baidu, ויאפשרו להם להתגלות ולשימוש על ידי מפתחים נוספים.

למעשה, Qianfan פתרה ברציפות את בעיית המייל האחרון של יישום AI לפני עליית פרוטוקול MCP, ועוזרת לחברות ביעילות ועם מחסומים נמוכים ליהנות מהיתרונות של טכנולוגיית AI ומספקת פתרונות בוגרים למספר תעשיות.

לדוגמה, בתעשיית הבית החכם, חברות בדרך כלל מתמודדות עם בעיה נפוצה: כיצד לספק שירותים חכמים מדויקים עבור מודלים עצומים של מוצרים? עם היישום המואץ של LLM, יותר ויותר חברות משתמשות בסוכנים כדי לספק במהירות למשתמשים תשובות מדויקות ומותאמות אישית. עם זאת, זה מביא גם אתגר חדש: כיצד לפתח ולנהל סוכנים רבים? למותגי בתים חכמים יש בדרך כלל קטגוריות ומודלים שונים של מוצרים. בניית סוכן לכל מוצר בנפרד לא תביא רק לעלויות פיתוח גבוהות אלא גם לעלויות ניהול ותחזוקה משמעותיות בשלבים המאוחרים יותר.

לדוגמה, מותג בתים חכמים מוביל השתמש בפלטפורמת פיתוח היישומים Baidu AI Cloud Qianfan כדי להתייחס לשמות קבצים כפרוסות עצמאיות ולהטמיע מידע פרוסת שם קובץ בכל פרוסה גרגרית. במקום לבנות סוכן לכל מוצר בנפרד, הם רק צריכים למיין את בסיס הידע המתאים ולהגדיר את שמות מודל המוצר. לאחר מכן, הם יכולים להשתמש באסטרטגיית ניתוח אוטומטית של מסגרת RAG של פלטפורמת Qianfan כדי להשיג התאמה מדויקת של מודלים של מוצרים ונקודות ידע.

פלטפורמת פיתוח היישומים Qianfan מספקת למותג גם ערכה של כלי תפעול לבניית מוקד חכם מתפתח ללא הרף. באמצעות פונקציית זרימת הנתונים האחורית, כל רשומות האינטראקציה של המשתמשים הופכות לחומרי אופטימיזציה. אנשי תפעול יכולים להציג בעיות בתדירות גבוהה בזמן אמת ולהתערב מיד בנקודות ידע שלא התגלו, וליצור מעגל סגור של “תפעול - משוב - אופטימיזציה”. בנוסף, פלטפורמת פיתוח היישומים Qianfan ו-Xiaodu AI Assistant בנו במשותף מסגרת אינטראקציה קולית. בהסתמך על מסגרת זו, המותג יכול לאפשר לחומרה “לדבר” ישירות עם משתמשים, ולהשיג חוויה אינטראקטיבית טבעית, יעילה ומותאמת אישית יותר.

מ-MCP ל-A2A, פתיחות הפכה למילת מפתח חדשה במערכת האקולוגית של יישומי LLM. פתיחות היא גם הכוונה המקורית של פלטפורמת Qianfan. מהיום הראשון של שחרורה בשנת 2023, Qianfan אימצה את העמדה הפתוחה ביותר לגישה לשפע של LLM של צד שלישי. נכון לעכשיו, ל-Qianfan יש גישה ליותר מ-100 מודלים מלמעלה מ-30 ספקי מודלים, המכסים 11 סוגים של יכולות כגון טקסט, תמונה והנמקה עמוקה, כולל מודלים של צד שלישי כגון DeepSeek, LLaMA, Tongyi ו-Vidu. היא גם מספקת מגוון מלא של Wenxin LLM, כולל מודל Wenxin 4.5 Turbo מרובה המצבים המקורי שיצא לאחרונה ומודל החשיבה העמוקה Wenxin X1 Turbo, כמו גם את מודל החשיבה העמוקה Wenxin X1 שפורסם בעבר.

עבור חברות שרוצות ליישם במהירות טכנולוגיית AI, Baidu AI Cloud הופך בהדרגה לבחירה הראשונה. נתוני שוק הם ההוכחה הטובה ביותר. נכון לעכשיו, פלטפורמת Qianfan משרתת למעלה מ-400,000 לקוחות, עם שיעור חדירה של למעלה מ-60% במפעלים מרכזיים. על פי דוח המעקב והתובנה של פרויקט הצעות המחיר של המודל הגדול בסין (2025Q1), Baidu השיגה שיא כפול במספר פרויקטי הצעות המחיר של המודל הגדול ובסכום הזכיות ברבעון הראשון: זכתה ב-19 פרויקטי הצעות מחיר של מודל גדול עם סכום פרויקט גלוי של מעל 450 מיליון יואן, ופרויקטי המודל הגדולים הזוכים היו כמעט כולם מלקוחות ארגוניים בבעלות המדינה בתעשיות כגון אנרגיה ופיננסים.

כרטיס הדו”ח של Baidu AI Cloud שולח גם אות לעולם החיצון: בקרב ארוך הטווח זה ליישום טכנולוגיית AI, רק אותם פתרונות שמבינים באמת את נקודות הכאב בתעשייה ויכולים לעזור לחברות להפחית את עלויות הניסוי והטעייה הם החיוניים ביותר.