وحدة معالجة Tensor الجديدة من جوجل Ironwood تتفوق على أسرع حاسوب عملاق بـ 24 مرة، وتقدم بروتوكول الوكيل إلى الوكيل (A2A)
لقد تغير مشهد معالجة الذكاء الاصطناعي (AI) بشكل كبير مع الكشف عن الجيل السابع من وحدة معالجة Tensor (TPU) من جوجل، المعروفة باسم Ironwood. تتميز مسرع الذكاء الاصطناعي المتطور هذا بقدرات حسابية تتجاوز، في عمليات النشر واسعة النطاق، أسرع حاسوب عملاق في العالم بأكثر من 24 مرة.
تمثل هذه الشريحة الجديدة، التي تم الكشف عنها في مؤتمر Google Cloud Next ‘25، لحظة محورية في استراتيجية جوجل التي استمرت عقدًا من الزمن في تطوير شرائح الذكاء الاصطناعي. على عكس سابقاتها، التي صُممت في المقام الأول لأحمال عمل تدريب الذكاء الاصطناعي والاستدلال على حد سواء، فقد تم تصميم Ironwood خصيصًا للاستدلال، مما يشير إلى تحول استراتيجي نحو تحسين كفاءة نشر الذكاء الاصطناعي.
أكد أمين واحدات، نائب رئيس جوجل والمدير العام للتعلم الآلي والأنظمة والذكاء الاصطناعي السحابي، على هذا الانتقال، قائلاً: ‘تم تصميم Ironwood لدعم المرحلة التالية من الذكاء الاصطناعي التوليدي ومتطلبات الحوسبة والاتصالات الهائلة. هذا ما نسميه ‘عصر الاستدلال’، حيث سيقوم وكلاء الذكاء الاصطناعي باستباقية باسترداد وإنشاء البيانات لتقديم رؤى وإجابات بشكل تعاوني، بدلاً من مجرد معالجة البيانات.’
كسر الحواجز بقوة حوسبة تبلغ 42.5 إكسافلوب
المواصفات الفنية لـ Ironwood مثيرة للإعجاب حقًا. عند توسيع نطاقها إلى مجموعة من 9216 شريحة، فإنها توفر قوة حوسبة للذكاء الاصطناعي مذهلة تبلغ 42.5 إكسافلوب. لوضع هذا في منظوره الصحيح، فإنه يقزم أسرع حاسوب عملاق في العالم حاليًا، El Capitan، الذي يعمل بسرعة 1.7 إكسافلوب. يمكن لكل شريحة Ironwood فردية تحقيق قدرة حسابية قصوى تبلغ 4614 تيرافلوب.
بالإضافة إلى قوة المعالجة الخام، يعزز Ironwood بشكل كبير الذاكرة وعرض النطاق الترددي. تم تجهيز كل شريحة بذاكرة عالية النطاق الترددي (HBM) بسعة 192 جيجابايت، وهي زيادة ستة أضعاف مقارنة بالجيل السابق من TPU، Trillium، الذي تم إصداره العام الماضي. يصل عرض النطاق الترددي للذاكرة لكل شريحة إلى 7.2 تيرابت/ثانية، أي 4.5 أضعاف عرض النطاق الترددي لـ Trillium.
- قوة الحوسبة: 42.5 إكسافلوب (لكل مجموعة من 9216 شريحة)
- الحد الأقصى للحساب لكل شريحة: 4614 تيرافلوب
- الذاكرة: 192 جيجابايت HBM لكل شريحة
- عرض النطاق الترددي للذاكرة: 7.2 تيرابت/ثانية لكل شريحة
في عصر تتوسع فيه مراكز البيانات ويزداد استهلاك الطاقة، يُظهر Ironwood أيضًا تحسينات كبيرة في كفاءة الطاقة. فهو يوفر ضعف الأداء لكل واط مقارنة بـ Trillium وتقريبًا 30 ضعف أداء أول TPU تم تقديمه في عام 2018.
يمثل هذا التحسين للاستدلال نقطة تحول حاسمة في تطور الذكاء الاصطناعي. في السنوات الأخيرة، ركزت مختبرات الذكاء الاصطناعي الرائدة على تطوير نماذج أساسية كبيرة بشكل متزايد مع عدد متزايد من المعلمات. يشير تركيز جوجل على تحسين الاستدلال إلى التحرك نحو نموذج جديد يتمحور حول كفاءة النشر وقدرات الاستدلال.
في حين أن تدريب النموذج يظل ضروريًا، إلا أن عمليات الاستدلال أكثر تكرارًا بكثير، حيث تحدث مليارات المرات يوميًا مع انتشار تقنيات الذكاء الاصطناعي على نطاق واسع. بالنسبة للشركات التي تستفيد من الذكاء الاصطناعي، فإن الاقتصاديات مرتبطة جوهريًا بتكاليف الاستدلال مع ازدياد تعقيد النماذج.
نما طلب جوجل على حساب الذكاء الاصطناعي عشرة أضعاف في السنوات الثماني الماضية، ليصل إلى 100 مليون مذهلة. بدون هياكل متخصصة مثل Ironwood، سيكون من المستحيل الحفاظ على مسار النمو هذا من خلال التطورات التقليدية في قانون مور وحده.
تجدر الإشارة إلى أن إعلان جوجل أكد على التركيز على ‘نماذج الاستدلال’ القادرة على تنفيذ مهام استدلال معقدة بدلاً من مجرد التعرف على الأنماط البسيطة. يشير هذا إلى الاعتقاد بأن مستقبل الذكاء الاصطناعي لا يكمن فقط في النماذج الأكبر ولكن أيضًا في النماذج القادرة على تقسيم المشكلات والانخراط في استدلال متعدد الخطوات ومحاكاة عمليات التفكير الشبيهة بالإنسان.
تشغيل نماذج كبيرة من الجيل التالي
تضع جوجل Ironwood كبنية تحتية أساسية لنماذج الذكاء الاصطناعي الأكثر تقدمًا، بما في ذلك Gemini 2.5 الخاص بها، والذي يتميز ‘بقدرات استدلال أصلية’.
كما قدمت الشركة مؤخرًا Gemini 2.5 Flash، وهو إصدار أصغر من نموذجها الرائد مصمم ‘لضبط عمق الاستدلال بناءً على تعقيد المطالبة’. هذا النموذج موجه نحو التطبيقات اليومية التي تتطلب أوقات استجابة سريعة.
عرضت جوجل أيضًا مجموعتها الشاملة من نماذج التوليد متعددة الوسائط، والتي تشمل تحويل النص إلى صورة، وتحويل النص إلى فيديو، وقدرتها الجديدة التي تم الكشف عنها لتحويل النص إلى موسيقى، Lyria. أوضح عرض توضيحي كيف يمكن دمج هذه الأدوات لإنشاء فيديو ترويجي كامل لحفل موسيقي.
Ironwood هو مجرد مكون واحد من استراتيجية البنية التحتية للذكاء الاصطناعي الأوسع نطاقاً من جوجل. أعلنت الشركة أيضًا عن Cloud WAN، وهي خدمة شبكة واسعة مُدارة توفر للمؤسسات إمكانية الوصول إلى البنية التحتية للشبكة الخاصة ذات النطاق العالمي من جوجل.
تقوم جوجل أيضًا بتوسيع عروضها البرمجية لأحمال عمل الذكاء الاصطناعي، بما في ذلك Pathways، وهو وقت تشغيل للتعلم الآلي تم تطويره بواسطة Google DeepMind. يسمح Pathways الآن للعملاء بتوسيع نطاق خدمة النموذج عبر مئات وحدات TPU.
تقديم A2A: تعزيز نظام بيئي للتعاون بين الوكلاء الأذكياء
بالإضافة إلى التطورات في الأجهزة، قدمت جوجل رؤيتها للذكاء الاصطناعي التي تركز على أنظمة متعددة الوكلاء، وكشفت النقاب عن بروتوكول لتسهيل تطوير الوكلاء الأذكياء: الوكيل إلى الوكيل (A2A). تم تصميم هذا البروتوكول لتعزيز الاتصال الآمن والموحد بين وكلاء الذكاء الاصطناعي المختلفين.
تعتقد جوجل أن عام 2025 سيمثل عامًا تحويليًا للذكاء الاصطناعي، مع تطور تطبيق الذكاء الاصطناعي التوليدي من الإجابة على أسئلة فردية إلى حل المشكلات المعقدة من خلال أنظمة الوكلاء الأذكياء.
يمكّن بروتوكول A2A قابلية التشغيل البيني عبر الأنظمة الأساسية والأطر، مما يوفر للوكلاء ‘لغة’ مشتركة وقنوات اتصال آمنة. يمكن اعتبار هذا البروتوكول بمثابة طبقة الشبكة للوكلاء الأذكياء، بهدف تبسيط تعاون الوكلاء في مهام سير العمل المعقدة. إنه يمكّن وكلاء الذكاء الاصطناعي المتخصصين من العمل معًا في مهام ذات تعقيد ومدة متفاوتة، مما يعزز القدرات الإجمالية في النهاية من خلال التعاون.
كيف يعمل A2A
قدمت جوجل مقارنة بين بروتوكولات MCP وA2A في منشور مدونتها:
- MCP (بروتوكول سياق النموذج): لإدارة الأدوات والموارد
- يربط الوكلاء بالأدوات وواجهات برمجة التطبيقات والموارد من خلال مدخلات/مخرجات منظمة.
- يدعم Google ADK أدوات MCP، مما يتيح لخوادم MCP المختلفة العمل مع الوكلاء.
- A2A (بروتوكول Agent2Agent): للتعاون بين الوكلاء
- يمكّن الاتصال الديناميكي متعدد الوسائط بين الوكلاء دون مشاركة الذاكرة أو الموارد أو الأدوات.
- معيار مفتوح مدفوع من قبل المجتمع.
- يمكن عرض الأمثلة باستخدام أدوات مثل Google ADK وLangGraph وCrew.AI.
في جوهره، A2A وMCP متكاملان. يوفر MCP للوكلاء دعم الأدوات، بينما يسمح A2A لهؤلاء الوكلاء المجهزين بالتواصل والتعاون مع بعضهم البعض.
تشير قائمة الشركاء التي أعلنتها جوجل إلى أن A2A مهيأ لتلقي اهتمام مماثل لـ MCP. اجتذبت المبادرة بالفعل أكثر من 50 شركة إلى مجموعتها التعاونية الأولية، بما في ذلك شركات التكنولوجيا الرائدة وكبار مزودي خدمات الاستشارات والتكامل على مستوى العالم.
أكدت جوجل على انفتاح البروتوكول، واصفة إياه بالطريقة القياسية للوكلاء للتعاون، بغض النظر عن أطر التكنولوجيا الأساسية أو مزودي الخدمات. ذكرت الشركة أنها التزمت بالمبادئ الرئيسية الخمسة التالية عند تصميم البروتوكول مع شركائها:
- تبني قدرات الوكيل: يركز A2A على تمكين الوكلاء من التعاون بطرقهم الطبيعية وغير المنظمة، حتى لو لم يشاركوا الذاكرة والأدوات والسياق. الهدف هو تمكين سيناريوهات حقيقية متعددة الوكلاء دون حصر الوكلاء بمجرد ‘الأدوات’.
- البناء على المعايير الحالية: يعتمد البروتوكول على المعايير الشائعة الحالية، بما في ذلك HTTP وSSE وJSON-RPC، مما يسهل التكامل مع مجموعات تكنولوجيا المعلومات الحالية التي تستخدمها المؤسسات.
- آمن افتراضيًا: تم تصميم A2A لدعم المصادقة والتفويض على مستوى المؤسسات، على غرار مخططات مصادقة OpenAPI عند الإطلاق.
- دعم المهام طويلة الأمد: تم تصميم A2A بمرونة لدعم مجموعة واسعة من السيناريوهات، من المهام السريعة إلى الأبحاث المتعمقة التي قد تستغرق ساعات أو حتى أيام (عندما يشارك البشر). طوال العملية، يمكن لـ A2A تزويد المستخدمين بتعليقات وإشعارات وتحديثات الحالة في الوقت الفعلي.
- غير مرتبط بالنمط: عالم الوكلاء لا يقتصر على النص، وهذا هو السبب في تصميم A2A لدعم أوضاع مختلفة، بما في ذلك تدفقات الصوت والفيديو.
مثال: عملية توظيف مبسطة عبر A2A
يوضح مثال قدمته جوجل كيف يمكن لـ A2A تبسيط عملية التوظيف بشكل كبير.
ضمن واجهة موحدة مثل Agentspace، يمكن لمدير التوظيف تعيين وكيل للعثور على مرشحين مناسبين بناءً على متطلبات الوظيفة. يمكن لهذا الوكيل التفاعل مع وكلاء متخصصين في مجالات معينة لإكمال تحديد مصادر المرشحين. يمكن للمستخدم أيضًا توجيه الوكيل لتحديد مواعيد المقابلات وتمكين وكلاء متخصصين آخرين للمساعدة في فحوصات الخلفية، مما يتيح التوظيف التعاوني عبر الأنظمة الآلي بالكامل.
تبني MCP: الانضمام إلى نظام Model Context Protocol البيئي
في الوقت نفسه، تتبنى جوجل أيضًا MCP. بعد أسابيع فقط من إعلان OpenAI عن اعتمادها لبروتوكول سياق النموذج (MCP) الخاص بـ Anthropic، حذت جوجل حذوها وانضمت إلى المبادرة.
أعلن الرئيس التنفيذي لشركة Google DeepMind، ديميس هاسابيس، على X أن جوجل ستضيف دعمًا لـ MCP إلى نماذج Gemini ومجموعات SDK الخاصة بها، على الرغم من عدم تقديم جدول زمني محدد.
صرح هاسابيس: ‘MCP هو بروتوكول ممتاز وسرعان ما أصبح المعيار المفتوح لعصر وكلاء الذكاء الاصطناعي. نتطلع إلى العمل مع فريق MCP وشركاء آخرين في الصناعة لتعزيز تطوير هذه التقنية.’
منذ إصداره في نوفمبر 2024، اكتسب MCP بسرعة شعبية واهتمامًا واسع النطاق، حيث ظهر كطريقة بسيطة وموحدة لربط نماذج اللغة بالأدوات والبيانات.
يمكّن MCP نماذج الذكاء الاصطناعي من الوصول إلى البيانات من مصادر البيانات مثل أدوات وبرامج المؤسسات لإكمال المهام والوصول إلى مكتبات المحتوى وبيئات تطوير التطبيقات. يسمح البروتوكول للمطورين بإنشاء اتصالات ثنائية الاتجاه بين مصادر البيانات والتطبيقات التي تعتمد على الذكاء الاصطناعي، مثل روبوتات الدردشة.
يمكن للمطورين عرض واجهات البيانات من خلال خوادم MCP وإنشاء عملاء MCP (مثل التطبيقات وسير العمل) للاتصال بهذه الخوادم. نظرًا لأن Anthropic مفتوحة المصدر MCP، فقد قامت العديد من الشركات بدمج دعم MCP في منصاتها.
تحليل محسن للمفاهيم الأساسية:
لتوضيح تأثير وأهمية إعلانات جوجل الأخيرة بشكل أكبر، دعنا نتعمق في المكونات الأساسية: Ironwood وA2A وMCP.
Ironwood: نظرة عميقة على عصر الاستدلال
يمثل التحول من التركيز في المقام الأول على تدريب النماذج إلى التحسين للاستدلال تطورًا حاسمًا في مشهد الذكاء الاصطناعي. يتضمن التدريب تغذية كميات هائلة من البيانات إلى نموذج لتعليمه التعرف على الأنماط وإجراء التنبؤات. من ناحية أخرى، الاستدلال هو عملية استخدام نموذج مدرب لإجراء تنبؤات حول بيانات جديدة وغير مرئية.
في حين أن التدريب هو حدث كثيف الاستهلاك للموارد، لمرة واحدة (أو غير متكرر)، إلا أن الاستدلال يحدث باستمرار وعلى نطاق واسع في تطبيقات العالم الحقيقي. ضع في اعتبارك تطبيقات مثل:
- روبوتات الدردشة: الاستجابة لاستفسارات المستخدمين في الوقت الفعلي.
- أنظمة التوصية: اقتراح المنتجات أو المحتوى بناءً على تفضيلات المستخدم.
- اكتشاف الاحتيال: تحديد المعاملات الاحتيالية أثناء حدوثها.
- التعرف على الصور: تحليل الصور لتحديد الكائنات أو الأشخاص أو المشاهد.
تتطلب هذه التطبيقات استدلالًا سريعًا وفعالًا لتقديم تجربة مستخدم سلسة. تم تصميم Ironwood خصيصًا للتفوق في هذه المهام.
المزايا الرئيسية لـ Ironwood للاستدلال:
- إنتاجية عالية: تسمح قوة الحوسبة الهائلة (42.5 إكسافلوب) لـ Ironwood بمعالجة حجم كبير من طلبات الاستدلال في وقت واحد.
- زمن انتقال منخفض: تعمل الذاكرة ذات النطاق الترددي العالي (HBM) والهندسة المعمارية الفعالة على تقليل الوقت المستغرق لمعالجة كل طلب استدلال.
- كفاءة الطاقة: يقلل الأداء المحسن لكل واط من التكاليف التشغيلية المرتبطة بتشغيل عمليات نشر الاستدلال واسعة النطاق.
من خلال التحسين للاستدلال، تتيح جوجل للشركات نشر التطبيقات التي تعمل بالذكاء الاصطناعي بشكل أكثر كفاءة وفعالية من حيث التكلفة.
A2A: الأساس للذكاء الاصطناعي التعاوني
يمثل بروتوكول الوكيل إلى الوكيل (A2A) خطوة مهمة نحو إنشاء أنظمة ذكاء اصطناعي أكثر تطوراً وتعاونًا. في نظام متعدد الوكلاء، يعمل العديد من وكلاء الذكاء الاصطناعي معًا لحل مشكلة معقدة. قد يكون لكل وكيل مهاراته ومعرفته المتخصصة الخاصة به، ويتواصلون وينسقون مع بعضهم البعض لتحقيق هدف مشترك.
ضع في اعتبارك سيناريو يتضمن دعم العملاء الآلي:
- الوكيل 1: يفهم استعلام العميل الأولي ويحدد المشكلة الأساسية.
- الوكيل 2: يصل إلى قاعدة معارف للعثور على المعلومات ذات الصلة.
- الوكيل 3: يحدد موعدًا للمتابعة مع وكيل بشري إذا لزم الأمر.
يجب أن يكون هؤلاء الوكلاء قادرين على التواصل وتبادل المعلومات بسلاسة لتوفير تجربة عملاء متماسكة. يوفر A2A إطار العمل لهذا النوع من التعاون.
الفوائد الرئيسية لـ A2A:
- قابلية التشغيل البيني: يسمح للوكلاء الذين تم تطويرهم على منصات وأطر مختلفة بالتواصل مع بعضهم البعض.
- التوحيد القياسي: يوفر ‘لغة’ مشتركة ومجموعة من البروتوكولات لاتصال الوكيل.
- الأمان: يضمن الاتصال الآمن بين الوكلاء، وحماية البيانات الحساسة.
- المرونة: يدعم مجموعة واسعة من طرق الاتصال، بما في ذلك النص والصوت والفيديو.
من خلال تعزيز التعاون بين وكلاء الذكاء الاصطناعي، يمكّن A2A من تطوير أنظمة ذكاء اصطناعي أكثر قوة وتنوعًا.
MCP: سد الفجوة بين الذكاء الاصطناعي والبيانات
يعالج بروتوكول سياق النموذج (MCP) تحدي ربط نماذج الذكاء الاصطناعي بكميات هائلة من البيانات المطلوبة لأداء مهامها بفعالية. تحتاج نماذج الذكاء الاصطناعي إلى الوصول إلى بيانات في الوقت الفعلي من مصادر مختلفة، مثل قواعد البيانات وواجهات برمجة التطبيقات والخدمات السحابية، لإجراء تنبؤات دقيقة واتخاذ قرارات مستنيرة.
يوفر MCP طريقة موحدة لنماذج الذكاء الاصطناعي للوصول إلى مصادر البيانات هذه والتفاعل معها. يحدد مجموعة من البروتوكولات لـ:
- اكتشاف البيانات: تحديد مصادر البيانات المتاحة.
- الوصول إلى البيانات: استرداد البيانات من مصادر البيانات.
- تحويل البيانات: تحويل البيانات إلى تنسيق يمكن لنظام الذكاء الاصطناعي فهمه.
من خلال توفير واجهة موحدة للوصول إلى البيانات، يبسط MCP عملية دمج نماذج الذكاء الاصطناعي مع بيانات العالم الحقيقي.
المزايا الرئيسية لـ MCP:
- تكامل مبسط: يسهل توصيل نماذج الذكاء الاصطناعي بمصادر البيانات.
- التوحيد القياسي: يوفر مجموعة مشتركة من البروتوكولات للوصول إلى البيانات.
- زيادة الكفاءة: يقلل من الوقت والجهد المطلوبين للوصول إلى البيانات وتحويلها.
- تحسين الدقة: يمكّن نماذج الذكاء الاصطناعي من الوصول إلى أحدث المعلومات، مما يؤدي إلى تنبؤات أكثر دقة.
من خلال توصيل نماذج الذكاء الاصطناعي بالبيانات التي تحتاجها، يمكّنها MCP من الأداء بفعالية أكبر وتقديم قيمة أكبر.