يشهد مجال الذكاء الاصطناعي (AI) تطورًا مستمرًا، حيث تلعب التطورات في الأجهزة دورًا محوريًا في إطلاق إمكانات جديدة. وقد كشفت جوجل، وهي شركة رائدة في مجال ابتكار الذكاء الاصطناعي، مؤخرًا عن الجيل السابع من وحدات معالجة Tensor (TPU)، التي تحمل الاسم الرمزي Ironwood، مما يمثل خطوة كبيرة في قدرات حوسبة الذكاء الاصطناعي. يتمتع هذا المسرع المتطور للذكاء الاصطناعي بقدرة حسابية تتجاوز حتى أسرع الحواسيب العملاقة في العالم بعامل مذهل يبلغ 24 في عمليات النشر واسعة النطاق.
تم الإعلان عن Ironwood في مؤتمر Google Cloud Next ‘25، ويمثل محورًا استراتيجيًا في رحلة جوجل التي استمرت عقدًا من الزمن لتطوير شرائح الذكاء الاصطناعي. على عكس سابقاتها، التي صُممت في المقام الأول لأعباء عمل تدريب واستدلال الذكاء الاصطناعي، تم تصميم Ironwood خصيصًا للتفوق في مهام الاستدلال، مما يبشر بعصر جديد من التطبيقات التي تعتمد على الذكاء الاصطناعي.
وفقًا لأمين واحدات، نائب الرئيس والمدير العام للتعلم الآلي والأنظمة و Cloud AI في جوجل، ‘تم تصميم Ironwood لدعم المرحلة التالية من الذكاء الاصطناعي التوليدي ومتطلبات الحوسبة والاتصالات الهائلة الخاصة به. هذا ما نسميه ‘عصر الاستدلال’، حيث ستقوم وكلاء الذكاء الاصطناعي باستباقية باسترداد وتوليد البيانات لتقديم رؤى وإجابات بشكل تعاوني، وليس مجرد بيانات.’
الكشف عن قدرات Ironwood غير المسبوقة
المواصفات الفنية لـ Ironwood ليست أقل من كونها غير عادية. عند توسيع نطاقه إلى مجموعة من 9216 شريحة، يمكنه تقديم قوة حوسبة ذكاء اصطناعي مذهلة تبلغ 42.5 إكسافلوب. هذا الرقم يقلل من 1.7 إكسافلوب التي يقدمها El Capitan، حامل اللقب الحالي لأسرع كمبيوتر عملاق في العالم. تتميز كل شريحة Ironwood فردية بقدرة حسابية قصوى تبلغ 4614 TFLOPs.
بالإضافة إلى قوة المعالجة الهائلة، تتميز Ironwood أيضًا بتحسينات كبيرة في الذاكرة وعرض النطاق الترددي. تم تجهيز كل شريحة بـ 192 جيجابايت من ذاكرة النطاق الترددي العالي (HBM)، وهي زيادة بمقدار ستة أضعاف مقارنة بـ TPU من الجيل السابق، Trillium، الذي تم إصداره العام الماضي. علاوة على ذلك، يصل عرض نطاق الذاكرة لكل شريحة إلى 7.2 تيرابت/ثانية، وهو ما يمثل تحسنًا بمقدار 4.5 أضعاف مقارنة بـ Trillium.
في عصر تتوسع فيه مراكز البيانات ويصبح فيه استهلاك الطاقة مصدر قلق بالغ الأهمية، تبرز Ironwood أيضًا بسبب كفاءتها في استخدام الطاقة. أداؤه لكل واط هو ضعف أداء Trillium وأعلى بحوالي 30 مرة من أول TPU تم تقديمه في عام 2018.
يشير التركيز على تحسين الاستدلال إلى تحول محوري في مشهد الذكاء الاصطناعي. في السنوات الأخيرة، ركزت مختبرات الذكاء الاصطناعي الرائدة في المقام الأول على بناء نماذج أساسية أكبر باستمرار مع زيادة عدد المعلمات. يشير تركيز جوجل على تحسين الاستدلال إلى انتقال نحو مرحلة جديدة تتمحور حول كفاءة النشر وقدرات الاستدلال.
في حين أن تدريب النموذج يظل أمرًا بالغ الأهمية، إلا أن عدد تكرارات التدريب محدود. في المقابل، مع تزايد دمج تقنيات الذكاء الاصطناعي في مختلف التطبيقات، من المتوقع أن تحدث عمليات الاستدلال مليارات المرات يوميًا. مع نمو النماذج في التعقيد، تصبح الجدوى الاقتصادية لهذه التطبيقات مرتبطة ارتباطًا وثيقًا بتكاليف الاستدلال.
على مدى السنوات الثماني الماضية، نما طلب جوجل على حوسبة الذكاء الاصطناعي عشرة أضعاف، ليصل إلى 100 مليون مذهلة. بدونarchitectures المتخصصة مثل Ironwood، حتى التقدم المتواصل لقانون مور سيكافح لمواكبة هذا النمو الهائل.
تجدر الإشارة إلى أن إعلان جوجل يسلط الضوء على تركيزها على ‘النماذج الذهنية’ القادرة على أداء مهام استنتاجية معقدة بدلاً من التعرف البسيط على الأنماط. يشير هذا إلى أن جوجل تتصور مستقبلًا يتجاوز فيه الذكاء الاصطناعي النماذج الأكبر ويشمل النماذج التي يمكنها تحليل المشكلات وإجراء استنتاج متعدد الخطوات ومحاكاة عمليات التفكير الشبيهة بالبشر.
تشغيل الجيل التالي من النماذج الكبيرة
تضع جوجل Ironwood كبنية تحتية أساسية لنماذج الذكاء الاصطناعي الأكثر تقدمًا لديها، بما في ذلك Gemini 2.5، الذي يتميز بقدرات استنتاجية مدمجة أصلاً.
قدمت جوجل أيضًا مؤخرًا Gemini 2.5 Flash، وهو نسخة أصغر من نموذجها الرائد المصمم للتطبيقات اليومية الحساسة لوقت الاستجابة. يمكن لـ Gemini 2.5 Flash ضبط عمق الاستنتاج الخاص به ديناميكيًا بناءً على مدى تعقيد المطالبة.
عرضت جوجل أيضًا مجموعتها الشاملة من النماذج التوليدية متعددة الوسائط، بما في ذلك تحويل النص إلى صورة، وتحويل النص إلى فيديو، وميزة تحويل النص إلى موسيقى التي تم الكشف عنها حديثًا، Lyria. أوضح عرض توضيحي كيف يمكن دمج هذه الأدوات لإنتاج فيديو ترويجي كامل لحفل موسيقي.
Ironwood هو مجرد مكون واحد من إستراتيجية البنية التحتية الأوسع للذكاء الاصطناعي في جوجل. أعلنت جوجل أيضًا عن Cloud WAN، وهي خدمة شبكة واسعة النطاق مُدارة تتيح للمؤسسات الوصول إلى البنية التحتية للشبكة الخاصة ذات النطاق العالمي من جوجل.
علاوة على ذلك، تقوم جوجل بتوسيع عروضها البرمجية لأعباء عمل الذكاء الاصطناعي، بما في ذلك Pathways، وهو وقت تشغيل للتعلم الآلي تم تطويره بواسطة Google DeepMind. يتيح Pathways الآن للعملاء توسيع نطاق خدمة النموذج عبر مئات من وحدات TPU.
تعزيز تعاون وكيل الذكاء الاصطناعي مع A2A
بالإضافة إلى التطورات في الأجهزة، أوضحت جوجل أيضًا رؤيتها لنظام بيئي للذكاء الاصطناعي يتمحور حول أنظمة متعددة الوكلاء. لتسهيل تطوير الوكلاء الأذكياء، قدمت جوجل بروتوكول Agent-to-Agent (A2A)، المصمم لتمكين الاتصال الآمن والموحد بين وكلاء الذكاء الاصطناعي المختلفين.
تعتقد جوجل أن عام 2025 سيمثل عامًا تحويليًا للذكاء الاصطناعي، حيث تتطور تطبيقات الذكاء الاصطناعي التوليدية من الإجابة على أسئلة فردية إلى حل المشكلات المعقدة من خلال أنظمة الوكلاء.
يمكّن بروتوكول A2A التشغيل البيني بين الوكلاء عبر مختلف الأنظمة الأساسية والأطر، مما يوفر لهم ‘لغة’ مشتركة وقنوات اتصال آمنة. يمكن اعتبار هذا البروتوكول بمثابة طبقة شبكة للوكلاء الأذكياء، بهدف تبسيط تعاون الوكلاء في مهام سير عمل معقدة. من خلال تمكين وكلاء الذكاء الاصطناعي المتخصصين من العمل معًا في مهام ذات تعقيد ومدد متفاوتة، تسعى A2A إلى تعزيز القدرات الإجمالية من خلال التعاون.
تعمل A2A من خلال إنشاء طريقة موحدة للوكلاء لتبادل المعلومات وتنسيق الإجراءات، دون مطالبتهم بمشاركة التعليمات البرمجية الأساسية أو هياكل البيانات. يتيح ذلك إنشاء أنظمة ذكاء اصطناعي أكثر نمطية ومرونة، حيث يمكن إضافة الوكلاء أو إزالتهم أو إعادة تكوينهم بسهولة حسب الحاجة.
قارنت جوجل بين بروتوكولي MCP و A2A في منشور مدونة.
- تم تصميم MCP (بروتوكول سياق النموذج) لإدارة الأدوات والموارد.
- يربط الوكلاء بالأدوات وواجهات برمجة التطبيقات والموارد من خلال الإدخال/الإخراج المنظم.
- يدعم Google ADK أدوات MCP، مما يتيح لمختلف خوادم MCP العمل مع الوكلاء.
- تم تصميم A2A (بروتوكول Agent2Agent) للتعاون بين الوكلاء.
- يتيح اتصالاً ديناميكيًا متعدد الوسائط بين الوكلاء دون مشاركة الذاكرة أو الموارد أو الأدوات.
- إنه معيار مفتوح مدفوع بالمجتمع.
- يمكن عرض الأمثلة باستخدام Google ADK و LangGraph و Crew.AI وأدوات أخرى.
باختصار، A2A و MCP متكاملان: يوفر MCP للوكلاء دعمًا للأدوات، بينما يمكّن A2A هؤلاء الوكلاء المجهزين بالأدوات من التواصل والتعاون مع بعضهم البعض.
بالنظر إلى الشركاء الأوليين، يبدو أن A2A مهيأ لجذب اهتمام مماثل لـ MCP. انضمت أكثر من 50 شركة إلى التعاون الأولي، بما في ذلك شركات التكنولوجيا الرائدة وكبار مزودي خدمات الاستشارات وتكامل الأنظمة العالميين.
تؤكد جوجل على انفتاح البروتوكول، وتضعه كطريقة قياسية للوكلاء للتعاون، بغض النظر عن الإطار التكنولوجي الأساسي أو مزود الخدمة. حددت جوجل خمسة مبادئ أساسية وجهت تصميم البروتوكول بالتعاون مع شركائها:
- تبني قدرات الوكيل: تركز A2A على تمكين الوكلاء من التعاون بطريقتهم الطبيعية وغير المنظمة، حتى لو لم يشاركوا الذاكرة والأدوات والسياق. يهدف البروتوكول إلى تمكين سيناريوهات الوكلاء المتعددين الحقيقية، بدلاً من تقييد الوكلاء ليكونوا مجرد ‘أدوات’.
- البناء على المعايير الحالية: يعتمد البروتوكول على المعايير الشائعة الحالية، بما في ذلك HTTP و SSE و JSON-RPC، مما يسهل التكامل مع مجموعات تكنولوجيا المعلومات الحالية التي تستخدمها المؤسسات بشكل شائع.
- آمن افتراضيًا: تم تصميم A2A لدعم المصادقة والتفويض على مستوى المؤسسة، على غرار مخططات مصادقة OpenAPI عند الإطلاق.
- دعم المهام طويلة الأمد: تم تصميم A2A ليكون مرنًا، ويدعم مجموعة واسعة من السيناريوهات، من المهام السريعة إلى الأبحاث المتعمقة التي قد تستغرق ساعات أو حتى أيام (عندما يشارك البشر). طوال العملية، يمكن لـ A2A تزويد المستخدمين بملاحظات وإشعارات وتحديثات الحالة في الوقت الفعلي.
- غير محدد للنمط: لا يقتصر عالم الوكلاء على النص، ولهذا السبب تم تصميم A2A لدعم مختلف الأنماط، بما في ذلك تدفقات الصوت والفيديو.
تقدم جوجل مثالاً على كيف يمكن لـ A2A تبسيط عملية التوظيف بشكل كبير.
في واجهة موحدة مثل Agentspace، يمكن لمدير التوظيف تعيين وكيل للعثور على مرشحين مناسبين بناءً على متطلبات الوظيفة. يمكن لهذا الوكيل التفاعل مع وكلاء متخصصين للحصول على المرشحين وجدولة المقابلات وحتى إشراك وكلاء متخصصين آخرين للمساعدة في فحوصات الخلفية، مما يتيح أتمتة ذكية لعملية التوظيف بأكملها عبر أنظمة مختلفة.
تبني بروتوكول سياق النموذج (MCP)
بالإضافة إلى جهودها في تطوير A2A، تتبنى جوجل أيضًا بروتوكول سياق النموذج (MCP). بعد أسابيع قليلة من إعلان OpenAI عن اعتمادها لـ MCP، حذت جوجل حذوها.
أعلن ديميس هاسابيس، الرئيس التنفيذي لـ Google DeepMind، مؤخرًا على X أن جوجل ستضيف دعمًا لـ MCP إلى نماذج Gemini و SDKs الخاصة بها. ومع ذلك، لم يقدم جدولًا زمنيًا محددًا.
ذكر هاسابيس أن ‘MCP هو بروتوكول ممتاز وسرعان ما أصبح المعيار المفتوح لعصر وكيل الذكاء الاصطناعي. أتطلع إلى العمل مع فريق MCP وشركاء آخرين في الصناعة للنهوض بهذه التكنولوجيا.’
منذ إصداره في نوفمبر 2024، اكتسب MCP زخمًا سريعًا، ليصبح طريقة بسيطة وموحدة لربط النماذج اللغوية بالأدوات والبيانات.
يمكّن MCP نماذج الذكاء الاصطناعي من الوصول إلى البيانات من مصادر مثل أدوات وبرامج المؤسسات لإكمال المهام، بالإضافة إلى الوصول إلى مكتبات المحتوى وبيئات تطوير التطبيقات. يسمح البروتوكول للمطورين بإنشاء اتصالات ثنائية الاتجاه بين مصادر البيانات والتطبيقات التي تعمل بالذكاء الاصطناعي، مثل روبوتات الدردشة.
يمكن للمطورين عرض واجهات البيانات من خلال خوادم MCP وإنشاء عملاء MCP (مثل التطبيقات وسير العمل) للاتصال بهذه الخوادم. نظرًا لأن Anthropic ذات المصدر المفتوح MCP، فقد قامت العديد من الشركات بدمج دعم MCP في منصاتها.