وحدة معالجة Tensor Ironwood من Google: نقلة نوعية

وحدة معالجة Tensor Ironwood من Google: قفزة نوعية في قوة الحوسبة الذكاء الاصطناعي

لقد أعادت Google تعريف مشهد الذكاء الاصطناعي من خلال الكشف عن الجيل السابع من وحدة معالجة Tensor (TPU)، والتي أطلق عليها اسم Ironwood. يتميز مسرع الذكاء الاصطناعي المتطور هذا ببراعة حسابية تفوق حتى أقوى أجهزة الكمبيوتر العملاقة في العالم. في عملية نشر واسعة النطاق، تتجاوز قدرات Ironwood قدرات أسرع كمبيوتر عملاق بمقدار 24 مرة مذهلة.

يمثل الكشف عن Ironwood في حدث Google Cloud Next ‘25 لحظة محورية في سعي Google الذي استمر عقدًا من الزمن لابتكار رقائق الذكاء الاصطناعي. في حين أن تكرارات TPU السابقة كانت تلبي في المقام الأول أعباء عمل التدريب والاستدلال لنماذج الذكاء الاصطناعي، فإن Ironwood تبرز باعتبارها أول شريحة مصممة بدقة ومحسنة لمهام الاستدلال.

وفقًا لأمين فاهدات، نائب الرئيس والمدير العام للتعلم الآلي والأنظمة والذكاء الاصطناعي السحابي في Google، ‘تم تصميم Ironwood لدفع المرحلة التالية من الذكاء الاصطناعي التوليدي، ومعالجة متطلباته الحسابية والاتصالية الهائلة. نحن ندخل ما نسميه ‘عصر الاستدلال’، حيث ستقوم وكلاء الذكاء الاصطناعي باستباقية باسترداد وإنشاء البيانات لتقديم رؤى وإجابات بشكل تعاوني، متجاوزة قدرات مجرد معالجة البيانات.’

إطلاق العنان لقوة الحوسبة غير المسبوقة: نظرة متعمقة على قدرات Ironwood

تُقرأ المواصفات الفنية لـ Ironwood وكأنها قائمة أمنيات لباحثي ومطوري الذكاء الاصطناعي. من خلال التوسع إلى مجموعة من 9216 شريحة، تقدم Ironwood قوة حوسبة مذهلة للذكاء الاصطناعي تبلغ 42.5 إكسافلوب. لوضع ذلك في منظوره الصحيح، فإنه يتجاوز إلى حد كبير قدرات بطل الكمبيوتر العملاق الحالي، El Capitan، الذي يبلغ ذروته 1.7 إكسافلوب. بشكل فردي، تفتخر كل شريحة Ironwood بقدرة حسابية قصوى تبلغ 4614 TFLOPs.

بالإضافة إلى قوة المعالجة الأولية، تقدم Ironwood تحسينات كبيرة في الذاكرة وعرض النطاق الترددي. تم تجهيز كل شريحة بذاكرة ذات نطاق ترددي عالي (HBM) بسعة 192 جيجابايت، وهي زيادة بمقدار ستة أضعاف مقارنة بالجيل السابق من TPU، Trillium. كما تم تحسين عرض النطاق الترددي للذاكرة بشكل كبير، حيث وصل إلى 7.2 تيرابت/ثانية لكل شريحة، أي 4.5 مرات ضعف Trillium.

في عصر تتوسع فيه مراكز البيانات ويصبح استهلاك الطاقة عاملاً بالغ الأهمية بشكل متزايد، تُظهر Ironwood كفاءة ملحوظة في استخدام الطاقة. أداؤها لكل واط ضعف أداء Trillium وأفضل بحوالي 30 مرة من وحدة معالجة TPU الأولية التي تم طرحها في عام 2018.

يمثل هذا التحول نحو تحسين الاستدلال علامة فارقة مهمة في تطور الذكاء الاصطناعي. في السنوات الأخيرة، ركزت مختبرات الذكاء الاصطناعي الرائدة على بناء نماذج أساسية بأعداد متزايدة من المعلمات. يشير تركيز Google على تحسين الاستدلال إلى تحول نحو إعطاء الأولوية لكفاءة النشر وقدرات الاستدلال في العالم الحقيقي.

في حين أن تدريب نماذج الذكاء الاصطناعي هو نشاط غير متكرر نسبيًا، إلا أن عمليات الاستدلال تحدث مليارات المرات يوميًا مع ازدياد انتشار تقنيات الذكاء الاصطناعي. ترتبط الجدوى الاقتصادية للشركات التي تعمل بالذكاء الاصطناعي ارتباطًا جوهريًا بتكاليف الاستدلال، خاصة وأن النماذج أصبحت معقدة بشكل متزايد.

على مدار السنوات الثماني الماضية، نما طلب Google على حوسبة الذكاء الاصطناعي بشكل كبير، حيث زاد عشرة أضعاف ووصل إلى 100 مليون رقم مذهل. بدون معماريات متخصصة مثل Ironwood، لا يمكن لقانون Moore وحده أن يحافظ على مسار النمو هذا.

إن تركيز Google على ‘نماذج الاستدلال’ القادرة على مهام الاستدلال المعقدة، بدلاً من مجرد التعرف على الأنماط البسيطة، أمر جدير بالملاحظة بشكل خاص. يشير هذا إلى أن Google تتصور مستقبلًا يتفوق فيه الذكاء الاصطناعي ليس فقط من خلال نماذج أكبر ولكن أيضًا من خلال نماذج قادرة على تقسيم المشكلات وإجراء استدلال متعدد الخطوات ومحاكاة العمليات الفكرية الشبيهة بالبشر.

تشغيل الجيل التالي من نماذج اللغة الكبيرة

تضع Google Ironwood كبنية تحتية أساسية لنماذج الذكاء الاصطناعي الأكثر تقدمًا، بما في ذلك Gemini 2.5، الذي يتميز ‘بقدرات الاستدلال الأصلية’.

إلى جانب Ironwood، كشفت Google النقاب عن Gemini 2.5 Flash، وهو إصدار مبسط من نموذجها الرائد المصمم للتطبيقات اليومية الحساسة لوقت الاستجابة. يمكن لـ Gemini 2.5 Flash ضبط عمق الاستدلال الخاص به ديناميكيًا بناءً على مدى تعقيد المطالبة.

كما عرضت Google مجموعتها من النماذج التوليدية متعددة الوسائط، والتي تشمل تحويل النص إلى صورة، وتحويل النص إلى فيديو، ووظيفة تحويل النص إلى موسيقى التي تم تقديمها حديثًا، Lyria. سلط عرض توضيحي مقنع الضوء على كيفية الجمع بين هذه الأدوات لإنتاج فيديو ترويجي كامل لحفل موسيقي.

Ironwood هي مجرد مكون واحد من استراتيجية البنية التحتية الشاملة للذكاء الاصطناعي من Google. قدمت الشركة أيضًا Cloud WAN، وهي خدمة شبكة واسعة مدارة تتيح للشركات الاستفادة من البنية التحتية للشبكة الخاصة ذات النطاق العالمي من Google.

تقوم Google أيضًا بتوسيع عروضها البرمجية لأعباء عمل الذكاء الاصطناعي، بما في ذلك Pathways، وهي وقت تشغيل للتعلم الآلي تم تطويرها بواسطة Google DeepMind، والتي تتيح للعملاء توسيع نطاق خدمة النموذج عبر مئات وحدات معالجة TPU.

رؤية للذكاء التعاوني: تقديم دعم A2A و MCP

بالإضافة إلى التطورات في الأجهزة، أوضحت Google رؤيتها للذكاء الاصطناعي التي تركز على الأنظمة متعددة الوكلاء وقدمت بروتوكول Agent-to-Agent (A2A)، المصمم لتعزيز التواصل الآمن والموحد بين وكلاء الذكاء الاصطناعي المتنوعين.

تتوقع Google أن يكون عام 2025 عامًا تحويليًا للذكاء الاصطناعي، حيث تتطور تطبيقات الذكاء الاصطناعي التوليدية من الإجابة على أسئلة فردية إلى حل المشكلات المعقدة من خلال أنظمة الوكلاء المترابطة.

يمكّن بروتوكول A2A إمكانية التشغيل البيني عبر الأنظمة الأساسية والأطر، مما يوفر لوكلاء الذكاء الاصطناعي ‘لغة’ مشتركة وقنوات اتصال آمنة. فكر في الأمر على أنه طبقة شبكة لوكلاء الذكاء الاصطناعي، مما يبسط التعاون في مهام سير العمل المعقدة ويمكّن وكلاء الذكاء الاصطناعي المتخصصين من معالجة المهام بشكل جماعي ذات التعقيد والمدة المتفاوتين، وبالتالي تعزيز القدرات الإجمالية من خلال التعاون.

كيف يعمل A2A

قدمت Google نظرة عامة مقارنة لبروتوكولات MCP و A2A:

  • MCP (بروتوكول سياق النموذج): يركز على إدارة الأدوات والموارد.
    • يربط الوكلاء بالأدوات وواجهات برمجة التطبيقات والموارد من خلال مدخلات/مخرجات منظمة.
    • يدعم Google ADK أدوات MCP، مما يسهل التفاعل السلس بين خوادم ووكلاء MCP.
  • A2A (بروتوكول Agent2Agent): يسهل التعاون بين الوكلاء.
    • يتيح اتصالاً ديناميكيًا ومتعدد الوسائط بين الوكلاء دون الحاجة إلى ذاكرة أو موارد أو أدوات مشتركة.
    • إنه معيار مفتوح مدفوع من قبل المجتمع.
    • يمكن استكشاف الأمثلة باستخدام أدوات مثل Google ADK و LangGraph و Crew.AI.

A2A و MCP متكاملان. يزود MCP الوكلاء بالأدوات، بينما يمكّن A2A هؤلاء الوكلاء المجهزين من التحدث والتعاون.

تشير قائمة شركاء Google الأولية إلى أن A2A مهيأ لتلقي اهتمام مماثل لـ MCP. اجتذبت المبادرة بالفعل أكثر من 50 منظمة، بما في ذلك شركات التكنولوجيا الرائدة ومقدمي الخدمات الاستشارية وتكامل الأنظمة العالميين.

تؤكد Google على انفتاح البروتوكول، وتضعه كمعيار للتعاون بين الوكلاء الذي يتجاوز أطر التكنولوجيا الأساسية أو مزودي الخدمة. سلطت Google الضوء على خمسة مبادئ توجيهية شكلت تصميم البروتوكول:

  1. احتضان قدرات الوكيل: تعطي A2A الأولوية لتمكين الوكلاء من التعاون بشكل طبيعي، حتى بدون مشاركة الذاكرة أو الأدوات أو السياق. الهدف هو تمكين سيناريوهات متعددة الوكلاء حقيقية، وليس مجرد قصر الوكلاء على العمل كـ ‘أدوات’.
  2. البناء على المعايير الحالية: يستفيد البروتوكول من المعايير الحالية والمتبناة على نطاق واسع، بما في ذلك HTTP و SSE و JSON-RPC، مما يبسط التكامل مع مجموعات تكنولوجيا المعلومات الحالية.
  3. آمن بشكل افتراضي: تم تصميم A2A لدعم المصادقة والترخيص على مستوى المؤسسات، على غرار مخططات مصادقة OpenAPI.
  4. دعم المهام طويلة الأمد: تسمح مرونة A2A بدعم مجموعة واسعة من السيناريوهات، من المهام السريعة إلى البحث المتعمق الذي قد يستغرق ساعات أو حتى أيام (خاصة عندما تكون هناك حاجة إلى تدخل بشري). طوال العملية، يمكن أن يوفر A2A للمستخدمين ملاحظات في الوقت الفعلي وإشعارات وتحديثات الحالة.
  5. غير مرتبط بالنمط: إدراكًا لحقيقة أن عالم الوكلاء يمتد إلى ما وراء النص، يدعم A2A أنماطًا متنوعة، بما في ذلك تدفقات الصوت والفيديو.

قدمت Google مثالاً على كيفية تبسيط A2A لعملية التوظيف.

في واجهة موحدة مثل Agentspace، يمكن لمدير التوظيف تعيين وكيل لتحديد المرشحين المناسبين بناءً على متطلبات الوظيفة. يمكن لهذا الوكيل التفاعل مع وكلاء متخصصين للحصول على مرشحين. يمكن للمستخدمين أيضًا توجيه الوكلاء لجدولة المقابلات وإشراك وكلاء متخصصين آخرين للمساعدة في فحوصات الخلفية، مما يتيح التوظيف الآلي والذكي بالكامل عبر الأنظمة.

احتضان بروتوكول سياق النموذج (MCP)

تتبنى Google أيضًا MCP. بعد وقت قصير من إعلان OpenAI عن اعتمادها لبروتوكول سياق النموذج (MCP) الخاص بـ Anthropic، حذت Google حذوها.

أعلن ديميس هاسابيس، الرئيس التنفيذي لشركة Google DeepMind، على X (تويتر سابقًا) أن Google ستضيف دعمًا لـ MCP في نماذج Gemini و SDK الخاصة بها، على الرغم من أنه لم يقدم جدولًا زمنيًا محددًا.

ذكر هاسابيس أن ‘MCP هو بروتوكول ممتاز وسرعان ما أصبح معيارًا مفتوحًا لعصر وكلاء الذكاء الاصطناعي. نتطلع إلى العمل مع فريق MCP وشركاء آخرين في الصناعة لتعزيز هذه التكنولوجيا.’

منذ إطلاقه في نوفمبر 2024، اكتسب MCP زخمًا كبيرًا باعتباره طريقة بسيطة وموحدة لربط نماذج اللغة بالأدوات والبيانات.

يمكّن MCP نماذج الذكاء الاصطناعي من الوصول إلى البيانات من أدوات وبرامج المؤسسات لإكمال المهام والوصول إلى مكتبات المحتوى وبيئات تطوير التطبيقات. يسمح البروتوكول للمطورين بإنشاء اتصالات ثنائية الاتجاه بين مصادر البيانات والتطبيقات المدعومة بالذكاء الاصطناعي مثل روبوتات الدردشة.

يمكن للمطورين عرض واجهات البيانات من خلال خوادم MCP وبناء عملاء MCP (مثل التطبيقات وسير العمل) للاتصال بهذه الخوادم. نظرًا لأن Anthropic مفتوحة المصدر MCP، فقد قامت العديد من الشركات بدمج دعم MCP في منصاتها.

Ironwood: فجر حقبة جديدة في الذكاء الاصطناعي

تمثل وحدة معالجة TPU Ironwood من Google قفزة كبيرة إلى الأمام في حوسبة الذكاء الاصطناعي. إن أدائها غير المسبوق وهندستها المحسنة ودعمها للبروتوكولات الناشئة مثل A2A و MCP تجعلها بمثابة عامل تمكين رئيسي للموجة التالية من ابتكار الذكاء الاصطناعي. مع ازدياد تعقيد نماذج الذكاء الاصطناعي وتطلبها، توفر Ironwood القوة الخام والمرونة اللازمة لإطلاق إمكانيات جديدة وتحويل الصناعات في جميع أنحاء العالم. إنها ليست مجرد شريحة جديدة؛ بل هي أساس لمستقبل مدعوم بالآلات الذكية التي تعمل بشكل تعاوني لحل المشكلات المعقدة وتحسين حياتنا.