طموحات جوجل الذكاء الاصطناعي: استراتيجية تحاكي Apple

طموحات جوجل في الذكاء الاصطناعي: استراتيجية تحاكي Apple

تتزايد طموحات جوجل لتشبه طموحات Apple، خاصة في مجال نماذج الذكاء الاصطناعي التوليدي (GenAI) الكبيرة. عرض مؤتمر Google Cloud Next الأخير رؤية Google الطموحة. ويشمل ذلك ابتكارات تتراوح من شريحة TPU v7 Ironwood، المصممة لمنافسة GB200 من Nvidia، إلى بروتوكول Agent2Agent (A2A) الذي يهدف إلى تجاوز MCP الخاص بـ Anthropic، وبيئة وقت التشغيل Pathways لنشر GenAI.

تعمل جوجل أيضًا بنشاط على تطوير أدوات مثل ADK و Agentspace لتمكين المطورين من إنشاء وكلاء الذكاء الاصطناعي. تعتبر Vertex AI، وهي منصة تطوير ونشر الذكاء الاصطناعي السحابية الأصلية من Google، محورًا أساسيًا لهذا الجهد. تقدم Vertex AI الآن مجموعة متنوعة من خدمات إنشاء المحتوى، بما في ذلك Veo 2 للفيديو، و Imagen 3 للصور، و Chirp 3 للصوت، و Lyria للموسيقى. من الواضح أن Google Cloud تضع نفسها في مكانة تتيح لها تزويد المطورين والمستخدمين بمجموعة شاملة من تطبيقات تطوير نماذج GenAI الكبيرة.

في حين أن قابلية استخدام هذه الخدمات والتجارب الفعلية لا تزال غير واضحة، فقد أنشأت Google نظامًا بيئيًا كاملاً ومتعدد الوسائط لأجهزة وبرامج الذكاء الاصطناعي تم تطويره ذاتيًا ومغلق المصدر ومتاحًا بسهولة.

هذا النهج الشامل يرسم صورة لجوجل على أنها Apple في عصر الذكاء الاصطناعي.

شريحة Ironwood TPU: منافس قوي

إن الكشف عن شريحة TPU من الجيل السابع، Ironwood، جدير بالملاحظة بشكل خاص.

  • تم تجهيز كل TPU بذاكرة HBM بسعة 192 جيجابايت، مع نطاق ترددي يتراوح من 7.2 إلى 7.4 تيرابايت/ثانية، ومن المحتمل أن تستخدم تقنية HBM3E. وهذا يقارن بشكل إيجابي بشريحة B200 من Nvidia، التي توفر نطاقًا تردديًا يبلغ 8 تيرابايت/ثانية.
  • يمكن لكل TPU v7 مبرد بالسوائل أن يحقق 4.6 بيتافلوب من قوة الحوسبة FP8 الكثيفة. هذا أقل إلى حد ما من 20 بيتافلوب لشريحة B200.
  • ومع ذلك، تتيح شبكة مركز بيانات Jupiter التابعة لـ Google التوسع لدعم ما يصل إلى 400000 شريحة أو 43 مجموعة TPU v7x. تتيح خبرة Google في تكنولوجيا الخوادم لها التقليل من أهمية مقاييس أداء الشريحة الواحدة.
  • والأهم من ذلك، قدمت Google Pathways، وهي بيئة وقت تشغيل مخصصة للذكاء الاصطناعي تعزز مرونة نشر نموذج GenAI، مما يزيد من ترسيخ مزاياها في مجال مجموعة الخدمات.
  • يتوفر Ironwood في تكوينين للمجموعات: 256 شريحة أو 9216 شريحة، مصممة خصيصًا لأحمال العمل المحددة. يمكن لمجموعة واحدة تحقيق قوة حوسبة تبلغ 42.5 إكسافلوب. تدعي Google أن هذا الأداء يتجاوز أكبر جهاز كمبيوتر عملاق في العالم، El Capitan، بمعامل 24. ومع ذلك، يتم قياس هذا الرقم بدقة FP8، ولم تقدم El Capitan التابعة لـ AMD بعد بيانات دقة FP8. اعترفت Google بذلك، مما يجعل المقارنة المباشرة صعبة.

احتضان نظام بيئي GenAI مغلق المصدر

تسعى Google إلى إنشاء نظام بيئي شامل مغلق المصدر في مجال GenAI. في حين أن Gemma مفتوحة المصدر لها مزاياها، فإن Google توجه الموارد نحو حلولها مغلقة المصدر.

مع الزيادة في الاهتمام بوكلاء الذكاء الاصطناعي، أعلنت Google عن بروتوكول A2A في المؤتمر، وطلبت من 50 بائعًا رئيسيًا التنافس مع MCP الخاص بـ Anthropic.

في حين أن OpenAI فتحت مصدر Agents SDK الخاص بها، ودمجت إمكانات النموذج الكبيرة الخاصة بها، فإن Google تعمل على توسيع Vertex AI باستخدام ADK و Agentspace و AutoML و AIPlatform و Kubeflow، وحقن إمكانات نموذجية متنوعة.

ومع ذلك، عند مقارنة توليد الصور في GPT-4o بميزات Gemini 2.0 Flash المكافئة، قد تفتقر عروض Google، على الرغم من طموحها، إلى الصقل. قد يبدو دمج العديد من النماذج والخدمات والأدوات، على الرغم من أنه مفيد للمنافسة، سابقًا لأوانه. يحتاج السوق إلى نماذج كبيرة متعددة الوسائط وخدمات داخل النموذج ناضجة ومتكاملة بشكل جيد.

تكرار نموذج Gmail و Chrome و Google في الذكاء الاصطناعي

إن نجاح Google مع Gmail و Chrome ونهجها ‘صاروخ ثلاثي المراحل’ سمح لها بالسيطرة على سوق التكنولوجيا العالمية. يتم تنفيذ هذه الاستراتيجية بسرعة في مجال GenAI. ومع ذلك، على عكس دعمها السابق للمصدر المفتوح، فإن Google تتبنى بشكل متزايد تطوير المصادر المغلقة.

تقوم Google بتحويل المصادر المفتوحة بشكل فعال إلى شكل من أشكال المصادر المغلقة من خلال دمج مواردها لإنشاء نظام بيئي مهيمن في منطقة معينة، ثم فرض رسوم. يواجه هذا النهج انتقادات متزايدة من المطورين.

حققت أطر عمل تعلم الآلة مفتوحة المصدر من Google، TensorFlow و Jax، نجاحًا عالميًا. ومع ذلك، فإن بيئة وقت التشغيل Pathways الجديدة مغلقة المصدر، حتى أنها تعزل أدوات تطوير CUDA الخاصة بـ Nvidia.

Google مقابل Nvidia: معركة الهيمنة على الذكاء الاصطناعي

بينما تدافع Nvidia عن Physical AI وتقدم نموذجًا عامًا للروبوتات البشرية مفتوح المصدر Isaac GR00T N1، تدخل Google DeepMind السوق مع Gemini Robotics و Gemini Robotics-ER، استنادًا إلى Gemini 2.0.

حاليًا، يفتقر وجود Google فقط في سوق أجهزة الكمبيوتر المكتبية التي تعمل بالذكاء الاصطناعي. كيف ستنافس DGX Spark من Nvidia (المعروفة سابقًا باسم Project DIGITS) و DGX Station، جنبًا إلى جنب مع Mac Studio من Apple، خدمات Google السحابية؟ لقد أصبح هذا السؤال محورًا رئيسيًا في الصناعة بعد المؤتمر.

اعتماد Apple على Google Cloud وشريحة M3 Ultra

يُذكر أن Apple تستخدم مجموعات TPU الخاصة بـ Google Cloud لتدريب نماذجها الكبيرة، حتى أنها تخلت عن حلول تدريب شرائح Nvidia بسبب اعتبارات التكلفة! بينما تواجه Apple نقاط ضعف في البرامج، فإنها تركز على شرائح M-series الخاصة بها. يتباهى أحدث Mac Studio، المجهز بشريحة M3 Ultra، الآن بما يصل إلى 512 جيجابايت من الذاكرة الموحدة. قد يكون اعتماد Apple المحتمل المبكر لتقنية Pathways الخاصة بـ Google قد جعلها تتماشى مع Google.

عامل مكافحة الاحتكار

تتمحور القضية الأساسية حول مخاوف مكافحة الاحتكار. حاليًا، يتم وضع نموذج أعمال Apple بشكل فريد للتنقل في دعاوى مكافحة الاحتكار العالمية، على عكس Microsoft و Google، اللتين تواجهان عمليات تفكك محتملة. إن حجم Google يعرضها لخطر التخلي القسري عن نظام التشغيل Android الأساسي وأعمال متصفح Chrome.

أوقفت Google مؤخرًا صيانة مشروع Android مفتوح المصدر (AOSP)، مما يجعل التحول نحو نموذج Apple أمرًا لا مفر منه في عصر الذكاء الاصطناعي. مع ظهور اختراقات الذكاء الاصطناعي، يصبح التحول الاستراتيجي لـ Google واضحًا بشكل متزايد.

التوسع في TPU v7 Ironwood من Google

إن التعمق أكثر في مواصفات TPU v7 Ironwood يكشف عن قطعة أجهزة تم تصميمها بدقة. تعتبر ذاكرة النطاق الترددي العالي (HBM) بسعة 192 جيجابايت مكونًا مهمًا، مما يسمح بالوصول السريع إلى البيانات وهو أمر ضروري لتدريب وتشغيل نماذج الذكاء الاصطناعي المعقدة. إن الاستخدام المتوقع لتقنية HBM3E يؤكد التزام Google بالاستفادة من التطورات المتطورة في تكنولوجيا الذاكرة. إن النطاق الترددي الذي يتراوح بين 7.2 و 7.4 تيرابايت/ثانية ليس مجرد رقم مثير للإعجاب؛ بل يترجم مباشرة إلى أوقات معالجة أسرع والقدرة على التعامل مع مجموعات بيانات أكبر وأكثر تعقيدًا.

المقارنة مع B200 من Nvidia أمر لا مفر منه، نظرًا لسيطرة Nvidia على سوق وحدات معالجة الرسومات (GPU). في حين أن B200 يوفر نطاقًا تردديًا أعلى قليلاً يبلغ 8 تيرابايت/ثانية، فإن بنية النظام الشاملة والتكامل داخل النظام البيئي لـ Google هي المكان الذي تهدف فيه Ironwood إلى تمييز نفسها.

إن 4.6 بيتافلوب من قوة الحوسبة FP8 الكثيفة هو مقياس لقدرة الشريحة على إجراء عمليات الفاصلة العائمة، وهي أساسية لحسابات الذكاء الاصطناعي. إن الاختلاف مقارنة بـ 20 بيتافلوب لـ B200 يسلط الضوء على فلسفات التصميم المتميزة. تؤكد Google على قابلية التوسع والتكامل لوحدات TPU الخاصة بها داخل البنية التحتية لمركز البيانات الخاص بها، بينما تركز Nvidia على قوة الحوسبة الأولية على مستوى الشريحة.

أهمية شبكة مركز بيانات Jupiter التابعة لـ Google

تعد شبكة مركز بيانات Jupiter التابعة لـ Google أحد الأصول المهمة، حيث تتيح الاتصال السلس لعدد كبير من شرائح TPU. إن القدرة على دعم ما يصل إلى 400000 شريحة أو 43 مجموعة TPU v7x تؤكد النطاق الذي تعمل به Google. تعتبر قابلية التوسع هذه عاملاً رئيسيًا يميزها، حيث إنها تتيح لـ Google توزيع أحمال العمل عبر بنية تحتية ضخمة، مما يحسن الأداء والكفاءة.

تعتبر خبرة Google في تكنولوجيا الخوادم عاملاً حاسمًا في استراتيجية الذكاء الاصطناعي الخاصة بها. من خلال إعطاء الأولوية لأداء مستوى النظام على مواصفات الشريحة الفردية، يمكن لـ Google الاستفادة من بنيتها التحتية لتحقيق نتائج متفوقة. هذا النهج وثيق الصلة بشكل خاص في سياق التدريب على نموذج الذكاء الاصطناعي واسع النطاق، حيث تعتبر القدرة على توزيع الحسابات عبر شبكة من المعالجات المترابطة أمرًا ضروريًا.

الكشف عن بيئة وقت التشغيل Pathways AI

يعد تقديم Pathways خطوة استراتيجية تعزز مرونة وكفاءة نشر نموذج GenAI. تتيح بيئة وقت التشغيل المخصصة للذكاء الاصطناعي للمطورين تحسين نماذجهم للبنية التحتية لـ Google، والاستفادة الكاملة من موارد الأجهزة والبرامج المتاحة.

يمثل Pathways استثمارًا كبيرًا في حزمة برامج الذكاء الاصطناعي، مما يوفر نظامًا أساسيًا موحدًا لنشر وإدارة نماذج الذكاء الاصطناعي. من خلال تبسيط عملية النشر، تهدف Google إلى خفض حاجز الدخول للمطورين وتشجيع اعتماد خدمات الذكاء الاصطناعي الخاصة بها. وهذا بدوره سيدفع الابتكار ويخلق نظامًا بيئيًا نابضًا بالحياة حول منصة الذكاء الاصطناعي الخاصة بـ Google.

نظرة أعمق على استراتيجية المصادر المغلقة لـ Google

إن تبني Google لاستراتيجية المصادر المغلقة في مجال GenAI هو خيار متعمد يعكس رؤيتها طويلة المدى للذكاء الاصطناعي. في حين أن Gemma مفتوحة المصدر كانت مساهمة قيمة في مجتمع الذكاء الاصطناعي، فإن Google تعطي الأولوية بوضوح لحلولها مغلقة المصدر، مع الاعتراف بأنها توفر تحكمًا وتخصيصًا أكبر.

من خلال التركيز على تطوير المصادر المغلقة، يمكن لـ Google تحسين نماذج الذكاء الاصطناعي والبنية التحتية الخاصة بها لمهام محددة، مما يضمن أقصى قدر من الأداء والكفاءة. يسمح هذا النهج أيضًا لـ Google بحماية ملكيتها الفكرية والحفاظ على ميزة تنافسية في مشهد الذكاء الاصطناعي سريع التطور.

إن نهج المصادر المغلقة ليس بدون منتقديه، الذين يجادلون بأنه يخنق الابتكار ويحد من التعاون. ومع ذلك، تؤكد Google أنه ضروري لضمان جودة وأمان وموثوقية خدمات الذكاء الاصطناعي الخاصة بها.

بروتوكول A2A والمعركة من أجل الهيمنة على وكيل الذكاء الاصطناعي

أدى ظهور وكلاء الذكاء الاصطناعي إلى خلق ساحة معركة جديدة في صناعة الذكاء الاصطناعي، وتصمم Google على أن تكون رائدة في هذا المجال. يعد الإعلان عن بروتوكول A2A في مؤتمر Google Cloud Next مؤشرًا واضحًا على طموحات Google.

من خلال الاستعانة بـ 50 بائعًا رئيسيًا لدعم بروتوكول A2A، تحاول Google إنشاء معيار موحد لاتصالات وكيل الذكاء الاصطناعي. سيسمح هذا لوكلاء الذكاء الاصطناعي من منصات مختلفة بالتفاعل بسلاسة، مما يخلق نظامًا بيئيًا للذكاء الاصطناعي أكثر ترابطًا وتعاونًا.

تعد المنافسة مع MCP الخاص بـ Anthropic جانبًا رئيسيًا في استراتيجية وكيل الذكاء الاصطناعي لـ Google. Anthropic هي شركة أبحاث ذكاء اصطناعي تحظى باحترام كبير، وقد اكتسب بروتوكول MCP الخاص بها زخمًا في الصناعة. يمثل بروتوكول A2A من Google تحديًا مباشرًا لـ MCP، وسيكون لنتيجة هذه المنافسة تأثير كبير على مستقبل وكلاء الذكاء الاصطناعي.

Vertex AI: منصة تطوير شاملة للذكاء الاصطناعي

Vertex AI من Google هي منصة تطوير شاملة للذكاء الاصطناعي توفر للمطورين مجموعة واسعة من الأدوات والخدمات. من خلال دمج ADK و Agentspace و AutoML و AIPlatform و Kubeflow، تقوم Google بإنشاء متجر شامل لتطوير الذكاء الاصطناعي.

تهدف Vertex AI إلى تبسيط عملية تطوير الذكاء الاصطناعي، مما يسهل على المطورين إنشاء نماذج الذكاء الاصطناعي وتدريبها ونشرها. توفر المنصة أيضًا الوصول إلى مكتبة واسعة من النماذج المدربة مسبقًا، مما يسمح للمطورين بدمج قدرات الذكاء الاصطناعي بسرعة في تطبيقاتهم.

يعد دمج إمكانات النموذج المتنوعة ميزة رئيسية في Vertex AI. من خلال تقديم مجموعة متنوعة من النماذج، تلبي Google مجموعة واسعة من حالات الاستخدام، من التعرف على الصور إلى معالجة اللغة الطبيعية. هذا النهج الشامل يجعل Vertex AI خيارًا مقنعًا للمطورين الذين يبحثون عن منصة تطوير ذكاء اصطناعي متعددة الاستخدامات وقوية.

تكامل نموذج Google: الطموح مقابل التنفيذ

في حين أن طموح Google لدمج العديد من النماذج والخدمات والأدوات جدير بالثناء، إلا أن التنفيذ قد يتطلب مزيدًا من التحسين. يطالب السوق بنماذج كبيرة متعددة الوسائط وخدمات داخل النموذج ناضجة ومتكاملة بشكل جيد. قد تحتاج عروض Google الحالية، على الرغم من أنها واعدة، إلى مزيد من الصقل لتلبية هذه التوقعات.

يعد تكامل قدرات الذكاء الاصطناعي المختلفة مهمة معقدة، وتواجه Google تحدي ضمان عمل نماذجها وخدماتها المختلفة معًا بسلاسة. يتطلب ذلك اهتمامًا دقيقًا بالتفاصيل والتزامًا بالتحسين المستمر.

في النهاية، سيعتمد نجاح جهود تكامل نموذج Google على قدرتها على تقديم تجربة مستخدم قوية وبديهية. سيتطلب ذلك فهمًا عميقًا لاحتياجات المستخدمين والتركيز الدؤوب على الجودة.