Nvidia و Google Cloud: ريادة الذكاء الاصطناعي

تتعمق Google Cloud و Nvidia في تعاونهما لدفع عجلة التطورات في مجال الذكاء الاصطناعي. تركز هذه الشراكة على دمج نماذج Gemini من Google ووحدات معالجة الرسوميات Blackwell من Nvidia لتحسين أعباء عمل الذكاء الاصطناعي (AI). تتضمن الابتكارات الرئيسية نشر نماذج Gemini في أماكن العمل، وتحسينات الأداء لـ Gemini على وحدات معالجة الرسوميات Nvidia، ومجتمعات مطورين جديدة، وآلات افتراضية سرية (Confidential VMs)، وتوافر آلات A4 الافتراضية على وحدات معالجة الرسوميات Blackwell.

نماذج Gemini في أماكن العمل مع Nvidia Blackwell

يمكن الآن نشر Google Gemini في أماكن العمل باستخدام Nvidia Blackwell من خلال Google Distributed Cloud. يتيح هذا النشر للمؤسسات استخدام نماذج Gemini بشكل آمن داخل مراكز البيانات الخاصة بها، مما يمكنها من الحصول على قدرات الذكاء الاصطناعي الفعال.

فهم نماذج Gemini

تمثل عائلة نماذج Gemini أحدث نماذج الذكاء الاصطناعي تطوراً من Google حتى الآن. تم تصميم هذه النماذج للاستدلال المعقد والترميز والفهم متعدد الوسائط، مما يجعلها أدوات متعددة الاستخدامات لمختلف التطبيقات.

Google Distributed Cloud

توفر Google Distributed Cloud حلاً مُداراً بالكامل للبيئات الموجودة في أماكن العمل والتي لا تتصل بالإنترنت والحوسبة المتطرفة. يتيح ذلك للعملاء الحفاظ على التحكم في بياناتهم مع الاستفادة من قوة تقنيات الذكاء الاصطناعي من Google.

مزايا النشر في أماكن العمل

تحكم مُعزز: تحتفظ المؤسسات بالتحكم الكامل في بياناتها، مما يضمن الامتثال للوائح الخصوصية والسياسات الداخلية.
الأمان: يتيح نشر نماذج Gemini داخل مراكز البيانات الخاصة بهم أماناً وحماية أكبر للمعلومات الحساسة.
التخصيص: يسمح النشر في أماكن العمل بتخصيص أكبر لحلول الذكاء الاصطناعي لتلبية احتياجات العمل المحددة.

تضمن هذه الشراكة أن يتمكن العملاء من الابتكار باستخدام Gemini مع الالتزام بسياسات إدارة البيانات الصارمة.

تحسين Gemini و Gemma لوحدات معالجة الرسوميات Nvidia

تعاونت Nvidia و Google لتحسين أداء أعباء العمل الاستنتاجية القائمة على Gemini على وحدات معالجة الرسوميات Nvidia، وخاصةً داخل منصة Vertex AI من Google Cloud. يسمح هذا التحسين لـ Google بمعالجة عدد كبير من استعلامات المستخدمين لنماذج Gemini بكفاءة على البنية التحتية المدعومة من Nvidia عبر Vertex AI و Google Distributed Cloud.

منصة Vertex AI

Vertex AI هي منصة Google Cloud الشاملة للتعلم الآلي، وتقدم أدوات وخدمات لتدريب نماذج الذكاء الاصطناعي ونشرها وإدارتها. يعمل تحسين Gemini لوحدات معالجة الرسوميات Nvidia داخل Vertex AI على تحسين قدرات المنصة ويسهل على المطورين إنشاء حلول الذكاء الاصطناعي ونشرها.

عائلة نماذج Gemma

تم تحسين عائلة نماذج Gemma خفيفة الوزن والمفتوحة المصدر للاستنتاج باستخدام مكتبة Nvidia TensorRT-LLM. من المتوقع أن يتم تقديم هذه النماذج كخدمات Nvidia NIM المصغرة سهلة النشر، مما يجعلها في متناول مجموعة واسعة من المطورين.

Nvidia TensorRT-LLM

Nvidia TensorRT-LLM هي مكتبة لتحسين ونشر نماذج اللغة الكبيرة (LLMs) على وحدات معالجة الرسوميات Nvidia. من خلال تحسين نماذج Gemma باستخدام TensorRT-LLM، تسهل Nvidia و Google على المطورين الاستفادة من قوة LLMs في تطبيقاتهم.

إمكانية الوصول للمطورين

تعمل هذه التحسينات على زيادة الأداء إلى أقصى حد وتجعل الذكاء الاصطناعي المتقدم أكثر سهولة للمطورين، مما يمكنهم من تشغيل أعباء العمل الخاصة بهم على مختلف البنى عبر مراكز البيانات وأجهزة الكمبيوتر الشخصية ومحطات العمل المحلية المدعومة من Nvidia RTX.

إطلاق مجتمع مطوري Google Cloud و Nvidia

أطلقت Google Cloud و Nvidia مجتمع مطورين مشترك جديد لتسريع تبادل المهارات والابتكار. يجمع هذا المجتمع الخبراء والأقران للتعاون وتبادل المعرفة، مما يسهل على المطورين إنشاء وتوسيع ونشر الجيل التالي من تطبيقات الذكاء الاصطناعي.

مزايا مجتمع المطورين

تبادل المعرفة: يوفر المجتمع منصة للمطورين لتبادل خبراتهم والتعلم من الآخرين.
التعاون: يمكن للمطورين التعاون في المشاريع ومشاركة التعليمات البرمجية، مما يؤدي إلى تسريع عملية التطوير.
الدعم: يقدم المجتمع الدعم والتوجيه للمطورين الذين يقومون ببناء تطبيقات الذكاء الاصطناعي.

تجمع هذه المبادرة بين التميز الهندسي وقيادة المصادر المفتوحة والنظام البيئي للمطورين النابض بالحياة لتمكين المطورين ودفع الابتكار في مجال الذكاء الاصطناعي.

أطر عمل مفتوحة المصدر

تدعم الشركتان مجتمع المطورين من خلال تحسين أطر العمل مفتوحة المصدر، مثل JAX، للتوسع بسلاسة على وحدات معالجة الرسوميات Blackwell. يتيح ذلك تشغيل أعباء عمل الذكاء الاصطناعي بكفاءة عبر عشرات الآلاف من العُقد (nodes)، مما يسهل تدريب ونشر نماذج الذكاء الاصطناعي واسعة النطاق.

تحسين JAX

JAX عبارة عن مكتبة حسابية رقمية عالية الأداء طورتها Google. من خلال تحسين JAX لوحدات معالجة الرسوميات Blackwell، تسهل Nvidia و Google على المطورين الاستفادة من قوة JAX في تطبيقات الذكاء الاصطناعي الخاصة بهم.

آلات افتراضية سرية وعُقد GKE مع وحدات معالجة الرسوميات Nvidia H100

أصبحت الآن الآلات الافتراضية السرية (VMs) من Google Cloud على سلسلة آلات A3 المحسّنة للمعالج مع وحدات معالجة الرسوميات Nvidia H100 متاحة في المعاينة. وبالمثل، يتم أيضاً تقديم عُقد Google Kubernetes Engine (GKE) السرية. تضمن حلول الحوسبة السرية هذه سرية وسلامة أعباء عمل الذكاء الاصطناعي والتعلم الآلي والمحاكاة العلمية باستخدام وحدات معالجة الرسوميات المحمية أثناء استخدام البيانات.

آلات افتراضية سرية

تقوم الآلات الافتراضية السرية بتشفير البيانات قيد الاستخدام، مما يوفر طبقة إضافية من الأمان لأعباء العمل الحساسة. يضمن ذلك بقاء البيانات محمية حتى أثناء المعالجة، مما يقلل من خطر الوصول غير المصرح به.

Google Kubernetes Engine

Google Kubernetes Engine (GKE) عبارة عن خدمة Kubernetes مُدارة تعمل على تبسيط نشر وإدارة التطبيقات المعبأة في حاويات. توفر عُقد GKE السرية نفس مستوى الأمان الذي توفره الآلات الافتراضية السرية، مما يضمن حماية أعباء العمل المعبأة في حاويات.

مزايا الأمان

حماية البيانات: تحمي الآلات الافتراضية السرية وعُقد GKE البيانات قيد الاستخدام، مما يقلل من خطر اختراق البيانات.
الامتثال: تساعد هذه الحلول المؤسسات على الامتثال للوائح الخصوصية ومعايير الصناعة.
الثقة: تبني الحوسبة السرية الثقة من خلال ضمان بقاء البيانات سرية ومحمية طوال دورة الحياة بأكملها.

يمكّن هذا مالكي البيانات والنماذج للحفاظ على تحكم مباشر في مسار بياناتهم، حيث توفر Nvidia Confidential Computing أماناً متقدماً مدعوماً بالأجهزة للحوسبة المسرعة. يوفر ذلك مزيداً من الثقة عند إنشاء واعتماد حلول وخدمات الذكاء الاصطناعي المبتكرة.

آلات A4 الافتراضية الجديدة من Google متاحة بشكل عام على وحدات معالجة الرسوميات Nvidia Blackwell

في شهر فبراير، أطلقت Google Cloud آلاتها الافتراضية A4 الجديدة التي تتميز بثماني وحدات معالجة الرسوميات Blackwell متصلة ببعضها البعض بواسطة Nvidia NVLink. يوفر هذا دفعة أداء كبيرة مقارنة بالجيل السابق، مما يسهل تدريب ونشر نماذج الذكاء الاصطناعي واسعة النطاق. تتوفر الآن آلات A4 الافتراضية الجديدة من Google Cloud على Nvidia HGX B200 بشكل عام، مما يوفر للعملاء إمكانية الوصول إلى أحدث الأجهزة في مجال الذكاء الاصطناعي.

Nvidia NVLink هي تقنية ربط بيني عالية السرعة تتيح اتصالاً سريعاً بين وحدات معالجة الرسوميات. من خلال ربط ثماني وحدات معالجة الرسوميات Blackwell بـ NVLink، توفر آلات A4 الافتراضية من Google Cloud أداءً لا مثيل له لأعباء عمل الذكاء الاصطناعي.

دفعة الأداء

توفر آلات A4 الافتراضية دفعة أداء كبيرة مقارنة بالجيل السابق، مما يجعلها مثالية لتدريب ونشر نماذج الذكاء الاصطناعي واسعة النطاق. يتيح ذلك للمطورين التكرار بشكل أسرع وتحقيق نتائج أفضل مع تطبيقات الذكاء الاصطناعي الخاصة بهم.

إمكانية الوصول عبر Vertex AI و GKE

يمكن الوصول إلى آلات Google الافتراضية الجديدة وبنية AI Hypercomputer عبر خدمات مثل Vertex AI و GKE، مما يمكّن العملاء من اختيار مسار لتطوير ونشر تطبيقات الذكاء الاصطناعي الفعالة على نطاق واسع. هذا يجعل من السهل على المؤسسات الاستفادة من قوة الذكاء الاصطناعي في تطبيقاتها.

الخوض في تفاصيل بنية وحدات معالجة الرسوميات Blackwell

تمثل بنية وحدات معالجة الرسوميات Blackwell من Nvidia قفزة هائلة في قوة الحوسبة، وتعيد تشكيل مشهد الذكاء الاصطناعي والحوسبة عالية الأداء بشكل أساسي. لتقدير قدرات آلات A4 الافتراضية وتأثيرها على ابتكار الذكاء الاصطناعي حقاً، من الضروري فهم التكنولوجيا الأساسية لوحدات معالجة الرسوميات Blackwell.

قدرات الحوسبة التحويلية

تم تصميم بنية Blackwell للتعامل مع أعباء عمل الذكاء الاصطناعي الأكثر تطلباً، بما في ذلك تدريب نماذج اللغة الضخمة (LLMs) وإجراء عمليات محاكاة معقدة. تتضمن ميزاته الرئيسية ما يلي:

  • محرك Transformer من الجيل الثاني: تم تحسين هذا المحرك خصيصاً لنماذج transformer، والتي تشكل أساس العديد من تطبيقات الذكاء الاصطناعي الحديثة. فهو يسرع بشكل كبير تدريب واستنتاج هذه النماذج.
  • NVLink من الجيل الخامس: كما ذكرنا سابقاً، يتيح NVLink اتصالاً عالي السرعة بين وحدات معالجة الرسوميات، مما يسمح لها بالعمل معاً بسلاسة في المهام المعقدة. هذا مهم بشكل خاص لتدريب النماذج الكبيرة جداً التي تتطلب قوة المعالجة الجماعية لوحدات معالجة رسوميات متعددة.
  • دعم الحوسبة السرية: تشتمل وحدات معالجة الرسوميات Blackwell على ميزات أمان قائمة على الأجهزة تتيح الحوسبة السرية، مما يضمن خصوصية وسلامة البيانات الحساسة.
  • تقنية الذاكرة المتقدمة: تستخدم وحدات معالجة الرسوميات Blackwell أحدث تقنيات الذاكرة، مما يوفر نطاقاً ترددياً وسعة عالية للتعامل مع مجموعات البيانات الضخمة المستخدمة في تطبيقات الذكاء الاصطناعي.

التأثير على أعباء عمل الذكاء الاصطناعي

تؤدي المجموعة بين هذه الميزات إلى تحسين كبير في الأداء لمجموعة واسعة من أعباء عمل الذكاء الاصطناعي. تمكّن وحدات معالجة الرسوميات Blackwell المطورين من:

  • تدريب نماذج أكبر: تسمح قوة الحوسبة المتزايدة وسعة الذاكرة بتدريب نماذج الذكاء الاصطناعي الأكبر والأكثر تعقيداً بشكل ملحوظ، مما يؤدي إلى تحسين الدقة والأداء.
  • تقليل وقت التدريب: تعمل البنية المحسّنة والوصلات البينية عالية السرعة على تقليل الوقت المطلوب لتدريب نماذج الذكاء الاصطناعي بشكل كبير، مما يؤدي إلى تسريع عملية التطوير.
  • النشر بكفاءة أكبر: تم تصميم وحدات معالجة الرسوميات Blackwell لكفاءة استخدام الطاقة، مما يسمح بنشر نماذج الذكاء الاصطناعي على نطاق واسع دون استهلاك مفرط للطاقة.
  • إطلاق تطبيقات ذكاء اصطناعي جديدة: يفتح الأداء الذي لا مثيل له لوحدات معالجة الرسوميات Blackwell إمكانيات لتطبيقات الذكاء الاصطناعي الجديدة التي كانت مستحيلة سابقاً بسبب القيود الحسابية.

الآثار الاستراتيجية لـ Google Cloud وعملائها

تمثل الشراكة المُعززة بين Google Cloud و Nvidia، والمتركزة على Gemini و Blackwell والبنية التحتية الداعمة، آثاراً استراتيجية كبيرة لكلا الشركتين وعملائهما.

ميزة تنافسية لـ Google Cloud

  • جذب الشركات التي تركز على الذكاء الاصطناعي: من خلال تقديم بنية تحتية متطورة للذكاء الاصطناعي مدعومة بوحدات معالجة الرسوميات Nvidia Blackwell، يمكن لـ Google Cloud جذب الشركات المستثمرة بكثافة في البحث والتطوير في مجال الذكاء الاصطناعي.
  • التمييز عن المنافسين: يميز دمج Gemini والأداء المحسّن لآلات Google Cloud الافتراضية عن موفري الخدمات السحابية الآخرين.
  • تعزيز النظام البيئي للذكاء الاصطناعي: تساهم هذه الشراكة في نظام بيئي قوي للذكاء الاصطناعي من خلال تمكين المطورين وتعزيز الابتكار وتوفير الوصول إلى الأدوات والموارد المتقدمة.

مزايا للعملاء

  • تسريع ابتكار الذكاء الاصطناعي: يمكن للعملاء الاستفادة من قوة Gemini ووحدات معالجة الرسوميات Blackwell لتسريع مبادرات الذكاء الاصطناعي الخاصة بهم، مما يمكنهم من تطوير ونشر حلول مبتكرة بشكل أسرع.
  • تحسين الأداء وقابلية التوسع: تضمن البنية التحتية المحسّنة تشغيل أعباء عمل الذكاء الاصطناعي بكفاءة ويمكنها التوسع لتلبية المتطلبات المتزايدة.
  • أمان وامتثال مُعززان: توفر الآلات الافتراضية السرية وعقد GKE ميزات الأمان والامتثال اللازمة لحماية البيانات الحساسة.
  • تقليل التكاليف: من خلال تحسين أعباء عمل الذكاء الاصطناعي لوحدات معالجة الرسوميات Nvidia، يمكن للعملاء تقليل تكاليف الحوسبة المحتملة.

مستقبل تطوير الذكاء الاصطناعي

تمثل هذه الشراكة خطوة كبيرة إلى الأمام في تطور تطوير الذكاء الاصطناعي. من خلال الجمع بين خبرة Google في نماذج الذكاء الاصطناعي وقيادة Nvidia في تقنية وحدات معالجة الرسوميات، تدفع الشركتان الابتكار وتجعلان أدوات الذكاء الاصطناعي المتقدمة أكثر سهولة للمطورين. سيؤدي هذا بلا شك إلى إنشاء تطبيقات ذكاء اصطناعي جديدة ومثيرة ستحول الصناعات وتحسن الحياة.

فهم دور خدمات Nvidia NIM Microservices

أحد المكونات المهمة للمبادرة المشتركة هو إدخال Nvidia NIM microservices. لفهم أهميتها، يجب أن ندرسها عن كثب.

التعريف والوظائف

Nvidia NIM (Nvidia Inference Microservice) هو حل برمجي مصمم لتبسيط نشر نماذج الذكاء الاصطناعي. إنّه يغلف النماذج المدربة مسبقاً ومحركات الاستنتاج والتبعيات الضرورية في خدمة صغيرة محتواة. يعني ذلك أن NIM يوفر طريقة قياسية لنشر نماذج الذكاء الاصطناعي، بغض النظر عن الإطار أو الأجهزة.

المزايا الرئيسية لـ Nvidia NIM:

  • النشر المبسّط: تقلل NIM بشكل كبير من تعقيد نشر نماذج الذكاء الاصطناعي، مما يسمح للمطورين بالتركيز على بناء التطبيقات بدلاً من إدارة البنية التحتية.
  • تسريع الأجهزة: تم تحسين NIM لوحدات معالجة الرسوميات Nvidia، باستخدام قدرات التسريع الخاصة بها لتقديم استنتاج عالي الأداء.
  • قابلية التوسع: تم تصميم NIM لتوسيع نطاقه أفقياً، مما يسمح للمطورين بالتعامل مع المطالب المتزايدة دون المساس بالأداء.
  • الوحدات النمطية: تتيح NIM الوحدات النمطية والتحديث السريع للنماذج المختلفة دون انقطاع النماذج الأخرى.

كيف تفيد NIM المطورين والمؤسسات:

  • وقت وصول أسرع إلى السوق: من خلال تبسيط النشر، تساعد NIM المطورين على طرح التطبيقات المدعومة بالذكاء الاصطناعي في السوق بشكل أسرع.
  • تقليل التكاليف: تقلل NIM من تكاليف البنية التحتية والتشغيل من خلال تحسين استخدام الموارد.
  • تحسين الأداء: يوفر تسريع الأجهزة من خلال NIM إنتاجية أعلى وزمن انتقال أقل، مما يحسن تجربة المستخدم.
  • زيادة المرونة: يوفر النشر القياسي مع NIM مرونة أكبر ويسمح للمطورين بالتبديل بسهولة بين نماذج الذكاء الاصطناعي المختلفة.

نقاط الاستنتاج

يشير التعاون الموسع بين Google Cloud و Nvidia إلى تقدم ملحوظ في تطوير الذكاء الاصطناعي. يضع دمج نماذج Gemini من Google مع وحدات معالجة الرسوميات Blackwell من Nvidia معايير جديدة لتحسين أعباء عمل الذكاء الاصطناعي. لا تسرع هذه الشراكة الابتكار فحسب، بل تعزز أيضاً الأمان وقابلية التوسع وإمكانية الوصول للمطورين والمؤسسات المشاركة في الذكاء الاصطناعي. بالإضافة إلى ذلك، يمثل إطلاق آلات A4 الافتراضية من Google و Nvidia’s NIM microservices لحظة محورية أخرى في تمكين تطبيقات الذكاء الاصطناعي، وتعزيز مستقبل يتم فيه نشر حلول الذكاء الاصطناعي بكفاءة وفعالية على نطاق أوسع.