تعزيز البحث العلمي بالذكاء الاصطناعي
تستعد Microsoft Discovery لدمج خدمة NVIDIA ALCHEMI NIM المصغرة. هذا التكامل ضروري لتحسين استنتاج الذكاء الاصطناعي لعمليات المحاكاة الكيميائية المعقدة، وبالتالي تسريع البحث في علم المواد بشكل كبير من خلال التنبؤ الدقيق بالخصائص والتوصية الفعالة بالمرشحين. يعد هذا التحسين بتبسيط تحديد المواد الجديدة ذات الخصائص المرغوبة، مما يقلل الوقت والموارد المطلوبة تقليديًا.
علاوة على ذلك، ستدمج Microsoft Discovery خدمات NVIDIA BioNeMo NIM المصغرة. تم تصميم هذه الخدمات المصغرة للاستفادة من مهام سير عمل الذكاء الاصطناعي المُدربة مسبقًا، مما يؤدي إلى تسريع عملية تطوير نموذج الذكاء الاصطناعي بشكل كبير لاكتشاف الأدوية. من خلال الاستفادة من هذه الأدوات، يمكن للباحثين تطوير وتحسين نماذج الذكاء الاصطناعي بسرعة تتنبأ بفعالية الدواء وآثاره الجانبية المحتملة، مما يؤدي إلى عمليات تطوير أدوية أكثر كفاءة واستهدافًا.
تم تصميم عمليات التكامل هذه بدقة لتمكين الباحثين بأداء متسارع، مما يقلل الوقت اللازم للاكتشافات العلمية. إنها تضمن قدرة الباحثين على التعامل مع مجموعات البيانات الضخمة والمحاكاة المعقدة بسرعة ودقة غير مسبوقتين، مما يمكنهم من معالجة بعض المشكلات الأكثر تحديًا في البحث العلمي.
تم عرض تطبيق عملي لهذه التطورات من قبل باحثي Microsoft. لقد نجحوا في استخدام Microsoft Discovery لتحديد نموذج أولي جديد للتبريد أظهر خصائص واعدة للتبريد الغامر في مراكز البيانات في أقل من 200 ساعة. هذا الجدول الزمني يتناقض بشكل صارخ مع الأشهر أو حتى السنوات التي تتطلبها عادةً الطرق التقليدية. أصبح التبريد الغامر، الذي يتضمن غمر المكونات الإلكترونية في مبرد سائل غير موصل، أمرًا حيويًا بشكل متزايد لإدارة الحرارة الناتجة عن أنظمة الحوسبة عالية الأداء.
وحدات معالجة الرسومات NVIDIA Blackwell في مراكز بيانات Azure
لتعزيز الأداء والكفاءة، تقوم Microsoft بسرعة بنشر مئات الآلاف من وحدات معالجة الرسومات NVIDIA Blackwell داخل مراكز بيانات Azure المحسنة للذكاء الاصطناعي في جميع أنحاء العالم. يتم دمج وحدات معالجة الرسومات هذه في أنظمة NVIDIA GB200 NVL72 ذات نطاق الرف، والمصممة للتعامل مع أحمال عمل الذكاء الاصطناعي الأكثر تطلبًا.
يقوم العديد من عملاء Microsoft الرئيسيين، بما في ذلك OpenAI، حاليًا بتشغيل أحمال عمل الإنتاج على هذه البنية التحتية المتقدمة. يتيح استخدام وحدات معالجة الرسومات NVIDIA Blackwell لهذه المؤسسات تنفيذ مهام الذكاء الاصطناعي المعقدة بشكل أكثر كفاءة وفعالية. يؤكد هذا النشر التزام Microsoft بتوفير قدرات الذكاء الاصطناعي المتطورة لعملائها.
تمثل الأجهزة الظاهرية Azure ND GB200 v6 قفزة كبيرة إلى الأمام في القوة الحسابية. إنها توفر ما يصل إلى 35 ضعفًا لإنتاجية الاستدلال مقارنة بالأجهزة الافتراضية ND H100 v5 السابقة. الأجهزة الافتراضية القديمة، التي يتم تسريعها بواسطة ثماني وحدات معالجة رسومات NVIDIA H100، تبدو الآن باهتة مقارنة بالأداء المحسن الذي يوفره الجيل الجديد، مما يمثل معيارًا جديدًا لأحمال عمل الذكاء الاصطناعي. يمكن لمستوى تحسين الأداء هذا أن يقلل بشكل كبير من الوقت والتكلفة المرتبطة بتشغيل نماذج الذكاء الاصطناعي واسعة النطاق.
يتم دعم هذا النطاق المثير للإعجاب والأداء العالي من خلال تصميمات الخوادم المخصصة ووصلات NVIDIA NVLink عالية السرعة وشبكات NVIDIA Quantum InfiniBand. تسهل هذه التقنيات التوسع السلس إلى آلاف وحدات معالجة الرسومات Blackwell، وهو أمر بالغ الأهمية للتعامل مع تطبيقات الذكاء الاصطناعي التوليدية والعاملية المتطلبة. تضمن الاتصال الداخلي المتطور اتصالاً منخفض الكمون بين وحدات معالجة الرسومات، مما يعزز أداء النظام بشكل عام.
أكد ساتيا ناديلا، رئيس مجلس الإدارة والرئيس التنفيذي لشركة Microsoft، وجينسن هوانغ، المؤسس والرئيس التنفيذي لشركة NVIDIA، أن تعاونهما ينتج مكاسب كبيرة في الأداء من خلال التحسينات المستمرة للبرامج عبر جميع معماريات NVIDIA على Azure. تم تصميم هذا النهج لزيادة إنتاجية المطورين وتقليل إجمالي تكلفة الملكية وتسريع جميع أحمال العمل، بما في ذلك الذكاء الاصطناعي ومعالجة البيانات. في النهاية، يؤدي هذا إلى كفاءة أكبر لكل دولار ولكل واط للعملاء.
توسيع القدرات مع تكامل NIM
بالاعتماد على تكامل NIM في Azure AI Foundry، تقوم Microsoft وNVIDIA بتوسيع النظام الأساسي مع عائلة NVIDIA Llama Nemotron لنماذج التفكير المفتوحة وخدمات NVIDIA BioNeMo NIM المصغرة. تم تصميم هذه الخدمات لتقديم استنتاج مُحاَوِل ومُحاَّدْثي على مستوى المؤسسة لاتخاذ القرارات المعقدة وأحمال عمل الذكاء الاصطناعي الخاصة بالمجال.
يمكن للمطورين الآن الاستفادة من خدمات NIM المصغرة المحسّنة للتفكير المتقدم داخل Azure AI Foundry. وتشمل هذه نماذج NVIDIA Llama Nemotron Super وNano، التي توفر تفكيرًا متعدد الخطوات متقدمًا، وقدرات الترميز والعامل. إنها توفر دقة أعلى بنسبة تصل إلى 20% واستدلال أسرع بخمس مرات مقارنة بالنماذج السابقة، مما يسمح للمطورين بإنشاء تطبيقات ذكاء اصطناعي أكثر تطورًا وكفاءة.
تعالج خدمات BioNeMo NIM المصغرة، المصممة خصيصًا لتطبيقات الرعاية الصحية، الاحتياجات الهامة في علم الأحياء الرقمي واكتشاف الأدوية والتصوير الطبي. إنها تمكن الباحثين والأطباء من تسريع علم البروتين، والنمذجة الجزيئية، وتحليل الجينوم، مما يؤدي إلى تحسين رعاية المرضى وتسريع الابتكار العلمي. تعمل هذه الأدوات على تمكين متخصصي الرعاية الصحية من اتخاذ قرارات أكثر استنارة وتطوير علاجات أكثر فعالية.
يسمح هذا التكامل الموسع للمؤسسات بنشر وكلاء الذكاء الاصطناعي عالي الأداء بسرعة. من خلال الاتصال بهذه النماذج وحلول الرعاية الصحية المتخصصة الأخرى، يمكن للمؤسسات تحقيق موثوقية قوية وتبسيط التوسع، وبالتالي تلبية الاحتياجات المتنوعة لمختلف الصناعات والتطبيقات.
الذكاء الاصطناعي التوليدي على أجهزة الكمبيوتر الشخصية RTX AI
يحدث الذكاء الاصطناعي التوليدي ثورة في برامج الكمبيوتر الشخصي من خلال تقديم تجارب جديدة تمامًا تتراوح من البشر الرقميين إلى مساعدي الكتابة والوكلاء الأذكياء والأدوات الإبداعية. تسهل أجهزة الكمبيوتر الشخصية NVIDIA RTX AI التجريب بالذكاء الاصطناعي التوليدي وتحسين الأداء على نظام التشغيل Windows 11، مما يجعل أحدث تقنيات الذكاء الاصطناعي في متناول جمهور أوسع.
في Microsoft Build، كشفت NVIDIA وMicrosoft عن مجموعة استدلال الذكاء الاصطناعي المصممة لتبسيط التطوير وتحسين أداء الاستدلال لأجهزة الكمبيوتر التي تعمل بنظام التشغيل Windows 11. هذه المجموعة من الأدوات ضرورية لتمكين تجربة ذكاء اصطناعي سلسة على أجهزة الكمبيوتر الشخصية، مما يجعل أدوات الذكاء الاصطناعي أكثر استجابة وكفاءة.
تمت إعادة تصميم NVIDIA TensorRT خصيصًا لأجهزة الكمبيوتر الشخصية RTX AI. فهو يجمع بين أداء TensorRT والإنشاء الفوري للمحرك على الجهاز وحجم حزمة أصغر ثماني مرات لنشر الذكاء الاصطناعي بسلاسة على أكثر من 100 مليون جهاز كمبيوتر RTX AI. يتيح هذا التحسين معالجة الذكاء الاصطناعي بشكل أسرع وأكثر كفاءة على أجهزة الكمبيوتر، مما يمهد الطريق لتطبيقات وقدرات جديدة.
تم الإعلان عنه في Microsoft Build، TensorRT لـ RTX مدعوم أصلاً من قبل Windows ML - وهي مجموعة استدلال جديدة توفر لمطوري التطبيقات توافقًا واسع النطاق للأجهزة وأحدث أداء. TensorRT لـ RTX متاح في معاينة Windows ML بدءًا من اليوم وسيكون متاحًا كمجموعة تطوير برامج مستقلة من NVIDIA Developer في يونيو. يعمل هذا التطوير على تبسيط العملية للمطورين الذين يتطلعون إلى دمج قدرات الذكاء الاصطناعي في تطبيقات Windows الخاصة بهم، مما يضمن إمكانية الوصول إلى الذكاء الاصطناعي لمجموعة واسعة من حلول البرامج.
باختصار، فإن التعاون بين NVIDIA وMicrosoft يخلق نظامًا بيئيًا تآزريًا حيث تُترجم التطورات في تكنولوجيا الذكاء الاصطناعي بسرعة إلى تطبيقات واقعية، مما يفيد الباحثين والمطورين والمستخدمين النهائيين على حدٍ سواء. يتم وضع هذه الشراكة استراتيجيًا للحفاظ على ريادتها في مجال الذكاء الاصطناعي سريع التطور.
تحليل مفصل للتطورات
التقنيات المتطورة
يستفيد التعاون بين NVIDIA وMicrosoft من العديد من التقنيات المتطورة لتحقيق تقدم في مجال الذكاء الاصطناعي العاملي. هنا نتعمق في هذه المكونات الرئيسية.
خدمة NVIDIA ALCHEMI NIM المصغرة: هذه الخدمة المصغرة هي أداة متخصصة مُحسّنة لاستنتاج الذكاء الاصطناعي في عمليات المحاكاة الكيميائية. وظيفتها الأساسية هي تسريع أبحاث علم المواد من خلال التنبؤ الدقيق بالخصائص والتوصية الفعالة بالمرشحين. من خلال تمكين عمليات محاكاة أسرع وأكثر دقة، فإنها تمكن الباحثين من تحديد المواد الواعدة بسرعة أكبر بكثير مما تسمح به الطرق التقليدية.
خدمات NVIDIA BioNeMo NIM المصغرة: توفر هذه الخدمات المصغرة مهام سير عمل الذكاء الاصطناعي المُدربة مسبقًا لتسريع تطوير نموذج الذكاء الاصطناعي لاكتشاف الأدوية. يمكن للباحثين استخدامها لتطوير نماذج بسرعة تتنبأ بفعالية الدواء وآثاره الجانبية المحتملة، مما يؤدي إلى تسريع تطوير الأدوية الجديدة بشكل كبير.
وحدات معالجة الرسومات NVIDIA Blackwell: توفر وحدات معالجة الرسومات هذه أداءً وكفاءة محسّنين في أحمال عمل الذكاء الاصطناعي داخل مراكز بيانات Azure. من خلال دمجها في أنظمة بحجم خزانة، فإنها تدعم عملاء مثل OpenAI في تشغيل المهام المعقدة بسلاسة وفعالية.
وصلات NVIDIA NVLink الداخلية: تعمل هذه الوصلات الداخلية عالية السرعة على ضمان اتصال منخفض الاستجابة بين وحدات معالجة الرسومات، مما يعزز أداء النظام بشكل عام بشكل كبير. والنتيجة هي حساب أسرع وكفاءة محسّنة عبر عمليات الذكاء الاصطناعي المختلفة.
شبكة NVIDIA Quantum InfiniBand: تدعم هذه الشبكة التوسع السلس إلى آلاف وحدات معالجة الرسومات Blackwell، مما يجعلها ضرورية للتعامل مع أحمال عمل الذكاء الاصطناعي التوليدية والعاملية المتطلبة. تضمن إمكانات الشبكات إمكانية نشر نماذج الذكاء الاصطناعي واسعة النطاق وإدارتها بفعالية.
نماذج NVIDIA Llama Nemotron: تم تصميم نماذج NVIDIA Llama Nemotron Super وNano لتوفير تفكيرًا متعدد الخطوات متقدمًا وقدرات الترميز والعامل. تتيح الدقة المحسّنة وسرعات الاستدلال الأسرع للمطورين إنشاء تطبيقات ذكاء اصطناعي أكثر تطورًا وكفاءة.
التأثير على البحث العلمي
إن دمج تقنيات NVIDIA في منصات Microsoft له آثار عميقة على البحث العلمي عبر تخصصات متعددة.
علم المواد: تساعد خدمة NVIDIA ALCHEMI NIM المصغرة في التنبؤ الدقيق بالخصائص والتوصية بالمرشحين، مما يتيح تحديدًا أسرع للمواد الجديدة ذات الخصائص المرغوبة.
اكتشاف الأدوية: تعمل خدمات BioNeMo NIM المصغرة على تسريع تطوير نموذج الذكاء الاصطناعي، مما يمكّن الباحثين من تطوير نماذج تتنبأ بفعالية الدواء وآثاره الجانبية المحتملة.
تبريد مركز البيانات: استخدمت Microsoft اكتشاف Microsoft لاكتشاف نموذج أولي جديد للمبرد مثالي للتبريد الغامر في مراكز البيانات في أقل من 200 ساعة بدلاً من أشهر أو سنوات بالطرق التقليدية. هذا يسلط الضوء على التسارع السريع للاكتشافات العلمية.
علم البروتين والنمذجة الجزيئية وتحليل الجينوم: تمكّن خدمات BioNeMo NIM المصغرة من التسريع في هذه المجالات. إنها تؤدي إلى تحسين رعاية المرضى وتسريع الابتكار العلمي.
البنية التحتية للذكاء الاصطناعي في Azure
يمثل Azure AI Foundry من Microsoft ومراكز البيانات الخاصة بها استثمارات كبيرة في إنشاء بيئة مثالية لتشغيل أحمال عمل الذكاء الاصطناعي.
الأجهزة الظاهرية ND GB200 v6: توفر ما يصل إلى 35 ضعفًا لإنتاجية الاستدلال مقارنة بالأجهزة الافتراضية ND H100 v5 السابقة، مما يضع معيارًا جديدًا لأحمال عمل الذكاء الاصطناعي.
تصميمات الخوادم المخصصة: تم تطوير تصميمات الخوادم المخصصة لزيادة الأداء والكفاءة إلى الحد الأقصى، مما يسمح لوحدات معالجة الرسومات Blackwell بالعمل بكامل إمكاناتها.
تحسينات NVIDIA على Azure: تعمل التحسينات المستمرة للبرامج عبر جميع Architectures NVIDIA على Azure على زيادة إنتاجية المطورين إلى الحد الأقصى، وخفض إجمالي تكلفة الملكية، وتسريع جميع أحمال العمل، مما يعزز الكفاءة لكل دولار ولكل واط للعملاء.
الذكاء الاصطناعي التوليدي على أجهزة الكمبيوتر الشخصية
تجد التطورات في تكنولوجيا الذكاء الاصطناعي طريقها أيضًا إلى أجهزة الكمبيوتر الشخصية، مما يؤدي إلى إمكانيات جديدة لتطبيقات البرامج وتجارب المستخدم.
أجهزة الكمبيوتر الشخصية NVIDIA RTX AI: يتم تسهيل التجريب المبسط بالذكاء الاصطناعي التوليدي وتحسين الأداء على نظام التشغيل Windows 11 بواسطة أجهزة الكمبيوتر الشخصية NVIDIA RTX AI. إنها تجعل أحدث تقنيات الذكاء الاصطناعي في متناول جمهور أوسع.
NVIDIA TensorRT: تم تحسين مجموعة تطوير البرامج (SDK) هذه لأجهزة الكمبيوتر الشخصية RTX AI. فهو يجمع بين الأداء العالي وحجم حزمة أصغر بثماني مرات لنشر الذكاء الاصطناعي بسلاسة. وهذا يجعل من السهل على المطورين دمج ميزات الذكاء الاصطناعي في التطبيق.
دعم Windows ML: يضمن الدعم الأصلي لـ TensorRT في Windows ML توافقًا واسع النطاق للأجهزة وأحدث أداء. هذا يسهل التكامل السلس للذكاء الاصطناعي في تطبيقات Windows.
تجارب مستخدم جديدة: من البشر الرقميين إلى مساعدي الكتابة والوكلاء الأذكياء والأدوات الإبداعية - يعيد الذكاء الاصطناعي التوليدي تشكيل برامج الكمبيوتر الشخصي وتقديم تجارب جديدة تمامًا. يمكن للمستخدمين الاستفادة من تطبيقات أكثر تفاعلية وذكية وإبداعًا.
الرؤية الاستراتيجية
إن التعاون بين NVIDIA وMicrosoft مبني على رؤية استراتيجية تهدف إلى قيادة تطوير تكنولوجيا الذكاء الاصطناعي عبر مختلف القطاعات. تم تصميم الجهود التقنية والتقنيات التعاونية لتسريع اعتماد الذكاء الاصطناعي عبر مجالات مختلفة، مما يفيد ليس فقط الباحثين والمطورين، ولكن أيضًا المستخدمين النهائيين والمؤسسات في جميع أنحاء العالم.
الابتكار: التركيز المستمر على الابتكار والتعاون يسرع التقدم التكنولوجي. هذا يساعد في الحفاظ على الريادة في مجال سريع التطور.
إمكانية الوصول: تعمل NVIDIA وMicrosoft على إضفاء الطابع الديمقراطي على الذكاء الاصطناعي من خلال جعله في متناول المطورين والمستخدمين من خلال الأدوات المحسّنة والاندماج مع المنصات الشائعة والتحسينات في فعالية التكلفة.
الأداء والكفاءة: يضمن التركيز على تعزيز كل من الأداء وفعالية التكلفة أن فوائد تقنيات الذكاء الاصطناعي متاحة لمجموعة واسعة من المستخدمين، من الباحثين الأفراد إلى المؤسسات الكبيرة.
تطبيقات واقعية: من خلال ترجمة تطورات الذكاء الاصطناعي إلى حلول واقعية