إنفيديا تكشف عن خدمات NeMo المصغرة

حقبة جديدة في تطوير وكلاء الذكاء الاصطناعي: Nvidia تطلق NeMo Microservices

أعلنت شركة Nvidia Corp. رسميًا عن إطلاق NeMo microservices، وهي مجموعة شاملة من الأدوات المصممة بدقة لتمكين المطورين من تسريع نشر وكلاء الذكاء الاصطناعي المتطورة. تم تصميم هذه الخدمات المصغرة لتسخير قوة استدلال الذكاء الاصطناعي وأنظمة المعلومات على نطاق واسع، مما يمثل قفزة كبيرة إلى الأمام في عالم الأتمتة والإنتاجية المدفوعة بالذكاء الاصطناعي.

صعود وكلاء الذكاء الاصطناعي: زملاء رقميون في القوى العاملة الحديثة

تظهر وكلاء الذكاء الاصطناعي بسرعة كأصول لا غنى عنها في القوى العاملة الحديثة، وعلى استعداد لإحداث ثورة في كيفية عمل العاملين في المعرفة والخدمات. تم تصميم هؤلاء الزملاء الرقميين للاندماج بسلاسة في سير العمل الحالية، وقادرين على تنفيذ مجموعة واسعة من المهام، بما في ذلك:

  • معالجة الطلبات: إدارة ومعالجة طلبات العملاء بكفاءة، وتبسيط العمليات وتقليل التدخل اليدوي.
  • اكتشاف المعلومات: تحديد واسترجاع المعلومات ذات الصلة بسرعة من مجموعات البيانات الضخمة، وتمكين اتخاذ القرارات المستندة إلى البيانات والرؤى.
  • تنفيذ المهام الاستباقية: توقع ومعالجة المشكلات أو الفرص المحتملة بشكل استباقي، وتعزيز الكفاءة التشغيلية الشاملة والمرونة.

على عكس روبوتات الدردشة التقليدية التي تعمل بالذكاء الاصطناعي، يتمتع وكلاء الذكاء الاصطناعي بالقدرة الفريدة على تنفيذ إجراءات مستقلة بأقل قدر من الإشراف البشري. يتطلب هذا المستوى من الاستقلالية إمكانات قوية لمعالجة البيانات لضمان اتخاذ قرارات دقيقة وفعالة. يعتمد الوكلاء على دفق مستمر من البيانات لإبلاغ منطقهم، والذي قد يكون صعبًا بشكل خاص عند التعامل مع المعرفة الاحتكارية أو المعلومات المتغيرة بسرعة في الوقت الفعلي.

معالجة تحدي البيانات: ضمان دقة وموثوقية الوكيل

أحد التحديات الحاسمة في تطوير ونشر وكلاء الذكاء الاصطناعي هو ضمان تدفق مستمر من البيانات عالية الجودة. بدون الوصول إلى المعلومات ذات الصلة والمحدثة من مصادر مختلفة، يمكن أن يتدهور فهم الوكيل، مما يؤدي إلى استجابات غير موثوقة وتقليل الإنتاجية. هذا صحيح بشكل خاص عندما يحتاج الوكلاء إلى الوصول إلى المعرفة الاحتكارية المخزنة خلف جدران حماية الشركة أو استخدام معلومات متغيرة بسرعة في الوقت الفعلي.

أكد جوي كونواي، المدير الأول لبرامج الذكاء الاصطناعي التوليدي للمؤسسات في Nvidia، على أهمية جودة البيانات، قائلاً: ‘بدون دفق مستمر من المدخلات عالية الجودة - من قواعد البيانات أو تفاعلات المستخدم أو إشارات العالم الحقيقي - يمكن أن يضعف فهم الوكيل، مما يجعل الاستجابات أقل موثوقية، مما يجعل الوكلاء أقل إنتاجية.’

NeMo Microservices: مجموعة أدوات شاملة لتطوير وكلاء الذكاء الاصطناعي

لمعالجة هذه التحديات وتسريع تطوير ونشر وكلاء الذكاء الاصطناعي، تقدم Nvidia NeMo microservices. تتضمن هذه المجموعة من الأدوات خمسة مكونات رئيسية:

  1. Customizer (المخصص): يسهل الضبط الدقيق لنماذج اللغة الكبيرة (LLMs)، مما يوفر إنتاجية تدريب أعلى تصل إلى 1.8 مرة. يتيح ذلك للمطورين تكييف النماذج بسرعة مع مجموعات بيانات محددة، وتحسين الأداء والدقة. يوفر Customizer واجهة برمجة تطبيقات (API) تمكن المطورين من تنظيم النماذج بكفاءة قبل النشر.

  2. Evaluator (المقيِّم): يبسط تقييم نماذج الذكاء الاصطناعي وسير العمل بناءً على المعايير المخصصة والصناعية. من خلال خمس مكالمات API فقط، يمكن للمطورين تقييم أداء حلول الذكاء الاصطناعي الخاصة بهم بشكل شامل، مما يضمن استيفائها للمعايير المطلوبة.

  3. Guardrails (الحواجز الواقية): تعمل كشبكة أمان، وتمنع نماذج أو وكلاء الذكاء الاصطناعي من التصرف بطرق غير آمنة أو خارج الحدود. يضمن هذا الامتثال والسلوك الأخلاقي، مع إضافة نصف ثانية فقط من الكمون مع توفير كفاءة تبلغ 1.4x.

  4. Retriever (المسترجع): يمكّن المطورين من إنشاء وكلاء يمكنهم استخراج البيانات من أنظمة مختلفة ومعالجتها بدقة. يتيح ذلك إنشاء خطوط أنابيب بيانات معقدة للذكاء الاصطناعي، مثل التوليد المعزز بالاسترجاع (RAG)، مما يعزز قدرة الوكيل على الوصول إلى المعلومات ذات الصلة واستخدامها.

  5. Curator (المنظم): يمكّن المطورين من تصفية وتنقية البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي، وتحسين دقة النموذج وتقليل التحيز. من خلال ضمان استخدام بيانات عالية الجودة فقط، يساعد Curator في إنشاء وكلاء ذكاء اصطناعي أكثر موثوقية وفعالية.

وفقًا لـ Conway، ‘NeMo microservices سهلة التشغيل ويمكن تشغيلها على أي بنية أساسية للحوسبة المتسارعة، سواء في أماكن العمل أو السحابة، مع توفير أمان واستقرار ودعم على مستوى المؤسسات.’

إضفاء الطابع الديمقراطي على تطوير وكلاء الذكاء الاصطناعي: إمكانية الوصول للجميع

صممت Nvidia أدوات NeMo مع وضع إمكانية الوصول في الاعتبار، مما يضمن أن المطورين ذوي المعرفة العامة بالذكاء الاصطناعي يمكنهم الاستفادة منها من خلال مكالمات API بسيطة. يمكّن هذا الإضفاء الديمقراطي على تطوير وكلاء الذكاء الاصطناعي المؤسسات من بناء أنظمة معقدة متعددة الوكلاء، حيث يتعاون المئات من الوكلاء المتخصصين لتحقيق أهداف موحدة أثناء العمل جنبًا إلى جنب مع الزملاء البشريين.

دعم واسع للنماذج: احتضان نظام الذكاء الاصطناعي المفتوح

تفتخر NeMo microservices بدعم واسع لمجموعة واسعة من نماذج الذكاء الاصطناعي المفتوحة الشائعة، بما في ذلك:

  • عائلة نماذج Llama من Meta Platforms Inc.
  • عائلة Microsoft Phi من نماذج اللغة الصغيرة
  • نماذج Gemma من Google LLC
  • نماذج Mistral

علاوة على ذلك، فإن Llama Nemotron Ultra من Nvidia، المعترف بها كنموذج مفتوح رائد للاستدلال العلمي والترميز ومعايير الرياضيات المعقدة، يمكن الوصول إليها أيضًا من خلال الخدمات المصغرة.

تبني الصناعة: نظام بيئي متنامي من الشركاء

قام العديد من مزودي خدمات الذكاء الاصطناعي الرائدين بدمج NeMo microservices بالفعل في منصاتهم، بما في ذلك:

  • Cloudera Inc.
  • Datadog Inc.
  • Dataiku
  • DataRobot Inc.
  • DataStax Inc.
  • SuperAnnotate AI Inc.
  • Weights & Biases Inc.

يؤكد هذا التبني الواسع النطاق على قيمة وتنوع NeMo microservices في النظام البيئي للذكاء الاصطناعي. يمكن للمطورين البدء فورًا في استخدام هذه الخدمات المصغرة من خلال أطر عمل الذكاء الاصطناعي الشائعة مثل CrewAI و Haystack by Deepset و LangChain و LlamaIndex و Llamastack.

تطبيقات واقعية: دفع قيمة الأعمال

يستفيد شركاء Nvidia وشركات التكنولوجيا بالفعل من NeMo microservices الجديدة لبناء منصات وكلاء ذكاء اصطناعي مبتكرة وضم زملاء رقميين، مما يؤدي إلى قيمة ملموسة للأعمال.

  • AT&T Inc.: استخدمت NeMo Customizer و Evaluator لضبط نموذج Mistral 7B للخدمات الشخصية ومنع الاحتيال وتحسين أداء الشبكة، مما أدى إلى زيادة دقة وكيل الذكاء الاصطناعي.

  • BlackRock Inc.: تقوم بدمج الخدمات المصغرة في منصة Aladdin التقنية الخاصة بها لتوحيد إدارة الاستثمار من خلال لغة بيانات مشتركة، مما يعزز الكفاءة وقدرات اتخاذ القرار.

نظرة متعمقة على مكونات NeMo Microservices

لتقدير الإمكانات التحويلية لـ NeMo microservices بشكل كامل، من الضروري التعمق في كل مكون:

Customizer: تخصيص LLMs لمهام محددة

تعد خدمة Customizer microservice بمثابة تغيير لقواعد اللعبة للمؤسسات التي تسعى إلى تكييف نماذج اللغة الكبيرة (LLMs) لتلبية احتياجاتها الخاصة. يعالج تحدي نماذج LLMs ذات الأغراض العامة التي ليست دائمًا مناسبة تمامًا للتطبيقات المتخصصة أو مجموعات البيانات الاحتكارية.

الميزات الرئيسية:

  • إمكانات الضبط الدقيق: تمكن المطورين من ضبط LLMs باستخدام بياناتهم الخاصة، وتكييف معرفة النموذج وسلوكه مع مهام محددة.
  • زيادة إنتاجية التدريب: يوفر إنتاجية تدريب أعلى تصل إلى 1.8 مرة مقارنة بطرق الضبط الدقيق التقليدية، مما يسرع عملية تخصيص النموذج.
  • واجهة تعتمد على API: يوفر واجهة برمجة تطبيقات (API) سهلة الاستخدام تسمح للمطورين بتنظيم النماذج بسرعة، مما يضمن تحسينها للنشر.

الفوائد:

  • تحسين الدقة: يؤدي الضبط الدقيق لـ LLMs ببيانات ذات صلة إلى تحسين الدقة والأداء بشكل كبير في تطبيقات معينة.
  • تقليل وقت التطوير: تعمل إنتاجية التدريب المتسارعة وواجهة برمجة التطبيقات المبسطة على تقليل الوقت اللازم لتخصيص النماذج.
  • تعزيز الكفاءة: تؤدي النماذج المحسنة إلى وكلاء ذكاء اصطناعي أكثر كفاءة، وقادرين على تقديم نتائج أفضل بموارد أقل.

Evaluator: تقييم أداء النموذج بثقة

تم تصميم خدمة Evaluator microservice لتبسيط العملية المعقدة غالبًا لتقييم أداء نموذج الذكاء الاصطناعي. يوفر إطارًا موحدًا لتقييم النماذج مقابل المعايير المخصصة والصناعية، مما يضمن استيفائها للمعايير المطلوبة.

الميزات الرئيسية:

  • تقييم مبسط: يسمح للمطورين بتقييم نماذج وسير عمل الذكاء الاصطناعي بخمس مكالمات API فقط، مما يبسط عملية التقييم.
  • المعايير المخصصة والصناعية: يدعم كلاً من المعايير المخصصة المصممة خصيصًا لتطبيقات معينة والمعايير الصناعية القياسية للمقارنات الأوسع.
  • إعداد تقارير شامل: ينشئ تقارير مفصلة عن أداء النموذج، مما يوفر رؤى حول مجالات التحسين.

الفوائد:

  • اتخاذ قرارات مستندة إلى البيانات: يوفر بيانات موضوعية لإبلاغ القرارات المتعلقة باختيار النموذج والتدريب والنشر.
  • تحسين جودة النموذج: يحدد مجالات التحسين، مما يؤدي إلى نماذج ذكاء اصطناعي ذات جودة أعلى وأكثر موثوقية.
  • تقليل المخاطر: يضمن استيفاء النماذج لمتطلبات الأداء قبل النشر، مما يقلل من خطر حدوث مشكلات غير متوقعة.

Guardrails: ضمان سلوك الذكاء الاصطناعي الآمن والأخلاقي

تعد خدمة Guardrails microservice مكونًا مهمًا لضمان أن نماذج الذكاء الاصطناعي تتصرف بطريقة آمنة وأخلاقية ومتوافقة. إنه يعمل كنظام مراقبة في الوقت الفعلي، ويمنع النماذج من إنشاء محتوى غير لائق أو ضار.

الميزات الرئيسية:

  • مراقبة في الوقت الفعلي: يراقب باستمرار مخرجات النموذج، ويحدد ويحظر المحتوى الذي يحتمل أن يكون ضارًا.
  • قواعد قابلة للتخصيص: يسمح للمطورين بتحديد قواعد وسياسات مخصصة لتتوافق مع متطلباتهم الأخلاقية ومتطلبات الامتثال المحددة.
  • الكفاءة والكمون المنخفض: يوفر امتثالاً إضافيًا بكفاءة تبلغ 1.4x ونصف ثانية فقط من الكمون الإضافي، مما يقلل من التأثير على الأداء.

الفوائد:

  • تقليل خطر الضرر: يمنع النماذج من إنشاء محتوى قد يكون ضارًا أو مسيئًا أو تمييزيًا.
  • ضمان الامتثال: يساعد المؤسسات على الامتثال للوائح ذات الصلة والمبادئ التوجيهية الأخلاقية.
  • تحسين السمعة: يوضح الالتزام بتطوير الذكاء الاصطناعي المسؤول، وتعزيز الثقة والسمعة.

Retriever: إطلاق العنان لقوة الوصول إلى البيانات

تمكّن خدمة Retriever microservice وكلاء الذكاء الاصطناعي من الوصول إلى البيانات ومعالجتها من مجموعة واسعة من المصادر، مما يمكنهم من اتخاذ قرارات أكثر استنارة وتقديم استجابات أكثر دقة.

الميزات الرئيسية:

  • استخراج البيانات: يسمح للوكلاء باستخراج البيانات من أنظمة مختلفة، بما في ذلك قواعد البيانات وواجهات برمجة التطبيقات والمستندات غير المنظمة.
  • معالجة البيانات: يمكّن الوكلاء من معالجة وتحويل البيانات إلى تنسيق مناسب للتحليل واتخاذ القرار.
  • التوليد المعزز بالاسترجاع (RAG): يدعم إنشاء خطوط أنابيب بيانات معقدة للذكاء الاصطناعي، مثل RAG، مما يعزز قدرة الوكيل على الوصول إلى المعلومات ذات الصلة واستخدامها.

الفوائد:

  • تحسين الدقة: يؤدي الوصول إلى مجموعة واسعة من مصادر البيانات إلى اتخاذ قرارات أكثر دقة واستنارة.
  • تعزيز السياق: يوفر للوكلاء فهمًا أعمق للسياق المحيط باستعلامات المستخدم، مما يتيح استجابات أكثر صلة.
  • زيادة الكفاءة: يعمل على أتمتة عملية استخراج البيانات ومعالجتها، مما يحرر الموارد البشرية لمهام أكثر استراتيجية.

Curator: تنقية البيانات لتدريب النموذج الأمثل

تلعب خدمة Curator microservice دورًا حيويًا في ضمان تدريب نماذج الذكاء الاصطناعي على بيانات عالية الجودة وغير متحيزة. يمكّن المطورين من تصفية البيانات وتنقيحها، وإزالة المعلومات غير ذات الصلة أو الضارة وتقليل خطر التحيز في النماذج الناتجة.

الميزات الرئيسية:

  • تصفية البيانات: يسمح للمطورين بتصفية البيانات بناءً على معايير مختلفة، مثل المحتوى والمصدر والأهمية.
  • اكتشاف التحيز: يحدد ويخفف من التحيزات المحتملة في البيانات، مما يضمن العدالة والمساواة في نتائج النموذج.
  • إثراء البيانات: يمكّن المطورين من إثراء البيانات بمعلومات إضافية، وتحسين دقة واكتمال مجموعة بيانات التدريب.

الفوائد:

  • تحسين دقة النموذج: يؤدي التدريب على بيانات عالية الجودة إلى نماذج ذكاء اصطناعي أكثر دقة وموثوقية.
  • تقليل التحيز: يضمن تخفيف التحيز في البيانات العدالة والمساواة في نتائج النموذج.
  • تعزيز الثقة: يعزز بناء النماذج على بيانات غير متحيزة الثقة في نظام الذكاء الاصطناعي وقراراته.

خاتمة: حقبة جديدة من الأتمتة المدعومة بالذكاء الاصطناعي

تمثل NeMo microservices من Nvidia تقدمًا كبيرًا في مجال تطوير وكلاء الذكاء الاصطناعي. من خلال توفير مجموعة شاملة من الأدوات التي تعالج التحديات الرئيسية المتمثلة في الوصول إلى البيانات وتخصيص النموذج والسلوك الأخلاقي، تمكن Nvidia المطورين من بناء حلول ذكاء اصطناعي مبتكرة تدفع قيمة ملموسة للأعمال. مع تبني المزيد من المؤسسات لوكلاء الذكاء الاصطناعي، ستلعب NeMo microservices بلا شك دورًا محوريًا في تشكيل مستقبل العمل والأتمتة.