قفزة Nvidia: نماذج استدلال للذكاء الاصطناعي

في مؤتمر GTC 2025، أشارت Nvidia إلى توجه كبير نحو مجال الذكاء الاصطناعي الوكيل (agentic artificial intelligence). لا تركز الشركة فقط على البنية التحتية الأساسية التي تدعم هذه الأنظمة؛ بل تقوم أيضًا بتطوير النماذج التي ستقود الجيل التالي من وكلاء الذكاء الاصطناعي المستقلين.

صعود Llama Nemotron: استدلال معزز لذكاء اصطناعي أكثر ذكاءً

محور استراتيجية Nvidia هو الكشف عن عائلة نماذج الذكاء الاصطناعي Llama Nemotron. تتميز هذه النماذج بقدرات استدلال محسنة بشكل كبير، مما يمثل خطوة إلى الأمام في السعي نحو ذكاء اصطناعي أكثر تطوراً. تم بناء سلسلة Nemotron على نماذج Llama مفتوحة المصدر من Meta Platforms Inc.، وهي مصممة لتزويد المطورين بأساس قوي لإنشاء وكلاء ذكاء اصطناعي متقدمين. يُتصور أن هؤلاء الوكلاء يؤدون المهام بأقل قدر من الإشراف البشري، مما يمثل تقدمًا كبيرًا في استقلالية الذكاء الاصطناعي.

حققت Nvidia هذه التحسينات من خلال تحسينات دقيقة بعد التدريب. فكر في الأمر على أنه أخذ طالب ماهر بالفعل وتزويده بدروس خصوصية متخصصة. ركزت هذه ‘الدروس الخصوصية’ على تعزيز قدرات النماذج في الرياضيات متعددة الخطوات، والترميز، واتخاذ القرارات المعقدة، والاستدلال العام. والنتيجة، وفقًا لـ Nvidia، هي زيادة بنسبة 20٪ في الدقة مقارنة بنماذج Llama الأصلية. لكن التحسينات لا تتوقف عند الدقة. شهدت سرعة الاستدلال – وهي بشكل أساسي مدى سرعة معالجة النموذج للمعلومات وتقديم إجابة – زيادة بمقدار خمسة أضعاف. يترجم هذا إلى التعامل مع مهام أكثر تعقيدًا مع تقليل تكاليف التشغيل، وهو عامل حاسم للنشر في العالم الحقيقي.

يتم تقديم نماذج Llama Nemotron بثلاثة أحجام متميزة من خلال منصة الخدمات المصغرة NIM من Nvidia:

  • Nano: مصمم للنشر على الأجهزة ذات القدرة الحاسوبية المحدودة، مثل أجهزة الكمبيوتر الشخصية والأجهزة الطرفية. يفتح هذا إمكانيات لوكلاء الذكاء الاصطناعي للعمل في بيئات محدودة الموارد.
  • Super: مُحسّن للتنفيذ على وحدة معالجة رسومات واحدة (GPU). يوفر هذا توازنًا بين الأداء ومتطلبات الموارد.
  • Ultra: مصمم لتحقيق أقصى أداء، ويتطلب خوادم GPU متعددة. يلبي هذا التطبيقات التي تتطلب أعلى مستويات قدرة الذكاء الاصطناعي.

استفادت عملية التحسين نفسها من منصة Nvidia DGX Cloud، باستخدام بيانات تركيبية عالية الجودة من Nvidia Nemotron، جنبًا إلى جنب مع مجموعات البيانات المنسقة الخاصة بـ Nvidia. في خطوة تعزز الشفافية والتعاون، تجعل Nvidia مجموعات البيانات هذه، والأدوات المستخدمة، وتفاصيل تقنيات التحسين الخاصة بها متاحة للجمهور. يشجع هذا النهج المفتوح مجتمع الذكاء الاصطناعي الأوسع على البناء على عمل Nvidia وتطوير نماذج الاستدلال التأسيسية الخاصة بهم.

يتضح تأثير Llama Nemotron بالفعل في الشراكات التي عقدتها Nvidia. يدمج اللاعبون الرئيسيون مثل Microsoft Corp. هذه النماذج في خدماتهم القائمة على السحابة.

  • تجعلها Microsoft متاحة في خدمة Azure AI Foundry الخاصة بها.
  • سيتم تقديمها أيضًا كخيار للعملاء الذين يقومون بإنشاء وكلاء جدد باستخدام خدمة Azure AI Agent لـ Microsoft 365.
  • تستفيد SAP SE من Llama Nemotron لتحسين مساعد الذكاء الاصطناعي الخاص بها، Joule، ومحفظة حلول SAP Business AI الأوسع.
  • تتعاون شركات بارزة أخرى، بما في ذلك Accenture Plc و Atlassian Corp. و Box Inc. و ServiceNow Inc.، مع Nvidia لتزويد عملائها بإمكانية الوصول إلى هذه النماذج.

ما وراء النماذج: نظام بيئي شامل للذكاء الاصطناعي الوكيل

تدرك Nvidia أن بناء وكلاء الذكاء الاصطناعي يتطلب أكثر من مجرد نماذج لغوية قوية. هناك حاجة إلى نظام بيئي كامل، يشمل البنية التحتية، والأدوات، ومسارات البيانات، والمزيد. تعالج الشركة هذه الاحتياجات من خلال مجموعة من اللبنات الأساسية الإضافية للذكاء الاصطناعي الوكيل، والتي تم الإعلان عنها أيضًا في GTC 2025.

مخطط Nvidia AI-Q: ربط المعرفة بالعمل

تم تصميم هذا الإطار لتسهيل الاتصال بين قواعد المعرفة ووكلاء الذكاء الاصطناعي، مما يمكنهم من التصرف بشكل مستقل. تم بناء المخطط باستخدام خدمات Nvidia NIM المصغرة ودمجه مع Nvidia NeMo Retriever، وهو يبسط عملية استرداد البيانات متعددة الوسائط – المعلومات بتنسيقات مختلفة مثل النصوص والصور والصوت – لوكلاء الذكاء الاصطناعي.

منصة بيانات Nvidia AI: تحسين تدفق البيانات للاستدلال

يتم توفير هذا التصميم المرجعي القابل للتخصيص لموفري التخزين الرئيسيين. الهدف هو مساعدة شركات مثل Dell Technologies Inc. و Hewlett Packard Enterprise Co. و Hitachi Vantara و IBM Corp. و NetApp Inc.. Nutanix Inc. و Vast Data Inc. و Pure Storage Inc. في تطوير منصات بيانات أكثر كفاءة خصيصًا لأعباء عمل الاستدلال للذكاء الاصطناعي الوكيل. من خلال الجمع بين موارد التخزين المحسّنة وأجهزة الحوسبة المتسارعة من Nvidia، يمكن للمطورين توقع مكاسب كبيرة في الأداء في استدلال الذكاء الاصطناعي. يتم تحقيق ذلك من خلال ضمان تدفق سلس وسريع للمعلومات من قاعدة البيانات إلى نموذج الذكاء الاصطناعي.

خدمات Nvidia NIM المصغرة المحسّنة: التعلم المستمر والقدرة على التكيف

تم تحديث خدمات Nvidia NIM المصغرة لتحسين استدلال الذكاء الاصطناعي الوكيل، ودعم التعلم المستمر والقدرة على التكيف. تمكن هذه الخدمات المصغرة العملاء من نشر أحدث وأقوى نماذج الذكاء الاصطناعي الوكيل بشكل موثوق، بما في ذلك Llama Nemotron من Nvidia والبدائل من شركات مثل Meta و Microsoft و Mistral AI.

خدمات Nvidia NeMo المصغرة: بناء حلقات بيانات قوية

تعمل Nvidia أيضًا على تحسين خدمات NeMo المصغرة الخاصة بها، والتي توفر إطارًا للمطورين لإنشاء حلقات بيانات قوية وفعالة. يعد هذا أمرًا بالغ الأهمية لضمان قدرة وكلاء الذكاء الاصطناعي على التعلم والتحسين المستمر بناءً على كل من التعليقات التي ينشئها الإنسان والتعليقات التي ينشئها الذكاء الاصطناعي.

الشراكات الاستراتيجية: دفع الابتكار عبر مشهد الذكاء الاصطناعي

يمتد التزام Nvidia بالذكاء الاصطناعي الوكيل إلى تعاونها مع قادة الصناعة الآخرين.

توسيع الشراكة مع Oracle: الذكاء الاصطناعي الوكيل على Oracle Cloud Infrastructure

تعمل Nvidia على توسيع تعاونها مع Oracle Corp. لجلب إمكانات الذكاء الاصطناعي الوكيل إلى Oracle Cloud Infrastructure (OCI). تتضمن هذه الشراكة دمج وحدات معالجة الرسومات المتسارعة وبرامج الاستدلال من Nvidia في البنية التحتية السحابية لـ Oracle، مما يجعلها متوافقة مع خدمات الذكاء الاصطناعي التوليدية من Oracle. سيؤدي هذا إلى تسريع تطوير وكلاء الذكاء الاصطناعي على OCI. تقدم Nvidia الآن أكثر من 160 أداة ذكاء اصطناعي وخدمات NIM مصغرة محليًا من خلال وحدة تحكم OCI. تعمل الشركتان أيضًا على تسريع البحث المتجه على منصة Oracle Database 23ai.

تعميق التعاون مع Google: تعزيز الوصول إلى الذكاء الاصطناعي وسلامته

قدمت Nvidia أيضًا تحديثات حول تعاونها الموسع مع Google LLC، وكشفت عن العديد من المبادرات التي تهدف إلى تحسين الوصول إلى الذكاء الاصطناعي وأدواته الأساسية.

من أبرز النقاط أن Nvidia أصبحت أول منظمة تستفيد من SynthID من Google DeepMind. تقوم هذه التقنية بتضمين علامات مائية رقمية مباشرة في المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، بما في ذلك الصور والفيديو والنصوص. يساعد هذا في الحفاظ على سلامة مخرجات الذكاء الاصطناعي ومكافحة المعلومات المضللة. يتم دمج SynthID في البداية مع نماذج Cosmos World الأساسية من Nvidia.

بالإضافة إلى ذلك، تعاونت Nvidia مع باحثي Google DeepMind لتحسين Gemma، وهي عائلة من نماذج الذكاء الاصطناعي مفتوحة المصدر وخفيفة الوزن، لوحدات معالجة الرسومات Nvidia. تتعاون الشركتان أيضًا في مبادرة لبناء روبوتات تعمل بالذكاء الاصطناعي بمهارات الإمساك، من بين مشاريع أخرى.

يعالج التعاون بين باحثي ومهندسي Google و Nvidia مجموعة واسعة من التحديات. من اكتشاف الأدوية إلى الروبوتات، مما يسلط الضوء على الإمكانات التحويلية.