جهش انویدیا: مدل‌ها و بلوک‌های هوش مصنوعی

ظهور Llama Nemotron: استدلال پیشرفته برای هوش مصنوعی هوشمندتر

در مرکز استراتژی انویدیا، رونمایی از خانواده مدل‌های هوش مصنوعی Llama Nemotron قرار دارد. این مدل‌ها از قابلیت‌های استدلالی به طور قابل توجهی بهبود یافته‌ای برخوردار هستند که نشان‌دهنده یک گام رو به جلو در تلاش برای دستیابی به هوش مصنوعی پیچیده‌تر است. سری Nemotron که بر اساس مدل‌های متن‌باز Llama شرکت Meta Platforms Inc. ساخته شده است، به گونه‌ای مهندسی شده است که پایه‌ای قوی برای توسعه‌دهندگان برای ایجاد عوامل هوش مصنوعی پیشرفته فراهم کند. این عوامل برای انجام وظایف با حداقل نظارت انسانی در نظر گرفته شده‌اند که نشان‌دهنده پیشرفت قابل توجهی در استقلال هوش مصنوعی است.

انویدیا این پیشرفت‌ها را از طریق بهبودهای دقیق پس از آموزش به دست آورد. این کار را به عنوان یک دانش‌آموز ماهر در نظر بگیرید که به او آموزش خصوصی تخصصی داده می‌شود. این ‘آموزش خصوصی’ بر افزایش توانایی‌های مدل‌ها در ریاضیات چند مرحله‌ای، کدنویسی، تصمیم‌گیری پیچیده و استدلال کلی متمرکز بود. به گفته انویدیا، نتیجه این کار، افزایش 20 درصدی دقت در مقایسه با مدل‌های اصلی Llama است. اما پیشرفت‌ها به دقت ختم نمی‌شوند. سرعت استنتاج – اساساً، سرعت پردازش اطلاعات و ارائه پاسخ توسط مدل – پنج برابر افزایش یافته است. این امر به معنای رسیدگی به وظایف پیچیده‌تر با کاهش هزینه‌های عملیاتی است، که یک عامل حیاتی برای استقرار در دنیای واقعی است.

مدل‌های Llama Nemotron در سه اندازه متمایز از طریق پلتفرم میکروسرویس‌های NIM انویدیا ارائه می‌شوند:

  • Nano: برای استقرار در دستگاه‌هایی با قدرت پردازش محدود، مانند رایانه‌های شخصی و دستگاه‌های لبه، طراحی شده است. این امر امکاناتی را برای عوامل هوش مصنوعی فراهم می‌کند تا در محیط‌های با منابع محدود عمل کنند.
  • Super: برای اجرا بر روی یک واحد پردازش گرافیکی (GPU) بهینه شده است. این امر تعادلی بین عملکرد و الزامات منابع فراهم می‌کند.
  • Ultra: برای حداکثر کارایی طراحی شده است و به چندین سرور GPU نیاز دارد. این امر به برنامه‌هایی که به بالاترین سطوح قابلیت هوش مصنوعی نیاز دارند، پاسخ می‌دهد.

فرآیند پالایش خود از پلتفرم Nvidia DGX Cloud استفاده کرد و از داده‌های مصنوعی با کیفیت بالا از Nvidia Nemotron، همراه با مجموعه داده‌های منتخب خود انویدیا استفاده کرد. انویدیا در اقدامی که شفافیت و همکاری را ترویج می‌کند، این مجموعه داده‌ها، ابزارهای مورد استفاده و جزئیات تکنیک‌های بهینه‌سازی خود را به صورت عمومی در دسترس قرار می‌دهد. این رویکرد باز، جامعه گسترده‌تر هوش مصنوعی را تشویق می‌کند تا بر اساس کار انویدیا بسازند و مدل‌های استدلالی بنیادی خود را توسعه دهند.

تأثیر Llama Nemotron در حال حاضر در مشارکت‌هایی که انویدیا ایجاد کرده است، مشهود است. بازیگران اصلی مانند Microsoft Corp. در حال ادغام این مدل‌ها در سرویس‌های مبتنی بر ابر خود هستند.

  • مایکروسافت آنها را در سرویس Azure AI Foundry خود در دسترس قرار می‌دهد.
  • آنها همچنین به عنوان گزینه‌ای برای مشتریانی که با استفاده از Azure AI Agent Service for Microsoft 365، عوامل جدید ایجاد می‌کنند، ارائه خواهند شد.
  • SAP SE از Llama Nemotron برای بهبود دستیار هوش مصنوعی خود، Joule، و مجموعه گسترده‌تر راهکارهای SAP Business AI خود استفاده می‌کند.
  • سایر شرکت‌های برجسته، از جمله Accenture Plc، Atlassian Corp.، Box Inc.، و ServiceNow Inc.، نیز با انویدیا همکاری می‌کنند تا دسترسی مشتریان خود به این مدل‌ها را فراهم کنند.

فراتر از مدل‌ها: یک اکوسیستم جامع برای هوش مصنوعی عامل‌گرا

انویدیا می‌داند که ساخت عوامل هوش مصنوعی به چیزی بیش از مدل‌های زبانی قدرتمند نیاز دارد. یک اکوسیستم کامل مورد نیاز است که شامل زیرساخت، ابزارها، خطوط لوله داده و موارد دیگر باشد. این شرکت با مجموعه‌ای از بلوک‌های ساختمانی اضافی هوش مصنوعی عامل‌گرا، که در GTC 2025 نیز اعلام شد، به این نیازها پاسخ می‌دهد.

طرح Nvidia AI-Q: اتصال دانش به عمل

این چارچوب برای تسهیل اتصال بین پایگاه‌های دانش و عوامل هوش مصنوعی طراحی شده است و آنها را قادر می‌سازد تا به طور مستقل عمل کنند. این طرح که با استفاده از میکروسرویس‌های Nvidia NIM و ادغام با Nvidia NeMo Retriever ساخته شده است، فرآیند بازیابی داده‌های چندوجهی – اطلاعات در قالب‌های مختلف مانند متن، تصاویر و صدا – را برای عوامل هوش مصنوعی ساده می‌کند.

پلتفرم داده Nvidia AI: بهینه‌سازی جریان داده برای استدلال

این طراحی مرجع قابل تنظیم در اختیار ارائه‌دهندگان اصلی ذخیره‌سازی قرار می‌گیرد. هدف این است که به شرکت‌هایی مانند Dell Technologies Inc.، Hewlett Packard Enterprise Co.، Hitachi Vantara، IBM Corp.، NetApp Inc.. Nutanix Inc.، Vast Data Inc. و Pure Storage Inc. در توسعه پلتفرم‌های داده کارآمدتر به طور خاص برای بارهای کاری استنتاج هوش مصنوعی عامل‌گرا کمک کند. با ترکیب منابع ذخیره‌سازی بهینه شده با سخت‌افزار محاسباتی شتاب‌یافته انویدیا، توسعه‌دهندگان می‌توانند انتظار افزایش عملکرد قابل توجهی در استدلال هوش مصنوعی داشته باشند. این امر با اطمینان از جریان روان و سریع اطلاعات از پایگاه داده به مدل هوش مصنوعی حاصل می‌شود.

میکروسرویس‌های پیشرفته Nvidia NIM: یادگیری و سازگاری مداوم

میکروسرویس‌های NIM انویدیا برای بهینه‌سازی استنتاج هوش مصنوعی عامل‌گرا به‌روزرسانی شده‌اند و از یادگیری و سازگاری مداوم پشتیبانی می‌کنند. این میکروسرویس‌ها مشتریان را قادر می‌سازند تا جدیدترین و قدرتمندترین مدل‌های هوش مصنوعی عامل‌گرا، از جمله Llama Nemotron انویدیا و جایگزین‌هایی از شرکت‌هایی مانند Meta، Microsoft و Mistral AI را به طور قابل اعتماد مستقر کنند.

میکروسرویس‌های Nvidia NeMo: ساخت چرخ‌دنده‌های داده‌ای قوی

انویدیا همچنین در حال بهبود میکروسرویس‌های NeMo خود است که چارچوبی را برای توسعه‌دهندگان فراهم می‌کند تا چرخ‌دنده‌های داده‌ای قوی و کارآمد ایجاد کنند. این امر برای اطمینان از اینکه عوامل هوش مصنوعی می‌توانند به طور مداوم بر اساس بازخورد تولید شده توسط انسان و هوش مصنوعی یاد بگیرند و بهبود یابند، بسیار مهم است.

مشارکت‌های استراتژیک: پیشبرد نوآوری در سراسر چشم‌انداز هوش مصنوعی

تعهد انویدیا به هوش مصنوعی عامل‌گرا به همکاری‌های آن با سایر رهبران صنعت گسترش می‌یابد.

گسترش مشارکت Oracle: هوش مصنوعی عامل‌گرا در Oracle Cloud Infrastructure

انویدیا در حال گسترش همکاری خود با Oracle Corp. است تا قابلیت‌های هوش مصنوعی عامل‌گرا را به Oracle Cloud Infrastructure (OCI) بیاورد. این مشارکت شامل ادغام GPUهای شتاب‌یافته و نرم‌افزار استنتاج انویدیا در زیرساخت ابری اوراکل است که آنها را با خدمات هوش مصنوعی مولد اوراکل سازگار می‌کند. این امر توسعه عوامل هوش مصنوعی در OCI را تسریع می‌کند. انویدیا اکنون بیش از 160 ابزار هوش مصنوعی و میکروسرویس NIM را به صورت بومی از طریق کنسول OCI ارائه می‌دهد. این دو شرکت همچنین در حال کار برای تسریع جستجوی برداری در پلتفرم Oracle Database 23ai هستند.

تعمیق همکاری با Google: افزایش دسترسی و یکپارچگی هوش مصنوعی

انویدیا همچنین به‌روزرسانی‌هایی را در مورد همکاری‌های گسترده خود با Google LLC ارائه کرد و چندین ابتکار با هدف بهبود دسترسی به هوش مصنوعی و ابزارهای زیربنایی آن را فاش کرد.

یک نکته برجسته کلیدی این است که انویدیا اولین سازمانی است که از SynthID گوگل DeepMind استفاده می‌کند. این فناوری مستقیماً واترمارک‌های دیجیتال را در محتوای تولید شده توسط هوش مصنوعی، از جمله تصاویر، ویدیو و متن، جاسازی می‌کند. این به حفظ یکپارچگی خروجی‌های هوش مصنوعی و مبارزه با اطلاعات نادرست کمک می‌کند. SynthID در ابتدا با مدل‌های بنیادی Cosmos World انویدیا ادغام می‌شود.

علاوه بر این، انویدیا با محققان DeepMind گوگل برای بهینه‌سازی Gemma، خانواده‌ای از مدل‌های هوش مصنوعی متن‌باز و سبک وزن، برای GPUهای انویدیا همکاری کرده است. این دو شرکت همچنین در حال همکاری بر روی ابتکاری برای ساخت ربات‌های مجهز به هوش مصنوعی با مهارت‌های چنگ زدن، در میان سایر پروژه‌ها هستند.

همکاری‌های بین محققان و مهندسان گوگل و انویدیا طیف گسترده‌ای از چالش‌ها را برطرف می‌کند. از کشف دارو گرفته تا رباتیک، پتانسیل تحول‌آفرین را برجسته می‌کند.