ظهور Llama Nemotron: استدلال پیشرفته برای هوش مصنوعی هوشمندتر
در مرکز استراتژی انویدیا، رونمایی از خانواده مدلهای هوش مصنوعی Llama Nemotron قرار دارد. این مدلها از قابلیتهای استدلالی به طور قابل توجهی بهبود یافتهای برخوردار هستند که نشاندهنده یک گام رو به جلو در تلاش برای دستیابی به هوش مصنوعی پیچیدهتر است. سری Nemotron که بر اساس مدلهای متنباز Llama شرکت Meta Platforms Inc. ساخته شده است، به گونهای مهندسی شده است که پایهای قوی برای توسعهدهندگان برای ایجاد عوامل هوش مصنوعی پیشرفته فراهم کند. این عوامل برای انجام وظایف با حداقل نظارت انسانی در نظر گرفته شدهاند که نشاندهنده پیشرفت قابل توجهی در استقلال هوش مصنوعی است.
انویدیا این پیشرفتها را از طریق بهبودهای دقیق پس از آموزش به دست آورد. این کار را به عنوان یک دانشآموز ماهر در نظر بگیرید که به او آموزش خصوصی تخصصی داده میشود. این ‘آموزش خصوصی’ بر افزایش تواناییهای مدلها در ریاضیات چند مرحلهای، کدنویسی، تصمیمگیری پیچیده و استدلال کلی متمرکز بود. به گفته انویدیا، نتیجه این کار، افزایش 20 درصدی دقت در مقایسه با مدلهای اصلی Llama است. اما پیشرفتها به دقت ختم نمیشوند. سرعت استنتاج – اساساً، سرعت پردازش اطلاعات و ارائه پاسخ توسط مدل – پنج برابر افزایش یافته است. این امر به معنای رسیدگی به وظایف پیچیدهتر با کاهش هزینههای عملیاتی است، که یک عامل حیاتی برای استقرار در دنیای واقعی است.
مدلهای Llama Nemotron در سه اندازه متمایز از طریق پلتفرم میکروسرویسهای NIM انویدیا ارائه میشوند:
- Nano: برای استقرار در دستگاههایی با قدرت پردازش محدود، مانند رایانههای شخصی و دستگاههای لبه، طراحی شده است. این امر امکاناتی را برای عوامل هوش مصنوعی فراهم میکند تا در محیطهای با منابع محدود عمل کنند.
- Super: برای اجرا بر روی یک واحد پردازش گرافیکی (GPU) بهینه شده است. این امر تعادلی بین عملکرد و الزامات منابع فراهم میکند.
- Ultra: برای حداکثر کارایی طراحی شده است و به چندین سرور GPU نیاز دارد. این امر به برنامههایی که به بالاترین سطوح قابلیت هوش مصنوعی نیاز دارند، پاسخ میدهد.
فرآیند پالایش خود از پلتفرم Nvidia DGX Cloud استفاده کرد و از دادههای مصنوعی با کیفیت بالا از Nvidia Nemotron، همراه با مجموعه دادههای منتخب خود انویدیا استفاده کرد. انویدیا در اقدامی که شفافیت و همکاری را ترویج میکند، این مجموعه دادهها، ابزارهای مورد استفاده و جزئیات تکنیکهای بهینهسازی خود را به صورت عمومی در دسترس قرار میدهد. این رویکرد باز، جامعه گستردهتر هوش مصنوعی را تشویق میکند تا بر اساس کار انویدیا بسازند و مدلهای استدلالی بنیادی خود را توسعه دهند.
تأثیر Llama Nemotron در حال حاضر در مشارکتهایی که انویدیا ایجاد کرده است، مشهود است. بازیگران اصلی مانند Microsoft Corp. در حال ادغام این مدلها در سرویسهای مبتنی بر ابر خود هستند.
- مایکروسافت آنها را در سرویس Azure AI Foundry خود در دسترس قرار میدهد.
- آنها همچنین به عنوان گزینهای برای مشتریانی که با استفاده از Azure AI Agent Service for Microsoft 365، عوامل جدید ایجاد میکنند، ارائه خواهند شد.
- SAP SE از Llama Nemotron برای بهبود دستیار هوش مصنوعی خود، Joule، و مجموعه گستردهتر راهکارهای SAP Business AI خود استفاده میکند.
- سایر شرکتهای برجسته، از جمله Accenture Plc، Atlassian Corp.، Box Inc.، و ServiceNow Inc.، نیز با انویدیا همکاری میکنند تا دسترسی مشتریان خود به این مدلها را فراهم کنند.
فراتر از مدلها: یک اکوسیستم جامع برای هوش مصنوعی عاملگرا
انویدیا میداند که ساخت عوامل هوش مصنوعی به چیزی بیش از مدلهای زبانی قدرتمند نیاز دارد. یک اکوسیستم کامل مورد نیاز است که شامل زیرساخت، ابزارها، خطوط لوله داده و موارد دیگر باشد. این شرکت با مجموعهای از بلوکهای ساختمانی اضافی هوش مصنوعی عاملگرا، که در GTC 2025 نیز اعلام شد، به این نیازها پاسخ میدهد.
طرح Nvidia AI-Q: اتصال دانش به عمل
این چارچوب برای تسهیل اتصال بین پایگاههای دانش و عوامل هوش مصنوعی طراحی شده است و آنها را قادر میسازد تا به طور مستقل عمل کنند. این طرح که با استفاده از میکروسرویسهای Nvidia NIM و ادغام با Nvidia NeMo Retriever ساخته شده است، فرآیند بازیابی دادههای چندوجهی – اطلاعات در قالبهای مختلف مانند متن، تصاویر و صدا – را برای عوامل هوش مصنوعی ساده میکند.
پلتفرم داده Nvidia AI: بهینهسازی جریان داده برای استدلال
این طراحی مرجع قابل تنظیم در اختیار ارائهدهندگان اصلی ذخیرهسازی قرار میگیرد. هدف این است که به شرکتهایی مانند Dell Technologies Inc.، Hewlett Packard Enterprise Co.، Hitachi Vantara، IBM Corp.، NetApp Inc.. Nutanix Inc.، Vast Data Inc. و Pure Storage Inc. در توسعه پلتفرمهای داده کارآمدتر به طور خاص برای بارهای کاری استنتاج هوش مصنوعی عاملگرا کمک کند. با ترکیب منابع ذخیرهسازی بهینه شده با سختافزار محاسباتی شتابیافته انویدیا، توسعهدهندگان میتوانند انتظار افزایش عملکرد قابل توجهی در استدلال هوش مصنوعی داشته باشند. این امر با اطمینان از جریان روان و سریع اطلاعات از پایگاه داده به مدل هوش مصنوعی حاصل میشود.
میکروسرویسهای پیشرفته Nvidia NIM: یادگیری و سازگاری مداوم
میکروسرویسهای NIM انویدیا برای بهینهسازی استنتاج هوش مصنوعی عاملگرا بهروزرسانی شدهاند و از یادگیری و سازگاری مداوم پشتیبانی میکنند. این میکروسرویسها مشتریان را قادر میسازند تا جدیدترین و قدرتمندترین مدلهای هوش مصنوعی عاملگرا، از جمله Llama Nemotron انویدیا و جایگزینهایی از شرکتهایی مانند Meta، Microsoft و Mistral AI را به طور قابل اعتماد مستقر کنند.
میکروسرویسهای Nvidia NeMo: ساخت چرخدندههای دادهای قوی
انویدیا همچنین در حال بهبود میکروسرویسهای NeMo خود است که چارچوبی را برای توسعهدهندگان فراهم میکند تا چرخدندههای دادهای قوی و کارآمد ایجاد کنند. این امر برای اطمینان از اینکه عوامل هوش مصنوعی میتوانند به طور مداوم بر اساس بازخورد تولید شده توسط انسان و هوش مصنوعی یاد بگیرند و بهبود یابند، بسیار مهم است.
مشارکتهای استراتژیک: پیشبرد نوآوری در سراسر چشمانداز هوش مصنوعی
تعهد انویدیا به هوش مصنوعی عاملگرا به همکاریهای آن با سایر رهبران صنعت گسترش مییابد.
گسترش مشارکت Oracle: هوش مصنوعی عاملگرا در Oracle Cloud Infrastructure
انویدیا در حال گسترش همکاری خود با Oracle Corp. است تا قابلیتهای هوش مصنوعی عاملگرا را به Oracle Cloud Infrastructure (OCI) بیاورد. این مشارکت شامل ادغام GPUهای شتابیافته و نرمافزار استنتاج انویدیا در زیرساخت ابری اوراکل است که آنها را با خدمات هوش مصنوعی مولد اوراکل سازگار میکند. این امر توسعه عوامل هوش مصنوعی در OCI را تسریع میکند. انویدیا اکنون بیش از 160 ابزار هوش مصنوعی و میکروسرویس NIM را به صورت بومی از طریق کنسول OCI ارائه میدهد. این دو شرکت همچنین در حال کار برای تسریع جستجوی برداری در پلتفرم Oracle Database 23ai هستند.
تعمیق همکاری با Google: افزایش دسترسی و یکپارچگی هوش مصنوعی
انویدیا همچنین بهروزرسانیهایی را در مورد همکاریهای گسترده خود با Google LLC ارائه کرد و چندین ابتکار با هدف بهبود دسترسی به هوش مصنوعی و ابزارهای زیربنایی آن را فاش کرد.
یک نکته برجسته کلیدی این است که انویدیا اولین سازمانی است که از SynthID گوگل DeepMind استفاده میکند. این فناوری مستقیماً واترمارکهای دیجیتال را در محتوای تولید شده توسط هوش مصنوعی، از جمله تصاویر، ویدیو و متن، جاسازی میکند. این به حفظ یکپارچگی خروجیهای هوش مصنوعی و مبارزه با اطلاعات نادرست کمک میکند. SynthID در ابتدا با مدلهای بنیادی Cosmos World انویدیا ادغام میشود.
علاوه بر این، انویدیا با محققان DeepMind گوگل برای بهینهسازی Gemma، خانوادهای از مدلهای هوش مصنوعی متنباز و سبک وزن، برای GPUهای انویدیا همکاری کرده است. این دو شرکت همچنین در حال همکاری بر روی ابتکاری برای ساخت رباتهای مجهز به هوش مصنوعی با مهارتهای چنگ زدن، در میان سایر پروژهها هستند.
همکاریهای بین محققان و مهندسان گوگل و انویدیا طیف گستردهای از چالشها را برطرف میکند. از کشف دارو گرفته تا رباتیک، پتانسیل تحولآفرین را برجسته میکند.