Скок на Nvidia: AI модели

Възходът на Llama Nemotron: Подобрено мислене за по-интелигентен AI

В основата на стратегията на Nvidia е разкриването на семейството AI модели Llama Nemotron. Тези модели се отличават със значително подобрени възможности за разсъждение, отбелязвайки крачка напред в търсенето на по-усъвършенстван AI. Изградени върху Llama моделите с отворен код на Meta Platforms Inc., серията Nemotron е проектирана да предостави на разработчиците здрава основа за създаване на усъвършенствани AI агенти. Тези агенти са предвидени да изпълняват задачи с минимален човешки надзор, което представлява значителен напредък в AI автономията.

Nvidia постигна тези подобрения чрез щателни подобрения след обучението. Представете си го като да вземете вече квалифициран студент и да му осигурите специализирано обучение. Това “обучение” се фокусира върху повишаване на способностите на моделите в многостъпкова математика, кодиране, вземане на сложни решения и цялостно разсъждение. Резултатът, според Nvidia, е 20% увеличение на точността в сравнение с оригиналните Llama модели. Но подобренията не спират до точността. Скоростта на извод – по същество колко бързо моделът може да обработва информация и да даде отговор – е нараснала пет пъти. Това се изразява в обработка на по-сложни задачи с намалени оперативни разходи, което е решаващ фактор за внедряване в реалния свят.

Моделите Llama Nemotron се предлагат в три различни размера чрез платформата за микроуслуги NIM на Nvidia:

  • Nano: Създаден за внедряване на устройства с ограничена изчислителна мощност, като персонални компютри и периферни устройства. Това отваря възможности за AI агенти да работят в среди с ограничени ресурси.
  • Super: Оптимизиран за изпълнение на един графичен процесор (GPU). Това осигурява баланс между производителност и изисквания за ресурси.
  • Ultra: Проектиран за максимална производителност, изискващ множество GPU сървъри. Това обслужва приложения, изискващи най-високи нива на AI възможности.

Самият процес на усъвършенстване използва платформата Nvidia DGX Cloud, използвайки висококачествени синтетични данни от Nvidia Nemotron, заедно със собствените подбрани набори от данни на Nvidia. В ход, който насърчава прозрачността и сътрудничеството, Nvidia прави тези набори от данни, използваните инструменти и подробностите за своите техники за оптимизация публично достъпни. Този отворен подход насърчава по-широката AI общност да надгражда работата на Nvidia и да разработва свои собствени основни модели за разсъждение.

Въздействието на Llama Nemotron вече е очевидно в партньорствата, които Nvidia е изградила. Големи играчи като Microsoft Corp. интегрират тези модели в своите облачни услуги.

  • Microsoft ги прави достъпни в своята услуга Azure AI Foundry.
  • Те също така ще се предлагат като опция за клиенти, създаващи нови агенти, използващи Azure AI Agent Service за Microsoft 365.
  • SAP SE използва Llama Nemotron, за да подобри своя AI асистент, Joule, и по-широкото си портфолио от решения SAP Business AI.
  • Други известни компании, включително Accenture Plc, Atlassian Corp., Box Inc. и ServiceNow Inc., също си сътрудничат с Nvidia, за да предоставят на своите клиенти достъп до тези модели.

Отвъд моделите: Цялостна екосистема за агентен AI

Nvidia разбира, че изграждането на AI агенти изисква повече от просто мощни езикови модели. Необходима е цялостна екосистема, обхващаща инфраструктура, инструменти, канали за данни и др. Компанията отговаря на тези нужди с набор от допълнителни градивни елементи за агентен AI, също обявени на GTC 2025.

Планът Nvidia AI-Q: Свързване на знанието с действието

Тази рамка е предназначена да улесни връзката между базите знания и AI агентите, позволявайки им да действат автономно. Изграден с помощта на микроуслугите Nvidia NIM и интегриран с Nvidia NeMo Retriever, планът опростява процеса на извличане на мултимодални данни – информация в различни формати като текст, изображения и аудио – за AI агенти.

Платформата за данни Nvidia AI: Оптимизиране на потока от данни за разсъждение

Този персонализиран референтен дизайн се предоставя на големи доставчици на хранилища. Целта е да се помогне на компании като Dell Technologies Inc., Hewlett Packard Enterprise Co., Hitachi Vantara, IBM Corp., NetApp Inc.. Nutanix Inc., Vast Data Inc. и Pure Storage Inc. в разработването на по-ефективни платформи за данни, специално за работни натоварвания за извод на агентен AI. Чрез комбиниране на оптимизирани ресурси за съхранение с ускорения изчислителен хардуер на Nvidia, разработчиците могат да очакват значителни подобрения в производителността при AI разсъжденията. Това се постига чрез осигуряване на плавен и бърз поток на информация от базата данни към AI модела.

Подобрени микроуслуги Nvidia NIM: Непрекъснато обучение и адаптивност

Микроуслугите NIM на Nvidia са актуализирани, за да оптимизират извода на агентен AI, поддържайки непрекъснато обучение и адаптивност. Тези микроуслуги позволяват на клиентите надеждно да внедряват най-новите и най-мощни модели за агентен AI, включително Llama Nemotron на Nvidia и алтернативи от компании като Meta, Microsoft и Mistral AI.

Микроуслуги Nvidia NeMo: Изграждане на здрави маховици за данни

Nvidia също така подобрява своите микроуслуги NeMo, които предоставят рамка за разработчиците да създават здрави и ефективни маховици за данни. Това е от решаващо значение за гарантиране, че AI агентите могат непрекъснато да се учат и подобряват въз основа както на генерирана от човека, така и на генерирана от AI обратна връзка.

Стратегически партньорства: Стимулиране на иновациите в AI пейзажа

Ангажиментът на Nvidia към агентния AI се простира до сътрудничеството й с други лидери в индустрията.

Разширяване на партньорството с Oracle: Агентен AI на Oracle Cloud Infrastructure

Nvidia разширява сътрудничеството си с Oracle Corp., за да внедри възможности за агентен AI в Oracle Cloud Infrastructure (OCI). Това партньорство включва интегриране на ускорените GPU и софтуер за извод на Nvidia в облачната инфраструктура на Oracle, което ги прави съвместими с генеративните AI услуги на Oracle. Това ще ускори разработването на AI агенти на OCI. Nvidia вече предлага над 160 AI инструмента и NIM микроуслуги директно през конзолата на OCI. Двете компании също така работят за ускоряване на векторното търсене в платформата Oracle Database 23ai.

Задълбочаване на сътрудничеството с Google: Подобряване на AI достъпа и целостта

Nvidia също така предостави актуализации за разширеното си сътрудничество с Google LLC, разкривайки няколко инициативи, насочени към подобряване на достъпа до AI и неговите основни инструменти.

Ключов акцент е, че Nvidia става първата организация, която използва SynthID на Google DeepMind. Тази технология директно вгражда цифрови водни знаци в генерирано от AI съдържание, включително изображения, видео и текст. Това помага да се запази целостта на AI изходите и да се бори с дезинформацията. SynthID първоначално се интегрира с основните модели Cosmos World на Nvidia.

Освен това Nvidia си сътрудничи с изследователите на Google DeepMind за оптимизиране на Gemma, семейство от леки AI модели с отворен код, за GPU на Nvidia. Двете компании също така си сътрудничат по инициатива за изграждане на роботи, задвижвани от AI, с умения за хващане, наред с други проекти.

Сътрудничеството между изследователите и инженерите на Google и Nvidia се справя с широк спектър от предизвикателства. От откриването на лекарства до роботиката, подчертавайки трансформиращия потенциал.