Рост Llama Nemotron: Улучшенное Рассуждение для Более Умного ИИ
В центре стратегии Nvidia находится представление семейства ИИ-моделей Llama Nemotron. Эти модели обладают значительно улучшенными способностями к рассуждению, что знаменует собой шаг вперед в стремлении к более сложному ИИ. Созданная на основе моделей Llama с открытым исходным кодом Meta Platforms Inc., серия Nemotron разработана для того, чтобы предоставить разработчикам надежную основу для создания продвинутых ИИ-агентов. Предполагается, что эти агенты будут выполнять задачи с минимальным вмешательством человека, что представляет собой значительный прогресс в автономии ИИ.
Nvidia достигла этих улучшений благодаря тщательному пост-тренировочному совершенствованию. Представьте, что вы берете уже квалифицированного студента и предоставляете ему специализированное обучение. Это ‘обучение’ было сосредоточено на повышении способностей моделей в многоступенчатой математике, кодировании, сложном принятии решений и общем рассуждении. По словам Nvidia, в результате точность увеличилась на 20% по сравнению с оригинальными моделями Llama. Но улучшения не ограничиваются точностью. Скорость вывода – по сути, то, как быстро модель может обрабатывать информацию и давать ответ – увеличилась в пять раз. Это приводит к обработке более сложных задач с меньшими эксплуатационными расходами, что является решающим фактором для реального развертывания.
Модели Llama Nemotron предлагаются в трех различных размерах через платформу микросервисов Nvidia NIM:
- Nano: Предназначен для развертывания на устройствах с ограниченной вычислительной мощностью, таких как персональные компьютеры и периферийные устройства. Это открывает возможности для работы ИИ-агентов в средах с ограниченными ресурсами.
- Super: Оптимизирован для выполнения на одном графическом процессоре (GPU). Это обеспечивает баланс между производительностью и требованиями к ресурсам.
- Ultra: Разработан для максимальной производительности, требуя нескольких серверов с GPU. Это предназначено для приложений, требующих высочайшего уровня возможностей ИИ.
Сам процесс доработки использовал платформу Nvidia DGX Cloud, используя высококачественные синтетические данные от Nvidia Nemotron, а также собственные курируемые наборы данных Nvidia. В целях содействия прозрачности и сотрудничеству Nvidia делает эти наборы данных, используемые инструменты и подробности своих методов оптимизации общедоступными. Этот открытый подход побуждает более широкое сообщество ИИ опираться на работу Nvidia и разрабатывать свои собственные базовые модели рассуждений.
Влияние Llama Nemotron уже очевидно в партнерских отношениях, которые Nvidia установила. Крупные игроки, такие как Microsoft Corp., интегрируют эти модели в свои облачные сервисы.
- Microsoft делает их доступными в своем сервисе Azure AI Foundry.
- Они также будут предлагаться в качестве опции для клиентов, создающих новых агентов с помощью Azure AI Agent Service for Microsoft 365.
- SAP SE использует Llama Nemotron для улучшения своего ИИ-помощника Joule и своего более широкого портфеля решений SAP Business AI.
- Другие известные компании, в том числе Accenture Plc, Atlassian Corp., Box Inc. и ServiceNow Inc., также сотрудничают с Nvidia, чтобы предоставить своим клиентам доступ к этим моделям.
Помимо Моделей: Комплексная Экосистема для Агентного ИИ
Nvidia понимает, что для создания ИИ-агентов требуется нечто большее, чем просто мощные языковые модели. Необходима полная экосистема, охватывающая инфраструктуру, инструменты, конвейеры данных и многое другое. Компания решает эти задачи с помощью набора дополнительных строительных блоков агентного ИИ, также анонсированных на GTC 2025.
План Nvidia AI-Q: Соединение Знаний с Действиями
Эта структура предназначена для облегчения связи между базами знаний и ИИ-агентами, позволяя им действовать автономно. Созданный с использованием микросервисов Nvidia NIM и интегрированный с Nvidia NeMo Retriever, план упрощает процесс извлечения мультимодальных данных – информации в различных форматах, таких как текст, изображения и аудио – для ИИ-агентов.
Платформа Данных Nvidia AI: Оптимизация Потока Данных для Рассуждений
Этот настраиваемый эталонный дизайн предоставляется основным поставщикам хранилищ. Цель состоит в том, чтобы помочь таким компаниям, как Dell Technologies Inc., Hewlett Packard Enterprise Co., Hitachi Vantara, IBM Corp., NetApp Inc., Nutanix Inc., Vast Data Inc. и Pure Storage Inc., в разработке более эффективных платформ данных, специально предназначенных для рабочих нагрузок вывода агентного ИИ. Объединив оптимизированные ресурсы хранения с аппаратным обеспечением ускоренных вычислений Nvidia, разработчики могут ожидать значительного повышения производительности в рассуждениях ИИ. Это достигается за счет обеспечения плавного и быстрого потока информации из базы данных в модель ИИ.
Улучшенные Микросервисы Nvidia NIM: Непрерывное Обучение и Адаптивность
Микросервисы Nvidia NIM были обновлены для оптимизации вывода агентного ИИ, поддерживая непрерывное обучение и адаптивность. Эти микросервисы позволяют клиентам надежно развертывать новейшие и самые мощные модели агентного ИИ, включая Llama Nemotron от Nvidia и альтернативы от таких компаний, как Meta, Microsoft и Mistral AI.
Микросервисы Nvidia NeMo: Создание Надежных Маховиков Данных
Nvidia также совершенствует свои микросервисы NeMo, которые предоставляют разработчикам основу для создания надежных и эффективных маховиков данных. Это крайне важно для обеспечения того, чтобы ИИ-агенты могли непрерывно учиться и совершенствоваться на основе как сгенерированной человеком, так и сгенерированной ИИ обратной связи.
Стратегические Партнерства: Стимулирование Инноваций во Всем Ландшафте ИИ
Приверженность Nvidia агентному ИИ распространяется на ее сотрудничество с другими лидерами отрасли.
Расширение Партнерства с Oracle: Агентный ИИ на Oracle Cloud Infrastructure
Nvidia расширяет свое сотрудничество с Oracle Corp., чтобы предоставить возможности агентного ИИ в Oracle Cloud Infrastructure (OCI). Это партнерство включает в себя интеграцию ускоренных GPU и программного обеспечения для вывода Nvidia в облачную инфраструктуру Oracle, что делает их совместимыми с сервисами генеративного ИИ Oracle. Это ускорит разработку ИИ-агентов на OCI. Nvidia теперь предлагает более 160 инструментов ИИ и микросервисов NIM изначально через консоль OCI. Обе компании также работают над ускорением векторного поиска на платформе Oracle Database 23ai.
Углубление Сотрудничества с Google: Улучшение Доступа к ИИ и Его Целостности
Nvidia также предоставила обновленную информацию о своем расширенном сотрудничестве с Google LLC, раскрыв несколько инициатив, направленных на улучшение доступа к ИИ и его базовым инструментам.
Ключевым моментом является то, что Nvidia стала первой организацией, использующей SynthID от Google DeepMind. Эта технология напрямую встраивает цифровые водяные знаки в сгенерированный ИИ контент, включая изображения, видео и текст. Это помогает сохранить целостность результатов ИИ и бороться с дезинформацией. SynthID изначально интегрируется с базовыми моделями Nvidia Cosmos World.
Кроме того, Nvidia сотрудничала с исследователями Google DeepMind для оптимизации Gemma, семейства легких ИИ-моделей с открытым исходным кодом, для GPU Nvidia. Обе компании также сотрудничают в рамках инициативы по созданию роботов с искусственным интеллектом и навыками захвата, среди прочих проектов.
Сотрудничество между исследователями и инженерами Google и Nvidia решает широкий спектр задач. От открытия лекарств до робототехники, подчеркивая преобразующий потенциал.