Корпорации и поставщики услуг развертывают AI-приложения и агентов с беспрецедентной скоростью, стремясь обеспечить…
NeuReality, пионер в переосмыслении архитектуры AI-вычислений для удовлетворения современных моделей и рабочих нагрузок AI, объявила о том, что ее устройство NR1 Inference теперь поставляется с предустановленными популярными корпоративными AI-моделями, включая Llama, Mistral, Qwen, Granite 1, и поддерживает частное облако генеративного AI и локальные кластеры. Это устройство, готовое к работе с генеративным и агентным AI, запускается и работает менее чем за 30 минут, обеспечивая 3-кратное ускорение Time-to-Value, что позволяет клиентам быстрее внедрять инновации. Текущие PoC (Proof of Concept) показали, что выпуск токенов может быть до 6,5 раз выше при той же стоимости и энергопотреблении по сравнению с серверами AI-вычислений на базе x86 CPU, что делает AI более доступным и используемым для предприятий и правительств всех размеров.
Внутри устройства чип NR1® является первым настоящим AI-CPU, созданным специально для оркестровки вычислений – управления данными, задачами и интеграцией – со встроенным программным обеспечением, сервисами и API. Он не только объединяет традиционные архитектуры CPU и NIC в одно целое, но и заключает в чип 6-кратную вычислительную мощность, чтобы соответствовать быстрому развитию GPU, устраняя узкие места, присущие традиционным CPU.
Чип NR1 в паре с любым GPU или AI-ускорителем внутри своего устройства обеспечивает прорывную экономию затрат, энергии и пространства, что имеет решающее значение для широкого внедрения AI в предприятиях. Например, сравнивая ту же модель Llama 3.3-70B с аналогичной GPU или AI-ускорителем, устройство NeuReality с AI-CPU обеспечивает более низкую общую стоимость одного миллиона токенов AI по сравнению с серверами на базе x86 CPU.
Моше Танах, соучредитель и генеральный директор NeuReality, сказал: «Никто не сомневается в огромном потенциале AI. Задача заключается в том, чтобы сделать развертывание AI-вычислений экономически целесообразным. Революционная технология AI-CPU от NeuReality устраняет узкие места, позволяя нам предоставлять дополнительную производительность, необходимую для раскрытия всей мощи GPU, одновременно координируя AI-запросы и токены, максимизируя производительность и рентабельность этих дорогих AI-систем.»
Танах продолжил: «Теперь мы поднимаем простоту использования на новый уровень с помощью интегрированного устройства AI-вычисления от кремния до программного обеспечения. Оно поставляется с предустановленными AI-моделями и всеми инструментами, чтобы помочь разработчикам AI-программного обеспечения развертывать AI быстрее, проще и дешевле, чем когда-либо прежде, что позволяет им перенаправлять ресурсы на применение AI в своем бизнесе, а не на интеграцию и оптимизацию инфраструктуры».
Недавнее исследование показало, что около 70% предприятий сообщают об использовании генеративного AI как минимум в одной бизнес-функции, что свидетельствует о возросшем спросе. Однако только 25% предприятий имеют процессы, полностью поддерживаемые AI, и достигли широкого распространения, и только треть начала внедрять ограниченное количество вариантов использования AI.
Сегодня узкие места в производительности CPU на серверах, управляющих мультимодальными и крупными языковыми моделями, являются основной причиной низкой средней загрузки GPU, которая составляет всего 30-40%. Это приводит к дорогостоящей трате кремния в развертываниях AI, а также к недостаточно обслуживаемому рынку, который по-прежнему сталкивается со сложностями и стоимостными барьерами.
Рашид Аттар, старший вице-президент по разработке Qualcomm Technologies, заявил: «Предприятия и поставщики услуг развертывают AI-приложения и агентов с рекордной скоростью и сосредоточены на предоставлении производительности экономичным способом. Интегрируя ускоритель Qualcomm Cloud AI 100 Ultra с архитектурой AI-CPU от NeuReality, пользователи могут достичь новых уровней экономической эффективности и производительности AI без ущерба для простоты развертывания и масштабирования.»
Устройство NR1 от NeuReality, развернутое у клиентов в облаке и финансовых услугах, специально разработано для ускорения внедрения AI благодаря своей экономической эффективности, доступности и пространственной эффективности, подходящей для локальных и облачных вариантов Inference-as-a-Service. В дополнение к новым предустановленным генеративным и агентным AI-моделям, а также новым выпускам каждый квартал, он также полностью оптимизирован с помощью предварительно сконфигурированного SDK и API для компьютерного зрения, разговорного AI или пользовательских запросов, поддерживающих различные бизнес-варианты использования и рынки (например, финансовые услуги, науки о жизни, правительство, поставщики облачных услуг).
Первое устройство NR1 объединяет модуль NR1® (карта PCIe) с ускорителем Qualcomm® Cloud AI 100 Ultra.
NeuReality будет представлена на выставке InnoVEX (проходящей совместно с Computex) в тайваньском Тайбэе с 20 по 23 мая 2025 года в израильском павильоне №2, стенд S0912 (рядом с центральной сценой). Компания проведет живую демонстрацию устройства NR1 Inference, включая перенос приложения для чата за считанные минуты, а также демонстрацию производительности чипа NR1, работающего с моделями Smooth Factory Models и DeepSeek-R1-Distill-Llama-8B.
NeuReality, основанная в 2019 году, является пионером в области специализированной архитектуры AI Inference на базе чипа NR1® – первого AI-CPU для оркестровки вычислений. Основанная на открытой, основанной на стандартах архитектуре, NR1 полностью совместим с любым AI-ускорителем. Миссия NeuReality состоит в том, чтобы сделать AI доступным и повсеместным, устраняя барьеры, связанные с высокими затратами, энергопотреблением и сложностью, и используя свою революционную технологию для расширения внедрения AI Inference. В компании работает 80 сотрудников на предприятиях в Израиле, Польше и США.
Предустановленные и оптимизированные для корпоративных клиентов AI-модели: Llama 3.3 70B, Llama 3.1 8B (серия Llama 4 скоро появится); Mistral 7B, Mistral 8x7B и Mistral Small; Qwen 2.5, включая Coder (Qwen 3 скоро появится); DeepSeek R1**-**Distill-Llama 8B, R1 Distill-Llama 70b; и Granite 3, 3.1 8B (Granite 3.3 скоро появится).
NR1 Inference Device: Революционное решение
В основе NR1 Inference Device лежит специально созданный AI-CPU от NeuReality, который выступает в качестве централизованного контрольного центра для данных, задач и интеграций. В отличие от традиционных архитектур CPU и NIC, чип NR1 объединяет эти компоненты в одно устройство, снижая узкие места и максимизируя вычислительную мощность. Такой интегрированный подход позволяет чипу идти в ногу со стремительным развитием GPU, одновременно оптимизируя запросы и токены AI для повышения производительности и рентабельности.
AI "из коробки": Упрощение развертывания
Чтобы еще больше повысить простоту использования, NR1 Inference Device поставляется с предустановленными популярными корпоративными AI-моделями, включая Llama, Mistral, Qwen и Granite. Эта функция устраняет сложности, связанные с конфигурацией и оптимизацией, позволяя разработчикам AI-программного обеспечения сосредоточиться на применении AI в бизнесе, а не тратить время на интеграцию инфраструктуры. Устройство можно запустить и использовать менее чем за 30 минут, что обеспечивает клиентам быстрое получение прибыли.
Доступный AI: Ускорение внедрения
Технология NeuReality позволяет предприятиям более экономично получать доступ к AI и использовать его за счет предложения более низкой общей стоимости миллиона токенов AI по сравнению с серверами на базе x86 CPU. Такая экономическая эффективность имеет решающее значение для предприятий и правительств всех размеров, поскольку она снижает барьеры для развертывания AI и открывает возможности для более широкого применения.
Сотрудничество с Qualcomm Technologies: Раскрытие новых уровней производительности
Стратегическое партнерство между NeuReality и Qualcomm Technologies еще больше расширяет возможности NR1 Inference Device. Интегрируя ускоритель Qualcomm Cloud AI 100 Ultra с архитектурой AI-CPU от NeuReality, пользователи могут достичь новых уровней экономической эффективности и производительности AI без ущерба для простоты развертывания и масштабирования. Такой совместный подход демонстрирует стремление NeuReality использовать передовые технологии для оптимизации решений AI Inference.
Решение проблем корпоративного AI: Повышение коэффициента использования GPU
NeuReality решает серьезную проблему, с которой сталкиваются предприятия: узкие места в производительности CPU на серверах, которые снижают коэффициент использования GPU. Традиционно, GPU на серверах, управляющих мультимодальными и крупными языковыми моделями, имеют средний коэффициент использования всего 30-40%. Такой низкий коэффициент использования приводит к дорогостоящей трате кремния при развертываниях AI и ограничивает внедрение AI на недостаточно обслуживаемых рынках. Технология AI-CPU от NeuReality решает эту проблему, устраняя узкие места в производительности, что позволяет предприятиям в полной мере использовать возможности своих GPU в приложениях AI.
Решение потребностей генеративного AI: Увеличение использования
Решение NeuReality хорошо позиционируется для удовлетворения потребностей быстрорастущего рынка генеративного AI. Недавние исследования показывают, что около 70% предприятий сообщают об использовании генеративного AI как минимум в одной бизнес-функции. При этом только 25% предприятий внедрили процессы, полностью поддерживаемые AI, и добились широкого признания. NR1 Inference Device от NeuReality позволяет предприятиям ускорить свои инициативы в области генеративного AI за счет устранения барьеров для принятия, повышения простоты использования, экономической эффективности и производительности.
Простота использования: Уменьшение барьеров для развертывания
Помимо производительности и экономической эффективности, простота использования – ключевой фактор решений NeuReality AI. NR1 Inference Device поставляется с предустановленными AI-моделями и комплектами разработки программного обеспечения, что упрощает процесс развертывания и снижает потребность в интеграции и оптимизации инфраструктуры. Такая простота использования позволяет разработчикам AI-программного обеспечения сосредоточиться на создании и развертывании инновационных AI-приложений, а не тратить время на решение сложных задач инфраструктуры.
Широкий спектр приложений: Несколько отраслей
NR1 Inference Device от NeuReality разработан для поддержки широкого спектра бизнес-задач и рынков. Устройство оптимизировано для компьютерного зрения, разговорного AI и пользовательских запросов с помощью предварительно настроенного SDK и API. Такая универсальность позволяет NR1 Inference Device подходить для различных отраслей, включая финансовые услуги, науки о жизни, правительство и поставщиков облачных услуг.
Ускорение принятия AI: Доступность, возможность доступа и пространственная эффективность
Устройство NeuReality NR1 способствует внедрению AI, одновременно обеспечивая доступность и возможность доступа, что делает его подходящим для локальных и облачных инфраструктур. Многие организации изо всех сил пытаются расширить свои планы AI из-за высоких затрат и сложностей, но решение NeuReality решает эти препятствия, предлагая экономически эффективную, основанную на открытых стандартах платформу, которая упрощает разработку и развертывание AI.
Основные моменты демонстрации
NeuReality продемонстрирует свой механизм вывода NR1 на выставке InnoVEX на выставке Computex Taiwan в Тайбэе, Тайвань, с 20 по 23 мая 2025 года, демонстрируя свои возможности. На мероприятии компания продемонстрирует, насколько легко перенести приложение для чата за считанные минуты, и продемонстрирует производительность чипа NR1 в Smooth Factory Models и DeepSeek-R1-Distill-Llama-8B.
Постоянные инновации: Готовность к будущему
NeuReality стремится расширить возможности своего NR1 Inference Device, регулярно выпуская новые общие и агентные модели AI, а также оптимизированные комплекты разработки программного обеспечения. Эти постоянные инновации позволяют предприятиям быть в курсе новейших AI-технологий и гарантировать, что их инфраструктура AI оптимизирована для будущих рабочих нагрузок.
NeuReality: Расширение возможностей предприятий для освоения потенциала AI
Революционная технология AI-CPU от NeuReality предлагает экономически эффективный способ развертывания развертываний AI Inference, максимизируя производительность GPU, одновременно оптимизируя запросы и токены AI для достижения максимальной производительности и рентабельности. Поскольку NeuReality продолжает внедрять инновации и расширять возможности NR1 Inference Device, он станет ключевым союзником для предприятий, процветающих в процветающем мире AI.
Сочетая внимание к производительности, экономической эффективности и простоте использования со стремлением к постоянным инновациям, NeuReality имеет все возможности для изменения экономики AI и расширения возможностей предприятий всех размеров для освоения потенциала AI.