企業とサービスプロバイダーは、AIアプリケーションとエージェントを記録的な速さで展開しており、経済的な方法でパフォーマンスを提供することに焦点を当てています。
NeuRealityは、今日のAIモデルとワークロードのニーズに合わせてAI推論アーキテクチャを再構築するパイオニアであり、NR1推論アプライアンスがLlama、Mistral、Qwen、Granite 1などの一般的なエンタープライズAIモデルをプリロードし、プライベート生成AIクラウドとオンプレミスクラスターをサポートすることを発表しました。この生成AIおよびエージェント対応アプライアンスは、30分以内に起動して実行でき、価値実現までの時間を3倍短縮し、顧客がより迅速にイノベーションを起こせるようにします。現在のPoC(概念実証)では、x86 CPUベースの推論サーバーと比較して、同じコストと電力範囲で最大6.5倍のトークン出力を実現し、あらゆる規模の企業と政府がAIにアクセスしてより手頃な価格で使用できるようになることが示されています。
アプライアンス内部では、NR1®チップは、データ、タスク、統合の管理を行う推論オーケストレーション専用に構築された初の真のAI-CPUであり、ソフトウェア、サービス、APIが組み込まれています。従来のCPUおよびNICアーキテクチャを1つに統合するだけでなく、急速に進歩するGPUに対応するために6倍の処理能力をチップに搭載し、従来のCPUボトルネックを解消します。
NR1チップは、アプライアンス内のGPUまたはAIアクセラレータと組み合わせることで、コスト、エネルギー、設置面積の大幅な効率化を実現し、幅広いエンタープライズAIの採用に不可欠です。例えば、同じLlama 3.3-70BモデルとGPUまたはAIアクセラレータの設定を比較した場合、NeuRealityのAI-CPU駆動アプライアンスは、x86 CPUベースのサーバーよりもAIトークン100万個あたりの総コストが低くなります。
NeuRealityの共同創業者兼CEOであるMoshe Tanachは、次のように述べています。「AIの計り知れない可能性に疑問を抱く人はいません。課題は、AI推論の展開を経済的に実行可能にする方法です。NeuRealityの革新的なAI-CPUテクノロジーはボトルネックを解消し、GPUの全機能を解放するために必要な追加のパフォーマンスを提供すると同時に、AIクエリとトークンを調整して、これらの高価なAIシステムのパフォーマンスと投資収益率を最大化できるようにします。」
Tanachはさらに次のように述べています。「現在、統合されたシリコンからソフトウェアまでのAI推論アプライアンスを通じて、使いやすさを新たなレベルに引き上げています。AIモデルとすべてのツールがプリロードされており、AIソフトウェア開発者はこれまで以上に迅速、簡単、安価にAIを展開できるため、インフラストラクチャの統合と最適化ではなく、ビジネスでAIを応用することにリソースを移行できます。」
最近の調査では、企業の約70%が少なくとも1つのビジネス機能で生成AIを使用していると報告しており、需要の増加を示しています。ただし、AIによって完全に有効化されたプロセスを持つ企業はわずか25%であり、広範な導入を実現しており、企業全体の3分の1は、限られたAIユースケースの実装を開始したばかりです。
現在、サーバー上のマルチモーダルおよび大規模言語モデルのワークロードを管理するCPUのパフォーマンスボトルネックは、GPUの平均利用率が30〜40%と低い主な要因です。これにより、AI展開における高価なシリコンの無駄と、依然として複雑さとコストの障壁に直面しているサービス不足の市場が生じています。
Qualcomm Technologies社のエンジニアリング担当シニアバイスプレジデントであるRashid Attarは、次のように述べています。「企業とサービスプロバイダーは、AIアプリケーションとエージェントを記録的な速さで展開しており、経済的な方法でパフォーマンスを提供することに焦点を当てています。Qualcomm Cloud AI 100 UltraアクセラレータをNeuRealityのAI-CPUアーキテクチャと統合することで、ユーザーは展開と拡張の容易さを損なうことなく、新たなレベルのコスト効率とAIパフォーマンスを実現できます。」
NeuRealityのNR1アプライアンスは、クラウドおよび金融サービスのお客様とともに展開されており、その経済性、アクセス性、および空間効率を通じてAIの採用を加速するように特別に設計されており、オンプレミスおよびクラウド推論アズアサービスオプションに適しています。新しいプリロードされた生成およびエージェントAIモデルに加えて、四半期ごとの新しいリリースに加えて、コンピュータービジョン、会話型AI、または金融サービス、ライフサイエンス、政府、クラウドサービスプロバイダーなどのさまざまなビジネスユースケースと市場をサポートするためのカスタムリクエスト向けに完全に最適化された、事前構成済みのソフトウェア開発キットとAPIも備えています。
最初のNR1アプライアンスは、NR1®モジュール(PCIeカード)とQualcomm® Cloud AI 100 Ultraアクセラレータを統合したものです。
NeuRealityは、2025年5月20〜23日に台北で開催されるInnoVEX(Computexと併催)のイスラエルパビリオン、ホール2のS0912(中央ステージの近く)に出展します。同社は、数分でチャットアプリケーションを移行するデモや、NR1チップがSmooth Factory ModelsおよびDeepSeek-R1-Distill-Llama-8Bを実行するパフォーマンスデモなど、NR1推論アプライアンスのライブデモを開催します。
NeuRealityは2019年に設立され、推論オーケストレーション用の初のAI-CPUであるNR1®チップを搭載した専用AI推論アーキテクチャのパイオニアです。オープンで標準ベースのアーキテクチャに基づいて、NR1はあらゆるAIアクセラレータと完全に互換性があります。NeuRealityのミッションは、高コスト、消費電力、複雑さに関連する障壁を低減し、革新的なテクノロジーを活用してAI推論の採用を拡大することで、AIにアクセス可能で普遍的なものにすることです。同社はイスラエル、ポーランド、米国に拠点を置き、80人の従業員を擁しています。
エンタープライズ顧客向けにプリロードおよび最適化された1 AIモデルには、Llama 3.3 70B、Llama 3.1 8B(Llama 4シリーズは近日公開)、Mistral 7B、Mistral 8x7B、Mistral Small、Qwen 2.5(Coderを含む)(Qwen 3は近日公開)、DeepSeek R1**-**Distill-Llama 8B、R1 Distill-Llama 70b、Granite 3、3.1 8B(Granite 3.3は近日公開)が含まれます。
NeuRealityによるAI革命:性能、費用対効果、および使いやすさの融合
人工知能(AI)がさまざまな業界に浸透し続けるにつれて、企業はAI推論ソリューションを経済的に実行可能で効率的な方法で展開するという課題に直面しています。NeuRealityは、AIの経済学を覆す革新的なアプローチを採用しています。このアプローチは、AI推論の総コストを大幅に削減しながら、即時利用可能なLLM(大規模言語モデル)アクセスを提供することに重点を置いています。NeuRealityの主力製品であるNR1推論アプライアンスは、AI推論アーキテクチャを最適化し、一般的なエンタープライズAIモデルをプリロードすることで、企業に前例のないパフォーマンス、費用対効果、および使いやすさを提供します。
NR1推論アプライアンス:ゲームチェンジャー
NR1推論アプライアンスの中核となるのは、NeuReality専用に構築されたAI-CPUです。これは、データ、タスク、および統合の中央制御ハブとして機能します。従来のCPUおよびNICアーキテクチャとは異なり、NR1チップはこれらのコンポーネントを1つのユニットに統合することで、ボトルネックを削減し、処理能力を最大化します。この統合アプローチにより、チップはAIクエリとトークンを最適化して、パフォーマンスと投資収益率を向上させながら、GPUの急速な進歩に対応できます。
すぐに利用できるAI:展開の簡素化
使いやすさをさらに向上させるために、NR1推論アプライアンスには、Llama、Mistral、Qwen、Graniteなどの一般的なエンタープライズAIモデルがプリロードされています。この機能により、構成と最適化の複雑さが解消され、AIソフトウェア開発者はインフラストラクチャ統合に費やす時間を費やすのではなく、ビジネスでAIを応用することに集中できます。アプライアンスは30分以内に起動して実行できるため、顧客は価値を迅速に実現できます。
手頃な価格のAI:採用の加速
NeuRealityのテクノロジーは、x86 CPUベースのサーバーよりもAIトークン100万個あたりの総コストを削減することで、企業によるAIへのアクセスと使用をより経済的にします。この費用対効果は、あらゆる規模の企業や政府にとって不可欠です。AI展開の障壁が低減され、アプリケーションの範囲が広がることが可能になるからです。
Qualcomm Technologiesとの提携:新たなパフォーマンスレベルの実現
NeuRealityとQualcomm Technologiesの戦略的提携により、NR1推論アプライアンスの機能がさらに強化されました。Qualcomm Cloud AI 100 UltraアクセラレータをNeuRealityのAI-CPUアーキテクチャと統合することで、ユーザーは展開と拡張の容易さを損なうことなく、新たなレベルの費用対効果とAIパフォーマンスを実現できます。この共同アプローチは、AI推論ソリューションを最適化するために最先端のテクノロジーを活用するというNeuRealityの取り組みを示しています。
エンタープライズAIの課題への取り組み:GPU使用率の向上
NeuRealityは、企業が直面する大きな課題、つまりGPUの使用率を低下させるサーバー上のCPUパフォーマンスのボトルネックに取り組んでいます。これまで、マルチモーダルおよび大規模言語モデルのワークロードを管理するサーバーのGPU平均使用率は30〜40%と低くなっています。この低い使用率は、AI展開における高価なシリコンの無駄につながり、サービスが十分に提供されていない市場でのAIの採用を制限しています。NeuRealityのAI-CPUテクノロジーは、パフォーマンスのボトルネックを解消することでこの問題に対処し、企業がAIアプリケーションでGPUの機能を最大限に活用できるようにします。
生成AIのニーズへの対応:使用率の向上
NeuRealityのソリューションは、急速に成長している生成AI市場の見通しと非常によく合致しています。 最近の調査では、企業の約70%が、少なくとも1つ以上のビジネス機能で生成AIを使用していると報告されています。ただし、AIによって完全に有効化されたプロセスを持つ企業はわずか25%であり、広範な導入を実現しています。NeuRealityのNR1推論アプライアンスを使用すると、使いやすさ、費用対効果、パフォーマンスの向上を通じて、企業は生成AIイニシアチブを加速し、採用の壁を乗り越えることができます。
使いやすさ:展開の障壁を低減
パフォーマンスと費用対効果に加えて、使いやすさもNeuReality AIソリューションの重要な推進要因です。 NR1推論アプライアンスにはAIモデルとソフトウェア開発キットがプリロードされているため、展開プロセスが簡素化され、インフラストラクチャの統合と最適化の必要性が軽減されます。 この使いやすさにより、AIソフトウェア開発者は、複雑なインフラストラクチャの処理に時間を費やす代わりに、革新的なAIアプリケーションの構築と展開に集中できます。
幅広いアプリケーション:複数の業界
NeuRealityのNR1推論アプライアンスは、さまざまなビジネスユースケースと市場をサポートするように設計されています。 このアプライアンスは、事前構成されたソフトウェア開発キットとAPIを通じて、コンピュータービジョン、会話型AI、およびカスタムリクエスト向けに最適化されています。 この汎用性により、NR1推論アプライアンスは、金融サービス、ライフサイエンス、政府、クラウドサービスプロバイダーなど、さまざまな業界に適しています。
AIの採用の加速:手頃な価格、アクセス性、および空間効率
NeuRealityのNR1アプライアンスは、手頃な価格とアクセス性を同時に提供することで、AIの採用を促進し、オンプレミスとクラウドの両方のインフラストラクチャに適しています。多くの組織は、その高いコストと複雑さのためにAIイニシアチブの拡大に苦労していますが、NeuRealityのソリューションは、費用対効果に優れたオープンスタンダードプラットフォームを提供することで、これらの障壁に対処し、AIの開発と展開を簡素化します。
デモンストレーションのハイライト
NeuRealityは、2025年5月20日から23日まで台湾の台北で開催されるCOMPUTEXの一部であるInnoVEXでNR1推論エンジンを展示し、その機能を紹介します。イベントでは、同社はチャットアプリケーションを数分でいかに簡単に移行できるかをデモし、スムーズなファクトリーモデルおよびDeepSeek-R1-Distill-Llama-8BでのNR1チップのパフォーマンスを紹介します。
たゆまぬイノベーション:将来への備え
NeuRealityは、新しい生成AIモデルとエージェントAIモデル、および最適化されたソフトウェア開発キットを定期的にリリースすることにより、NR1推論アプライアンスの機能を向上させることに尽力しています。この継続的なイノベーションにより、企業は最新のAIテクノロジーに対応し、AIインフラストラクチャが将来のワークロードに合わせて最適化されていることを確認できます。
NeuReality:企業がAIの可能性を把握できるようにする
NeuRealityの破壊的なAI-CPUテクノロジーは、推論AI展開を経済的に効果的な方法で提供し、GPUのパフォーマンスを最大化しながら、AIクエリとトークンを最適化して、最大のパフォーマンスと投資収益率を実現します。NeuRealityがイノベーションを続け、NR1推論アプライアンスの機能を拡大するにつれて、急成長しているAIの世界で企業が成長するための重要な同盟国になります。
パフォーマンス、費用対効果、および使いやすさに重点を置くことと、たゆまぬイノベーションへの取り組みを組み合わせることで、NeuRealityはAIの経済学を再形成し、あらゆる規模の企業がAIの可能性を把握できるようにする態勢を整えています。