NeuReality, pelopor dalam merevolusi arsitektur inferensi AI untuk memenuhi kebutuhan model dan beban kerja AI saat ini, mengumumkan bahwa perangkat inferensi NR1-nya sekarang dilengkapi dengan model AI perusahaan populer, termasuk Llama, Mistral, Qwen, Granite 1, dan mendukung cloud AI generatif pribadi dan klaster lokal. Perangkat siap AI generatif dan berbasis agen ini berjalan dalam waktu kurang dari 30 menit, memberikan percepatan 3x time-to-value, memungkinkan pelanggan untuk berinovasi lebih cepat. Proof-of-Concept (PoC) saat ini menunjukkan hingga 6,5x throughput token pada biaya dan daya yang sama dibandingkan dengan server inferensi berbasis CPU x86, memungkinkan perusahaan dan pemerintah dari semua ukuran untuk mengakses dan menggunakan AI dengan cara yang lebih terjangkau.
Di dalam perangkat, chip NR1® adalah AI-CPU sejati pertama yang dibuat untuk orkestrasi inferensi – manajemen data, tugas, dan integrasi – dengan perangkat lunak, layanan, dan API built-in. Ini tidak hanya menggabungkan arsitektur CPU dan NIC tradisional menjadi satu, tetapi juga mengemas daya pemrosesan 6x ke dalam chip untuk mengimbangi laju GPU yang cepat, sekaligus menghilangkan hambatan CPU tradisional.
Dipasangkan dengan GPU atau akselerator AI apa pun di dalam perangkatnya, chip NR1 memberikan efisiensi biaya, energi, dan ruang yang revolusioner, yang sangat penting untuk adopsi AI perusahaan secara luas. Misalnya, membandingkan model Llama 3.3-70B yang sama dan pengaturan GPU atau akselerator AI yang sama, perangkat yang didukung AI-CPU NeuReality mencapai total biaya per juta token AI yang lebih rendah daripada server berbasis CPU x86.
“Tidak ada yang akan mempertanyakan potensi besar AI. Tantangannya adalah bagaimana membuat penyebaran inferensi AI layak secara ekonomi,” kata Moshe Tanach, salah satu pendiri dan CEO NeuReality. “Teknologi AI-CPU disruptif NeuReality menghilangkan hambatan, memungkinkan kami untuk memberikan kinerja tambahan yang dibutuhkan untuk membuka potensi penuh GPU, sekaligus mengoordinasikan permintaan dan token AI untuk memaksimalkan kinerja dan ROI sistem AI mahal ini.”
Tanach melanjutkan, “Sekarang kami telah membawa kemudahan penggunaan ke tingkat berikutnya dengan perangkat inferensi AI silikon-ke-perangkat lunak terintegrasi kami. Perangkat ini telah dimuat sebelumnya dengan model AI dan semua alat untuk membantu pengembang perangkat lunak AI menyebarkan AI lebih cepat, lebih mudah, dan lebih murah dari sebelumnya, memungkinkan mereka untuk mengalihkan sumber daya ke penerapan AI dalam bisnis mereka dan bukan pada integrasi dan optimalisasi infrastruktur.”
Sebuah studi baru-baru ini menemukan bahwa sekitar 70% perusahaan melaporkan menggunakan AI generatif dalam setidaknya satu fungsi bisnis, yang menunjukkan peningkatan permintaan. Namun, hanya 25% perusahaan yang memiliki proses yang sepenuhnya diaktifkan oleh AI dan mencapai adopsi yang luas, dan hanya sepertiga yang mulai menerapkan kasus penggunaan AI terbatas.
Saat ini, kemacetan kinerja CPU pada server yang mengelola beban kerja multi-modal dan model bahasa besar merupakan faktor utama yang berkontribusi pada pemanfaatan GPU rata-rata serendah 30-40%. Hal ini menghasilkan pemborosan silikon yang mahal dalam penyebaran AI, serta pasar yang kurang terlayani yang masih menghadapi kompleksitas dan hambatan biaya.
“Perusahaan dan penyedia layanan menyebarkan aplikasi dan agen AI dengan kecepatan yang memecahkan rekor, dan fokus pada penyediaan kinerja dengan cara yang terjangkau,” kata Rashid Attar, Wakil Presiden Senior Teknik di Qualcomm Technologies, Inc. “Dengan mengintegrasikan akselerator Qualcomm Cloud AI 100 Ultra dengan arsitektur AI-CPU NeuReality, pengguna dapat mencapai tingkat efisiensi biaya dan kinerja AI baru tanpa mengorbankan kemudahan penyebaran dan penskalaan.”
Perangkat NR1 NeuReality telah digunakan dengan pelanggan cloud dan layanan keuangan dan dirancang khusus untuk mempercepat adopsi AI melalui keterjangkauan, aksesibilitas, dan efisiensi ruang, cocok untuk opsi inferensi-sebagai-layanan di tempat dan di cloud. Selain model AI generatif dan berbasis agen yang telah dimuat sebelumnya, dan rilis kuartalan baru, model ini juga dioptimalkan sepenuhnya dengan kit pengembangan perangkat lunak dan API yang telah dikonfigurasi sebelumnya untuk visi komputer, AI percakapan, atau permintaan khusus yang mendukung berbagai kasus penggunaan dan pasar bisnis (misalnya layanan keuangan, ilmu kehidupan, pemerintah, penyedia layanan cloud).
Perangkat NR1 pertama menyatukan modul NR1® (kartu PCIe) dengan akselerator Qualcomm® Cloud AI 100 Ultra.
NeuReality akan memamerkan pada tanggal 20-23 Mei 2025 di InnoVEX (bersamaan dengan Computex), Paviliun Israel, Booth No. S0912 Hall 2 (dekat panggung tengah) di Taipei, Taiwan. Perusahaan akan menyelenggarakan demonstrasi langsung perangkat inferensi NR1, termasuk migrasi aplikasi obrolan dalam hitungan menit, serta demonstrasi kinerja chip NR1 yang menjalankan Smooth Factory Models dan DeepSeek-R1-Distill-Llama-8B.
NeuReality, didirikan pada tahun 2019, adalah pelopor dalam arsitektur inferensi AI khusus yang ditenagai oleh chip NR1® – AI-CPU pertama untuk orkestrasi inferensi. Berdasarkan arsitektur terbuka dan berbasis standar, NR1 sepenuhnya kompatibel dengan akselerator AI apa pun. Misi NeuReality adalah menjadikan AI dapat diakses dan di mana-mana dengan menghilangkan hambatan yang terkait dengan biaya tinggi, konsumsi daya, dan kompleksitas, dan dengan memanfaatkan teknologi disruptifnya untuk memperluas adopsi inferensi AI. Perusahaan memiliki 80 karyawan di fasilitas di Israel, Polandia, dan Amerika Serikat.
1 Model AI pra-muat dan dioptimalkan untuk pelanggan perusahaan meliputi: Llama 3.3 70B, Llama 3.1 8B (Seri Llama 4 segera hadir); Mistral 7B, Mistral 8x7B, dan Mistral Small; Qwen 2.5, termasuk Coder (Qwen 3 segera hadir); DeepSeek R1**-**Distill-Llama 8B, R1 Distill-Llama 70b; dan Granite 3, 3.1 8B (Granite 3.3 segera hadir).
NR1: Pengubah Permainan dalam Inferensi AI
Perangkat inferensi NR1 adalah produk unggulan dari NeuReality dibangun dengan AI-CPU khusus, bertindak sebagai pusat kendali terpusat untuk data, tugas, dan integrasi. Tidak seperti arsitektur CPU dan NIC tradisional, chip NR1 mengintegrasikan komponen-komponen ini ke dalam satu unit, mengurangi kemacetan dan memaksimalkan daya pemrosesan. Pendekatan terintegrasi ini memungkinkan chip untuk mengimbangi laju GPU yang cepat, sambil mengoptimalkan permintaan dan token AI untuk meningkatkan kinerja dan pengembalian investasi.
AI Siap Pakai: Menyederhanakan Penyebaran
Untuk lebih meningkatkan kemudahan penggunaan, perangkat inferensi NR1 dilengkapi dengan model AI perusahaan populer, termasuk Llama, Mistral, Qwen, dan Granite. Fitur ini menghilangkan kerumitan konfigurasi dan optimasi, memungkinkan pengembang perangkat lunak AI untuk fokus menerapkan AI dalam bisnis mereka daripada menghabiskan waktu untuk integrasi infrastruktur. Perangkat dapat dihidupkan dan dijalankan dalam waktu kurang dari 30 menit, menawarkan nilai yang cepat bagi pelanggan.
AI Terjangkau: Mempercepat Adopsi
Teknologi NeuReality menyederhanakan akses dan penggunaan AI oleh perusahaan secara lebih efektif dengan memberikan biaya total per juta token AI yang kurang dari server berbasis CPU x86. Efektivitas biaya ini sangat penting bagi perusahaan dan pemerintah dari semua ukuran, karena mengurangi hambatan untuk penyebaran AI dan memungkinkan penerapan yang lebih luas.
Kolaborasi dengan Qualcomm Technologies: Membuka Tingkat Kinerja Baru
Kemitraan strategis antara NeuReality dan Qualcomm Technologies semakin menambah fungsionalitas perangkat inferensi NR1. Dengan mengintegrasikan akselerator Qualcomm Cloud AI 100 Ultra dengan arsitektur AI-CPU NeuReality, konsumen dapat mencapai tingkat kinerja AI dan efisiensi biaya baru tanpa mengorbankan kemudahan penyebaran dan penskalaan. Pendekatan kolaboratif ini menunjukkan komitmen NeuReality untuk memanfaatkan teknologi canggih untuk mengoptimalkan solusi inferensi AI.
Mengatasi Masalah AI Perusahaan: Peningkatan Pemanfaatan GPU
NeuReality mengatasi masalah signifikan yang dihadapi oleh perusahaan: kemacetan kinerja CPU pada server, yang menurunkan pemanfaatan GPU. Secara tradisional, server yang mengelola beban kerja multimodal dan model bahasa yang berat memiliki pemanfaatan GPU rata-rata serendah 30-40%. Pemanfaatan yang rendah ini membuang-buang silikon mahal dalam implementasi AI dan membatasi adopsi AI di pasar yang kurang terlayani. Teknologi AI-CPU NeuReality mengatasi masalah ini dengan menghilangkan kemacetan kinerja, memungkinkan perusahaan untuk sepenuhnya memanfaatkan kemampuan GPU mereka dalam aplikasi AI.
Memenuhi Permintaan AI Generatif: Peningkatan Pemanfaatan
Solusi NeuReality diposisikan secara menguntungkan di pasar AI generatif yang berkembang pesat. Penelitian terbaru menunjukkan bahwa sekitar 70% perusahaan mengatakan bahwa mereka menggunakan AI generatif di setidaknya satu fungsi bisnis. Namun, hanya 25% perusahaan yang memiliki proses yang sepenuhnya diaktifkan oleh AI dan mencapai adopsi yang luas. NR1 inferensi NeuReality memungkinkan perusahaan untuk berpartisipasi dalam inisiatif AI generatif mereka, mengatasi hambatan adopsi dengan meningkatkan kemudahan penggunaan, efektivitas biaya, dan kinerja.
Kemudahan Penggunaan: Mengurangi Hambatan Implementasi
Selain kinerja dan efektivitas biaya, kemudahan penggunaan adalah pendorong utama solusi AI NeuReality. Perangkat inferensi NR1 dilengkapi dengan model AI dan kit pengembangan perangkat lunak, yang menyederhanakan proses implementasi dan mengurangi kebutuhan untuk integrasi dan optimasi infrastruktur. Kemudahan penggunaan ini memungkinkan pengembang perangkat lunak AI untuk fokus membuat dan mengimplementasikan aplikasi AI inovatif daripada menghabiskan waktu untuk mengelola infrastruktur yang rumit.
Aplikasi Luas: Berbagai Industri
Perangkat inferensi NR1 NeuReality dirancang untuk mendukung berbagai kasus penggunaan dan pasar bisnis. Perangkat ini telah dioptimalkan untuk visi komputer, AI percakapan, dan permintaan khusus dengan kit pengembangan perangkat lunak dan API yang telah dikonfigurasi sebelumnya. Fleksibilitas ini membuat perangkat inferensi NR1 cocok untuk berbagai industri, termasuk layanan keuangan, ilmu kehidupan, pemerintah, dan penyedia layanan cloud.
Mempercepat Adopsi AI: Keterjangkauan, Aksesibilitas, dan Efisiensi Ruang
Perangkat NR1 NeuReality mendorong adopsi AI dengan menyediakan keterjangkauan dan aksesibilitas, yang membuatnya sesuai dengan infrastruktur lokal dan cloud. Banyak organisasi berjuang untuk meningkatkan inisiatif AI mereka karena biaya dan kompleksitasnya yang tinggi, tetapi solusi NeuReality mengurangi hambatan ini dengan menyediakan platform standar terbuka yang hemat biaya yang menyederhanakan pengembangan dan implementasi AI.
Sorotan Demo
NeuReality akan menampilkan mesin inferensi NR1 dalam demo di InnoVEX di Taipei Computer Show di Taipei, Taiwan, pada 20-23 Mei 2025, dengan menunjukkan kemampuan mesin tersebut. Selama acara, perusahaan akan menunjukkan kemudahan migrasi aplikasi obrolan dalam hitungan menit dan menampilkan chip NR1 dalam model pabrik Smooth dan DeepSeek-R1-Distill-Llama-8B.
Inovasi Berkelanjutan: Mempersiapkan Masa Depan
NeuReality berkomitmen untuk meningkatkan fungsionalitas perangkat inferensi NR1 dengan merilis model AI generatif dan berbasis agen baru secara berkala, serta kit pengembangan perangkat lunak yang dioptimalkan. Inovasi berkelanjutan ini memberdayakan perusahaan untuk tetap mendapat informasi tentang teknologi AI terbaru dan memastikan bahwa infrastruktur AI mereka dioptimalkan untuk beban kerja di masa mendatang.
NeuReality: Memberdayakan Perusahaan untuk Memahami Potensi AI
Teknologi disruptif AI-CPU NeuReality yang menyediakan cara hemat biaya untuk menerapkan penyebaran AI inferensi yang memaksimalkan kinerja GPU sambil mengoptimalkan token dan permintaan AI untuk kinerja dan pengembalian investasi yang maksimal. Saat NeuReality terus berinovasi dan memperluas kemampuan perangkat inferensi NR1, perusahaan ini bersiap untuk menjadi sekutu penting bagi perusahaan untuk berkembang di dunia AI yang berkembang.
Dengan menggabungkan fokus pada kemudahan penggunaan, biaya ekonomi, dan kinerja dengan komitmen terhadap inovasi berkelanjutan, NeuReality diposisikan untuk membentuk kembali AI ekonomi dan memberdayakan perusahaan di semua ukuran untuk memahami potensi AI.
NR1: Masa Depan AI
Diciptakan untuk menangani permintaan dan token AI, chip NR1 memfasilitasi kinerja dan pengembalian investasi yang maksimal untuk sistem AI yang mahal. Dengan kombinasi AI dan inovasi, chip NR1 sangat mengurangi biaya token AI untuk organisasi dari semua ukuran. Secara bersamaan, chip NR1 dan akselerator Qualcomm Cloud AI 100 Ultra menetapkan tingkat efisiensi biaya yang sama sekali baru tanpa mengorbankan kemudahan penskalaan atau implementasi. AI semacam ini, terjangkau dan efisien, semakin meningkatkan adopsi AI dan membangun jalan yang jelas menuju masa depan di mana AI dapat diakses dan digunakan secara luas oleh orang-orang di mana-mana.
AI dan Analisis Prediktif
Analisis prediktif sering kali merupakan landasan dari aplikasi AI yang membantu perusahaan membuat keputusan yang cerdas. Perangkat inferensi NR1 mendukung berbagai tugas analisis prediktif dengan memberikan platform untuk pemodelan prediktif yang cepat dan efektif. Misalnya, bisnis dapat memanfaatkan kemampuan inferensi cerdas dari perangkat NR1 dengan mengaitkannya dengan data historis dan algoritma pemodelan untuk memprediksi perubahan pasar, perilaku pelanggan, dan risiko operasional. Hasilnya, bisnis dapat mengoptimalkan rantai pasokan mereka, meningkatkan kampanye pemasaran mereka, dan mengurangi risiko secara efisien.
Pengalaman yang Ditingkatkan dengan Visi Komputer
Visi komputer adalah bidang aplikasi lain di mana perangkat NR1 sangat berhasil. Dengan memberikan kemampuan inferensi berkinerja tinggi, alat ini memungkinkan organisasi berpartisipasi dalam tugas yang berhubungan dengan visi yang kompleks secara efisien, berpartisipasi dalam fungsi-fungsi seperti pengawasan real-time, analisis gambar yang akurat, dan deteksi objek yang cerdas. Misalnya, untuk merampingkan pengukuran kualitas, perusahaan dapat menerapkan perangkat NR1 ke dalam proses manufaktur yang membantu menganalisis cacat produk melalui aliran visual yang sangat cepat memberikan umpan balik dengan cepat dan memastikan bahwa standar kualitas dijunjung tinggi.
AI Konversasional dan Chatbot
AI konversasional telah mengalami perubahan luar biasa dalam hal kemampuan dan popularitas selama beberapa tahun terakhir, dan perangkat inferensi NR1 berperan penting dalam meningkatkan aplikasi ini. Dengan kemampuan untuk mendukung bahasa alami tingkat lanjut dan model pemrosesan bahasa, perangkat ini memungkinkan bisnis menyebarkan chatbot bertenaga AI dan asisten virtual yang menawarkan keterlibatan pelanggan yang lebih baik dan respons yang tepat. Organisasi memanfaatkan perangkat inferensi NR1 untuk memfasilitasi interaksi ini, apakah digunakan untuk layanan pelanggan, dukungan teknis, atau bahkan hanya memberikan informasi.
Penelitian dan Pengembangan AI
Peneliti dan pengembang mengadopsi perangkat inferensi NR1 dengan semakin percaya diri sebagai alat yang berharga untuk membantu memajukan proyek AI mereka karena kapasitasnya yang tinggi dan fleksibilitas. Perangkat ini memungkinkan eksperimen cepat, pembuatan prototipe cepat, dan pengujian model AI inovatif. Perangkat ini sangat berguna untuk memajukan bidang AI, apakah seseorang melatih algoritma baru, menyempurnakan arsitektur yang sudah ada, atau menjelajahi batas-batas teknologi AI.
Keuntungan Cloud Service Provider (CSP)
Untuk penyedia layanan cloud, perangkat inferensi NT1 menawarkan serangkaian fitur yang memungkinkan mereka memberi perusahaan kemampuan inferensi AI yang baru dan ditingkatkan secara substansial. CSP menawarkan layanan inferensi AI yang efisien dan terukur ke berbagai pelanggan dengan menyediakan kemampuan untuk menerapkan perangkat ini ke pusat data mereka. Mengurangi total biaya kepemilikan, peningkatan pemanfaatan dan fleksibilitas, dan penurunan latensi layanan adalah keuntungan yang dinikmati oleh CSP yang menyediakan layanan inferensi ditenagai NR1.
Kemampuan yang Ditingkatkan dalam Layanan Keuangan
Sektor layanan keuangan adalah sektor yang sangat bergantung pada aplikasi AI karena berkontribusi pada banyak fungsi, termasuk penilaian risiko, pengintaian penipuan, perdagangan algoritmik, dan saran keuangan yang diperbarui. Perangkat inferensi NR1 memberdayakan organisasi keuangan untuk membuat keputusan waktu nyata yang lebih terinformasi dengan meningkatkan efisiensi dan kinerja inferensi proses pengambilan keputusan ini. Akibatnya, penipuan dapat dideteksi secara lebih akurat, dan risiko berkurang, serta pengalaman pelanggan ditingkatkan, membuat industri tersebut mematuhi peraturan yang lebih ketat.
Aplikasi Sektor Kesehatan
Dalam industri kesehatan, AI telah menjadi kunci untuk memajukan inovasi dan peningkatan perawatan pasien, yang mencakup semuanya mulai dari diagnosis dan perencanaan perawatan hingga penemuan obat dan analisis gambar yang ditingkatkan. Dengan mendorong solusi AI inovatif, perangkat NR1 mendukung analisis data medis yang sangat cepat, yang mengarah pada diagnosis akurat dan terapi yang dipersonalisasi. Alat yang luar biasa ini tidak diragukan lagi berperan dalam merevolusi kualitas dan efisiensi layanan kesehatan di seluruh dunia.
Keterangan
Semua yang dikatakan, teknologi disruptif AI-CPU NeuReality pada gilirannya menghilangkan hambatan dan memperkuat potensi besar GPU saat perusahaan berupaya mengurangi biaya dan meningkatkan ROI. Saat ini, terapkan AI lebih cepat, lebih mudah, dan lebih murah dari sebelumnya dengan chip NE1 yang berfokus pada memaksimalkan efektivitas biaya dan meningkatkan pemanfaatan daya. Jadi, apakah Anda penyedia layanan cloud, dalam keuangan, atau bahkan dalam layanan kesehatan — chip NE1 menawarkan kekuatan dan efisiensi bagi organisasi dari semua ukuran.