NeuReality บริษัทผู้บุกเบิกด้านสถาปัตยกรรม AI Inference ที่ออกแบบมาเพื่อตอบสนองความต้องการของ AI Models และ Workloads ในปัจจุบัน ประกาศว่า NR1 Inference Appliance มาพร้อมกับ Enterprise AI Models ยอดนิยม เช่น Llama, Mistral, Qwen, Granite และรองรับ Private Generative AI Clouds และ Local Clusters อุปกรณ์ที่พร้อมสำหรับ Generative และ Agentic AI นี้สามารถเริ่มต้นใช้งานได้ภายใน 30 นาที มอบ Velocity of Value ที่เร็วกว่า 3 เท่า ช่วยให้ลูกค้าสามารถสร้างสรรค์สิ่งใหม่ ๆ ได้รวดเร็วยิ่งขึ้น Proof-of-Concept (PoC) ในปัจจุบันแสดงให้เห็นถึง Throughput ของ Token ที่สูงกว่าถึง 6.5 เท่า เมื่อเทียบกับ Inference Servers ที่ใช้ x86 CPUs ภายใต้ Budget และ Power Envelope เดียวกัน ทำให้ Enterprises และหน่วยงานภาครัฐทุกขนาดสามารถเข้าถึงและใช้งาน AI ได้อย่างคุ้มค่า
ภายใน NR1® Chip ซึ่งเป็น AI-CPU ตัวแรกที่ออกแบบมาโดยเฉพาะสำหรับการจัดการ Inference (Data, Tasks และ Integration) พร้อมด้วย Software, Services และ APIs ในตัว ไม่เพียงแต่รวมสถาปัตยกรรม CPU และ NIC แบบดั้งเดิมเข้าไว้ด้วยกัน แต่ยังรวมเอา Processing Power ที่มากกว่าถึง 6 เท่า ไว้ใน Chip เพื่อให้ทันกับการพัฒนาอย่างรวดเร็วของ GPUs พร้อมทั้งขจัด Bottlenecks ของ CPU แบบดั้งเดิม
NR1 Chip ทำงานร่วมกับ GPUs หรือ AI Accelerators ภายใน Appliance เพื่อมอบประสิทธิภาพด้าน Cost, Energy และพื้นที่ที่ก้าวกระโดด ซึ่งมีความสำคัญอย่างยิ่งต่อการนำ AI ไปใช้ในวงกว้าง ตัวอย่างเช่น เมื่อเปรียบเทียบ Llama 3.3-70B Model เดียวกันและการตั้งค่า GPU หรือ AI Accelerator เดียวกัน NR1 AI-CPU Powered Appliance ของ NeuReality สามารถลดต้นทุนรวมต่อ AI Token หนึ่งล้านรายการได้มากกว่าเมื่อเทียบกับ Servers ที่ใช้ x86 CPUs
Moshe Tanach ผู้ร่วมก่อตั้งและ CEO ของ NeuReality กล่าวว่า "ไม่มีใครตั้งคำถามถึงศักยภาพของ AI ความท้าทายคือทำอย่างไรให้การติดตั้ง AI Inference เป็นไปได้ในเชิงเศรษฐกิจ เทคโนโลยี AI-CPU ที่พลิกโฉมของ NeuReality ช่วยขจัด Bottlenecks ทำให้เราสามารถมอบ Performance ที่จำเป็นเพื่อปลดล็อกศักยภาพของ GPUs ได้อย่างเต็มที่ พร้อมทั้งประสานงาน AI Queries และ Tokens เพื่อเพิ่มประสิทธิภาพและ ROI ของระบบ AI ที่มีราคาสูงเหล่านี้"
Tanach กล่าวเสริมว่า "ตอนนี้เรากำลังยกระดับความสะดวกในการใช้งานไปอีกขั้นด้วย AI Inference Appliance แบบ Silicon-to-Software ที่ผสานรวมทุกอย่างไว้ด้วยกัน มาพร้อมกับ AI Models และ Tools ทั้งหมดซึ่งช่วยให้ AI Software Developers สามารถ Deploy AI ได้เร็วกว่า ง่ายกว่า และถูกกว่าที่เคย ทำให้พวกเขาสามารถเปลี่ยน Resources ไปใช้ในการประยุกต์ใช้ AI ในธุรกิจของตน แทนที่จะมุ่งเน้นไปที่การ Integration และ Optimization ของ Infrastructure"
จากการศึกษาล่าสุดพบว่าประมาณ 70% ของ Enterprises รายงานว่าใช้ Generative AI ในอย่างน้อยหนึ่ง Business Function ซึ่งบ่งชี้ถึงความต้องการที่เพิ่มขึ้น อย่างไรก็ตาม มีเพียง 25% เท่านั้นที่มี Processes ที่ขับเคลื่อนด้วย AI อย่างเต็มรูปแบบ และมีการนำไปใช้อย่างแพร่หลาย และมีเพียงหนึ่งในสามเท่านั้นที่เริ่มดำเนินการ Limited AI Use Cases
ในปัจจุบัน CPU Performance Bottlenecks บน Servers ที่จัดการ Multimodal และ Large Language Model Workloads เป็นปัจจัยหลักที่นำไปสู่ GPU Utilization ที่ต่ำเพียง 30-40% สิ่งนี้ทำให้เกิดการสูญเสีย Silicon ที่มีราคาสูงในการติดตั้ง AI และตลาดที่ยังไม่ได้รับบริการ (Underserved) ซึ่งยังคงเผชิญกับความซับซ้อนและอุปสรรคด้านต้นทุน
Rashid Attar รองประธานอาวุโสฝ่ายวิศวกรรมของ Qualcomm Technologies, Inc. กล่าวว่า "Enterprises และ Service Providers กำลัง Deploy AI Applications และ Agents ด้วยความเร็วที่ไม่เคยมีมาก่อน และกำลังมุ่งเน้นไปที่การส่งมอบ Performance ในลักษณะที่ประหยัดต้นทุน ด้วยการ Integration Qualcomm Cloud AI 100 Ultra Accelerators กับสถาปัตยกรรม AI-CPU ของ NeuReality ผู้ใช้สามารถบรรลุถึงระดับ Cost Efficiency และ AI Performance ใหม่ ๆ โดยไม่กระทบต่อความง่ายในการ Deploy และ Scale"
NR1 Appliance ของ NeuReality ได้รับการ Deploy ร่วมกับ Cloud และ Financial Services Customers ได้รับการออกแบบมาโดยเฉพาะเพื่อเร่งการนำ AI ไปใช้ผ่านความคุ้มค่า ความสามารถในการเข้าถึง และประสิทธิภาพด้านพื้นที่ เหมาะสำหรับ On-Premises และ Cloud Inference-as-a-Service Options นอกเหนือจากการเปิดตัว Generative และ Agentic AI Models ที่โหลดไว้ล่วงหน้า และ Release ใหม่ทุกไตรมาสแล้ว ยังได้รับการปรับแต่งอย่างเต็มที่ด้วย Pre-Configured Software Development Kits และ APIs สำหรับ Computer Vision, Conversational AI หรือ Custom Requests ที่รองรับ Business AI Use Cases และ Markets ต่าง ๆ (เช่น Financial Services, Life Sciences, Government, Cloud Service Providers)
NR1 Appliance ตัวแรกรวม NR1® Module (PCIe Card) เข้ากับ Qualcomm® Cloud AI 100 Ultra Accelerator
NeuReality จะจัดแสดงที่ InnoVEX (ซึ่งจัดร่วมกับ Computex) ที่ไทเป ไต้หวัน ระหว่างวันที่ 20-23 พฤษภาคม 2025 ที่ Israeli Pavilion, Hall 2, Booth S0912 (ใกล้กับ Central Stage) บริษัทจะจัดการ Live Demonstration ของ NR1 Inference Appliance รวมถึงการ Migrate แอปพลิเคชันแชทภายในไม่กี่นาที และการสาธิตประสิทธิภาพของ NR1 Chip ที่รัน Smooth Factory Models และ DeepSeek-R1-Distill-Llama-8B
NeuReality ก่อตั้งขึ้นในปี 2019 เป็นผู้บุกเบิกสถาปัตยกรรม AI Inference เฉพาะที่ขับเคลื่อนโดย NR1® Chip ซึ่งเป็น AI-CPU ตัวแรกสำหรับการ Orchestration ของ Inference NR1 ที่ใช้สถาปัตยกรรมแบบ Open, Standards-Based เข้ากันได้กับ AI Accelerators ทุกชนิด ภารกิจของ NeuReality คือการทำให้ AI สามารถเข้าถึงได้และแพร่หลายโดยการลดอุปสรรคที่เกี่ยวข้องกับ Cost, Power Consumption ที่สูง และ Complexity และโดยการใช้ประโยชน์จากเทคโนโลยีที่พลิกโฉมเพื่อขยายการนำ AI Inference ไปใช้ บริษัทมีพนักงาน 80 คนในสถานที่ต่าง ๆ ในอิสราเอล โปแลนด์ และสหรัฐอเมริกา
AI Models ที่โหลดไว้ล่วงหน้าและ Optimized สำหรับ Enterprise Customers ได้แก่: Llama 3.3 70B, Llama 3.1 8B (Llama 4 Series จะมาเร็ว ๆ นี้); Mistral 7B, Mistral 8x7B และ Mistral Small; Qwen 2.5 รวมถึง Coder (Qwen 3 จะมาเร็ว ๆ นี้); DeepSeek R1**-**Distill-Llama 8B, R1 Distill-Llama 70b; และ Granite 3, 3.1 8B (Granite 3.3 จะมาเร็ว ๆ นี้)
NR1 Inference Appliance: ตัวเปลี่ยนเกม
หัวใจสำคัญของ NR1 Inference Appliance คือ AI-CPU ที่สร้างขึ้นโดยเฉพาะของ NeuReality ซึ่งทำหน้าที่เป็นศูนย์กลางการควบคุมแบบรวมศูนย์สำหรับ Data, Tasks และ Integration ซึ่งแตกต่างจากสถาปัตยกรรม CPU และ NIC แบบดั้งเดิม NR1 Chip รวมส่วนประกอบเหล่านี้ไว้ในหน่วยเดียว ลด Bottlenecks และเพิ่ม Processing Power ให้สูงสุด แนวทางการ Integration นี้ช่วยให้ Chip สามารถตามทันการพัฒนาอย่างรวดเร็วของ GPUs พร้อมทั้งเพิ่มประสิทธิภาพ AI Queries และ Tokens เพื่อปรับปรุง Performance และ ROI
AI พร้อมใช้งานนอกกรอบ: การปรับปรุง Deployment ให้ง่ายขึ้น
เพื่อปรับปรุงความสะดวกในการใช้งานให้ดียิ่งขึ้น NR1 Inference Appliance มาพร้อมกับ Enterprise AI Models ยอดนิยม รวมถึง Llama, Mistral, Qwen และ Granite คุณสมบัตินี้ช่วยลดความซับซ้อนของการ Config และOptimization ทำให้ AI Software Developers สามารถมุ่งเน้นไปที่การประยุกต์ใช้ AI ในธุรกิจของตน แทนที่จะใช้เวลาในการ Integration ของ Infrastructure Appliance นี้สามารถเริ่มต้นใช้งานได้ภายใน 30 นาที มอบ Velocity of Value ที่รวดเร็วแก่ Customers
AI ที่คุ้มค่า: เร่งการนำไปใช้
เทคโนโลยีของ NeuReality ช่วยให้ Enterprises สามารถเข้าถึงและใช้งาน AI ได้อย่างคุ้มค่ามากขึ้น โดยการมอบ Cost per AI Token Total ที่ต่ำกว่าเมื่อเทียบกับ Servers ที่ใช้ x86 CPUs Cost Efficiency นี้มีความสำคัญอย่างยิ่งสำหรับ Enterprises และหน่วยงานภาครัฐทุกขนาด เนื่องจากช่วยลดอุปสรรคในการ Deployment ของ AI และทำให้ Application ที่หลากหลายเป็นไปได้
ความร่วมมือกับ Qualcomm Technologies: ปลดล็อกระดับ Performance ใหม่
ความร่วมมือเชิงกลยุทธ์ระหว่าง NeuReality และ Qualcomm Technologies ช่วยเพิ่มขีดความสามารถของ NR1 Inference Appliance ไปอีกขั้น ด้วยการ Integration Qualcomm Cloud AI 100 Ultra Accelerator เข้ากับสถาปัตยกรรม AI-CPU ของ NeuReality ผู้ใช้สามารถบรรลุถึงระดับ Cost Efficiency และ AI Performance ใหม่ โดยไม่กระทบต่อความง่ายในการ Deploy และ Scale แนวทางการทำงานร่วมกันนี้แสดงให้เห็นถึงความมุ่งมั่นของ NeuReality ในการใช้ประโยชน์จากเทคโนโลยีล้ำสมัยเพื่อปรับปรุง AI Inference Solutions ให้เหมาะสม
การแก้ไขปัญหา Enterprise AI: การปรับปรุง GPU Utilization
NeuReality กำลังแก้ไขความท้าทายที่สำคัญที่ Enterprises เผชิญอยู่ นั่นคือ CPU Performance Bottlenecks บน Servers ซึ่งช่วยลด GPU Utilization โดยทั่วไปแล้ว Servers ที่จัดการ Multimodal และ Large Language Model Workloads มี GPU Utilization โดยเฉลี่ยต่ำเพียง 30-40% Low Utilization นี้ทำให้เกิดการสูญเสีย Silicon ที่มีราคาสูงในการ Deploy AI และจำกัดการนำ AI ไปใช้ในตลาดที่ยังไม่ได้รับบริการ AI-CPU Technology ของ NeuReality แก้ไขปัญหานี้โดยการขจัด Performance Bottlenecks ช่วยให้ Enterprises สามารถใช้ประโยชน์จาก GPU ใน Applications AI ได้อย่างเต็มที่
การตอบสนองความต้องการของ Generative AI: การเพิ่ม Utilization
Solutions ของ NeuReality สอดคล้องกับตลาด Generative AI ที่เติบโตอย่างรวดเร็ว การศึกษาล่าสุดชี้ให้เห็นว่าประมาณ 70% ของ Enterprises รายงานว่าใช้ Generative AI ในอย่างน้อยหนึ่ง Business Function อย่างไรก็ตาม มีเพียง 25% เท่านั้นที่มี Processes ที่ขับเคลื่อนด้วย AI อย่างเต็มรูปแบบ และมีการนำไปใช้อย่างแพร่หลาย NR1 Inference Appliance ของ NeuReality ช่วยให้ Enterprises สามารถเร่ง Generative AI Initiatives ได้โดยการขจัดอุปสรรคในการ Adoption ผ่านการปรับปรุงความสะดวกในการใช้งาน Cost Efficiency และ Performance
ความสะดวกในการใช้งาน: การลดอุปสรรคในการ Deployment
นอกเหนือจาก Performance และ Cost Efficiency แล้ว ความสะดวกในการใช้งานยังเป็นปัจจัยขับเคลื่อนที่สำคัญของ AI Solutions ของ NeuReality อีกด้วย NR1 Inference Appliance มาพร้อมกับ AI Models และ Software Development Kits ซึ่งช่วยลดความซับซ้อนของ Deployment Process และลดความต้องการในการ Integration และ Optimizations ของ Infrastructure ความสะดวกในการใช้งานนี้ช่วยให้ AI Software Developers สามารถมุ่งเน้นไปที่การสร้างและ Deploy Innovative AI Applications แทนที่จะใช้เวลาในการจัดการ Infrastructure ที่ซับซ้อน
Applications ที่หลากหลาย: หลายอุตสาหกรรม
NR1 Inference Appliance ของ NeuReality ได้รับการออกแบบมาเพื่อรองรับ Business AI Use Cases และ Markets ที่หลากหลาย Appliance ได้รับการปรับแต่งด้วย Pre-Configured Software Development Kits และ APIs สำหรับ Computer Vision, Conversational AI และ Custom Requests ความสามารถรอบด้านนี้ทำให้ NR1 Inference Appliance เหมาะสำหรับอุตสาหกรรมที่หลากหลาย รวมถึง Financial Services, Life Sciences, Government และ Cloud Service Providers
การเร่งการนำ AI ไปใช้: ความคุ้มค่า, ความสามารถในการเข้าถึง และประสิทธิภาพด้านพื้นที่
NR1 Appliance ของ NeuReality ส่งเสริมการนำ AI ไปใช้โดยการมอบทั้งความคุ้มค่าและความสามารถในการเข้าถึง ทำให้เหมาะสำหรับ Infrastructure ในสถานที่และ Cloud องค์กรจำนวนมากกำลังพยายาม Scale AI Initiatives เนื่องจาก Cost และ Complexity ที่สูง NeuReality’s Solution แก้ไขอุปสรรคเหล่านี้โดยการนำเสนอ Open, Standards-Based Platform ที่คุ้มค่า ซึ่งช่วยปรับปรุงการพัฒนาและการ Deployment ของ AI
ไฮไลท์การสาธิต
NeuReality จะจัดแสดง NR1 Inference Engine ที่ InnoVEX ที่ Computex ในไทเป ไต้หวัน ตั้งแต่วันที่ 20 ถึง 23 พฤษภาคม 2025 เพื่อแสดงให้เห็นถึงความสามารถ ในงานนี้ บริษัทจะสาธิตวิธีที่แอปพลิเคชันแชทสามารถ Migrate ได้อย่างง่ายดายในไม่กี่นาที และแสดงให้เห็นถึงประสิทธิภาพของ NR1 Chip ใน Smooth Factory Models และ DeepSeek-R1-Distill-Llama-8B
นวัตกรรมอย่างต่อเนื่อง: เตรียมพร้อมสำหรับอนาคต
NeuReality มุ่งมั่นที่จะปรับปรุงความสามารถของ NR1 Inference Appliance อย่างต่อเนื่องโดยการ Releasing Generative และ Agent AI Models ใหม่ ๆ อย่างสม่ำเสมอ และชุดเครื่องมือ Software Development ที่ Optimized นวัตกรรมอย่างต่อเนื่องนี้ช่วยให้ Enterprises สามารถติดตามเทคโนโลยี AI ล่าสุด และตรวจสอบให้แน่ใจว่า Infrastructure AI ของตนได้รับการ Optimized สำหรับ Workloads ในอนาคต
NeuReality: การเพิ่มขีดความสามารถให้ Enterprises เพื่อควบคุมศักยภาพของ AI
AI-CPU Technology ที่พลิกโฉมของ NeuReality มอบวิธีที่คุ้มค่าในการ Deploy Inference AI Deployments ปลดล็อก Performance ของ GPUs ให้สูงสุด พร้อมทั้งเพิ่มประสิทธิภาพ AI Queries และ Tokens เพื่อให้ได้ Performance และ ROI สูงสุด ในขณะที่ NeuReality ยังคงสร้างสรรค์สิ่งใหม่ ๆ และขยายขีดความสามารถของ NR1 Inference Appliance ต่อไป จะเป็นพันธมิตรที่สำคัญสำหรับ Enterprises ที่กำลังเติบโตในโลก AI ที่เฟื่องฟู
ด้วยการรวมความสำคัญของ Performance, Cost Efficiency และความสะดวกในการใช้งานเข้ากับความมุ่งมั่นในนวัตกรรมอย่างต่อเนื่อง NeuReality จึงอยู่ในตำแหน่งที่จะพลิกโฉมเศรษฐศาสตร์ AI และเปิดใช้งาน Enterprises ทุกขนาดเพื่อควบคุมศักยภาพของ AI