การผงาดของ Llama Nemotron: การให้เหตุผลขั้นสูงเพื่อ AI ที่ชาญฉลาดยิ่งขึ้น
หัวใจสำคัญของกลยุทธ์ Nvidia คือการเปิดตัวตระกูลโมเดล AI Llama Nemotron โมเดลเหล่านี้มีความสามารถในการให้เหตุผลที่ได้รับการปรับปรุงอย่างมีนัยสำคัญ ซึ่งถือเป็นก้าวสำคัญในการแสวงหา AI ที่มีความซับซ้อนยิ่งขึ้น สร้างขึ้นบนโมเดล Llama แบบโอเพนซอร์สของ Meta Platforms Inc. ชุด Nemotron ได้รับการออกแบบมาเพื่อให้ Developer มีรากฐานที่แข็งแกร่งสำหรับการสร้าง AI Agent ขั้นสูง Agent เหล่านี้ได้รับการออกแบบมาเพื่อทำงานโดยมีการกำกับดูแลของมนุษย์น้อยที่สุด ซึ่งแสดงถึงความก้าวหน้าครั้งสำคัญในด้านความเป็นอิสระของ AI
Nvidia ประสบความสำเร็จในการปรับปรุงเหล่านี้ผ่านการปรับปรุงหลังการฝึกอบรมอย่างพิถีพิถัน ลองนึกภาพว่าเป็นการนำนักเรียนที่มีทักษะอยู่แล้วมาให้การสอนพิเศษเฉพาะทาง “การสอนพิเศษ” นี้มุ่งเน้นไปที่การเพิ่มความสามารถของโมเดลในด้านคณิตศาสตร์หลายขั้นตอน การเขียนโค้ด การตัดสินใจที่ซับซ้อน และการให้เหตุผลโดยรวม ผลลัพธ์ที่ได้ ตามที่ Nvidia ระบุ คือความแม่นยำเพิ่มขึ้น 20% เมื่อเทียบกับโมเดล Llama ดั้งเดิม แต่การปรับปรุงไม่ได้หยุดอยู่ที่ความแม่นยำเท่านั้น ความเร็วในการอนุมาน – โดยหลักแล้วคือความเร็วที่โมเดลสามารถประมวลผลข้อมูลและให้คำตอบ – เพิ่มขึ้นถึงห้าเท่า สิ่งนี้แปลเป็นการจัดการงานที่ซับซ้อนมากขึ้นด้วยต้นทุนการดำเนินงานที่ลดลง ซึ่งเป็นปัจจัยสำคัญสำหรับการปรับใช้ในโลกแห่งความเป็นจริง
โมเดล Llama Nemotron มีให้เลือกสามขนาดที่แตกต่างกันผ่านแพลตฟอร์ม NIM microservices ของ Nvidia:
- Nano: ปรับแต่งสำหรับการปรับใช้บนอุปกรณ์ที่มีกำลังการประมวลผลจำกัด เช่น คอมพิวเตอร์ส่วนบุคคลและอุปกรณ์ Edge สิ่งนี้เปิดโอกาสให้ AI Agent ทำงานในสภาพแวดล้อมที่มีทรัพยากรจำกัด
- Super: ปรับให้เหมาะสมสำหรับการทำงานบนหน่วยประมวลผลกราฟิก (GPU) เดียว สิ่งนี้ให้ความสมดุลระหว่างประสิทธิภาพและความต้องการทรัพยากร
- Ultra: ออกแบบมาเพื่อประสิทธิภาพสูงสุด ซึ่งต้องใช้เซิร์ฟเวอร์ GPU หลายตัว สิ่งนี้รองรับแอปพลิเคชันที่ต้องการความสามารถ AI ในระดับสูงสุด
กระบวนการปรับแต่งนั้นใช้ประโยชน์จากแพลตฟอร์ม Nvidia DGX Cloud โดยใช้ข้อมูลสังเคราะห์คุณภาพสูงจาก Nvidia Nemotron พร้อมกับชุดข้อมูลที่คัดสรรของ Nvidia เอง ในการเคลื่อนไหวที่ส่งเสริมความโปร่งใสและการทำงานร่วมกัน Nvidia กำลังเปิดเผยชุดข้อมูลเหล่านี้ เครื่องมือที่ใช้ และรายละเอียดของเทคนิคการเพิ่มประสิทธิภาพต่อสาธารณะ แนวทางแบบเปิดนี้สนับสนุนให้ชุมชน AI ในวงกว้างสร้างขึ้นจากงานของ Nvidia และพัฒนาโมเดล Reasoning พื้นฐานของตนเอง
ผลกระทบของ Llama Nemotron นั้นชัดเจนอยู่แล้วในความร่วมมือที่ Nvidia ได้สร้างขึ้น ผู้เล่นหลักอย่าง Microsoft Corp. กำลังรวมโมเดลเหล่านี้เข้ากับบริการบนคลาวด์ของตน
- Microsoft กำลังให้บริการเหล่านี้บนบริการ Azure AI Foundry
- นอกจากนี้ยังจะเสนอเป็นตัวเลือกสำหรับลูกค้าที่สร้าง Agent ใหม่โดยใช้ Azure AI Agent Service สำหรับ Microsoft 365
- SAP SE กำลังใช้ประโยชน์จาก Llama Nemotron เพื่อปรับปรุง AI assistant, Joule และกลุ่มผลิตภัณฑ์ SAP Business AI ที่กว้างขึ้น
- บริษัทที่มีชื่อเสียงอื่นๆ รวมถึง Accenture Plc, Atlassian Corp., Box Inc. และ ServiceNow Inc. ก็กำลังร่วมมือกับ Nvidia เพื่อให้ลูกค้าของตนสามารถเข้าถึงโมเดลเหล่านี้ได้
นอกเหนือจากโมเดล: ระบบนิเวศที่ครอบคลุมสำหรับ Agentic AI
Nvidia เข้าใจดีว่าการสร้าง AI Agent นั้นต้องการมากกว่าแค่ Language Model ที่ทรงพลัง จำเป็นต้องมีระบบนิเวศที่สมบูรณ์ ซึ่งครอบคลุมโครงสร้างพื้นฐาน เครื่องมือ ท่อส่งข้อมูล และอื่นๆ บริษัทกำลังจัดการกับความต้องการเหล่านี้ด้วยชุด Building Blocks เพิ่มเติมสำหรับ Agentic AI ซึ่งประกาศในงาน GTC 2025 ด้วย
Nvidia AI-Q Blueprint: เชื่อมโยงความรู้กับการกระทำ
Framework นี้ได้รับการออกแบบมาเพื่ออำนวยความสะดวกในการเชื่อมต่อระหว่างฐานความรู้และ AI Agent ทำให้พวกเขาสามารถดำเนินการได้อย่างอิสระ สร้างขึ้นโดยใช้ Nvidia NIM microservices และผสานรวมกับ Nvidia NeMo Retriever, Blueprint ช่วยลดความยุ่งยากในกระบวนการดึงข้อมูล Multimodal – ข้อมูลในรูปแบบต่างๆ เช่น ข้อความ รูปภาพ และเสียง – สำหรับ AI Agent
Nvidia AI Data Platform: เพิ่มประสิทธิภาพการไหลของข้อมูลสำหรับการให้เหตุผล
การออกแบบอ้างอิงที่ปรับแต่งได้นี้กำลังเปิดให้ผู้ให้บริการพื้นที่เก็บข้อมูลรายใหญ่ เป้าหมายคือการช่วยเหลือบริษัทต่างๆ เช่น Dell Technologies Inc., Hewlett Packard Enterprise Co., Hitachi Vantara, IBM Corp., NetApp Inc.. Nutanix Inc., Vast Data Inc. และ Pure Storage Inc. ในการพัฒนาแพลตฟอร์มข้อมูลที่มีประสิทธิภาพมากขึ้นโดยเฉพาะสำหรับภาระงานการอนุมาน Agentic AI ด้วยการรวมทรัพยากรพื้นที่เก็บข้อมูลที่ปรับให้เหมาะสมเข้ากับฮาร์ดแวร์ประมวลผลแบบเร่งความเร็วของ Nvidia Developer สามารถคาดหวังประสิทธิภาพที่เพิ่มขึ้นอย่างมากในการให้เหตุผลของ AI สิ่งนี้ทำได้โดยการรับรองการไหลของข้อมูลที่ราบรื่นและรวดเร็วจากฐานข้อมูลไปยังโมเดล AI
Nvidia NIM Microservices ที่ได้รับการปรับปรุง: การเรียนรู้และการปรับตัวอย่างต่อเนื่อง
Nvidia’s NIM microservices ได้รับการปรับปรุงเพื่อเพิ่มประสิทธิภาพการอนุมาน Agentic AI โดยรองรับการเรียนรู้และการปรับตัวอย่างต่อเนื่อง Microservices เหล่านี้ช่วยให้ลูกค้าสามารถปรับใช้โมเดล Agentic AI ล่าสุดและทรงพลังที่สุดได้อย่างน่าเชื่อถือ รวมถึง Llama Nemotron ของ Nvidia และทางเลือกอื่นจากบริษัทต่างๆ เช่น Meta, Microsoft และ Mistral AI
Nvidia NeMo Microservices: การสร้าง Data Flywheels ที่แข็งแกร่ง
Nvidia ยังปรับปรุง NeMo microservices ซึ่งเป็น Framework สำหรับ Developer ในการสร้าง Data Flywheels ที่แข็งแกร่งและมีประสิทธิภาพ สิ่งนี้มีความสำคัญอย่างยิ่งต่อการรับรองว่า AI Agent สามารถเรียนรู้และปรับปรุงอย่างต่อเนื่องโดยอิงจากทั้ง Feedback ที่สร้างโดยมนุษย์และ AI
ความร่วมมือเชิงกลยุทธ์: ขับเคลื่อนนวัตกรรมทั่วทั้งภูมิทัศน์ AI
ความมุ่งมั่นของ Nvidia ต่อ Agentic AI ขยายไปถึงความร่วมมือกับผู้นำอุตสาหกรรมอื่นๆ
การขยายความร่วมมือกับ Oracle: Agentic AI บน Oracle Cloud Infrastructure
Nvidia กำลังขยายความร่วมมือกับ Oracle Corp. เพื่อนำความสามารถ Agentic AI มาสู่ Oracle Cloud Infrastructure (OCI) ความร่วมมือนี้เกี่ยวข้องกับการรวม GPU แบบเร่งความเร็วและซอฟต์แวร์การอนุมานของ Nvidia เข้ากับโครงสร้างพื้นฐานระบบคลาวด์ของ Oracle ทำให้เข้ากันได้กับบริการ Generative AI ของ Oracle สิ่งนี้จะเร่งการพัฒนา AI Agent บน OCI ขณะนี้ Nvidia นำเสนอเครื่องมือ AI และ NIM microservices มากกว่า 160 รายการผ่านคอนโซล OCI ทั้งสองบริษัทยังทำงานเพื่อเร่งการค้นหาเวกเตอร์บนแพลตฟอร์ม Oracle Database 23ai
การทำงานร่วมกันอย่างลึกซึ้งกับ Google: การปรับปรุงการเข้าถึงและความสมบูรณ์ของ AI
Nvidia ยังให้ข้อมูลอัปเดตเกี่ยวกับการขยายความร่วมมือกับ Google LLC โดยเปิดเผยความคิดริเริ่มหลายอย่างที่มุ่งปรับปรุงการเข้าถึง AI และเครื่องมือพื้นฐาน
ไฮไลท์สำคัญคือ Nvidia กลายเป็นองค์กรแรกที่ใช้ประโยชน์จาก SynthID ของ Google DeepMind เทคโนโลยีนี้ฝังลายน้ำดิจิทัลโดยตรงลงในเนื้อหาที่สร้างโดย AI รวมถึงรูปภาพ วิดีโอ และข้อความ สิ่งนี้ช่วยรักษาความสมบูรณ์ของผลลัพธ์ AI และต่อสู้กับข้อมูลที่ผิด SynthID กำลังถูกรวมเข้ากับโมเดลพื้นฐาน Cosmos World ของ Nvidia ในขั้นต้น
นอกจากนี้ Nvidia ยังได้ร่วมมือกับนักวิจัย DeepMind ของ Google เพื่อเพิ่มประสิทธิภาพ Gemma ซึ่งเป็นตระกูลโมเดล AI แบบโอเพนซอร์สและน้ำหนักเบา สำหรับ GPU ของ Nvidia ทั้งสองบริษัทยังร่วมมือกันในโครงการริเริ่มเพื่อสร้างหุ่นยนต์ที่ขับเคลื่อนด้วย AI ที่มีความสามารถในการจับ รวมถึงโครงการอื่นๆ
ความร่วมมือระหว่างนักวิจัยและวิศวกรของ Google และ Nvidia กำลังจัดการกับความท้าทายที่หลากหลาย ตั้งแต่การค้นพบยาไปจนถึงหุ่นยนต์ โดยเน้นถึงศักยภาพในการเปลี่ยนแปลงของ