การปรับ AI สำหรับองค์กรและอื่น ๆ
ในการประชุม GPU Technical Conference (GTC) 2025 ที่ผ่านมา Jensen Huang ซีอีโอของ Nvidia ได้สรุปกลยุทธ์ของบริษัทในการปรับแต่งความสามารถด้านการประมวลผลแบบเร่งให้กับแอปพลิเคชันที่หลากหลาย ในขณะที่สปอตไลท์ส่องสว่างไปที่ GPU ‘Blackwell’ B300 รุ่นต่อไปของ Nvidia และตระกูลตัวเร่ง ‘Rubin’ ในอนาคต Huang ยังเน้นย้ำถึงความมุ่งมั่นของบริษัทในการตอบสนองความต้องการขององค์กร การประมวลผลแบบ Edge และขอบเขตของ AI เชิงกายภาพ
Huang เน้นว่าในขณะที่ผู้ให้บริการคลาวด์สนใจเทคโนโลยีล้ำสมัยของ Nvidia และแนวทางแบบ Full-Stack แต่การนำ AI มาใช้อย่างกว้างขวางนั้นต้องการกลยุทธ์ที่ละเอียดยิ่งขึ้น เขากล่าวว่า “การประมวลผลแบบเร่งไม่ได้เกี่ยวกับชิป มันไม่ได้เกี่ยวกับชิปและไลบรารี โมเดลการเขียนโปรแกรม มันคือชิป โมเดลการเขียนโปรแกรม และซอฟต์แวร์จำนวนมากที่อยู่ด้านบน”
วิวัฒนาการของ AI: จากคลาวด์สู่ทุกหนทุกแห่ง
แรงผลักดันเริ่มต้นของ AI อาจมีต้นกำเนิดในคลาวด์ แต่วิถีของมันขยายออกไปไกลกว่านั้นอย่างชัดเจน เมื่อ AI แทรกซึมเข้าไปในภาคส่วนต่างๆ มันจะพบกับการกำหนดค่าระบบ สภาพแวดล้อมการทำงาน ไลบรารีเฉพาะโดเมน และรูปแบบการใช้งานที่หลากหลาย Huang เน้นย้ำถึงการขยายตัวนี้ โดยสังเกตถึงข้อกำหนดเฉพาะของ IT องค์กร การผลิต หุ่นยนต์ รถยนต์ไร้คนขับ และแม้แต่ผู้ให้บริการ GPU คลาวด์เกิดใหม่
ธรรมชาติพื้นฐานของการประมวลผลกำลังถูกปรับเปลี่ยนโดย AI และ Machine Learning ซึ่งมีอิทธิพลต่อทุกสิ่งตั้งแต่โปรเซสเซอร์และระบบปฏิบัติการไปจนถึงแอปพลิเคชันและการจัดการ เวิร์กโฟลว์ขององค์กรกำลังพัฒนาจากการดึงข้อมูลอย่างง่ายไปสู่การโต้ตอบแบบถาม-ตอบกับระบบ AI
การเพิ่มขึ้นของ AI Agent และ Digital Worker
Huang มองเห็นอนาคตที่ AI Agent กลายเป็นส่วนสำคัญของแรงงานดิจิทัล เขาคาดการณ์ว่าควบคู่ไปกับ Knowledge Worker หนึ่งพันล้านคนทั่วโลก จะมี Digital Worker สิบล้านคนเกิดขึ้น โดยทำงานร่วมกันได้อย่างราบรื่น การมีอยู่ทั่วไปของ AI Agent นี้จำเป็นต้องมีคอมพิวเตอร์สายพันธุ์ใหม่ ซึ่งปรับให้เหมาะสมกับความต้องการในการปฏิบัติงานที่เป็นเอกลักษณ์
แนะนำฮาร์ดแวร์ใหม่สำหรับยุค AI
Nvidia กำลังจัดการกับความต้องการนี้ด้วยการเปิดตัวซูเปอร์คอมพิวเตอร์ AI ส่วนบุคคลสองเครื่อง: DGX Spark และ DGX Station ระบบเดสก์ท็อปเหล่านี้ได้รับการออกแบบมาสำหรับการอนุมานและงานอื่นๆ โดยให้ความยืดหยุ่นสำหรับการทำงานในพื้นที่หรือการรวมเข้ากับ DGX Cloud ของ Nvidia และสภาพแวดล้อมคลาวด์แบบเร่งอื่นๆ
DGX Spark มี GB10 Grace Blackwell Superchip ซึ่งให้ประสิทธิภาพที่ยอดเยี่ยมสำหรับการปรับแต่ง AI และการอนุมาน DGX Station ซึ่งเป็นระบบเดสก์ท็อปที่ทรงพลังกว่า มี GB300 Grace-Blackwell Ultra Desktop Superchip ซึ่งมีหน่วยความจำที่เชื่อมโยงกันขนาดใหญ่ 784 GB, ConnectX-8 SuperNIC ของ Nvidia, แพลตฟอร์มซอฟต์แวร์ AI Enterprise และการเข้าถึงไมโครเซอร์วิส NIM AI
นอกเหนือจาก Agent: รุ่งอรุณของการให้เหตุผลของ AI
ระบบใหม่เหล่านี้ไม่เพียงแต่มอบเครื่องมืออันทรงพลังให้กับองค์กรสำหรับเวิร์กโหลด AI เท่านั้น แต่ยังปูทางไปสู่ขั้นตอนต่อไปของวิวัฒนาการ AI: โมเดลการให้เหตุผล โมเดลเหล่านี้แสดงถึงการก้าวกระโดดครั้งสำคัญเหนือ AI Agent พื้นฐาน ซึ่งสามารถจัดการกับปัญหาที่ซับซ้อนและแสดงความสามารถในการให้เหตุผลที่เหนือกว่าธรรมชาติของการตอบกลับของ AI Chatbot ในปัจจุบัน
Huang อธิบายถึงความก้าวหน้านี้ว่า “ตอนนี้เรามี AI ที่สามารถให้เหตุผลได้ ซึ่งโดยพื้นฐานแล้วเกี่ยวกับการแบ่งปัญหาออกเป็นขั้นตอน ตอนนี้เรามี AI ที่สามารถให้เหตุผลทีละขั้นตอนโดยใช้ … เทคโนโลยีที่เรียกว่า Chain of Thought, Best of N, การตรวจสอบความสอดคล้อง, การวางแผนเส้นทาง, เทคนิคต่างๆ ที่หลากหลาย”
โมเดล Nemotron: เพิ่มขีดความสามารถในการให้เหตุผลของ AI
ต่อยอดจากรากฐานที่วางไว้ในงาน Consumer Electronics Show ด้วยการเปิดตัวโมเดล Llama Nemotron และ Cosmos Nemotron Nvidia ได้เปิดตัวตระกูลโมเดล Llama Nemotron แบบเปิดที่ GTC โมเดลเหล่านี้มีความสามารถในการให้เหตุผลที่ได้รับการปรับปรุงสำหรับงานหลายขั้นตอนในวิชาคณิตศาสตร์ การเขียนโค้ด การตัดสินใจ และการปฏิบัติตามคำแนะนำ
Kari Briski รองประธานฝ่ายซอฟต์แวร์ Generative AI สำหรับองค์กรของ Nvidia เน้นย้ำถึงความมุ่งมั่นของบริษัทในการสนับสนุนนักพัฒนา Nvidia กำลังจัดหาชุดข้อมูล ซึ่งประกอบด้วยข้อมูลที่สร้างขึ้นสังเคราะห์ 6 หมื่นล้านโทเค็น และเทคนิคเพื่ออำนวยความสะดวกในการนำโมเดลเหล่านี้ไปใช้
Briski อธิบายว่า “เช่นเดียวกับมนุษย์ Agent จำเป็นต้องเข้าใจบริบทเพื่อแยกคำขอที่ซับซ้อน ทำความเข้าใจเจตนาของผู้ใช้ และปรับตัวแบบเรียลไทม์”
โมเดล Nemotron มีความสามารถในการให้เหตุผลในระดับต่างๆ และมีสามขนาด: Nano (ปรับให้เหมาะสมสำหรับพีซีและอุปกรณ์ Edge), Super (ความแม่นยำสูงและ Throughput บน GPU เดียว) และ Ultra (ออกแบบมาสำหรับ GPU หลายตัว)
AI-Q Blueprint: เชื่อมต่อข้อมูลกับ Reasoning Agent
แพลตฟอร์มซอฟต์แวร์ AI Enterprise ของ Nvidia กำลังได้รับการเสริมด้วย AI-Q Blueprint ซึ่งเป็นข้อเสนอที่ใช้ NIM ซึ่งช่วยให้องค์กรสามารถเชื่อมต่อข้อมูลที่เป็นกรรมสิทธิ์กับ Reasoning AI Agent ซอฟต์แวร์เปิดนี้ทำงานร่วมกับเครื่องมือ NeMo Retriever ของ Nvidia ทำให้สามารถสืบค้นข้อมูลประเภทต่างๆ (ข้อความ รูปภาพ วิดีโอ) และอำนวยความสะดวกในการทำงานร่วมกันระหว่างการประมวลผลแบบเร่งของ Nvidia และแพลตฟอร์มและซอฟต์แวร์จัดเก็บข้อมูลของบุคคลที่สาม รวมถึงโมเดล Llama Nemotron
Briski เน้นย้ำถึงประโยชน์สำหรับทีมพัฒนา โดยกล่าวว่า “สำหรับทีมของ Connected Agent พิมพ์เขียวให้การสังเกตและความโปร่งใสในกิจกรรมของ Agent ช่วยให้นักพัฒนาสามารถปรับปรุง Agent ได้ตลอดเวลา นักพัฒนาสามารถปรับปรุงความแม่นยำของ Agent และลดเวลาในการทำงานเหล่านี้ให้เสร็จจากชั่วโมงเป็นนาที”
AI Data Platform: การออกแบบอ้างอิงสำหรับโครงสร้างพื้นฐานขององค์กร
AI Data Platform ของ Nvidia ทำหน้าที่เป็นการออกแบบอ้างอิงสำหรับโครงสร้างพื้นฐานขององค์กร โดยผสมผสาน AI Query Agent ที่สร้างขึ้นโดยใช้ AI-Q Blueprint
Physical AI: เชื่อมโยงโลกดิจิทัลและโลกทางกายภาพ
Huang ยังกล่าวถึงสาขา AI เชิงกายภาพที่กำลังเติบโต ซึ่งเกี่ยวข้องกับการรวม AI เข้ากับระบบทางกายภาพเพื่อให้สามารถรับรู้และโต้ตอบในโลกแห่งความเป็นจริงได้ เขาคาดการณ์ว่าพื้นที่นี้อาจกลายเป็นส่วนที่ใหญ่ที่สุดของตลาด AI
“AI ที่เข้าใจโลกทางกายภาพ สิ่งต่างๆ เช่น แรงเสียดทานและความเฉื่อย สาเหตุและผลกระทบ ความคงทนของวัตถุ ความสามารถในการเข้าใจโลกทางกายภาพ โลกสามมิติ มันคือสิ่งที่กำลังจะเปิดใช้งานยุคใหม่ของ AI เชิงกายภาพ และมันจะเปิดใช้งานหุ่นยนต์” Huang อธิบาย
ความก้าวหน้าในด้านหุ่นยนต์และยานยนต์อัตโนมัติ
ประกาศหลายฉบับเน้นย้ำถึงความมุ่งมั่นของ Nvidia ต่อ AI เชิงกายภาพ รวมถึงการเปิดตัว Nvidia AI Dataset ซึ่งออกแบบมาโดยเฉพาะสำหรับหุ่นยนต์และยานยนต์อัตโนมัติ ชุดข้อมูลนี้ช่วยให้นักพัฒนาสามารถฝึกอบรมล่วงหน้า ทดสอบ ตรวจสอบ และปรับแต่งโมเดลพื้นฐาน โดยใช้ประโยชน์จากข้อมูลทั้งในโลกแห่งความเป็นจริงและข้อมูลสังเคราะห์ที่ใช้ในแพลตฟอร์มการพัฒนาโมเดลโลก Cosmos ของ Nvidia, ซอฟต์แวร์ Drive AV, แพลตฟอร์มการพัฒนาหุ่นยนต์ Isaac AI และเฟรมเวิร์ก Metropolis สำหรับเมืองอัจฉริยะ
ชุดข้อมูลเริ่มต้นมีให้บริการบน Hugging Face โดยมีข้อมูล 15 เทราไบต์สำหรับการฝึกอบรมหุ่นยนต์ โดยมีการสนับสนุนการพัฒนายานยนต์อัตโนมัติในอนาคตอันใกล้
นอกจากนี้ Nvidia ยังประกาศ Isaac GROOT N1 ซึ่งเป็นโมเดลพื้นฐานสำหรับหุ่นยนต์ฮิวแมนนอยด์ ได้รับการฝึกฝนจากข้อมูลจริงและข้อมูลสังเคราะห์ และแสดงถึงความก้าวหน้าของ Project GROOT
ขยายขอบเขต AI
ความคิดริเริ่มเชิงกลยุทธ์ของ Nvidia แสดงให้เห็นถึงวิสัยทัศน์ที่ชัดเจนสำหรับอนาคตของ AI โดยขยายขอบเขตออกไปไกลกว่าขอบเขตของคลาวด์และเข้าสู่ใจกลางขององค์กรและโลกทางกายภาพ ด้วยการผสมผสานระหว่างฮาร์ดแวร์ล้ำสมัย แพลตฟอร์มซอฟต์แวร์ที่เป็นนวัตกรรม และความมุ่งมั่นในการเพิ่มขีดความสามารถของนักพัฒนา Nvidia กำลังวางตำแหน่งตัวเองเป็นแรงผลักดันเบื้องหลังคลื่นลูกใหม่ของนวัตกรรม AI การนำเสนอความสามารถในการให้เหตุผล ควบคู่ไปกับการพัฒนาเครื่องมือและชุดข้อมูลสำหรับ AI เชิงกายภาพ ถือเป็นก้าวสำคัญสู่อนาคตที่ AI ผสานรวมเข้ากับชีวิตประจำวันของเราได้อย่างราบรื่น เปลี่ยนแปลงอุตสาหกรรม และกำหนดนิยามใหม่ของวิธีที่เราโต้ตอบกับเทคโนโลยี การมุ่งเน้นไปที่โซลูชันระดับองค์กร การประมวลผลแบบ Edge และหุ่นยนต์ เน้นย้ำถึงความเข้าใจของ Nvidia เกี่ยวกับความต้องการที่หลากหลายและมีการพัฒนาของภูมิทัศน์ AI ซึ่งตอกย้ำตำแหน่งในฐานะผู้นำในการปฏิวัติเทคโนโลยีที่เปลี่ยนแปลงนี้