การแก้ไขที่น่าสงสัย: Nvidia คิดใหม่เรื่องจำนวน GPU
ในเวทีการแข่งขันอันดุเดือดของนวัตกรรมเซมิคอนดักเตอร์ งาน GPU Technology Conference (GTC) ของ Nvidia เปรียบเสมือนเวทีชั้นนำสำหรับการเปิดเผยมิติใหม่แห่งอนาคต ในระหว่างการประชุมครั้งล่าสุด ท่ามกลางความคาดหวังเกี่ยวกับความก้าวหน้าด้านปัญญาประดิษฐ์และการประมวลผลแบบเร่งความเร็ว บริษัทได้นำเสนอการเปลี่ยนแปลงที่ดูเหมือนเล็กน้อยแต่แฝงนัยสำคัญ นั่นคือการปรับเปลี่ยนวิธีนิยามพื้นฐานของหน่วยประมวลผลกราฟิก (Graphics Processing Unit หรือ GPU) นี่ไม่ใช่เพียงเชิงอรรถทางเทคนิค แต่เป็นการปรับเทียบใหม่ที่มีผลกระทบตามมาอย่างมีนัยสำคัญ โดยเฉพาะอย่างยิ่งเกี่ยวกับโครงสร้างต้นทุนสำหรับการปรับใช้โซลูชัน AI ขั้นสูงของ Nvidia
CEO Jensen Huang กล่าวถึงการเปลี่ยนแปลงนี้โดยตรงจากเวที GTC โดยระบุว่าเป็นการแก้ไขข้อผิดพลาดก่อนหน้านี้เกี่ยวกับสถาปัตยกรรม Blackwell ที่ล้ำสมัย “สิ่งหนึ่งที่ผมทำพลาดไปคือ: Blackwell จริงๆ แล้วคือ GPU สองตัวในชิป Blackwell เดียว” เขากล่าว เหตุผลที่นำเสนอเน้นไปที่ความชัดเจนและความสอดคล้อง โดยเฉพาะอย่างยิ่งเกี่ยวกับหลักการตั้งชื่อที่เกี่ยวข้องกับ NVLink ซึ่งเป็นเทคโนโลยีเชื่อมต่อความเร็วสูงของ Nvidia “เราเรียกชิปตัวนั้นว่า GPU ตัวเดียว และนั่นผิด เหตุผลก็คือมันทำให้ระบบการตั้งชื่อ NVLink ทั้งหมดสับสน” Huang อธิบายเพิ่มเติม แม้ว่าการทำให้หมายเลขรุ่นง่ายขึ้นจะช่วยให้เกิดความเป็นระเบียบในระดับหนึ่ง แต่การนิยามใหม่นี้มีความสำคัญมากกว่าแค่เรื่องความหมาย
หัวใจสำคัญของการเปลี่ยนแปลงอยู่ที่การเปลี่ยนจากการนับโมดูลทางกายภาพ (โดยเฉพาะฟอร์มแฟกเตอร์ SXM ที่ใช้กันทั่วไปในเซิร์ฟเวอร์ประสิทธิภาพสูง) เป็น GPU แต่ละตัว ไปเป็นการนับ die ซิลิคอนที่แตกต่างกันภายในโมดูลเหล่านั้น การปรับเปลี่ยนคำศัพท์ที่ดูเหมือนเล็กน้อยนี้มีศักยภาพที่จะเปลี่ยนแปลงภูมิทัศน์ทางการเงินอย่างมากสำหรับองค์กรที่ใช้ชุดซอฟต์แวร์ Nvidia AI Enterprise
ผลกระทบทางการเงิน: เพิ่มค่าลิขสิทธิ์ AI Enterprise เป็นสองเท่า?
Nvidia AI Enterprise เป็นแพลตฟอร์มซอฟต์แวร์ครบวงจรที่ออกแบบมาเพื่อปรับปรุงการพัฒนาและการปรับใช้แอปพลิเคชัน AI ประกอบด้วยเครื่องมือ เฟรมเวิร์ก และที่สำคัญคือการเข้าถึง Nvidia Inference Microservices (NIMs) ซึ่งเป็นคอนเทนเนอร์ที่ปรับให้เหมาะสมสำหรับการรันโมเดล AI อย่างมีประสิทธิภาพ โมเดลการให้ลิขสิทธิ์สำหรับชุดซอฟต์แวร์อันทรงพลังนี้ในอดีตผูกติดอยู่กับจำนวน GPU ที่ปรับใช้โดยตรง โครงสร้างราคาปัจจุบันกำหนดค่าใช้จ่ายไว้ที่ประมาณ $4,500 ต่อ GPU ต่อปี หรืออัตราบนคลาวด์ที่ $1 ต่อ GPU ต่อชั่วโมง
พิจารณาถึงรุ่นก่อนหน้าหรือการกำหนดค่า Blackwell บางอย่าง เซิร์ฟเวอร์ Nvidia HGX B200 ที่ติดตั้งโมดูล SXM แปดโมดูล โดยแต่ละโมดูลมีสิ่งที่ถือว่าเป็น GPU Blackwell ตัวเดียวในขณะนั้น จะต้องใช้ลิขสิทธิ์ AI Enterprise แปดใบ ซึ่งหมายถึงค่าสมัครสมาชิกซอฟต์แวร์รายปี $36,000 (8 GPUs * $4,500/GPU) หรือค่าใช้จ่ายบนคลาวด์รายชั่วโมง $8 (8 GPUs * $1/GPU/hour)
ตอนนี้ เข้าสู่ภูมิทัศน์ที่กำหนดขึ้นใหม่ด้วยระบบอย่าง HGX B300 NVL16 ระบบนี้ยังมีโมดูล SXM ทางกายภาพแปดโมดูล อย่างไรก็ตาม ภายใต้นิยามที่แก้ไขใหม่ Nvidia นับ die ซิลิคอนแต่ละอันภายในโมดูลเหล่านี้เป็น GPU แต่ละตัว เนื่องจากแต่ละโมดูลในการกำหนดค่าเฉพาะนี้มี die สองอัน จำนวน GPU ทั้งหมดสำหรับวัตถุประสงค์ในการให้ลิขสิทธิ์จึงเพิ่มขึ้นเป็นสองเท่าอย่างมีประสิทธิภาพเป็น 16 GPUs (8 โมดูล * 2 dies/โมดูล)
สมมติว่า Nvidia ยังคงใช้โครงสร้างราคาต่อ GPU ที่มีอยู่สำหรับชุด AI Enterprise ซึ่งเป็นประเด็นที่บริษัทยังไม่ได้สรุปขั้นสุดท้าย ผลกระทบนั้นชัดเจน ระบบ HGX B300 แปดโมดูลเดียวกันนั้นอาจต้องใช้ลิขสิทธิ์ 16 ใบ ทำให้ค่าซอฟต์แวร์รายปีพุ่งสูงถึง $72,000 (16 GPUs * $4,500/GPU) หรือ $16 ต่อชั่วโมง บนคลาวด์ นี่แสดงถึงการเพิ่มขึ้น 100% ในค่าสมัครสมาชิกซอฟต์แวร์สำหรับความหนาแน่นของฮาร์ดแวร์ที่ดูเหมือนเทียบเท่ากัน ซึ่งเป็นผลโดยตรงจากการเปลี่ยนแปลงวิธีการนับ “GPU”
เรื่องราวของสองสถาปัตยกรรม: การกระทบยอดคำแถลงในอดีต
การเปลี่ยนแปลงคำศัพท์นี้นำเสนอความแตกต่างที่น่าสนใจเมื่อเทียบกับลักษณะเฉพาะก่อนหน้านี้ของ Nvidia เกี่ยวกับสถาปัตยกรรม Blackwell เมื่อ Blackwell เปิดตัวครั้งแรก มีการพูดคุยกันเกี่ยวกับการออกแบบซึ่งเกี่ยวข้องกับซิลิคอนหลายชิ้น (dies) ที่เชื่อมโยงเข้าด้วยกันภายในแพ็คเกจโปรเซสเซอร์เดียว ในเวลานั้น Nvidia ต่อต้านอย่างแข็งขันต่อการอธิบาย Blackwell โดยใช้คำว่าสถาปัตยกรรม “chiplet” ซึ่งเป็นคำศัพท์ทั่วไปในอุตสาหกรรมสำหรับการออกแบบที่ใช้ die ขนาดเล็กหลายตัวที่เชื่อมต่อถึงกัน แต่บริษัทกลับเน้นมุมมองที่แตกต่างออกไป
ตามที่รายงานในระหว่างการรายงานข่าวการเปิดตัว Blackwell นั้น Nvidia โต้แย้งว่าใช้ “สถาปัตยกรรม die แบบจำกัดสองเรติเคิลที่ทำหน้าที่เป็น GPU เดียวที่รวมเป็นหนึ่ง“ (unified, single GPU) วลีนี้บ่งชี้อย่างชัดเจนว่าแม้จะมีการปรากฏตัวทางกายภาพของ die สองอัน แต่พวกมันก็ทำงานร่วมกันเป็นหน่วยประมวลผลเชิงตรรกะเดียว วิธีการนับแบบใหม่ที่ใช้กับการกำหนดค่า B300 ดูเหมือนจะหันเหไปจากแนวคิด “GPU เดียวที่รวมเป็นหนึ่ง” นี้ อย่างน้อยก็จากมุมมองของการให้ลิขสิทธิ์ซอฟต์แวร์ โดยถือว่า die เป็นหน่วยงานที่แตกต่างกัน สิ่งนี้ทำให้เกิดคำถามว่าคำอธิบายเบื้องต้นมุ่งเน้นไปที่ศักยภาพการทำงานของฮาร์ดแวร์เป็นหลัก หรือมุมมองเชิงกลยุทธ์เกี่ยวกับการให้ลิขสิทธิ์มีการพัฒนาไป
ประสิทธิภาพที่เพิ่มขึ้นเทียบกับต้นทุนที่อาจสูงขึ้น: การประเมินข้อเสนอ B300
เมื่อพิจารณาถึงความเป็นไปได้ที่ค่าลิขสิทธิ์ซอฟต์แวร์จะเพิ่มขึ้นเป็นสองเท่าสำหรับ HGX B300 เมื่อเทียบกับรุ่นก่อนหน้าอย่าง B200 สิ่งสำคัญคือต้องตรวจสอบการปรับปรุงประสิทธิภาพที่นำเสนอโดยฮาร์ดแวร์รุ่นใหม่ B300 ให้พลังการประมวลผล AI เพิ่มขึ้นเป็นสองเท่าเพื่อพิสูจน์ค่าซอฟต์แวร์ที่อาจเพิ่มขึ้นเป็นสองเท่าหรือไม่? ข้อมูลจำเพาะชี้ให้เห็นภาพที่ละเอียดอ่อนกว่า
HGX B300 มีการปรับปรุง:
- ความจุหน่วยความจำที่เพิ่มขึ้น: มีหน่วยความจำแบนด์วิดท์สูง (HBM) ประมาณ 2.3 Terabytes ต่อระบบ ซึ่งเพิ่มขึ้นอย่างมีนัยสำคัญประมาณ 1.5 เท่าเมื่อเทียบกับ 1.5TB ที่มีใน B200 นี่เป็นสิ่งสำคัญสำหรับการจัดการโมเดล AI และชุดข้อมูลขนาดใหญ่
- ประสิทธิภาพความแม่นยำต่ำที่เพิ่มขึ้น: B300 แสดงให้เห็นถึงการเพิ่มขึ้นของประสิทธิภาพที่โดดเด่นสำหรับการคำนวณโดยใช้ความแม่นยำทศนิยม 4 บิต (FP4) ปริมาณงาน FP4 สูงถึงกว่า 105 petaFLOPS แบบหนาแน่นต่อระบบ ซึ่งเพิ่มขึ้นประมาณ 50% เมื่อเทียบกับ B200 การเร่งความเร็วนี้มีประโยชน์อย่างยิ่งสำหรับงานอนุมาน AI บางอย่างที่ยอมรับความแม่นยำต่ำได้
อย่างไรก็ตาม ความได้เปรียบด้านประสิทธิภาพไม่ได้ครอบคลุมทุกเวิร์กโหลด ที่สำคัญ สำหรับงานที่ต้องการการคำนวณทศนิยมที่มีความแม่นยำสูงกว่า (เช่น FP8, FP16 หรือ FP32) B300 ไม่ได้ให้ความได้เปรียบด้านการดำเนินการทศนิยมอย่างมีนัยสำคัญ เมื่อเทียบกับระบบ B200 รุ่นเก่า งานฝึกอบรม AI ที่ซับซ้อนและงานคำนวณทางวิทยาศาสตร์จำนวนมากต้องอาศัยรูปแบบความแม่นยำสูงเหล่านี้อย่างมาก
ดังนั้น องค์กรที่ประเมิน B300 จึงต้องเผชิญกับการคำนวณที่ซับซ้อน พวกเขาได้รับความจุหน่วยความจำจำนวนมากและประสิทธิภาพ FP4 ที่เพิ่มขึ้น แต่ค่าซอฟต์แวร์ AI Enterprise ที่อาจเพิ่มขึ้นเป็นสองเท่าอาจไม่สอดคล้องกับการเพิ่มขึ้นของประสิทธิภาพเป็นสองเท่าสำหรับเวิร์กโหลดที่มีความแม่นยำสูงโดยเฉพาะของพวกเขา ข้อเสนอคุณค่าจึงขึ้นอยู่กับลักษณะของงาน AI ที่กำลังดำเนินการเป็นอย่างมาก
เหตุผลทางเทคนิค: การเชื่อมต่อและความเป็นอิสระ
น่าสนใจที่วิธีการนับ die แบบใหม่นี้ไม่ได้นำไปใช้กับระบบที่ใช้ Blackwell ใหม่ทั้งหมดที่ประกาศในงาน GTC ตัวอย่างเช่น ระบบ GB300 NVL72 ที่ระบายความร้อนด้วยของเหลวและทรงพลังกว่า ยังคงยึดตามแบบแผนเดิม โดยนับทั้งแพ็คเกจ (ที่มี die สองอัน) เป็น GPU เดียวสำหรับวัตถุประสงค์ในการให้ลิขสิทธิ์ ความแตกต่างนี้ทำให้เกิดคำถาม: ทำไมจึงแตกต่างกัน?
Nvidia ให้เหตุผลทางเทคนิคที่มีรากฐานมาจากการเชื่อมต่อภายในแพ็คเกจ GPU เอง ตามที่ Ian Buck รองประธานและผู้จัดการทั่วไปฝ่าย Hyperscale และ HPC ของ Nvidia กล่าว ความแตกต่างอยู่ที่การมีหรือไม่มี การเชื่อมต่อระหว่างชิป (chip-to-chip หรือ C2C) ที่สำคัญซึ่งเชื่อมโยง die ทั้งสองภายในแพ็คเกจโดยตรง
การกำหนดค่า HGX B300: แพ็คเกจ Blackwell เฉพาะที่ใช้ในระบบ HGX B300 ที่ระบายความร้อนด้วยอากาศ ไม่มี การเชื่อมต่อ C2C โดยตรงนี้ ตามที่ Buck อธิบาย การออกแบบนี้มีขึ้นเพื่อเพิ่มประสิทธิภาพการใช้พลังงานและการจัดการความร้อนภายใต้ข้อจำกัดของแชสซีที่ระบายความร้อนด้วยอากาศ อย่างไรก็ตาม ผลที่ตามมาคือ die ทั้งสองบนโมดูล B300 เดียวทำงานด้วยความเป็นอิสระในระดับที่สูงกว่า หาก die หนึ่งต้องการเข้าถึงข้อมูลที่เก็บไว้ในหน่วยความจำแบนด์วิดท์สูงที่เชื่อมต่อทางกายภาพกับ die อื่น บนโมดูลเดียวกัน จะไม่สามารถทำได้โดยตรง แต่คำขอข้อมูลจะต้องเดินทาง ออกจาก แพ็คเกจ ผ่านเครือข่าย NVLink ภายนอก (น่าจะผ่านชิปสวิตช์ NVLink บนเมนบอร์ดเซิร์ฟเวอร์) แล้วจึงกำหนดเส้นทางกลับไปยังตัวควบคุมหน่วยความจำของ die อื่น การเดินทางอ้อมนี้ตอกย้ำแนวคิดที่ว่านี่คือหน่วยประมวลผลที่แตกต่างกันทางฟังก์ชันสองหน่วยที่ใช้แพ็คเกจร่วมกัน แต่ต้องการเส้นทางการสื่อสารภายนอกเพื่อการแชร์หน่วยความจำเต็มรูปแบบ การแยกส่วนนี้ Nvidia โต้แย้งว่า เป็นเหตุผลที่สมควรในการนับเป็น GPU สองตัวที่แตกต่างกัน
การกำหนดค่า GB300 NVL72: ในทางตรงกันข้าม แพ็คเกจ “Superchip” ที่ใช้ในระบบ GB300 ระดับไฮเอนด์ ยังคง มีการเชื่อมต่อ C2C ความเร็วสูง การเชื่อมโยงโดยตรงนี้ช่วยให้ die ทั้งสองภายในแพ็คเกจสามารถสื่อสารและแบ่งปันทรัพยากรหน่วยความจำได้อย่างมีประสิทธิภาพและโดยตรงมากขึ้น โดยไม่จำเป็นต้องเดินทางอ้อมออกนอกแพ็คเกจผ่านสวิตช์ NVLink เนื่องจากพวกมันสามารถทำงานร่วมกันได้อย่างเหนียวแน่นและแบ่งปันหน่วยความจำได้อย่างราบรื่น พวกมันจึงถูกมองจากมุมมองของซอฟต์แวร์และการให้ลิขสิทธิ์ว่าเป็น GPU เดียวที่รวมเป็นหนึ่ง ซึ่งสอดคล้องกับคำอธิบาย “unified” เบื้องต้นของสถาปัตยกรรม Blackwell
ความแตกต่างทางเทคนิคนี้ให้พื้นฐานเชิงตรรกะสำหรับวิธีการนับที่แตกต่างกัน die ของ B300 มีการแยกส่วนทางฟังก์ชันมากกว่าเนื่องจากไม่มีลิงก์ C2C ซึ่งให้ความน่าเชื่อถือกับการนับเป็นสอง GPU die ของ GB300 เชื่อมต่อกันอย่างแน่นหนา ซึ่งสนับสนุนการนับเป็น GPU เดียว
มองไปสู่อนาคต: Vera Rubin สร้างบรรทัดฐาน
แม้ว่าปัจจุบัน GB300 จะเป็นข้อยกเว้น แต่แนวทางการนับ die ที่นำมาใช้กับ B300 ดูเหมือนจะเป็นตัวบ่งชี้ทิศทางในอนาคตของ Nvidia บริษัทได้ส่งสัญญาณแล้วว่าแพลตฟอร์มรุ่นต่อไปซึ่งมีชื่อรหัสว่า Vera Rubin ซึ่งมีกำหนดเปิดตัวในอนาคต จะนำระบบการตั้งชื่อใหม่นี้มาใช้อย่างเต็มรูปแบบ
หลักการตั้งชื่อเองก็ให้เบาะแส ระบบที่ใช้สถาปัตยกรรม Rubin ถูกกำหนดด้วยหมายเลขสูง เช่น NVL144 การกำหนดนี้บ่งชี้อย่างชัดเจนถึงการนับ die แต่ละอันแทนที่จะเป็นโมดูล ตามตรรกะของ B300 ระบบ NVL144 น่าจะประกอบด้วยโมดูลจำนวนหนึ่ง โดยแต่ละโมดูลมี die หลายอัน รวมเป็น 144 die ของ GPU ที่นับได้สำหรับวัตถุประสงค์ด้านลิขสิทธิ์และข้อมูลจำเพาะ
แนวโน้มนี้ยิ่งเด่นชัดมากขึ้นในแผนงานของ Nvidia สำหรับปลายปี 2027 ด้วยแพลตฟอร์ม Vera Rubin Ultra แพลตฟอร์มนี้มีจำนวน 576 GPUs ต่อแร็ค อย่างน่าทึ่ง ตามที่วิเคราะห์ไว้ก่อนหน้านี้ จำนวนที่น่าประทับใจนี้ไม่ได้เกิดจากการบรรจุโมดูลทางกายภาพ 576 โมดูลที่แตกต่างกันลงในแร็ค แต่สะท้อนให้เห็นถึงกระบวนทัศน์การนับแบบใหม่ที่นำมาใช้แบบทวีคูณ สถาปัตยกรรมน่าจะเกี่ยวข้องกับ 144 โมดูลทางกายภาพ ต่อแร็ค แต่ละโมดูลมี die ซิลิคอนที่แตกต่างกันสี่อัน ดังนั้น 144 โมดูลคูณด้วย 4 dies ต่อโมดูลจึงได้ตัวเลขพาดหัวข่าว 576 “GPUs”
มุมมองที่มองไปข้างหน้านี้ชี้ให้เห็นว่าวิธีการนับ die ของ B300 ไม่ใช่แค่การปรับเปลี่ยนชั่วคราวสำหรับระบบระบายความร้อนด้วยอากาศบางรุ่น แต่เป็นหลักการพื้นฐานสำหรับวิธีที่ Nvidia ตั้งใจจะวัดปริมาณทรัพยากร GPU ในรุ่นต่อๆ ไป ลูกค้าที่ลงทุนในระบบนิเวศของ Nvidia จำเป็นต้องคาดการณ์ว่าการเปลี่ยนแปลงนี้จะกลายเป็นมาตรฐาน
ปัจจัยที่ไม่ได้กล่าวถึง: การเพิ่มกระแสรายได้จากซอฟต์แวร์สูงสุด?
ในขณะที่คำอธิบายทางเทคนิคเกี่ยวกับการเชื่อมต่อ C2C ให้เหตุผลสำหรับการนับ GPU ที่แตกต่างกันของ B300 แต่ช่วงเวลาและผลกระทบทางการเงินที่สำคัญย่อมนำไปสู่การคาดเดาเกี่ยวกับแรงจูงใจทางธุรกิจที่ซ่อนอยู่ การนิยามใหม่นี้ ซึ่งนำเสนอในตอนแรกว่าเป็นการแก้ไข “ข้อผิดพลาด” ในการตั้งชื่อ อาจทำหน้าที่เป็นเครื่องมือเชิงกลยุทธ์เพื่อเพิ่มรายได้จากซอฟต์แวร์ที่เกิดขึ้นประจำได้หรือไม่?
ในปีนับตั้งแต่ Blackwell ได้รับการอธิบายรายละเอียดครั้งแรกพร้อมกับข้อความ “GPU เดียวที่รวมเป็นหนึ่ง” เป็นไปได้ว่า Nvidia ตระหนักถึงโอกาสในการสร้างรายได้จำนวนมากที่ยังไม่ได้ใช้ประโยชน์ ชุด AI Enterprise เป็นส่วนประกอบที่เติบโตและมีกำไรสูงในธุรกิจของ Nvidia การผูกใบอนุญาตเข้ากับจำนวน die ซิลิคอนโดยตรง แทนที่จะเป็นโมดูลทางกายภาพ นำเสนอหนทางในการเพิ่มรายได้จากซอฟต์แวร์ที่ได้จากการปรับใช้ฮาร์ดแวร์แต่ละครั้งอย่างมีนัยสำคัญ โดยเฉพาะอย่างยิ่งเมื่อจำนวน die ต่อโมดูลมีแนวโน้มเพิ่มขึ้นในสถาปัตยกรรมในอนาคตเช่น Vera Rubin Ultra
เมื่อถูกถามว่าการเปลี่ยนแปลงคำจำกัดความของ GPU นี้จะส่งผลกระทบต่อค่าลิขสิทธิ์ AI Enterprise สำหรับระบบ B300 ใหม่อย่างไร Nvidia ยังคงรักษาความคลุมเครือไว้ระดับหนึ่ง โฆษกของบริษัทแจ้งว่ารายละเอียดทางการเงินยังอยู่ระหว่างการพิจารณา “รายละเอียดราคายังอยู่ในระหว่างการสรุปสำหรับ B300 และยังไม่มีรายละเอียดที่จะแบ่งปันเกี่ยวกับ Rubin นอกเหนือจากที่แสดงใน GTC keynote ในขณะนี้” โฆษกกล่าว โดยยืนยันอย่างชัดเจนว่ารวมถึงโครงสร้างราคาสำหรับ AI Enterprise บนแพลตฟอร์มเหล่านี้ด้วย
การขาดราคาที่สรุปได้นี้ ควบคู่ไปกับการเพิ่มจำนวน GPU ที่นับได้เป็นสองเท่าในการกำหนดค่าฮาร์ดแวร์บางอย่าง สร้างความไม่แน่นอนให้กับลูกค้าที่วางแผนการลงทุนโครงสร้างพื้นฐาน AI ในอนาคต แม้ว่าจะมีเหตุผลทางเทคนิค แต่ศักยภาพในการเพิ่มขึ้นอย่างมากของค่าสมัครสมาชิกซอฟต์แวร์ก็ยังคงมีอยู่ การเปลี่ยนแปลงนี้เน้นย้ำถึงความสำคัญที่เพิ่มขึ้นของซอฟต์แวร์ในห่วงโซ่คุณค่าเซมิคอนดักเตอร์ และกลยุทธ์ที่ชัดเจนของ Nvidia ในการสร้างรายได้จากแพลตฟอร์ม AI ที่ครอบคลุมอย่างมีประสิทธิภาพมากขึ้น โดยการปรับตัวชี้วัดการให้ลิขสิทธิ์ให้สอดคล้องกับความซับซ้อนของซิลิคอนพื้นฐานมากขึ้น ในขณะที่องค์กรต่างๆ จัดทำงบประมาณสำหรับระบบ AI รุ่นต่อไป คำจำกัดความของ “GPU” ก็กลายเป็นตัวแปรที่สำคัญ และอาจมีราคาแพงกว่ามากในทันที