Nvidia ਦਾ ਅਰਥ ਬਦਲਾਅ: 'GPU' ਪਰਿਭਾਸ਼ਾ AI ਲਾਗਤ ਵਧਾ ਸਕਦੀ ਹੈ

ਇੱਕ ਅਜੀਬ ਸੁਧਾਰ: Nvidia ਆਪਣੇ GPU ਦੀ ਗਿਣਤੀ ‘ਤੇ ਮੁੜ ਵਿਚਾਰ ਕਰ ਰਿਹਾ ਹੈ

ਸੈਮੀਕੰਡਕਟਰ ਨਵੀਨਤਾ ਦੇ ਉੱਚ-ਦਾਅ ਵਾਲੇ ਖੇਤਰ ਵਿੱਚ, Nvidia ਦੀ GPU Technology Conference (GTC) ਭਵਿੱਖ ਨੂੰ ਪ੍ਰਗਟ ਕਰਨ ਲਈ ਇੱਕ ਪ੍ਰਮੁੱਖ ਮੰਚ ਵਜੋਂ ਕੰਮ ਕਰਦੀ ਹੈ। ਆਪਣੀ ਸਭ ਤੋਂ ਤਾਜ਼ਾ ਇਕੱਤਰਤਾ ਦੌਰਾਨ, ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਅਤੇ ਤੇਜ਼ ਕੰਪਿਊਟਿੰਗ ਵਿੱਚ ਤਰੱਕੀ ਦੇ ਆਲੇ ਦੁਆਲੇ ਦੀ ਉਮੀਦ ਕੀਤੀ ਗਈ ਧੂਮਧਾਮ ਦੇ ਵਿਚਕਾਰ, ਕੰਪਨੀ ਨੇ ਇੱਕ ਸੂਖਮ ਪਰ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਡੂੰਘਾ ਬਦਲਾਅ ਪੇਸ਼ ਕੀਤਾ - ਇੱਕ ਸੋਧ ਕਿ ਇਹ ਬੁਨਿਆਦੀ ਤੌਰ ‘ਤੇ ਇੱਕ Graphics Processing Unit (GPU) ਨੂੰ ਕਿਵੇਂ ਪਰਿਭਾਸ਼ਿਤ ਕਰਦੀ ਹੈ। ਇਹ ਸਿਰਫ਼ ਇੱਕ ਤਕਨੀਕੀ ਫੁਟਨੋਟ ਨਹੀਂ ਸੀ; ਇਹ ਮਹੱਤਵਪੂਰਨ ਹੇਠਲੇ ਪੱਧਰ ਦੇ ਪ੍ਰਭਾਵਾਂ ਦੇ ਨਾਲ ਇੱਕ ਮੁੜ-ਕੈਲੀਬ੍ਰੇਸ਼ਨ ਸੀ, ਖਾਸ ਤੌਰ ‘ਤੇ Nvidia ਦੇ ਉੱਨਤ AI ਹੱਲਾਂ ਨੂੰ ਤੈਨਾਤ ਕਰਨ ਲਈ ਲਾਗਤ ਢਾਂਚੇ ਦੇ ਸਬੰਧ ਵਿੱਚ।

CEO Jensen Huang ਨੇ ਖੁਦ GTC ਸਟੇਜ ਤੋਂ ਸਿੱਧੇ ਤੌਰ ‘ਤੇ ਬਦਲਾਅ ਨੂੰ ਸੰਬੋਧਿਤ ਕੀਤਾ, ਇਸ ਨੂੰ ਉਨ੍ਹਾਂ ਦੇ ਅਤਿ-ਆਧੁਨਿਕ Blackwell ਆਰਕੀਟੈਕਚਰ ਦੇ ਸਬੰਧ ਵਿੱਚ ਪਿਛਲੀ ਗਲਤੀ ਦੇ ਸੁਧਾਰ ਵਜੋਂ ਪੇਸ਼ ਕੀਤਾ। ‘ਇੱਕ ਚੀਜ਼ ਜਿਸ ‘ਤੇ ਮੈਂ ਗਲਤੀ ਕੀਤੀ: Blackwell ਅਸਲ ਵਿੱਚ ਇੱਕ Blackwell ਚਿੱਪ ਵਿੱਚ ਦੋ GPUs ਹਨ,’ ਉਸਨੇ ਕਿਹਾ। ਪੇਸ਼ ਕੀਤਾ ਗਿਆ ਤਰਕ ਸਪਸ਼ਟਤਾ ਅਤੇ ਇਕਸਾਰਤਾ ‘ਤੇ ਕੇਂਦ੍ਰਿਤ ਸੀ, ਖਾਸ ਤੌਰ ‘ਤੇ NVLink, Nvidia ਦੀ ਹਾਈ-ਸਪੀਡ ਇੰਟਰਕਨੈਕਟ ਤਕਨਾਲੋਜੀ ਨਾਲ ਜੁੜੇ ਨਾਮਕਰਨ ਸੰਮੇਲਨਾਂ ਦੇ ਸਬੰਧ ਵਿੱਚ। ‘ਅਸੀਂ ਉਸ ਇੱਕ ਚਿੱਪ ਨੂੰ GPU ਕਿਹਾ ਅਤੇ ਇਹ ਗਲਤ ਸੀ। ਇਸਦਾ ਕਾਰਨ ਇਹ ਹੈ ਕਿ ਇਹ ਸਾਰੇ NVLink ਨਾਮਕਰਨ ਨੂੰ ਖਰਾਬ ਕਰ ਦਿੰਦਾ ਹੈ,’ Huang ਨੇ ਵਿਸਥਾਰ ਨਾਲ ਦੱਸਿਆ। ਜਦੋਂ ਕਿ ਮਾਡਲ ਨੰਬਰਾਂ ਨੂੰ ਸਰਲ ਬਣਾਉਣਾ ਇੱਕ ਹੱਦ ਤੱਕ ਤਰਕਪੂਰਨ ਸਫਾਈ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਦਾ ਹੈ, ਇਹ ਮੁੜ ਪਰਿਭਾਸ਼ਾ ਸਿਰਫ਼ ਅਰਥ ਵਿਗਿਆਨ ਤੋਂ ਕਿਤੇ ਵੱਧ ਭਾਰ ਰੱਖਦੀ ਹੈ।

ਬਦਲਾਅ ਦਾ ਮੂਲ ਭੌਤਿਕ ਮੌਡਿਊਲਾਂ (ਖਾਸ ਤੌਰ ‘ਤੇ, ਉੱਚ-ਪ੍ਰਦਰਸ਼ਨ ਵਾਲੇ ਸਰਵਰਾਂ ਵਿੱਚ ਆਮ SXM ਫਾਰਮ ਫੈਕਟਰ) ਨੂੰ ਵਿਅਕਤੀਗਤ GPUs ਵਜੋਂ ਗਿਣਨਤੋਂ ਲੈ ਕੇ ਉਨ੍ਹਾਂ ਮੌਡਿਊਲਾਂ ਦੇ ਅੰਦਰ ਵੱਖਰੇ ਸਿਲੀਕਾਨ dies ਦੀ ਗਿਣਤੀ ਕਰਨ ਵਿੱਚ ਹੈ। ਪਰਿਭਾਸ਼ਾ ਵਿੱਚ ਇਹ ਜਾਪਦਾ ਮਾਮੂਲੀ ਸਮਾਯੋਜਨ Nvidia ਦੇ AI Enterprise ਸੌਫਟਵੇਅਰ ਸੂਟ ਦਾ ਲਾਭ ਉਠਾਉਣ ਵਾਲੀਆਂ ਸੰਸਥਾਵਾਂ ਲਈ ਵਿੱਤੀ ਲੈਂਡਸਕੇਪ ਨੂੰ ਨਾਟਕੀ ਢੰਗ ਨਾਲ ਬਦਲਣ ਦੀ ਸਮਰੱਥਾ ਰੱਖਦਾ ਹੈ।

ਵਿੱਤੀ ਲਹਿਰ ਪ੍ਰਭਾਵ: AI Enterprise ਲਾਇਸੈਂਸਿੰਗ ‘ਤੇ ਦੁੱਗਣਾ ਕਰਨਾ?

Nvidia ਦਾ AI Enterprise ਇੱਕ ਵਿਆਪਕ ਸੌਫਟਵੇਅਰ ਪਲੇਟਫਾਰਮ ਹੈ ਜੋ AI ਐਪਲੀਕੇਸ਼ਨਾਂ ਦੇ ਵਿਕਾਸ ਅਤੇ ਤੈਨਾਤੀ ਨੂੰ ਸੁਚਾਰੂ ਬਣਾਉਣ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੈ। ਇਸ ਵਿੱਚ ਟੂਲਸ, ਫਰੇਮਵਰਕਸ, ਅਤੇ ਮਹੱਤਵਪੂਰਨ ਤੌਰ ‘ਤੇ, Nvidia Inference Microservices (NIMs) ਤੱਕ ਪਹੁੰਚ ਸ਼ਾਮਲ ਹੈ, ਜੋ AI ਮਾਡਲਾਂ ਨੂੰ ਕੁਸ਼ਲਤਾ ਨਾਲ ਚਲਾਉਣ ਲਈ ਅਨੁਕੂਲਿਤ ਕੰਟੇਨਰ ਹਨ। ਇਸ ਸ਼ਕਤੀਸ਼ਾਲੀ ਸੂਟ ਲਈ ਲਾਇਸੈਂਸਿੰਗ ਮਾਡਲ ਇਤਿਹਾਸਕ ਤੌਰ ‘ਤੇ ਤੈਨਾਤ ਕੀਤੇ ਗਏ GPUs ਦੀ ਸੰਖਿਆ ਨਾਲ ਸਿੱਧਾ ਜੁੜਿਆ ਹੋਇਆ ਹੈ। ਮੌਜੂਦਾ ਕੀਮਤ ਢਾਂਚੇ ਲਾਗਤ ਨੂੰ ਲਗਭਗ $4,500 ਪ੍ਰਤੀ GPU ਸਾਲਾਨਾ, ਜਾਂ $1 ਪ੍ਰਤੀ GPU ਪ੍ਰਤੀ ਘੰਟਾ ਦੀ ਕਲਾਉਡ-ਅਧਾਰਤ ਦਰ ‘ਤੇ ਰੱਖਦੇ ਹਨ।

ਪਿਛਲੀ ਪੀੜ੍ਹੀ ਜਾਂ ਕੁਝ ਖਾਸ Blackwell ਸੰਰਚਨਾਵਾਂ ‘ਤੇ ਗੌਰ ਕਰੋ। ਇੱਕ Nvidia HGX B200 ਸਰਵਰ, ਅੱਠ SXM ਮੌਡਿਊਲਾਂ ਨਾਲ ਲੈਸ, ਜਿੱਥੇ ਹਰੇਕ ਮੌਡਿਊਲ ਵਿੱਚ ਉਹ ਸੀ ਜਿਸਨੂੰ ਉਦੋਂ ਇੱਕ ਸਿੰਗਲ Blackwell GPU ਮੰਨਿਆ ਜਾਂਦਾ ਸੀ, ਨੂੰ ਅੱਠ AI Enterprise ਲਾਇਸੈਂਸਾਂ ਦੀ ਲੋੜ ਹੋਵੇਗੀ। ਇਸਦਾ ਅਨੁਵਾਦ $36,000 (8 GPUs * $4,500/GPU) ਦੀ ਸਾਲਾਨਾ ਸੌਫਟਵੇਅਰ ਗਾਹਕੀ ਲਾਗਤ ਜਾਂ $8 (8 GPUs * $1/GPU/hour) ਦੀ ਘੰਟਾਵਾਰ ਕਲਾਉਡ ਲਾਗਤ ਵਿੱਚ ਹੋਇਆ।

ਹੁਣ, HGX B300 NVL16 ਵਰਗੇ ਸਿਸਟਮਾਂ ਦੇ ਨਾਲ ਨਵੇਂ ਪਰਿਭਾਸ਼ਿਤ ਲੈਂਡਸਕੇਪ ਵਿੱਚ ਦਾਖਲ ਹੋਵੋ। ਇਸ ਸਿਸਟਮ ਵਿੱਚ ਅੱਠ ਭੌਤਿਕ SXM ਮੌਡਿਊਲ ਵੀ ਹਨ। ਹਾਲਾਂਕਿ, ਸੋਧੀ ਹੋਈ ਪਰਿਭਾਸ਼ਾ ਦੇ ਤਹਿਤ, Nvidia ਹੁਣ ਇਹਨਾਂ ਮੌਡਿਊਲਾਂ ਦੇ ਅੰਦਰ ਹਰੇਕ ਸਿਲੀਕਾਨ ਡਾਈ ਨੂੰ ਇੱਕ ਵਿਅਕਤੀਗਤ GPU ਵਜੋਂ ਗਿਣਦਾ ਹੈ। ਕਿਉਂਕਿ ਇਸ ਖਾਸ ਸੰਰਚਨਾ ਵਿੱਚ ਹਰੇਕ ਮੌਡਿਊਲ ਵਿੱਚ ਦੋ ਡਾਈਜ਼ ਹੁੰਦੇ ਹਨ, ਲਾਇਸੈਂਸਿੰਗ ਉਦੇਸ਼ਾਂ ਲਈ ਕੁੱਲ GPU ਗਿਣਤੀ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਢੰਗ ਨਾਲ 16 GPUs (8 ਮੌਡਿਊਲ * 2 ਡਾਈਜ਼/ਮੌਡਿਊਲ) ਤੱਕ ਦੁੱਗਣੀ ਹੋ ਜਾਂਦੀ ਹੈ।

ਇਹ ਮੰਨਦੇ ਹੋਏ ਕਿ Nvidia AI Enterprise ਸੂਟ ਲਈ ਆਪਣੀ ਮੌਜੂਦਾ ਪ੍ਰਤੀ-GPU ਕੀਮਤ ਢਾਂਚੇ ਨੂੰ ਬਰਕਰਾਰ ਰੱਖਦਾ ਹੈ - ਇੱਕ ਬਿੰਦੂ ਜਿਸ ਬਾਰੇ ਕੰਪਨੀ ਨੇ ਕਿਹਾ ਹੈ ਕਿ ਅਜੇ ਅੰਤਿਮ ਰੂਪ ਨਹੀਂ ਦਿੱਤਾ ਗਿਆ ਹੈ - ਪ੍ਰਭਾਵ ਸਪੱਸ਼ਟ ਹਨ। ਉਹੀ ਅੱਠ-ਮੌਡਿਊਲ HGX B300 ਸਿਸਟਮ ਨੂੰ ਹੁਣ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ 16 ਲਾਇਸੈਂਸਾਂ ਦੀ ਲੋੜ ਹੋਵੇਗੀ, ਜਿਸ ਨਾਲ ਸਾਲਾਨਾ ਸੌਫਟਵੇਅਰ ਲਾਗਤ $72,000 (16 GPUs * $4,500/GPU) ਜਾਂ ਕਲਾਉਡ ਵਿੱਚ $16 ਪ੍ਰਤੀ ਘੰਟਾ ਹੋ ਜਾਵੇਗੀ। ਇਹ ‘GPU’ ਦੀ ਗਿਣਤੀ ਕਿਵੇਂ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਇਸ ਵਿੱਚ ਬਦਲਾਅ ਤੋਂ ਸਿੱਧੇ ਤੌਰ ‘ਤੇ ਪੈਦਾ ਹੋਣ ਵਾਲੀ, ਤੁਲਨਾਤਮਕ ਹਾਰਡਵੇਅਰ ਘਣਤਾ ਲਈ ਸੌਫਟਵੇਅਰ ਗਾਹਕੀ ਲਾਗਤ ਵਿੱਚ 100% ਵਾਧਾ ਦਰਸਾਉਂਦਾ ਹੈ।

ਦੋ ਆਰਕੀਟੈਕਚਰਾਂ ਦੀ ਕਹਾਣੀ: ਪਿਛਲੇ ਬਿਆਨਾਂ ਦਾ ਮੇਲ ਕਰਨਾ

ਨਾਮਕਰਨ ਵਿੱਚ ਇਹ ਤਬਦੀਲੀ Nvidia ਦੇ Blackwell ਆਰਕੀਟੈਕਚਰ ਦੇ ਪਿਛਲੇ ਵਰਣਨਾਂ ਨਾਲ ਇੱਕ ਦਿਲਚਸਪ ਵਿਪਰੀਤ ਪੇਸ਼ ਕਰਦੀ ਹੈ। ਜਦੋਂ Blackwell ਨੂੰ ਸ਼ੁਰੂ ਵਿੱਚ ਪ੍ਰਗਟ ਕੀਤਾ ਗਿਆ ਸੀ, ਤਾਂ ਇਸਦੇ ਡਿਜ਼ਾਈਨ ਦੇ ਸਬੰਧ ਵਿੱਚ ਚਰਚਾਵਾਂ ਪੈਦਾ ਹੋਈਆਂ, ਜਿਸ ਵਿੱਚ ਇੱਕ ਸਿੰਗਲ ਪ੍ਰੋਸੈਸਰ ਪੈਕੇਜ ਦੇ ਅੰਦਰ ਜੁੜੇ ਸਿਲੀਕਾਨ (ਡਾਈਜ਼) ਦੇ ਕਈ ਟੁਕੜੇ ਸ਼ਾਮਲ ਹੁੰਦੇ ਹਨ। ਉਸ ਸਮੇਂ, Nvidia ਨੇ ‘chiplet’ ਆਰਕੀਟੈਕਚਰ ਸ਼ਬਦ ਦੀ ਵਰਤੋਂ ਕਰਕੇ Blackwell ਦਾ ਵਰਣਨ ਕਰਨ ਦਾ ਸਰਗਰਮੀ ਨਾਲ ਵਿਰੋਧ ਕੀਤਾ - ਕਈ ਛੋਟੇ, ਆਪਸ ਵਿੱਚ ਜੁੜੇ ਡਾਈਜ਼ ਨੂੰ ਨਿਯੁਕਤ ਕਰਨ ਵਾਲੇ ਡਿਜ਼ਾਈਨ ਲਈ ਇੱਕ ਆਮ ਉਦਯੋਗ ਸ਼ਬਦ। ਇਸ ਦੀ ਬਜਾਏ, ਕੰਪਨੀ ਨੇ ਇੱਕ ਵੱਖਰੇ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ‘ਤੇ ਜ਼ੋਰ ਦਿੱਤਾ।

ਜਿਵੇਂ ਕਿ Blackwell ਲਾਂਚ ਕਵਰੇਜ ਦੌਰਾਨ ਰਿਪੋਰਟ ਕੀਤਾ ਗਿਆ ਸੀ, Nvidia ਨੇ ਦਲੀਲ ਦਿੱਤੀ ਕਿ ਇਸਨੇ ‘ਇੱਕ ਦੋ-ਰੇਟੀਕਲ ਸੀਮਤ ਡਾਈ ਆਰਕੀਟੈਕਚਰ’ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਜੋ ਇੱਕ ਇਕਜੁੱਟ, ਸਿੰਗਲ GPU ਵਜੋਂ ਕੰਮ ਕਰਦਾ ਹੈ।’ ਇਸ ਵਾਕੰਸ਼ ਨੇ ਜ਼ੋਰਦਾਰ ਸੁਝਾਅ ਦਿੱਤਾ ਕਿ ਦੋ ਡਾਈਜ਼ ਦੀ ਭੌਤਿਕ ਮੌਜੂਦਗੀ ਦੇ ਬਾਵਜੂਦ, ਉਹ ਇੱਕ ਤਰਕਪੂਰਨ ਪ੍ਰੋਸੈਸਿੰਗ ਯੂਨਿਟ ਵਜੋਂ ਇਕਸੁਰਤਾ ਨਾਲ ਕੰਮ ਕਰਦੇ ਹਨ। B300 ਸੰਰਚਨਾ ‘ਤੇ ਲਾਗੂ ਕੀਤੀ ਗਈ ਨਵੀਂ ਗਿਣਤੀ ਵਿਧੀ ਇਸ ‘ਇਕਜੁੱਟ, ਸਿੰਗਲ GPU’ ਸੰਕਲਪ ਤੋਂ ਦੂਰ ਹੁੰਦੀ ਜਾਪਦੀ ਹੈ, ਘੱਟੋ ਘੱਟ ਸੌਫਟਵੇਅਰ ਲਾਇਸੈਂਸਿੰਗ ਦੇ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਤੋਂ, ਡਾਈਜ਼ ਨੂੰ ਵੱਖਰੀਆਂ ਇਕਾਈਆਂ ਵਜੋਂ ਮੰਨਦੀ ਹੈ। ਇਹ ਸਵਾਲ ਉਠਾਉਂਦਾ ਹੈ ਕਿ ਕੀ ਸ਼ੁਰੂਆਤੀ ਵਰਣਨ ਮੁੱਖ ਤੌਰ ‘ਤੇ ਹਾਰਡਵੇਅਰ ਦੀ ਕਾਰਜਸ਼ੀਲ ਸੰਭਾਵਨਾ ‘ਤੇ ਕੇਂਦ੍ਰਿਤ ਸੀ ਜਾਂ ਕੀ ਲਾਇਸੈਂਸਿੰਗ ‘ਤੇ ਰਣਨੀਤਕ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਵਿਕਸਤ ਹੋਇਆ ਹੈ।

ਪ੍ਰਦਰਸ਼ਨ ਲਾਭ ਬਨਾਮ ਸੰਭਾਵੀ ਲਾਗਤ ਵਾਧਾ: B300 ਪ੍ਰਸਤਾਵ ਦਾ ਮੁਲਾਂਕਣ

B200 ਵਰਗੇ ਇਸਦੇ ਪੂਰਵਜਾਂ ਦੀ ਤੁਲਨਾ ਵਿੱਚ HGX B300 ਲਈ ਸੌਫਟਵੇਅਰ ਲਾਇਸੈਂਸਿੰਗ ਫੀਸਾਂ ਦੇ ਸੰਭਾਵੀ ਦੁੱਗਣੇ ਹੋਣ ‘ਤੇ ਵਿਚਾਰ ਕਰਦੇ ਸਮੇਂ, ਨਵੇਂ ਹਾਰਡਵੇਅਰ ਦੁਆਰਾ ਪੇਸ਼ ਕੀਤੇ ਗਏ ਪ੍ਰਦਰਸ਼ਨ ਸੁਧਾਰਾਂ ਦੀ ਜਾਂਚ ਕਰਨਾ ਮਹੱਤਵਪੂਰਨ ਹੈ। ਕੀ B300 ਸੌਫਟਵੇਅਰ ਲਾਗਤਾਂ ਦੇ ਸੰਭਾਵੀ ਦੁੱਗਣੇ ਨੂੰ ਜਾਇਜ਼ ਠਹਿਰਾਉਣ ਲਈ ਦੁੱਗਣੀ AI ਪ੍ਰੋਸੈਸਿੰਗ ਸ਼ਕਤੀ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ? ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਇੱਕ ਵਧੇਰੇ ਸੂਖਮ ਤਸਵੀਰ ਦਾ ਸੁਝਾਅ ਦਿੰਦੀਆਂ ਹਨ।

HGX B300 ਵਿੱਚ ਸੁਧਾਰ ਹਨ:

  • ਵਧੀ ਹੋਈ ਮੈਮੋਰੀ ਸਮਰੱਥਾ: ਇਹ ਪ੍ਰਤੀ ਸਿਸਟਮ ਲਗਭਗ 2.3 Terabytes ਹਾਈ-ਬੈਂਡਵਿਡਥ ਮੈਮੋਰੀ (HBM) ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਦਾ ਹੈ, ਜੋ B200 ‘ਤੇ ਉਪਲਬਧ 1.5TB ਦੇ ਮੁਕਾਬਲੇ ਲਗਭਗ 1.5 ਗੁਣਾ ਦਾ ਮਹੱਤਵਪੂਰਨ ਵਾਧਾ ਹੈ। ਇਹ ਵੱਡੇ AI ਮਾਡਲਾਂ ਅਤੇ ਡੇਟਾਸੈਟਾਂ ਨੂੰ ਸੰਭਾਲਣ ਲਈ ਮਹੱਤਵਪੂਰਨ ਹੈ।
  • ਵਧਿਆ ਹੋਇਆ ਘੱਟ-ਸ਼ੁੱਧਤਾ ਪ੍ਰਦਰਸ਼ਨ: B300 4-ਬਿੱਟ ਫਲੋਟਿੰਗ-ਪੁਆਇੰਟ (FP4) ਸ਼ੁੱਧਤਾ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਗਣਨਾਵਾਂ ਲਈ ਪ੍ਰਦਰਸ਼ਨ ਵਿੱਚ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਵਾਧਾ ਦਰਸਾਉਂਦਾ ਹੈ। ਇਸਦਾ FP4 ਥ੍ਰੁਪੁੱਟ ਪ੍ਰਤੀ ਸਿਸਟਮ 105 ਸੰਘਣੇ petaFLOPS ਤੋਂ ਥੋੜ੍ਹਾ ਵੱਧ ਪਹੁੰਚਦਾ ਹੈ, ਜੋ B200 ਨਾਲੋਂ ਲਗਭਗ 50% ਵੱਧ ਹੈ। ਇਹ ਪ੍ਰਵੇਗ ਖਾਸ ਤੌਰ ‘ਤੇ ਕੁਝ AI ਅਨੁਮਾਨ ਕਾਰਜਾਂ ਲਈ ਲਾਭਦਾਇਕ ਹੈ ਜਿੱਥੇ ਘੱਟ ਸ਼ੁੱਧਤਾ ਸਵੀਕਾਰਯੋਗ ਹੈ।

ਹਾਲਾਂਕਿ, ਪ੍ਰਦਰਸ਼ਨ ਲਾਭ ਸਾਰੇ ਵਰਕਲੋਡਾਂ ਵਿੱਚ ਸਰਵ ਵਿਆਪਕ ਨਹੀਂ ਹੈ। ਮਹੱਤਵਪੂਰਨ ਤੌਰ ‘ਤੇ, ਉੱਚ ਸ਼ੁੱਧਤਾ ਫਲੋਟਿੰਗ-ਪੁਆਇੰਟ ਗਣਿਤ (ਜਿਵੇਂ ਕਿ FP8, FP16, ਜਾਂ FP32) ਦੀ ਲੋੜ ਵਾਲੇ ਕਾਰਜਾਂ ਲਈ, B300 ਪੁਰਾਣੇ B200 ਸਿਸਟਮ ਨਾਲੋਂ ਮਹੱਤਵਪੂਰਨ ਫਲੋਟਿੰਗ-ਪੁਆਇੰਟ ਓਪਰੇਸ਼ਨ ਲਾਭ ਦੀ ਪੇਸ਼ਕਸ਼ ਨਹੀਂ ਕਰਦਾ ਹੈ। ਬਹੁਤ ਸਾਰੇ ਗੁੰਝਲਦਾਰ AI ਸਿਖਲਾਈ ਅਤੇ ਵਿਗਿਆਨਕ ਕੰਪਿਊਟਿੰਗ ਕਾਰਜ ਇਹਨਾਂ ਉੱਚ ਸ਼ੁੱਧਤਾ ਫਾਰਮੈਟਾਂ ‘ਤੇ ਬਹੁਤ ਜ਼ਿਆਦਾ ਨਿਰਭਰ ਕਰਦੇ ਹਨ।

ਇਸ ਲਈ, B300 ਦਾ ਮੁਲਾਂਕਣ ਕਰਨ ਵਾਲੀਆਂ ਸੰਸਥਾਵਾਂ ਨੂੰ ਇੱਕ ਗੁੰਝਲਦਾਰ ਗਣਨਾ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈਂਦਾ ਹੈ। ਉਹ ਮਹੱਤਵਪੂਰਨ ਮੈਮੋਰੀ ਸਮਰੱਥਾ ਅਤੇ FP4 ਪ੍ਰਦਰਸ਼ਨ ਵਿੱਚ ਵਾਧਾ ਪ੍ਰਾਪਤ ਕਰਦੇ ਹਨ, ਪਰ AI Enterprise ਸੌਫਟਵੇਅਰ ਲਾਗਤਾਂ ਦੇ ਸੰਭਾਵੀ ਦੁੱਗਣੇ ਹੋਣ ਦਾ ਉਹਨਾਂ ਦੇ ਖਾਸ, ਉੱਚ-ਸ਼ੁੱਧਤਾ ਵਾਲੇ ਵਰਕਲੋਡਾਂ ਲਈ ਪ੍ਰਦਰਸ਼ਨ ਦੇ ਅਨੁਸਾਰੀ ਦੁੱਗਣੇ ਨਾਲ ਮੇਲ ਨਹੀਂ ਖਾਂਦਾ ਹੋ ਸਕਦਾ ਹੈ। ਮੁੱਲ ਪ੍ਰਸਤਾਵ ਚਲਾਏ ਜਾ ਰਹੇ AI ਕਾਰਜਾਂ ਦੀ ਪ੍ਰਕਿਰਤੀ ‘ਤੇ ਬਹੁਤ ਜ਼ਿਆਦਾ ਨਿਰਭਰ ਹੋ ਜਾਂਦਾ ਹੈ।

ਤਕਨੀਕੀ ਤਰਕ: ਇੰਟਰਕਨੈਕਟਸ ਅਤੇ ਸੁਤੰਤਰਤਾ

ਦਿਲਚਸਪ ਗੱਲ ਇਹ ਹੈ ਕਿ, ਇਹ ਨਵੀਂ ਡਾਈ-ਗਿਣਤੀ ਵਿਧੀ GTC ਵਿਖੇ ਘੋਸ਼ਿਤ ਕੀਤੇ ਗਏ ਸਾਰੇ ਨਵੇਂ Blackwell-ਅਧਾਰਤ ਸਿਸਟਮਾਂ ‘ਤੇ ਸਰਵ ਵਿਆਪਕ ਤੌਰ ‘ਤੇ ਲਾਗੂ ਨਹੀਂ ਹੁੰਦੀ ਹੈ। ਵਧੇਰੇ ਸ਼ਕਤੀਸ਼ਾਲੀ, ਤਰਲ-ਠੰਢੇ GB300 NVL72 ਸਿਸਟਮ, ਉਦਾਹਰਨ ਲਈ, ਪੁਰਾਣੇ ਸੰਮੇਲਨ ਦੀ ਪਾਲਣਾ ਕਰਨਾ ਜਾਰੀ ਰੱਖਦੇ ਹਨ, ਲਾਇਸੈਂਸਿੰਗ ਉਦੇਸ਼ਾਂ ਲਈ ਪੂਰੇ ਪੈਕੇਜ (ਜਿਸ ਵਿੱਚ ਦੋ ਡਾਈਜ਼ ਹੁੰਦੇ ਹਨ) ਨੂੰ ਇੱਕ ਸਿੰਗਲ GPU ਵਜੋਂ ਗਿਣਦੇ ਹਨ। ਇਹ ਭਿੰਨਤਾ ਸਵਾਲ ਪੁੱਛਦੀ ਹੈ: ਫਰਕ ਕਿਉਂ?

Nvidia ਖੁਦ GPU ਪੈਕੇਜਾਂ ਦੇ ਅੰਦਰ ਇੰਟਰਕਨੈਕਟ ਤਕਨਾਲੋਜੀ ਵਿੱਚ ਜੜ੍ਹਾਂ ਵਾਲਾ ਇੱਕ ਤਕਨੀਕੀ ਤਰਕ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ। Ian Buck, Nvidia ਦੇ ਉਪ ਪ੍ਰਧਾਨ ਅਤੇ ਹਾਈਪਰਸਕੇਲ ਅਤੇ HPC ਦੇ ਜਨਰਲ ਮੈਨੇਜਰ ਦੇ ਅਨੁਸਾਰ, ਅੰਤਰ ਪੈਕੇਜ ਦੇ ਅੰਦਰ ਦੋ ਡਾਈਜ਼ ਨੂੰ ਸਿੱਧੇ ਤੌਰ ‘ਤੇ ਜੋੜਨ ਵਾਲੇ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਚਿੱਪ-ਟੂ-ਚਿੱਪ (C2C) ਇੰਟਰਕਨੈਕਟ ਦੀ ਮੌਜੂਦਗੀ ਜਾਂ ਗੈਰਹਾਜ਼ਰੀ ਵਿੱਚ ਹੈ।

  • HGX B300 ਸੰਰਚਨਾ: ਏਅਰ-ਕੂਲਡ HGX B300 ਸਿਸਟਮਾਂ ਵਿੱਚ ਵਰਤੇ ਜਾਣ ਵਾਲੇ ਖਾਸ Blackwell ਪੈਕੇਜਾਂ ਵਿੱਚ ਇਸ ਸਿੱਧੇ C2C ਇੰਟਰਕਨੈਕਟ ਦੀ ਕਮੀ ਹੁੰਦੀ ਹੈ। ਜਿਵੇਂ ਕਿ Buck ਨੇ ਸਮਝਾਇਆ, ਇਹ ਡਿਜ਼ਾਈਨ ਚੋਣ ਏਅਰ-ਕੂਲਡ ਚੈਸੀ ਦੀਆਂ ਰੁਕਾਵਟਾਂ ਦੇ ਅੰਦਰ ਬਿਜਲੀ ਦੀ ਖਪਤ ਅਤੇ ਥਰਮਲ ਪ੍ਰਬੰਧਨ ਨੂੰ ਅਨੁਕੂਲ ਬਣਾਉਣ ਲਈ ਕੀਤੀ ਗਈ ਸੀ। ਨਤੀਜਾ, ਹਾਲਾਂਕਿ, ਇਹ ਹੈ ਕਿ ਇੱਕ ਸਿੰਗਲ B300 ਮੌਡਿਊਲ ‘ਤੇ ਦੋ ਡਾਈਜ਼ ਵਧੇਰੇ ਸੁਤੰਤਰਤਾ ਨਾਲ ਕੰਮ ਕਰਦੇ ਹਨ। ਜੇਕਰ ਇੱਕ ਡਾਈ ਨੂੰ ਉਸੇ ਮੌਡਿਊਲ ‘ਤੇ ਦੂਜੀ ਡਾਈ ਨਾਲ ਭੌਤਿਕ ਤੌਰ ‘ਤੇ ਜੁੜੀ ਹਾਈ-ਬੈਂਡਵਿਡਥ ਮੈਮੋਰੀ ਵਿੱਚ ਸਟੋਰ ਕੀਤੇ ਡੇਟਾ ਤੱਕ ਪਹੁੰਚ ਕਰਨ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ, ਤਾਂ ਇਹ ਸਿੱਧੇ ਤੌਰ ‘ਤੇ ਅਜਿਹਾ ਨਹੀਂ ਕਰ ਸਕਦੀ। ਇਸ ਦੀ ਬਜਾਏ, ਡੇਟਾ ਬੇਨਤੀ ਨੂੰ ਪੈਕੇਜ ਤੋਂ ਬਾਹਰ ਯਾਤਰਾ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ, ਬਾਹਰੀ NVLink ਨੈਟਵਰਕ (ਸੰਭਾਵਤ ਤੌਰ ‘ਤੇ ਸਰਵਰ ਮਦਰਬੋਰਡ ‘ਤੇ NVLink ਸਵਿੱਚ ਚਿੱਪ ਦੁਆਰਾ) ਨੂੰ ਪਾਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ, ਅਤੇ ਫਿਰ ਦੂਜੀ ਡਾਈ ਦੇ ਮੈਮੋਰੀ ਕੰਟਰੋਲਰ ‘ਤੇ ਵਾਪਸ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ। ਇਹ ਚੱਕਰ ਇਸ ਧਾਰਨਾ ਨੂੰ ਮਜ਼ਬੂਤ ਕਰਦਾ ਹੈ ਕਿ ਇਹ ਦੋ ਕਾਰਜਸ਼ੀਲ ਤੌਰ ‘ਤੇ ਵੱਖਰੀਆਂ ਪ੍ਰੋਸੈਸਿੰਗ ਇਕਾਈਆਂ ਹਨ ਜੋ ਇੱਕ ਸਾਂਝਾ ਪੈਕੇਜ ਸਾਂਝਾ ਕਰਦੀਆਂ ਹਨ ਪਰ ਪੂਰੀ ਮੈਮੋਰੀ ਸ਼ੇਅਰਿੰਗ ਲਈ ਬਾਹਰੀ ਸੰਚਾਰ ਮਾਰਗਾਂ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਇਹ ਵੱਖਰਾਪਣ, Nvidia ਦਲੀਲ ਦਿੰਦਾ ਹੈ, ਉਹਨਾਂ ਨੂੰ ਦੋ ਵੱਖਰੇ GPUs ਵਜੋਂ ਗਿਣਨ ਨੂੰ ਜਾਇਜ਼ ਠਹਿਰਾਉਂਦਾ ਹੈ।

  • GB300 NVL72 ਸੰਰਚਨਾ: ਇਸਦੇ ਉਲਟ, ਉੱਚ-ਅੰਤ ਵਾਲੇ GB300 ਸਿਸਟਮਾਂ ਵਿੱਚ ਵਰਤੇ ਜਾਣ ਵਾਲੇ ‘Superchip’ ਪੈਕੇਜ ਹਾਈ-ਸਪੀਡ C2C ਇੰਟਰਕਨੈਕਟ ਨੂੰ ਬਰਕਰਾਰ ਰੱਖਦੇ ਹਨ। ਇਹ ਸਿੱਧਾ ਲਿੰਕ ਪੈਕੇਜ ਦੇ ਅੰਦਰ ਦੋ ਡਾਈਜ਼ ਨੂੰ NVLink ਸਵਿੱਚ ਦੁਆਰਾ ਆਫ-ਪੈਕੇਜ ਚੱਕਰ ਦੀ ਲੋੜ ਤੋਂ ਬਿਨਾਂ, ਬਹੁਤ ਜ਼ਿਆਦਾ ਕੁਸ਼ਲਤਾ ਅਤੇ ਸਿੱਧੇ ਤੌਰ ‘ਤੇ ਸੰਚਾਰ ਕਰਨ ਅਤੇ ਮੈਮੋਰੀ ਸਰੋਤਾਂ ਨੂੰ ਸਾਂਝਾ ਕਰਨ ਦੀ ਆਗਿਆ ਦਿੰਦਾ ਹੈ। ਕਿਉਂਕਿ ਉਹ ਵਧੇਰੇ ਇਕਸੁਰਤਾ ਨਾਲ ਕੰਮ ਕਰ ਸਕਦੇ ਹਨ ਅਤੇ ਮੈਮੋਰੀ ਨੂੰ ਨਿਰਵਿਘਨ ਸਾਂਝਾ ਕਰ ਸਕਦੇ ਹਨ, ਉਹਨਾਂ ਨੂੰ, ਸੌਫਟਵੇਅਰ ਅਤੇ ਲਾਇਸੈਂਸਿੰਗ ਦੇ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਤੋਂ, ਇੱਕ ਸਿੰਗਲ, ਇਕਜੁੱਟ GPU ਵਜੋਂ ਮੰਨਿਆ ਜਾਂਦਾ ਹੈ, ਜੋ Blackwell ਆਰਕੀਟੈਕਚਰ ਦੇ ਸ਼ੁਰੂਆਤੀ ‘ਇਕਜੁੱਟ’ ਵਰਣਨ ਨਾਲ ਮੇਲ ਖਾਂਦਾ ਹੈ।

ਇਹ ਤਕਨੀਕੀ ਅੰਤਰ ਵੱਖ-ਵੱਖ ਗਿਣਤੀ ਵਿਧੀਆਂ ਲਈ ਇੱਕ ਤਰਕਪੂਰਨ ਆਧਾਰ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ। B300 ਦੀਆਂ ਡਾਈਜ਼ C2C ਲਿੰਕ ਦੀ ਘਾਟ ਕਾਰਨ ਕਾਰਜਸ਼ੀਲ ਤੌਰ ‘ਤੇ ਵਧੇਰੇ ਵੱਖਰੀਆਂ ਹਨ, ਜੋ ਦੋ-GPU ਗਿਣਤੀ ਨੂੰ ਭਰੋਸੇਯੋਗਤਾ ਪ੍ਰਦਾਨ ਕਰਦੀਆਂ ਹਨ। GB300 ਦੀਆਂ ਡਾਈਜ਼ ਮਜ਼ਬੂਤੀ ਨਾਲ ਜੁੜੀਆਂ ਹੋਈਆਂ ਹਨ, ਸਿੰਗਲ-GPU ਗਿਣਤੀ ਦਾ ਸਮਰਥਨ ਕਰਦੀਆਂ ਹਨ।

ਭਵਿੱਖ ਵਿੱਚ ਝਾਤ ਮਾਰਨਾ: Vera Rubin ਮਿਸਾਲ ਕਾਇਮ ਕਰਦਾ ਹੈ

ਜਦੋਂ ਕਿ GB300 ਵਰਤਮਾਨ ਵਿੱਚ ਇੱਕ ਅਪਵਾਦ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ, B300 ਲਈ ਅਪਣਾਈ ਗਈ ਡਾਈ-ਗਿਣਤੀ ਪਹੁੰਚ Nvidia ਦੀ ਭਵਿੱਖੀ ਦਿਸ਼ਾ ਦਾ ਸੰਕੇਤ ਜਾਪਦੀ ਹੈ। ਕੰਪਨੀ ਨੇ ਪਹਿਲਾਂ ਹੀ ਸੰਕੇਤ ਦਿੱਤਾ ਹੈ ਕਿ ਇਸਦਾ ਅਗਲੀ ਪੀੜ੍ਹੀ ਦਾ ਪਲੇਟਫਾਰਮ, ਜਿਸਦਾ ਕੋਡਨੇਮ Vera Rubin ਹੈ, ਜੋ ਅੱਗੇ ਸੜਕ ‘ਤੇ ਰਿਲੀਜ਼ ਲਈ ਤਹਿ ਕੀਤਾ ਗਿਆ ਹੈ, ਇਸ ਨਵੇਂ ਨਾਮਕਰਨ ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਅਪਣਾ ਲਵੇਗਾ।

ਨਾਮਕਰਨ ਸੰਮੇਲਨ ਖੁਦ ਇੱਕ ਸੁਰਾਗ ਪੇਸ਼ ਕਰਦਾ ਹੈ। Rubin ਆਰਕੀਟੈਕਚਰ ‘ਤੇ ਅਧਾਰਤ ਸਿਸਟਮਾਂ ਨੂੰ ਉੱਚ ਸੰਖਿਆਵਾਂ ਨਾਲ ਮਨੋਨੀਤ ਕੀਤਾ ਜਾ ਰਿਹਾ ਹੈ, ਜਿਵੇਂ ਕਿ NVL144। ਇਹ ਅਹੁਦਾ ਮੌਡਿਊਲਾਂ ਦੀ ਬਜਾਏ ਵਿਅਕਤੀਗਤ ਡਾਈਜ਼ ਦੀ ਗਿਣਤੀ ਦਾ ਜ਼ੋਰਦਾਰ ਸੰਕੇਤ ਦਿੰਦਾ ਹੈ। B300 ਤਰਕ ਦੀ ਪਾਲਣਾ ਕਰਦੇ ਹੋਏ, ਇੱਕ NVL144 ਸਿਸਟਮ ਵਿੱਚ ਸੰਭਾਵਤ ਤੌਰ ‘ਤੇ ਕਈ ਮੌਡਿਊਲ ਸ਼ਾਮਲ ਹੋਣਗੇ, ਹਰੇਕ ਵਿੱਚ ਕਈ ਡਾਈਜ਼ ਹੋਣਗੇ, ਜੋ ਲਾਇਸੈਂਸਿੰਗ ਅਤੇ ਨਿਰਧਾਰਨ ਉਦੇਸ਼ਾਂ ਲਈ 144 ਗਿਣਨਯੋਗ GPU ਡਾਈਜ਼ ਤੱਕ ਦਾ ਜੋੜ ਕਰਨਗੇ।

ਇਹ ਰੁਝਾਨ Vera Rubin Ultra ਪਲੇਟਫਾਰਮ ਦੇ ਨਾਲ 2027 ਦੇ ਅਖੀਰ ਲਈ Nvidia ਦੇ ਰੋਡਮੈਪ ਵਿੱਚ ਹੋਰ ਵੀ ਸਪੱਸ਼ਟ ਹੈ। ਇਹ ਪਲੇਟਫਾਰਮ ਪ੍ਰਤੀ ਰੈਕ 576 GPUs ਦਾ ਸ਼ਾਨਦਾਰ ਦਾਅਵਾ ਕਰਦਾ ਹੈ। ਜਿਵੇਂ ਕਿ ਪਹਿਲਾਂ ਵਿਸ਼ਲੇਸ਼ਣ ਕੀਤਾ ਗਿਆ ਹੈ, ਇਹ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਸੰਖਿਆ ਇੱਕ ਰੈਕ ਵਿੱਚ 576 ਵੱਖਰੇ ਭੌਤਿਕ ਮੌਡਿਊਲਾਂ ਨੂੰ ਪੈਕ ਕਰਕੇ ਪ੍ਰਾਪਤ ਨਹੀਂ ਕੀਤੀ ਜਾਂਦੀ। ਇਸ ਦੀ ਬਜਾਏ, ਇਹ ਗੁਣਾਤਮਕ ਤੌਰ ‘ਤੇ ਲਾਗੂ ਕੀਤੇ ਗਏ ਨਵੇਂ ਗਿਣਤੀ ਪੈਰਾਡਾਈਮ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ। ਆਰਕੀਟੈਕਚਰ ਵਿੱਚ ਸੰਭਾਵਤਤੌਰ ‘ਤੇ ਪ੍ਰਤੀ ਰੈਕ 144 ਭੌਤਿਕ ਮੌਡਿਊਲ ਸ਼ਾਮਲ ਹੁੰਦੇ ਹਨ, ਪਰ ਹਰੇਕ ਮੌਡਿਊਲ ਵਿੱਚ ਚਾਰ ਵੱਖਰੀਆਂ ਸਿਲੀਕਾਨ ਡਾਈਜ਼ ਹੁੰਦੀਆਂ ਹਨ। ਇਸ ਤਰ੍ਹਾਂ, 144 ਮੌਡਿਊਲਾਂ ਨੂੰ 4 ਡਾਈਜ਼ ਪ੍ਰਤੀ ਮੌਡਿਊਲ ਨਾਲ ਗੁਣਾ ਕਰਨ ਨਾਲ 576 ‘GPUs’ ਦਾ ਮੁੱਖ ਅੰਕੜਾ ਮਿਲਦਾ ਹੈ।

ਇਹ ਅਗਾਂਹਵਧੂ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਸੁਝਾਅ ਦਿੰਦਾ ਹੈ ਕਿ B300 ਦੀ ਡਾਈ-ਗਿਣਤੀ ਵਿਧੀ ਸਿਰਫ਼ ਖਾਸ ਏਅਰ-ਕੂਲਡ ਸਿਸਟਮਾਂ ਲਈ ਇੱਕ ਅਸਥਾਈ ਸਮਾਯੋਜਨ ਨਹੀਂ ਹੈ, ਸਗੋਂ ਇਸ ਬੁਨਿਆਦੀ ਸਿਧਾਂਤ ਲਈ ਹੈ ਕਿ Nvidia ਭਵਿੱਖ ਦੀਆਂ ਪੀੜ੍ਹੀਆਂ ਵਿੱਚ ਆਪਣੇ GPU ਸਰੋਤਾਂ ਨੂੰ ਕਿਵੇਂ ਮਾਪਣ ਦਾ ਇਰਾਦਾ ਰੱਖਦਾ ਹੈ। Nvidia ਦੇ ਈਕੋਸਿਸਟਮ ਵਿੱਚ ਨਿਵੇਸ਼ ਕਰਨ ਵਾਲੇ ਗਾਹਕਾਂ ਨੂੰ ਇਸ ਤਬਦੀਲੀ ਦੇ ਮਿਆਰੀ ਬਣਨ ਦੀ ਉਮੀਦ ਕਰਨ ਦੀ ਲੋੜ ਹੈ।

ਅਣਕਹਿਆ ਕਾਰਕ: ਸੌਫਟਵੇਅਰ ਮਾਲੀਆ ਧਾਰਾਵਾਂ ਨੂੰ ਵੱਧ ਤੋਂ ਵੱਧ ਕਰਨਾ?

ਜਦੋਂ ਕਿ C2C ਇੰਟਰਕਨੈਕਟ ਦੇ ਸਬੰਧ ਵਿੱਚ ਤਕਨੀਕੀ ਵਿਆਖਿਆ B300 ਦੀ ਵੱਖਰੀ GPU ਗਿਣਤੀ ਲਈ ਇੱਕ ਤਰਕ ਪ੍ਰਦਾਨ ਕਰਦੀ ਹੈ, ਸਮਾਂ ਅਤੇ ਮਹੱਤਵਪੂਰਨ ਵਿੱਤੀ ਪ੍ਰਭਾਵ ਲਾਜ਼ਮੀ ਤੌਰ ‘ਤੇ ਅੰਤਰੀਵ ਵਪਾਰਕ ਪ੍ਰੇਰਣਾਵਾਂ ਬਾਰੇ ਅਟਕਲਾਂ ਵੱਲ ਲੈ ਜਾਂਦੇ ਹਨ। ਕੀ ਇਹ ਮੁੜ ਪਰਿਭਾਸ਼ਾ, ਸ਼ੁਰੂ ਵਿੱਚ ਇੱਕ ਨਾਮਕਰਨ ‘ਗਲਤੀ’ ਦੇ ਸੁਧਾਰ ਵਜੋਂ ਪੇਸ਼ ਕੀਤੀ ਗਈ, ਆਵਰਤੀ ਸੌਫਟਵੇਅਰ ਮਾਲੀਏ ਨੂੰ ਵਧਾਉਣ ਲਈ ਇੱਕ ਰਣਨੀਤਕ ਲੀਵਰ ਵਜੋਂ ਵੀ ਕੰਮ ਕਰ ਸਕਦੀ ਹੈ?

ਉਸ ਸਾਲ ਵਿੱਚ ਜਦੋਂ ਤੋਂ Blackwell ਨੂੰ ਪਹਿਲੀ ਵਾਰ ਇਸਦੇ ‘ਇਕਜੁੱਟ, ਸਿੰਗਲ GPU’ ਮੈਸੇਜਿੰਗ ਨਾਲ ਵੇਰਵਾ ਦਿੱਤਾ ਗਿਆ ਸੀ, ਇਹ ਸੰਭਵ ਹੈ ਕਿ Nvidia ਨੇ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਮਾਲੀਆ ਮੌਕੇ ਨੂੰ ਅਣਵਰਤਿਆ ਛੱਡਿਆ ਹੋਇਆ ਪਛਾਣਿਆ। AI Enterprise ਸੂਟ Nvidia ਦੇ ਕਾਰੋਬਾਰ ਦੇ ਇੱਕ ਵਧ ਰਹੇ ਅਤੇ ਉੱਚ-ਮਾਰਜਿਨ ਵਾਲੇ ਹਿੱਸੇ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ। ਇਸਦੀ ਲਾਇਸੈਂਸਿੰਗ ਨੂੰ ਭੌਤਿਕ ਮੌਡਿਊਲਾਂ ਦੀ ਬਜਾਏ ਸਿਲੀਕਾਨ ਡਾਈਜ਼ ਦੀ ਸੰਖਿਆ ਨਾਲ ਸਿੱਧਾ ਜੋੜਨਾ, ਹਰੇਕ ਹਾਰਡਵੇਅਰ ਤੈਨਾਤੀ ਤੋਂ ਪ੍ਰਾਪਤ ਸੌਫਟਵੇਅਰ ਮਾਲੀਏ ਨੂੰ ਮਹੱਤਵਪੂਰਨ ਤੌਰ ‘ਤੇ ਵਧਾਉਣ ਦਾ ਇੱਕ ਮਾਰਗ ਪੇਸ਼ ਕਰਦਾ ਹੈ, ਖਾਸ ਤੌਰ ‘ਤੇ ਜਦੋਂ Vera Rubin Ultra ਵਰਗੇ ਭਵਿੱਖ ਦੇ ਆਰਕੀਟੈਕਚਰਾਂ ਵਿੱਚ ਪ੍ਰਤੀ ਮੌਡਿਊਲ ਡਾਈ ਦੀ ਗਿਣਤੀ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਵਧਦੀ ਹੈ।

ਜਦੋਂ ਇਸ ਬਾਰੇ ਦਬਾਅ ਪਾਇਆ ਗਿਆ ਕਿ GPU ਪਰਿਭਾਸ਼ਾ ਵਿੱਚ ਇਹ ਤਬਦੀਲੀ ਨਵੇਂ B300 ਸਿਸਟਮਾਂ ਲਈ AI Enterprise ਲਾਇਸੈਂਸਿੰਗ ਲਾਗਤਾਂ ਨੂੰ ਖਾਸ ਤੌਰ ‘ਤੇ ਕਿਵੇਂ ਪ੍ਰਭਾਵਤ ਕਰੇਗੀ, Nvidia ਨੇ ਕੁਝ ਹੱਦ ਤੱਕ ਅਸਪਸ਼ਟਤਾ ਬਣਾਈ ਰੱਖੀ। ਇੱਕ ਕੰਪਨੀ ਦੇ ਬੁਲਾਰੇ ਨੇ ਦੱਸਿਆ ਕਿ ਵਿੱਤੀ ਵੇਰਵੇ ਅਜੇ ਵੀ ਵਿਚਾਰ ਅਧੀਨ ਸਨ। ‘B300 ਲਈ ਕੀਮਤ ਦੇ ਵੇਰਵੇ ਅਜੇ ਵੀ ਅੰਤਿਮ ਰੂਪ ਦਿੱਤੇ ਜਾ ਰਹੇ ਹਨ ਅਤੇ ਇਸ ਸਮੇਂ GTC ਕੀਨੋਟ ਵਿੱਚ ਦਿਖਾਏ ਗਏ ਤੋਂ ਇਲਾਵਾ Rubin ਬਾਰੇ ਸਾਂਝਾ ਕਰਨ ਲਈ ਕੋਈ ਵੇਰਵੇ ਨਹੀਂ ਹਨ,’ ਬੁਲਾਰੇ ਨੇ ਸਪੱਸ਼ਟ ਤੌਰ ‘ਤੇ ਪੁਸ਼ਟੀ ਕਰਦੇ ਹੋਏ ਕਿਹਾ ਕਿ ਇਸ ਵਿੱਚ ਇਹਨਾਂ ਪਲੇਟਫਾਰਮਾਂ ‘ਤੇ AI Enterprise ਲਈ ਕੀਮਤ ਢਾਂਚਾ ਸ਼ਾਮਲ ਹੈ।

ਅੰਤਿਮ ਕੀਮਤ ਦੀ ਇਹ ਘਾਟ, ਕੁਝ ਹਾਰਡਵੇਅਰ ਸੰਰਚਨਾਵਾਂ ‘ਤੇ ਗਿਣਨਯੋਗ GPUs ਦੇ ਦੁੱਗਣੇ ਹੋਣ ਦੇ ਨਾਲ, ਭਵਿੱਖ ਦੇ AI ਬੁਨਿਆਦੀ ਢਾਂਚੇ ਦੇ ਨਿਵੇਸ਼ਾਂ ਦੀ ਯੋਜਨਾ ਬਣਾਉਣ ਵਾਲੇ ਗਾਹਕਾਂ ਲਈ ਅਨਿਸ਼ਚਿਤਤਾ ਪੈਦਾ ਕਰਦੀ ਹੈ। ਜਦੋਂ ਕਿ ਤਕਨੀਕੀ ਤਰਕ ਮੌਜੂਦ ਹਨ, ਸੌਫਟਵੇਅਰ ਗਾਹਕੀ ਲਾਗਤਾਂ ਵਿੱਚ ਮਹੱਤਵਪੂਰਨ ਵਾਧੇ ਦੀ ਸੰਭਾਵਨਾ ਵੱਡੀ ਹੈ। ਇਹ ਤਬਦੀਲੀ ਸੈਮੀਕੰਡਕਟਰ ਮੁੱਲ ਲੜੀ ਵਿੱਚ ਸੌਫਟਵੇਅਰ ਦੀ ਵਧਦੀ ਮਹੱਤਤਾ ਅਤੇ Nvidia ਦੀ ਸਪੱਸ਼ਟ ਰਣਨੀਤੀ ਨੂੰ ਉਜਾਗਰ ਕਰਦੀ ਹੈ ਤਾਂ ਜੋ ਲਾਇਸੈਂਸਿੰਗ ਮੈਟ੍ਰਿਕਸ ਨੂੰ ਅੰਤਰੀਵ ਸਿਲੀਕਾਨ ਗੁੰਝਲਤਾ ਨਾਲ ਵਧੇਰੇ ਨੇੜਿਓਂ ਇਕਸਾਰ ਕਰਕੇ ਇਸਦੇ ਵਿਆਪਕ AI ਪਲੇਟਫਾਰਮ ਦਾ ਵਧੇਰੇ ਪ੍ਰ