Nvidia کی 'GPU' کی نئی تعریف: AI لاگت میں اضافہ؟

ایک دلچسپ تصحیح: Nvidia اپنے GPU شمار پر نظر ثانی کرتا ہے

سیمی کنڈکٹر جدت طرازی کے اعلیٰ داؤ والے تھیٹر میں، Nvidia کی GPU ٹیکنالوجی کانفرنس (GTC) مستقبل کی نقاب کشائی کے لیے ایک اہم اسٹیج کے طور پر کام کرتی ہے۔ اپنی حالیہ ترین میٹنگ کے دوران، مصنوعی ذہانت اور تیز رفتار کمپیوٹنگ میں ترقی کے حوالے سے متوقع دھوم دھام کے درمیان، کمپنی نے ایک لطیف لیکن ممکنہ طور پر گہری تبدیلی متعارف کرائی – اس میں ترمیم کہ وہ بنیادی طور پر گرافکس پروسیسنگ یونٹ (GPU) کی تعریف کیسے کرتی ہے۔ یہ محض ایک تکنیکی فوٹ نوٹ نہیں تھا؛ یہ ایک دوبارہ ترتیب تھی جس کے اہم نیچے کی طرف مضمرات تھے، خاص طور پر Nvidia کے جدید AI حلوں کی تعیناتی کے لیے لاگت کے ڈھانچے کے حوالے سے۔

CEO Jensen Huang نے خود GTC اسٹیج سے براہ راست تبدیلی پر بات کی، اسے اپنی جدید ترین Blackwell آرکیٹیکچر کے حوالے سے پچھلی نگرانی کی اصلاح کے طور پر پیش کیا۔ ‘ایک چیز جس پر میں نے غلطی کی: Blackwell واقعی ایک Blackwell چپ میں دو GPUs ہیں،’ انہوں نے کہا۔ پیش کردہ منطق وضاحت اور مستقل مزاجی پر مرکوز تھی، خاص طور پر NVLink، Nvidia کی تیز رفتار انٹرکنیکٹ ٹیکنالوجی سے وابستہ نام رکھنے کے کنونشنز کے حوالے سے۔ ‘ہم نے اس ایک چپ کو GPU کہا اور یہ غلط تھا۔ اس کی وجہ یہ ہے کہ یہ تمام NVLink ناموں کو خراب کر دیتا ہے،’ Huang نے وضاحت کی۔ اگرچہ ماڈل نمبروں کو آسان بنانا منطقی صفائی کی ایک حد پیش کرتا ہے، یہ نئی تعریف محض الفاظ سے کہیں زیادہ وزن رکھتی ہے۔

شفٹ کا مرکز جسمانی ماڈیولز (خاص طور پر، اعلیٰ کارکردگی والے سرورز میں عام SXM فارم فیکٹر) کو انفرادی GPUs کے طور پر شمار کرنے سے ان ماڈیولز کے اندر موجود مخصوص سلیکون ڈائیز کو شمار کرنے کی طرف منتقل ہونا ہے۔ اصطلاحات میں یہ بظاہر معمولی ایڈجسٹمنٹ Nvidia کے AI Enterprise سافٹ ویئر سویٹ کا فائدہ اٹھانے والی تنظیموں کے لیے مالی منظر نامے کو ڈرامائی طور پر تبدیل کرنے کی صلاحیت رکھتی ہے۔

مالی لہر کا اثر: AI Enterprise لائسنسنگ پر دوگنا کرنا؟

Nvidia کا AI Enterprise ایک جامع سافٹ ویئر پلیٹ فارم ہے جو AI ایپلی کیشنز کی ترقی اور تعیناتی کو ہموار کرنے کے لیے ڈیزائن کیا گیا ہے۔ اس میں ٹولز، فریم ورکس، اور تنقیدی طور پر، Nvidia Inference Microservices (NIMs) تک رسائی شامل ہے، جو AI ماڈلز کو مؤثر طریقے سے چلانے کے لیے آپٹمائزڈ کنٹینرز ہیں۔ اس طاقتور سویٹ کے لیے لائسنسنگ ماڈل تاریخی طور پر تعینات کردہ GPUs کی تعداد سے براہ راست منسلک رہا ہے۔ موجودہ قیمتوں کے ڈھانچے لاگت کو تقریباً $4,500 فی GPU سالانہ، یا $1 فی GPU فی گھنٹہ کی کلاؤڈ بیسڈ شرح پر رکھتے ہیں۔

پچھلی نسل یا کچھ Blackwell کنفیگریشنز پر غور کریں۔ ایک Nvidia HGX B200 سرور، جو آٹھ SXM ماڈیولز سے لیس ہے، جہاں ہر ماڈیول میں وہ چیز تھی جسے اس وقت ایک واحد Blackwell GPU سمجھا جاتا تھا، آٹھ AI Enterprise لائسنسوں کی ضرورت ہوگی۔ اس کا ترجمہ سالانہ سافٹ ویئر سبسکرپشن لاگت $36,000 (8 GPUs * $4,500/GPU) یا فی گھنٹہ کلاؤڈ لاگت $8 (8 GPUs * $1/GPU/hour) میں ہوا۔

اب، HGX B300 NVL16 جیسے سسٹمز کے ساتھ نئے متعین کردہ منظر نامے میں داخل ہوں۔ اس سسٹم میں آٹھ جسمانی SXM ماڈیولز بھی شامل ہیں۔ تاہم، نظر ثانی شدہ تعریف کے تحت، Nvidia اب ان ماڈیولز کے اندر ہر سلیکون ڈائی کو ایک انفرادی GPU کے طور پر شمار کرتا ہے۔ چونکہ اس مخصوص کنفیگریشن میں ہر ماڈیول میں دو ڈائیز ہوتے ہیں، لائسنسنگ مقاصد کے لیے کل GPU شمار مؤثر طریقے سے 16 GPUs (8 ماڈیولز * 2 ڈائیز/ماڈیول) تک دوگنا ہو جاتا ہے۔

یہ فرض کرتے ہوئے کہ Nvidia AI Enterprise سویٹ کے لیے اپنی موجودہ فی-GPU قیمتوں کا ڈھانچہ برقرار رکھتا ہے – ایک نکتہ جس کے بارے میں کمپنی نے کہا ہے کہ ابھی حتمی شکل نہیں دی گئی ہے – مضمرات واضح ہیں۔ وہی آٹھ ماڈیول والا HGX B300 سسٹم اب ممکنہ طور پر 16 لائسنسوں کی ضرورت ہوگی، جس سے سالانہ سافٹ ویئر لاگت $72,000 (16 GPUs * $4,500/GPU) یا کلاؤڈ میں $16 فی گھنٹہ تک پہنچ جائے گی۔ یہ بظاہر موازنہ ہارڈویئر کثافت کے لیے سافٹ ویئر سبسکرپشن لاگت میں 100% اضافہ کی نمائندگی کرتا ہے، جو براہ راست اس تبدیلی سے پیدا ہوتا ہے کہ ‘GPU’ کو کیسے شمار کیا جاتا ہے۔

دو آرکیٹیکچرز کی کہانی: ماضی کے بیانات کو ملانا

ناموں میں یہ تبدیلی Nvidia کی Blackwell آرکیٹیکچر کی پچھلی خصوصیات کے ساتھ ایک دلچسپ تضاد پیش کرتی ہے۔ جب Blackwell کو ابتدائی طور پر منظر عام پر لایا گیا تھا، تو اس کے ڈیزائن کے حوالے سے بحثیں شروع ہوئیں، جس میں ایک ہی پروسیسر پیکیج کے اندر ایک ساتھ جڑے ہوئے سلیکون (ڈائیز) کے متعدد ٹکڑے شامل ہیں۔ اس وقت، Nvidia نے فعال طور پر Blackwell کو ‘چپلیٹ’ آرکیٹیکچر کی اصطلاح استعمال کرتے ہوئے بیان کرنے کے خلاف زور دیا – ایک عام صنعتی اصطلاح جو متعدد چھوٹے، آپس میں جڑے ہوئے ڈائیز کو استعمال کرنے والے ڈیزائنز کے لیے ہے۔ اس کے بجائے، کمپنی نے ایک مختلف نقطہ نظر پر زور دیا۔

جیسا کہ Blackwell لانچ کوریج کے دوران رپورٹ کیا گیا، Nvidia نے دلیل دی کہ اس نے ‘دو-ریٹیکل محدود ڈائی آرکیٹیکچر’ استعمال کیا جو ایک متحد، واحد GPU کے طور پر کام کرتا ہے۔’ اس جملے نے سختی سے تجویز کیا کہ دو ڈائیز کی جسمانی موجودگی کے باوجود، وہ ایک منطقی پروسیسنگ یونٹ کے طور پر ہم آہنگی سے کام کرتے ہیں۔ B300 کنفیگریشن پر لاگو نیا شمار کرنے کا طریقہ اس ‘متحد، واحد GPU’ تصور سے دور ہوتا دکھائی دیتا ہے، کم از کم سافٹ ویئر لائسنسنگ کے نقطہ نظر سے، ڈائیز کو الگ الگ اداروں کے طور پر مانتا ہے۔ اس سے سوالات پیدا ہوتے ہیں کہ کیا ابتدائی تفصیل بنیادی طور پر ہارڈویئر کی فعال صلاحیت پر مرکوز تھی یا لائسنسنگ پر اسٹریٹجک نقطہ نظر تیار ہوا ہے۔

کارکردگی میں اضافہ بمقابلہ ممکنہ لاگت میں اضافہ: B300 تجویز کا جائزہ

HGX B300 کے لیے سافٹ ویئر لائسنسنگ فیس کو اس کے پیشرو جیسے B200 کے مقابلے میں ممکنہ طور پر دوگنا کرنے پر غور کرتے وقت، نئے ہارڈویئر کی طرف سے پیش کردہ کارکردگی میں اضافہ کا جائزہ لینا بہت ضروری ہے۔ کیا B300 سافٹ ویئر کی لاگت کو ممکنہ طور پر دوگنا کرنے کا جواز پیش کرنے کے لیے دوگنی AI پروسیسنگ پاور فراہم کرتا ہے؟ وضاحتیں زیادہ باریک تصویر تجویز کرتی ہیں۔

HGX B300 میں بہتری ہے:

  • بڑھی ہوئی میموری کی گنجائش: یہ فی سسٹم تقریباً 2.3 ٹیرابائٹس ہائی بینڈوڈتھ میموری (HBM) پیش کرتا ہے، جو B200 پر دستیاب 1.5TB کے مقابلے میں تقریباً 1.5 گنا زیادہ ہے۔ یہ بڑے AI ماڈلز اور ڈیٹاسیٹس کو سنبھالنے کے لیے بہت اہم ہے۔
  • بہتر کم درستگی والی کارکردگی: B300 4-بٹ فلوٹنگ پوائنٹ (FP4) درستگی کا استعمال کرتے ہوئے حسابات کے لیے کارکردگی میں نمایاں اضافہ ظاہر کرتا ہے۔ اس کا FP4 تھرو پٹ فی سسٹم صرف 105 ڈینس پیٹا فلاپس سے زیادہ تک پہنچ جاتا ہے، جو B200 کے مقابلے میں تقریباً 50% اضافہ ہے۔ یہ سرعت خاص طور پر کچھ AI انفرنس کاموں کے لیے فائدہ مند ہے جہاں کم درستگی قابل قبول ہے۔

تاہم، کارکردگی کا فائدہ تمام کام کے بوجھ میں عالمگیر نہیں ہے۔ اہم بات یہ ہے کہ، زیادہ درستگی والے فلوٹنگ پوائنٹ ریاضی (جیسے FP8، FP16، یا FP32) کی ضرورت والے کاموں کے لیے، B300 پرانے B200 سسٹم کے مقابلے میں کوئی اہم فلوٹنگ پوائنٹ آپریشنز کا فائدہ پیش نہیں کرتا۔ بہت سے پیچیدہ AI ٹریننگ اور سائنسی کمپیوٹنگ کے کام ان اعلیٰ درستگی والے فارمیٹس پر بہت زیادہ انحصار کرتے ہیں۔

لہذا، B300 کا جائزہ لینے والی تنظیموں کو ایک پیچیدہ حساب کتاب کا سامنا ہے۔ وہ کافی میموری کی گنجائش اور FP4 کارکردگی میں اضافہ حاصل کرتے ہیں، لیکن AI Enterprise سافٹ ویئر کی لاگت میں ممکنہ دوگنا اضافہ ان کے مخصوص، اعلیٰ درستگی والے کام کے بوجھ کے لیے کارکردگی میں اسی طرح کے دوگنا اضافے سے مماثل نہیں ہو سکتا۔ قدر کی تجویز چلائے جانے والے AI کاموں کی نوعیت پر بہت زیادہ منحصر ہو جاتی ہے۔

تکنیکی جواز: انٹرکنیکٹس اور آزادی

دلچسپ بات یہ ہے کہ، یہ نیا ڈائی گنتی کا طریقہ کار GTC میں اعلان کردہ تمام نئے Blackwell پر مبنی سسٹمز پر عالمی طور پر لاگو نہیں ہوتا ہے۔ مثال کے طور پر، زیادہ طاقتور، مائع ٹھنڈا GB300 NVL72 سسٹم، پرانے کنونشن پر عمل پیرا ہیں، لائسنسنگ کے مقاصد کے لیے پورے پیکیج (جس میں دو ڈائیز ہوتے ہیں) کو ایک واحد GPU کے طور پر شمار کرتے ہیں۔ یہ اختلاف سوال پیدا کرتا ہے: فرق کیوں؟

Nvidia خود GPU پیکیجز کے اندر انٹرکنیکٹ ٹیکنالوجی میں جڑی ایک تکنیکی دلیل فراہم کرتا ہے۔ Ian Buck، Nvidia کے نائب صدر اور ہائپر اسکیل اور HPC کے جنرل مینیجر کے مطابق، فرق پیکیج کے اندر دو ڈائیز کو براہ راست جوڑنے والے ایک اہم چپ-ٹو-چپ (C2C) انٹرکنیکٹ کی موجودگی یا عدم موجودگی میں ہے۔

  • HGX B300 کنفیگریشن: ایئر کولڈ HGX B300 سسٹمز میں استعمال ہونے والے مخصوص Blackwell پیکیجز میں اس براہ راست C2C انٹرکنیکٹ کی کمی ہے۔ جیسا کہ Buck نے وضاحت کی، یہ ڈیزائن انتخاب ایئر کولڈ چیسس کی رکاوٹوں کے اندر بجلی کی کھپت اور تھرمل مینجمنٹ کو بہتر بنانے کے لیے کیا گیا تھا۔ تاہم، نتیجہ یہ ہے کہ ایک B300 ماڈیول پر دو ڈائیز زیادہ حد تک آزادی کے ساتھ کام کرتے ہیں۔ اگر ایک ڈائی کو ہائی بینڈوڈتھ میموری میں ذخیرہ شدہ ڈیٹا تک رسائی حاصل کرنے کی ضرورت ہے جو جسمانی طور پر اسی ماڈیول پر دوسرے ڈائی سے منسلک ہے، تو وہ براہ راست ایسا نہیں کر سکتا۔ اس کے بجائے، ڈیٹا کی درخواست کو پیکیج سے باہر سفر کرنا ہوگا، بیرونی NVLink نیٹ ورک (ممکنہ طور پر سرور مدر بورڈ پر NVLink سوئچ چپ کے ذریعے) کو عبور کرنا ہوگا، اور پھر دوسرے ڈائی کے میموری کنٹرولر پر واپس جانا ہوگا۔ یہ چکر اس تصور کو تقویت دیتا ہے کہ یہ دو فعال طور پر الگ الگ پروسیسنگ یونٹس ہیں جو ایک مشترکہ پیکیج کا اشتراک کرتے ہیں لیکن مکمل میموری شیئرنگ کے لیے بیرونی مواصلاتی راستوں کی ضرورت ہوتی ہے۔ یہ علیحدگی، Nvidia دلیل دیتا ہے، انہیں دو الگ الگ GPUs کے طور پر شمار کرنے کا جواز پیش کرتی ہے۔

  • GB300 NVL72 کنفیگریشن: اس کے برعکس، اعلیٰ درجے کے GB300 سسٹمز میں استعمال ہونے والے ‘Superchip’ پیکیجز تیز رفتار C2C انٹرکنیکٹ کو برقرار رکھتے ہیں۔ یہ براہ راست لنک پیکیج کے اندر دو ڈائیز کو NVLink سوئچ کے ذریعے آف پیکیج چکر کی ضرورت کے بغیر زیادہ مؤثر طریقے سے اور براہ راست بات چیت کرنے اور میموری وسائل کا اشتراک کرنے کی اجازت دیتا ہے۔ چونکہ وہ زیادہ ہم آہنگی سے کام کر سکتے ہیں اور بغیر کسی رکاوٹ کے میموری کا اشتراک کر سکتے ہیں، انہیں سافٹ ویئر اور لائسنسنگ کے نقطہ نظر سے، ایک واحد، متحد GPU کے طور پر سمجھا جاتا ہے، جو Blackwell آرکیٹیکچر کی ابتدائی ‘متحد’ تفصیل کے مطابق ہے۔

یہ تکنیکی امتیاز مختلف گنتی کے طریقوں کے لیے ایک منطقی بنیاد فراہم کرتا ہے۔ B300 کے ڈائیز C2C لنک کی کمی کی وجہ سے فعال طور پر زیادہ الگ ہیں، جو دو-GPU شمار کو اعتبار دیتے ہیں۔ GB300 کے ڈائیز مضبوطی سے جڑے ہوئے ہیں، جو واحد-GPU شمار کی حمایت کرتے ہیں۔

مستقبل میں جھانکنا: Vera Rubin مثال قائم کرتا ہے

جبکہ GB300 فی الحال ایک استثناء کی نمائندگی کرتا ہے، B300 کے لیے اپنایا گیا ڈائی گنتی کا طریقہ Nvidia کی مستقبل کی سمت کا اشارہ معلوم ہوتا ہے۔ کمپنی نے پہلے ہی اشارہ دیا ہے کہ اس کا اگلی نسل کا پلیٹ فارم، جس کا کوڈ نام Vera Rubin ہے، جو آگے چل کر ریلیز ہونے والا ہے، اس نئے نام کو مکمل طور پر اپنائے گا۔

نام رکھنے کا کنونشن خود ایک اشارہ پیش کرتا ہے۔ Rubin آرکیٹیکچر پر مبنی سسٹمز کو اعلیٰ نمبروں کے ساتھ نامزد کیا جا رہا ہے، جیسے NVL144۔ یہ عہدہ ماڈیولز کے بجائے انفرادی ڈائیز کو شمار کرنے کا سختی سے مطلب ہے۔ B300 منطق کے بعد، ایک NVL144 سسٹم ممکنہ طور پر متعدد ماڈیولز پر مشتمل ہوگا، ہر ایک میں متعدد ڈائیز ہوں گے، جو لائسنسنگ اور تفصیلات کے مقاصد کے لیے 144 قابل شمار GPU ڈائیز تک کا مجموعہ ہوگا۔

یہ رجحان Nvidia کے 2027 کے آخر میں Vera Rubin Ultra پلیٹ فارم کے روڈ میپ میں اور بھی زیادہ واضح ہے۔ یہ پلیٹ فارم فی ریک 576 GPUs کی حیران کن تعداد کا حامل ہے۔ جیسا کہ پہلے تجزیہ کیا گیا، یہ متاثر کن تعداد ایک ریک میں 576 الگ الگ جسمانی ماڈیولز کو پیک کرکے حاصل نہیں کی جاتی ہے۔ اس کے بجائے، یہ ضرب کے طور پر لاگو ہونے والے نئے گنتی کے پیراڈائم کی عکاسی کرتا ہے۔ آرکیٹیکچر میں ممکنہ طور پر فی ریک 144 جسمانی ماڈیولز شامل ہیں، لیکن ہر ماڈیول میں چار الگ الگ سلیکون ڈائیز ہوتے ہیں۔ اس طرح، 144 ماڈیولز کو 4 ڈائیز فی ماڈیول سے ضرب دینے سے 576 ‘GPUs’ کا ہیڈ لائن اعداد و شمار حاصل ہوتا ہے۔

یہ آگے دیکھنے والا نقطہ نظر بتاتا ہے کہ B300 کا ڈائی گنتی کا طریقہ محض مخصوص ایئر کولڈ سسٹمز کے لیے ایک عارضی ایڈجسٹمنٹ نہیں ہے بلکہ اس بنیادی اصول کی بنیاد ہے کہ Nvidia مستقبل کی نسلوں میں اپنے GPU وسائل کی مقدار کیسے طے کرنے کا ارادہ رکھتا ہے۔ Nvidia کے ایکو سسٹم میں سرمایہ کاری کرنے والے صارفین کو اس تبدیلی کے معیار بننے کی توقع کرنے کی ضرورت ہے۔

غیر کہی گئی وجہ: سافٹ ویئر ریونیو اسٹریمز کو زیادہ سے زیادہ کرنا؟

جبکہ C2C انٹرکنیکٹ کے حوالے سے تکنیکی وضاحت B300 کی الگ GPU گنتی کے لیے ایک منطق فراہم کرتی ہے، وقت اور اہم مالی مضمرات لامحالہ بنیادی کاروباری محرکات کے بارے میں قیاس آرائیوں کا باعث بنتے ہیں۔ کیا یہ نئی تعریف، جو ابتدائی طور پر ناموں کی ‘غلطی’ کی اصلاح کے طور پر پیش کی گئی تھی، بار بار آنے والے سافٹ ویئر ریونیو کو بڑھانے کے لیے ایک اسٹریٹجک لیور کے طور پر بھی کام کر سکتی ہے؟

اس سال میں جب سے Blackwell کو پہلی بار اس کے ‘متحد، واحد GPU’ پیغام رسانی کے ساتھ تفصیل سے بتایا گیا تھا، یہ قابل فہم ہے کہ Nvidia نے ایک خاطر خواہ آمدنی کا موقع پہچانا جسے استعمال نہیں کیا جا رہا تھا۔ AI Enterprise سویٹ Nvidia کے کاروبار کا ایک بڑھتا ہوا اور اعلیٰ مارجن والا جزو ہے۔ اس کی لائسنسنگ کو جسمانی ماڈیولز کے بجائے سلیکون ڈائیز کی تعداد سے براہ راست جوڑنا، ہر ہارڈویئر تعیناتی سے حاصل ہونے والے سافٹ ویئر ریونیو کو نمایاں طور پر بڑھانے کا راستہ پیش کرتا ہے، خاص طور پر جب مستقبل کے آرکیٹیکچرز جیسے Vera Rubin Ultra میں فی ماڈیول ڈائی شمار ممکنہ طور پر بڑھتے ہیں۔

جب اس بات پر دباؤ ڈالا گیا کہ GPU کی تعریف میں یہ تبدیلی نئے B300 سسٹمز کے لیے AI Enterprise لائسنسنگ لاگت کو خاص طور پر کیسے متاثر کرے گی، Nvidia نے ایک حد تک ابہام برقرار رکھا۔ کمپنی کے ترجمان نے بتایا کہ مالی تفصیلات پر ابھی غور کیا جا رہا ہے۔ ‘B300 کے لیے قیمتوں کی تفصیلات ابھی حتمی شکل دی جا رہی ہیں اور Rubin کے بارے میں GTC کینوٹ میں دکھائی گئی باتوں کے علاوہ اس وقت کوئی تفصیلات شیئر نہیں کی جا سکتیں،’ ترجمان نے کہا، واضح طور پر اس بات کی تصدیق کرتے ہوئے کہ اس میں ان پلیٹ فارمز پر AI Enterprise کے لیے قیمتوں کا ڈھانچہ شامل ہے۔

حتمی قیمتوں کا یہ فقدان، بعض ہارڈویئر کنفیگریشنز پر قابل شمار GPUs کے دوگنا ہونے کے ساتھ مل کر، مستقبل کے AI انفراسٹرکچر سرمایہ کاری کی منصوبہ بندی کرنے والے صارفین کے لیے غیر یقینی صورتحال پیدا کرتا ہے۔ اگرچہ تکنیکی جواز موجود ہیں، سافٹ ویئر سبسکرپشن لاگت میں خاطر خواہ اضافے کا امکان بہت بڑا ہے۔ یہ تبدیلی سیمی کنڈکٹر ویلیو چین میں سافٹ ویئر کی بڑھتی ہوئی اہمیت اور Nvidia کی واضح حکمت عملی کو اجاگر کرتی ہے تاکہ لائسنسنگ میٹرکس کو بنیادی سلیکون پیچیدگی کے ساتھ زیادہ قریب سے ہم آہنگ کرکے اپنے جامع AI پلیٹ فارم کو زیادہ مؤثر طریقے سے منیٹائز کیا جاسکے۔ جیسے جیسے تنظیمیں اگلی نسل کے AI سسٹمز کے لیے بجٹ بناتی ہیں، ‘GPU’ کی تعریف اچانک ایک اہم، اور ممکنہ طور پر بہت زیادہ مہنگی، متغیر بن گئی ہے۔