جنریٹو AI: فلک بوس قیمتیں بمقابلہ کم لاگت ماڈلز

مصنوعی ذہانت کی دنیا اس وقت شدید تضادات کا منظر پیش کر رہی ہے۔ ایک طرف، بڑی ٹیکنالوجی کمپنیوں میں حیران کن رقوم لگائی جا رہی ہیں، جو بے مثال علمی طاقت کی خواہشات کو ہوا دے رہی ہیں اور ایک آنے والے سرمایہ کاری کے بلبلے کے بارے میں بحثیں چھیڑ رہی ہیں۔ ملٹی بلین ڈالر کی ویلیوایشنز عام ہوتی جا رہی ہیں، اور فنڈنگ راؤنڈز کے فلکیاتی اعداد و شمار تک پہنچنے کی افواہیں گردش کر رہی ہیں۔ پھر بھی، ایک خاموش، متوازی اسٹیج پر، اکیڈمک حلقوں اور اوپن سورس کمیونٹیز کے اندر ایک انقلاب پنپ رہا ہے۔ یہاں، محققین قابل ذکر ذہانت کا مظاہرہ کر رہے ہیں، اربوں سے نہیں، بلکہ بعض اوقات محض معمولی رقم سے قابل جنریٹو AI ماڈلز تیار کر رہے ہیں، جو مصنوعی ذہانت کی بالادستی کی دوڑ میں ‘بڑا ہمیشہ بہتر ہوتا ہے’ کے مروجہ تصور کو بنیادی طور پر چیلنج کر رہے ہیں۔

یہ اختلاف تیزی سے نمایاں ہوتا جا رہا ہے۔ OpenAI پر غور کریں، جو ChatGPT کے پیچھے کارفرما ہے، مبینہ طور پر مزید سرمایہ کاری کی تلاش میں ہے جو اس کی ویلیوایشن کو حیران کن $300 بلین تک پہنچا سکتی ہے۔ اس طرح کے اعداد و شمار، تیزی سے بڑھتی ہوئی آمدنی کے تخمینوں کے ساتھ، بے لگام امید پرستی اور تیز رفتار ترقی کی تصویر پیش کرتے ہیں۔ تاہم، ساتھ ہی، احتیاط کے جھٹکے اس AI کی خوش فہمی کی بنیادوں کو ہلا رہے ہیں۔ نام نہاد ‘Magnificent 7’ ٹیکنالوجی اسٹاکس، جو طویل عرصے سے مارکیٹ کے چہیتے رہے ہیں، بڑی حد تک ان کی AI صلاحیت کی وجہ سے، نے نمایاں کم کارکردگی کے ادوار کا تجربہ کیا ہے، جو یہ بتاتا ہے کہ سرمایہ کاروں کی بے چینی بڑھ رہی ہے۔ اس بے چینی کو صنعت کے تجربہ کار ماہرین، جیسے Alibaba کے شریک بانی Joe Tsai کی وارننگز سے تقویت ملتی ہے، جنہوں نے حال ہی میں ممکنہ AI بلبلے کی تشکیل کے تشویشناک علامات کی نشاندہی کی، خاص طور پر US مارکیٹ میں۔ درکار سرمایہ کاری کا سراسر پیمانہ، خاص طور پر ان پیچیدہ ماڈلز کو طاقت دینے والے بڑے ڈیٹا سینٹرز کے لیے، شدید جانچ پڑتال کی زد میں آ رہا ہے۔ کیا موجودہ اخراجات کی سطح پائیدار ہے، یا یہ قریبی مدت کی حقیقتوں سے منقطع غیر معقول جوش و خروش کی نشاندہی کرتی ہے؟

AI بلبلے کا خطرہ منڈلا رہا ہے

AI بلبلے کے بارے میں خدشات محض تجریدی مالیاتی بے چینیاں نہیں ہیں؛ وہ خود AI کی ترقی کی رفتار اور سمت کے بارے میں گہرے سوالات کی عکاسی کرتے ہیں۔ بیانیہ بڑی حد تک چند بڑے کھلاڑیوں کے زیر تسلط رہا ہے جو ہمیشہ بڑے Large Language Models (LLMs) بنانے کے لیے اربوں کی سرمایہ کاری کر رہے ہیں۔ اس نے ایک ایسا ماحول پیدا کیا ہے جہاں مارکیٹ کی قیادت سب سے گہری جیبوں اور سب سے وسیع کمپیوٹنگ انفراسٹرکچر پر منحصر معلوم ہوتی ہے۔

  • ویلیوایشن کا چکر: OpenAI کی ممکنہ $300 بلین ویلیوایشن، اگرچہ بعض سرمایہ کاروں کے بے پناہ اعتماد کی عکاسی کرتی ہے، لیکن سوالات بھی اٹھاتی ہے۔ کیا یہ اعداد و شمار موجودہ صلاحیتوں اور آمدنی کے سلسلے سے جائز ہیں، یا یہ مستقبل کی، شاید غیر یقینی، پیش رفتوں پر بہت زیادہ منحصر ہے؟ پچھلے ٹیک بومز اور بسٹس، جیسے ڈاٹ کام کے دور، کے تاریخی متوازی ناگزیر طور پر سامنے آتے ہیں، جو احتیاط کا باعث بنتے ہیں۔
  • انفراسٹرکچر سرمایہ کاری کی جانچ پڑتال: AI-مخصوص ڈیٹا سینٹرز اور خصوصی ہارڈویئر، جیسے ہائی-اینڈ GPUs، میں لگائے جانے والے اربوں ڈالر، بہت بڑے سرمائے کے اخراجات کی نمائندگی کرتے ہیں۔ Joe Tsai کی وارننگ اس طرح کی بڑے پیمانے پر پیشگی سرمایہ کاری سے وابستہ خطرے کو اجاگر کرتی ہے، خاص طور پر اگر منیٹائزیشن کا راستہ توقع سے زیادہ طویل یا زیادہ پیچیدہ ثابت ہو۔ ان سرمایہ کاریوں کی کارکردگی اور واپسی اہم بحث کے نکات بن رہے ہیں۔
  • مارکیٹ سگنلز: AI میں بھاری سرمایہ کاری کرنے والی ٹیک جنات کی اتار چڑھاؤ والی کارکردگی مارکیٹ کی کچھ شکوک و شبہات کی نشاندہی کرتی ہے۔ اگرچہ طویل مدتی صلاحیت ایک مضبوط کشش بنی ہوئی ہے، قلیل مدتی اتار چڑھاؤ سے پتہ چلتا ہے کہ سرمایہ کار فعال طور پر خطرے کا دوبارہ جائزہ لے رہے ہیں اور موجودہ ترقی کے راستوں کی پائیداری پر سوال اٹھا رہے ہیں۔ AI اسپیس میں آنے والے IPOs کی قسمت، جیسے کہ AI چپ اسپیشلسٹ CoreWeave کی متوقع پیشکش، کو مارکیٹ کے جذبات کے بیرومیٹر کے طور پر قریب سے دیکھا جا رہا ہے۔ کیا یہ جوش و خروش کو دوبارہ زندہ کرے گا یا بنیادی گھبراہٹ کی تصدیق کرے گا؟
  • جغرافیائی سیاسی جہتیں: AI کی دوڑ میں اہم جغرافیائی سیاسی پہلو بھی ہیں، خاص طور پر US اور China کے درمیان۔ US میں بے پناہ اخراجات جزوی طور پر مسابقتی برتری برقرار رکھنے کی خواہش سے کارفرما ہیں۔ اس نے پیچیدہ پالیسی مباحثوں کو جنم دیا ہے، بشمول China کی پیشرفت کو ممکنہ طور پر سست کرنے کے لیے جدید سیمی کنڈکٹر ٹیکنالوجی پر سخت برآمدی کنٹرول کے مطالبات۔ اس کے برعکس، وینچر کیپیٹل چینی AI اسٹارٹ اپس میں بہتا رہتا ہے، جو ایک عالمی مقابلے کی نشاندہی کرتا ہے جہاں تکنیکی مہارت اور اقتصادی حکمت عملی مضبوطی سے جڑی ہوئی ہیں۔

یہ ہائی-اسٹیکس، ہائی-اسپینڈ ماحول خلل انگیز اختراعات کے لیے اسٹیج مرتب کرتا ہے جو قائم شدہ نظام کو چیلنج کرتی ہیں۔ نمایاں طور پر سستے متبادلات کا ابھرنا اس بات کا دوبارہ جائزہ لینے پر مجبور کرتا ہے کہ آیا بے رحمانہ کمپیوٹیشن اور بڑے پیمانے پر پیمانہ ہی آگے بڑھنے کے واحد راستے ہیں۔

DeepSeek کا خلل انگیز دعویٰ اور اس کے لہراتی اثرات

بڑے پیمانے پر اخراجات اور بڑھتی ہوئی بے چینی کے اس منظر نامے میں DeepSeek، ایک China میں قائم ادارہ، نے قدم رکھا جس نے ایک چونکا دینے والا دعویٰ کیا: اس نے اپنا R1 جنریٹو AI لارج لینگویج ماڈل محض $6 ملین میں تیار کیا تھا۔ یہ اعداد و شمار، مغربی ہم منصبوں کی قیاس کردہ ملٹی بلین ڈالر کی سرمایہ کاری سے کئی گنا کم، نے فوری طور پر صنعت میں لہریں دوڑا دیں۔

اگرچہ $6 ملین کے حساب کتاب کے بارے میں شکوک و شبہات برقرار ہیں – یہ سوال کرتے ہوئے کہ کون سی لاگتیں شامل کی گئیں اور کون سی خارج کی گئیں – اعلان کا اثر ناقابل تردید تھا۔ اس نے ایک طاقتور محرک کے طور پر کام کیا، جس نے مارکیٹ لیڈروں کے ذریعہ استعمال ہونے والے لاگت کے ڈھانچے اور ترقیاتی طریقوں کا تنقیدی جائزہ لینے پر مجبور کیا۔ اگر ایک معقول حد تک قابل ماڈل واقعی اربوں کے بجائے لاکھوں میں بنایا جا سکتا ہے، تو اس کا موجودہ طریقوں کی کارکردگی کے بارے میں کیا مطلب تھا؟

  • بیانیے کو چیلنج کرنا: DeepSeek کا دعویٰ، درست ہو یا نہ ہو، اس مروجہ بیانیے کو پنکچر کر دیا کہ جدید ترین AI کی ترقی صرف ٹریلین ڈالر کمپنیوں کا ڈومین ہے جن کے پاس لامحدود وسائل ہیں۔ اس نے زیادہ جمہوری ترقیاتی منظر نامے کے امکان کو متعارف کرایا۔
  • جانچ پڑتال کو ہوا دینا: اس نے Microsoft کی حمایت یافتہ OpenAI جیسی کمپنیوں کے بڑے پیمانے پر اخراجات پر پہلے سے ہی پڑنے والی جانچ پڑتال کو تیز کر دیا۔ سرمایہ کاروں، تجزیہ کاروں اور حریفوں نے وسائل کی تقسیم اور ان سرمائے-گھنے منصوبوں پر سرمایہ کاری کی واپسی کے بارے میں سخت سوالات پوچھنا شروع کر دیے۔
  • جغرافیائی سیاسی گونج: یہ دعویٰ US-China ٹیک دشمنی کے تناظر میں بھی گونج اٹھا۔ اس نے تجویز کیا کہ AI کی اہلیت کے متبادل، ممکنہ طور پر زیادہ وسائل-موثر راستے موجود ہو سکتے ہیں، جس نے تکنیکی قیادت اور اسٹریٹجک مقابلے کے بارے میں بات چیت میں پیچیدگی کی ایک اور پرت کا اضافہ کیا۔ اس نے چپ پابندیوں جیسی پالیسیوں پر مزید بحث کو فروغ دیا، جبکہ ساتھ ہی وینچر کیپیٹلسٹس کو China میں ابھرتے ہوئے کھلاڑیوں پر گہری نظر ڈالنے کی ترغیب دی جو شاید زیادہ دبلی پتلی ترقیاتی ماڈلز کے مالک ہوں۔

شکوک و شبہات کے باوجود، DeepSeek R1 کی ریلیز، خاص طور پر اس کے ساتھ اوپن ریسرچ اجزاء، نے اہم بصیرتیں فراہم کیں جو دوسروں کو متاثر کریں گی۔ یہ صرف دعوی کردہ لاگت نہیں تھی، بلکہ ممکنہ طریقوں کا اشارہ تھا، جس نے کہیں اور، خاص طور پر بہت مختلف مالیاتی رکاوٹوں کے تحت کام کرنے والی اکیڈمک لیبز میں تجسس اور اختراع کو جنم دیا۔

انتہائی دبلی پتلی AI کا عروج: ایک یونیورسٹی انقلاب

جبکہ کارپوریٹ جنات اربوں ڈالر کے بجٹ اور مارکیٹ کے دباؤ سے نبرد آزما تھے، اکیڈمیا کے ہالوں میں ایک مختلف قسم کا AI انقلاب خاموشی سے شکل اختیار کر رہا تھا۔ محققین، فوری تجارتی کاری کے مطالبات سے بے نیاز لیکن فنڈنگ ​​کے لحاظ سے شدید طور پر محدود، نے کم سے کم وسائل کا استعمال کرتے ہوئے جدید AI کے پیچھے اصولوں کو نقل کرنے کے طریقے تلاش کرنا شروع کر دیے، اگر سراسر پیمانہ نہ ہو۔ ایک اہم مثال یونیورسٹی آف کیلیفورنیا، Berkeley سے سامنے آئی۔

Berkeley کی ایک ٹیم، حالیہ پیش رفتوں سے متجسس لیکن صنعتی لیبز کے بے پناہ سرمائے سے محروم، نے TinyZero نامی ایک پروجیکٹ شروع کیا۔ ان کا مقصد جرات مندانہ تھا: کیا وہ جدید AI رویوں کا مظاہرہ کر سکتے ہیں، خاص طور پر اس قسم کی استدلال جو ماڈلز کو جواب دینے سے پہلے ‘سوچنے’ کی اجازت دیتی ہے، ایک ڈرامائی طور پر کم پیمانے والے ماڈل اور بجٹ کا استعمال کرتے ہوئے؟ جواب ایک زبردست ہاں ثابت ہوا۔ انہوں نے کامیابی کے ساتھ OpenAI اور DeepSeek دونوں کے ذریعہ دریافت کردہ استدلال کے پیراڈائم کے بنیادی پہلوؤں کو حیران کن طور پر کم قیمت پر دوبارہ پیش کیا – تقریباً $30۔

یہ GPT-4 کا براہ راست مدمقابل بنا کر حاصل نہیں کیا گیا تھا، بلکہ ماڈل اور کام دونوں کی پیچیدگی کو چالاکی سے کم کر کے کیا گیا تھا۔

  • $30 کا تجربہ: یہ اعداد و شمار بنیادی طور پر ضروری تربیت کے وقت کے لیے پبلک کلاؤڈ پلیٹ فارم پر دو Nvidia H200 GPUs کرائے پر لینے کی لاگت کی نمائندگی کرتے ہیں۔ اس نے بڑے پیمانے پر پیشگی ہارڈویئر سرمایہ کاری کے بغیر جدید تحقیق کے لیے موجودہ کلاؤڈ انفراسٹرکچر سے فائدہ اٹھانے کی صلاحیت کو ظاہر کیا۔
  • ماڈل اسکیلنگ: TinyZero پروجیکٹ نے ایک ‘3B’ ماڈل استعمال کیا، جس کا حوالہ تقریباً تین ارب پیرامیٹرز سے ہے۔ یہ سب سے بڑے LLMs سے نمایاں طور پر چھوٹا ہے، جو سینکڑوں اربوں یا کھربوں پیرامیٹرز پر فخر کر سکتے ہیں۔ کلیدی بصیرت یہ تھی کہ پیچیدہ رویے چھوٹے ماڈلز میں بھی ابھر سکتے ہیں اگر کام مناسب طریقے سے ڈیزائن کیا گیا ہو۔
  • جنات اور چیلنجرز سے تحریک: Jiayi Pan، TinyZero پروجیکٹ لیڈر، نے نوٹ کیا کہ OpenAI کی پیش رفتیں، خاص طور پر جواب دینے سے پہلے زیادہ وقت پروسیسنگ کرنے والے ماڈلز کے بارے میں تصورات، ایک بڑی تحریک تھی۔ تاہم، یہ DeepSeek R1 کی اوپن ریسرچ تھی جس نے اس بہتر استدلال کی صلاحیت کو کیسے حاصل کیا جائے اس کا ممکنہ بلیو پرنٹ فراہم کیا، حالانکہ DeepSeek کی رپورٹ کردہ $6 ملین ٹریننگ لاگت اب بھی یونیورسٹی ٹیم کی پہنچ سے بہت دور تھی۔

Berkeley ٹیم نے قیاس کیا کہ ماڈل کے سائز اور اس مسئلے کی پیچیدگی دونوں کو کم کر کے جسے اسے حل کرنے کی ضرورت تھی، وہ اب بھی مطلوبہ ‘ابھرتے ہوئے استدلال کے رویے’ کا مشاہدہ کر سکتے ہیں۔ یہ تخفیف پسندانہ نقطہ نظر لاگت کو ڈرامائی طور پر کم کرنے کی کلید تھا جبکہ اب بھی قیمتی سائنسی مشاہدے کو ممکن بناتا ہے۔

‘آہا لمحہ’ کو ڈی کوڈ کرنا: بجٹ پر استدلال

TinyZero پروجیکٹ، اور اسی طرح کے کم لاگت کے اقدامات کی بنیادی کامیابی، اس بات کا مظاہرہ کرنے میں مضمر ہے جسے محققین اکثر ‘آہا لمحہ’ کہتے ہیں – وہ نقطہ جہاں ایک AI ماڈل حقیقی استدلال اور مسئلہ حل کرنے کی صلاحیتوں کا مظاہرہ کرنا شروع کر دیتا ہے، بجائے اس کے کہ صرف پیٹرن میچنگ یا ذخیرہ شدہ معلومات کو بازیافت کرے۔ یہ ابھرتا ہوا رویہ یہاں تک کہ سب سے بڑے ماڈلز کے ڈویلپرز کے لیے بھی ایک کلیدی ہدف ہے۔

اپنے مفروضے کو جانچنے اور اس رویے کو چھوٹے پیمانے پر حاصل کرنے کے لیے، Berkeley ٹیم نے ایک مخصوص، محدود کام استعمال کیا: ایک ریاضی کا کھیل جسے ‘Countdown’ کہا جاتا ہے۔

  • Countdown گیم: اس گیم میں AI کو دیے گئے ابتدائی نمبروں اور بنیادی ریاضی کے آپریشنز (جمع، تفریق، ضرب، تقسیم) کا استعمال کرتے ہوئے ایک ہدف نمبر تک پہنچنے کی ضرورت ہوتی ہے۔ اہم بات یہ ہے کہ Countdown میں کامیابی پہلے سے موجود ریاضیاتی علم کی بڑی مقدار کو یاد کرنے کے بجائے اسٹریٹجک استدلال اور منصوبہ بندی – مختلف امتزاجات اور آپریشنز کے سلسلے کی تلاش – پر زیادہ انحصار کرتی ہے۔
  • کھیل کے ذریعے سیکھنا: ابتدائی طور پر، TinyZero ماڈل نے کھیل کو تصادفی طور پر اپنایا، تقریباً بے ترتیبی سے امتزاجات آزمائے۔ تاہم، کمک سیکھنے (آزمائش اور غلطی اور انعامات سے سیکھنے) کے عمل کے ذریعے، اس نے پیٹرن اور حکمت عملیوں کو سمجھنا شروع کر دیا۔ اس نے اپنے نقطہ نظر کو ایڈجسٹ کرنا، غیر موثر راستوں کو مسترد کرنا، اور درست حلوں پر زیادہ تیزی سے اکٹھا ہونا سیکھا۔ اس نے بنیادی طور پر کھیل کے متعین اصولوں کے اندر کیسے استدلال کرنا سیکھا۔
  • خود تصدیق ابھرتی ہے: اہم بات یہ ہے کہ تربیت یافتہ ماڈل نے خود تصدیق کے آثار دکھانا شروع کر دیے – اپنے درمیانی اقدامات اور ممکنہ حلوں کا جائزہ لینا تاکہ یہ تعین کیا جا سکے کہ آیا وہ ہدف نمبر کی طرف لے جا رہے ہیں۔ داخلی طور پر جائزہ لینے اور کورس کو درست کرنے کی یہ صلاحیت زیادہ جدید استدلال کی ایک پہچان ہے۔

جیسا کہ Jiayi Pan نے وضاحت کی، ‘ہم دکھاتے ہیں کہ 3B جتنے چھوٹے ماڈل کے ساتھ، یہ سادہ مسائل کے بارے میں استدلال کرنا سیکھ سکتا ہے اور خود تصدیق کرنا اور بہتر حل تلاش کرنا سیکھنا شروع کر سکتا ہے۔’ اس نے ظاہر کیا کہ استدلال اور ‘آہا لمحہ’ کے بنیادی میکانزم، جو پہلے بنیادی طور پر بڑے، مہنگے ماڈلز سے وابستہ تھے، کو ایک انتہائی وسائل-محدود ماحول میں نقل اور مطالعہ کیا جا سکتا ہے۔ TinyZero کی کامیابی نے ثابت کیا کہ فرنٹیئر AI تصورات صرف ٹیک جنات کا ڈومین نہیں تھے بلکہ محدود بجٹ والے محققین، انجینئرز، اور یہاں تک کہ شوقین افراد کے لیے بھی قابل رسائی بنائے جا سکتے ہیں، جس سے AI کی تلاش کے لیے زیادہ جامع ماحولیاتی نظام کو فروغ ملتا ہے۔ ٹیم کا اپنے نتائج کو کھلے عام شیئر کرنے کا فیصلہ، خاص طور پر GitHub جیسے پلیٹ فارمز کے ذریعے، دوسروں کو تجربات کو نقل کرنے اور اس ‘آہا لمحہ’ کا تجربہ کرنے کی اجازت دی، وہ بھی چند پیزا کی قیمت سے کم میں۔

Stanford میدان میں شامل: کم لاگت سیکھنے کی توثیق

TinyZero کی پیدا کردہ لہریں تیزی سے اکیڈمک AI کمیونٹی میں پھیل گئیں۔ Stanford University کے محققین، جو پہلے ہی اسی طرح کے تصورات کی تلاش کر رہے تھے اور یہاں تک کہ Countdown گیم کو پہلے تحقیقی کام کے طور پر متعارف کرا چکے تھے، نے Berkeley ٹیم کے کام کو انتہائی متعلقہ اور توثیق کرنے والا پایا۔

Kanishk Gandhi کی قیادت میں، Stanford ٹیم ایک متعلقہ، بنیادی سوال کی کھوج کر رہی تھی: کچھ LLMs تربیت کے دوران اپنی استدلال کی صلاحیتوں میں ڈرامائی، تقریباً اچانک بہتری کیوں دکھاتے ہیں، جبکہ دوسرے سطح مرتفع معلوم ہوتے ہیں؟ صلاحیت میں ان چھلانگوں کو چلانے والے بنیادی میکانزم کو سمجھنا زیادہ موثر اور قابل اعتماد AI بنانے کے لیے اہم ہے۔

  • مشترکہ بنیاد پر تعمیر: Gandhi نے TinyZero کی قدر کو تسلیم کیا، یہ کہتے ہوئے کہ یہ ‘عظیم’ تھا جزوی طور پر کیونکہ اس نے کامیابی کے ساتھ Countdown ٹاسک کا استعمال کیا جس کا ان کی اپنی ٹیم مطالعہ کر رہی تھی۔ اس ہم آہنگی نے مختلف تحقیقی گروپوں میں خیالات کی تیز تر توثیق اور تکرار کی اجازت دی۔
  • انجینئرنگ رکاوٹوں پر قابو پانا: Stanford کے محققین نے یہ بھی اجاگر کیا کہ کس طرح ان کی پیشرفت پہلے انجینئرنگ چیلنجوں کی وجہ سے رکاوٹ بنی تھی۔ اوپن سورس ٹولز کی دستیابی ان رکاوٹوں پر قابو پانے میں اہم کردار ادا کرتی ہے۔
  • اوپن سورس ٹولز کی طاقت: خاص طور پر، Gandhi نے Volcano Engine Reinforcement Learning system (VERL)، جو ByteDance (TikTok کی پیرنٹ کمپنی) کے ذریعہ تیار کردہ ایک اوپن سورس پروجیکٹ ہے، کو ‘ہمارے تجربات چلانے کے لیے ضروری’ قرار دیا۔ VERL کی صلاحیتوں اور Stanford ٹیم کی تجرباتی ضروریات کے درمیان ہم آہنگی نے ان کے تحقیقی چکروں کو نمایاں طور پر تیز کیا۔

اوپن سورس اجزاء پر یہ انحصار کم لاگت AI تحریک کے ایک اہم پہلو کو اجاگر کرتا ہے۔ پیشرفت اکثر باہمی تعاون سے ہوتی ہے، کمیونٹی کے اندر آزادانہ طور پر شیئر کیے گئے ٹولز اور بصیرتوں سے فائدہ اٹھاتے ہوئے۔ Gandhi نے مزید رائے دی کہ LLM استدلال اور ذہانت کو سمجھنے میں بڑی سائنسی پیش رفت ضروری نہیں کہ صرف بڑی، اچھی طرح سے فنڈڈ صنعتی لیبز سے ہی نکلے۔ انہوں نے دلیل دی کہ ‘موجودہ LLMs کی سائنسی تفہیم غائب ہے، یہاں تک کہ بڑی لیبز کے اندر بھی،’ جس سے ‘DIY AI، اوپن سورس، اور اکیڈمیا’ کے تعاون کے لیے کافی گنجائش باقی رہ جاتی ہے۔ یہ چھوٹے، زیادہ چست پروجیکٹس مخصوص مظاہر کو گہرائی میں تلاش کر سکتے ہیں، ایسی بصیرتیں پیدا کر سکتے ہیں جو پورے شعبے کو فائدہ پہنچاتی ہیں۔

غیر معروف ہیرو: اوپن سورس بنیادیں

TinyZero جیسے منصوبوں کی قابل ذکر کامیابیاں، جو دسیوں ڈالر میں جدید AI رویوں کا مظاہرہ کرتی ہیں، ایک اہم، اکثر کم تعریف کیے جانے والے عنصر پر بہت زیادہ انحصار کرتی ہیں: اوپن سورس اور اوپن ویٹ AI ماڈلز اور ٹولز کا وسیع ماحولیاتی نظام۔ اگرچہ کسی مخصوص تجربے کی معمولی لاگت کم ہو سکتی ہے، لیکن یہ ان بنیادوں پر استوار ہوتی ہے جو اکثر لاکھوں، اگر اربوں نہیں، ڈالر کی پیشگی سرمایہ کاری کی نمائندگی کرتی ہیں۔

Nina Singer، AI کنسلٹنسی OneSix میں ایک سینئر لیڈ مشین لرننگ سائنسدان، نے اہم سیاق و سباق فراہم کیا۔ انہوں نے نشاندہی کی کہ TinyZero کی $30 ٹریننگ لاگت، اگرچہ Berkeley ٹیم کے ذریعہ انجام دیے گئے مخصوص کام کے لیے درست ہے، لیکن ان بنیادی ماڈلز کی ابتدائی ترقیاتی لاگت کا حساب نہیں دیتی جن کا اس نے استعمال کیا۔

  • جنات کے کندھوں پر تعمیر: TinyZero کی تربیت نے نہ صرف ByteDance کے VERL سسٹم بلکہ Alibaba Cloud کے Qwen، ایک اوپن سورس LLM کا بھی فائدہ اٹھایا۔ Alibaba نے Qwen کو تیار کرنے میں کافی وسائل – ممکنہ طور پر لاکھوں – کی سرمایہ کاری کی، اس سے پہلے کہ اس کے ‘ویٹس’ (سیکھے ہوئے پیرامیٹرز جو ماڈل کی صلاحیتوں کی وضاحت کرتے ہیں) کو عوام کے لیے جاری کیا جائے۔
  • اوپن ویٹس کی قدر: Singer نے زور دیا کہ یہ TinyZero پر تنقید نہیں ہے بلکہ اوپن ویٹ ماڈلز کی بے پناہ قدر اور اہمیت کو اجاگر کرتی ہے۔ ماڈل پیرامیٹرز جاری کر کے، یہاں تک کہ اگر مکمل ڈیٹاسیٹ اور ٹریننگ آرکیٹیکچر ملکیتی رہیں، Alibaba جیسی کمپنیاں محققین اور چھوٹی اکائیوں کو ان کے کام پر تعمیر کرنے، تجربہ کرنے، اور اختراع کرنے کے قابل بناتی ہیں بغیر شروع سے مہنگی ابتدائی ٹریننگ کے عمل کو نقل کرنے کی ضرورت کے۔
  • فائن ٹیوننگ کو جمہوری بنانا: یہ کھلا نقطہ نظر ‘فائن ٹیوننگ’ کے ایک ابھرتے ہوئے شعبے کو فروغ دیتا ہے، جہاں چھوٹے AI ماڈلز کو مخصوص کاموں کے لیے ڈھالا یا مخصوص کیا جاتا ہے۔ جیسا کہ Singer نے نوٹ کیا، یہ فائن ٹیونڈ ماڈلز اکثر اپنے مخصوص مقصد کے لیے ‘سائز اور لاگت کے ایک حصے پر بہت بڑے ماڈلز کا مقابلہ’ کر سکتے ہیں۔ مثالیں بہت ہیں، جیسے Sky-T1، جو صارفین کو تقریباً $450 میں ایک جدید ماڈل کا اپنا ورژن تربیت دینے کی صلاحیت فراہم کرتا ہے، یا خود Alibaba کا Qwen، جو کم از کم $6 میں فائن ٹیوننگ کو ممکن بناتا ہے۔

کھلی بنیادوں پر یہ انحصار ایک متحرک ماحولیاتی نظام تخلیق کرتا ہے جہاں اختراع کئی سطحوں پر ہو سکتی ہے۔ بڑی تنظیمیں طاقتور بیس ماڈلز بنانے میں بھاری سرمایہ کاری کرتی ہیں، جبکہ ایک وسیع تر کمیونٹی ان اثاثوں کا فائدہ اٹھا کر نئی ایپلی کیشنز کو تلاش کرتی ہے، تحقیق کرتی ہے، اور کہیں زیادہ اقتصادی طور پر مخصوص حل تیار کرتی ہے۔ یہ ہم آہنگی تعلقات میدان میں تیز رفتار پیشرفت اور جمہوری بنانے کو آگے بڑھا رہے ہیں۔

‘بڑا بہتر ہے’ پیراڈائم کو چیلنج کرنا

TinyZero جیسے منصوبوں سے ابھرنے والی کامیابی کی کہانیاں اور موثر، کم لاگت فائن ٹیوننگ کا وسیع تر رجحان صنعت کے اس دیرینہ عقیدے کو ایک اہم چیلنج پیش کر رہا ہے کہ AI میں پیشرفت صرف پیمانے کا کام ہے – زیادہ ڈیٹا، زیادہ پیرامیٹرز، زیادہ کمپیوٹنگ پاور۔

سب سے گہرے مضمرات میں سے ایک، جیسا کہ Nina Singer نے اجاگر کیا، یہ ہے کہ ڈیٹا کا معیار اور کام-مخصوص تربیت اکثر سراسر ماڈل کے سائز سے زیادہ اہم ہو سکتی ہے۔ TinyZero تجربے نے ظاہر کیا کہ یہاں تک کہ نسبتاً چھوٹا ماڈل (3 ارب پیرامیٹرز) بھی پیچیدہ رویے سیکھ سکتا ہے جیسے خود اصلاح اور تکراری بہتری جب ایک اچھی طرح سے متعین کام پر مؤثر طریقے سے تربیت دی جائے۔

  • پیمانے پر کمہوتی ہوئی واپسی؟: یہ تلاش براہ راست اس مفروضے پر سوال اٹھاتی ہے کہ صرف OpenAI کی GPT سیریز یا Anthropic کے Claude جیسے بڑے ماڈلز، جن کے سینکڑوں اربوں یا کھربوں پیرامیٹرز ہیں، اس طرح کی جدید سیکھنے کے قابل ہیں۔ Singer نے تجویز کیا، ‘یہ پروجیکٹ تجویز کرتا ہے کہ ہم شاید پہلے ہی اس دہلیز کو عبور کر چکے ہیں جہاں اضافی پیرامیٹرز کم ہوتی ہوئی واپسی فراہم کرتے ہیں — کم از کم کچھ کاموں کے لیے۔’ اگرچہ بڑے ماڈلز عمومیت اور علم کی وسعت میں فوائد برقرار رکھ سکتے ہیں، مخصوص ایپلی کیشنز کے لیے، ہائپر-اسکیلڈ ماڈلز لاگت اور کمپیوٹیشنل ضروریات دونوں کے لحاظ سے اوورکل کی نمائندگی کر سکتے ہیں۔
  • کارکردگی اور خصوصیت کی طرف تبدیلی: AI کا منظر نامہ ایک لطیف لیکن اہم تبدیلی سے گزر رہا ہو سکتا ہے۔ ہمیشہ بڑے بنیادی ماڈلز بنانے پر خصوصی توجہ مرکوز کرنے کے بجائے، کارکردگی، رسائی، اور ہدف شدہ ذہانت پر بڑھتی ہوئی توجہ دی جا رہی ہے۔ مخصوص ڈومینز یا کاموں کے لیے چھوٹے، انتہائی بہتر ماڈلز بنانا ایک قابل عمل اور اقتصادی طور پر پرکشش متبادل ثابت ہو رہا ہے۔
  • بند ماڈلز پر دباؤ: اوپن ویٹ ماڈلز اور کم لاگت فائن ٹیوننگ تکنیکوں کی بڑھتی ہوئی صلاحیت اور دستیابی ان کمپنیوں پر مسابقتی دباؤ ڈالتی ہے جو بنیادی طور پر اپنی AI صلاحیتیں محدود APIs (ایپلی کیشن پروگرامنگ انٹرفیسز) کے ذریعے پیش کرتی ہیں۔ جیسا کہ Singer نے نوٹ کیا، OpenAI اور Anthropic جیسی کمپنیوں کو اپنے بند ماحولیاتی نظاموں کی قدر کی تجویز کو تیزی سے جواز پیش کرنے کی ضرورت ہو سکتی ہے، خاص طور پر ‘جیسے جیسے کھلے متبادلات مخصوص ڈومینز میں ان کی صلاحیتوں سے مماثل یا تجاوز کرنا شروع کر دیتے ہیں۔’

اس کا لازمی طور پر مطلب بڑے بنیادی ماڈلز کا خاتمہ نہیں ہے، جو ممکنہ طور پر اہم نقطہ آغاز کے طور پر کام کرتے رہیں گے۔ تاہم، یہ ایک ایسے مستقبل کی تجویز کرتا ہے جہاں AI ماحولیاتی نظام کہیں زیادہ متنوع ہو، جس میں بڑے عمومی ماڈلز کا مرکب اور مخصوص ضروریات کے مطابق چھوٹے، مخصوص، اور انتہائی موثر ماڈلز کا پھیلاؤ شامل ہو۔

جمہوری بنانے کی لہر: زیادہ لوگوں کے لیے AI؟

قابل رسائی کلاؤڈ کمپیوٹنگ، طاقتور اوپن سورس ٹولز، اور چھوٹے، فائن ٹیونڈ ماڈلز کی ثابت شدہ تاثیر کا سنگم AI منظر نامے میں جمہوری بنانے کی لہر کو ہوا دے رہا ہے۔ جو کبھی ایلیٹ ریسرچ لیبز اور اربوں ڈالر کے بجٹ والی ٹیک کارپوریشنز کا خصوصی ڈومین تھا، وہ اداکاروں کی ایک وسیع رینج کے لیے تیزی سے قابل رسائی ہوتا جا رہا ہے۔

افراد، اکیڈمک محققین، اسٹارٹ اپس، اور چھوٹی کمپنیاں یہ پا رہی ہیں کہ وہ ممنوعہ انفراسٹرکچر سرمایہ کاری کی ضرورت کے بغیر جدید AI تصورات اور ترقی کے ساتھ بامعنی طور پر مشغول ہو سکتے ہیں۔

  • داخلے کی رکاوٹوں کو کم کرنا: سینکڑوں یا یہاں تک کہ دسیوں ڈالر میں ایک قابل ماڈل کو فائن ٹیون کرنے کی صلاحیت، اوپن ویٹ بنیادوں پر تعمیر کرتے ہوئے، تجربات اور ایپلیکیشن ڈویلپمنٹ کے لیے داخلے کی رکاوٹ کو ڈرامائی طور پر کم کرتی ہے۔
  • اختراع کو فروغ دینا: یہ رسائی ٹیلنٹ کے ایک وسیع پول کو میدان میں حصہ ڈالنے کی ترغیب دیتی ہے۔ محققین نئے خیالات کو زیادہ آسانی سے جانچ سکتے ہیں، کاروباری افراد زیادہ اقتصادی طور پر مخصوص AI حل تیار کر سکتے ہیں، اور شوقین افراد جدید ٹیکنالوجی کو پہلے ہاتھ سے تلاش کر سکتے ہیں۔
  • کمیونٹی سے چلنے والی بہتری: اوپن ویٹ ماڈلز کو بہتر بنانے اور مخصوص کرنے میں کمیونٹی سے چلنے والی کوششوں کی کامیابی باہمی تعاون پر مبنی ترقی کی طاقت کو ظاہر کرتی ہے۔ یہ اجتماعی ذہانت بعض اوقات مخصوص کاموں کے لیے زیادہ بند کارپوریٹ ماحول کے اندر تکرار کے چکروں کو پیچھے چھوڑ سکتی ہے۔
  • ایک ہائبرڈ مستقبل؟: ممکنہ رفتار ایک ہائبرڈ ماحولیاتی نظام کی طرف اشارہ کرتی ہے۔ دیو ہیکل بنیادی ماڈلز AI کی صلاحیت کی مطلق حدود کو آگے بڑھاتے رہیں گے، پلیٹ فارم کے طور پر کام کرتے ہوئے۔ ساتھ ہی، ایک متنوع کمیونٹی کے ذریعہ فائن ٹیون کیے گئے مخصوص ماڈلز کا ایک متحرک ماحولیاتی نظام، مخصوص ایپلی کیشنز اور صنعتوں میں اختراع کو آگے بڑھائے گا۔

یہ جمہوری بنانا اہم سرمایہ کاری کی ضرورت کو ختم نہیں کرتا، خاص طور پر بنیادی ماڈلز کی اگلی نسل بنانے میں۔ تاہم، یہ بنیادی طور پر اختراع اور مقابلے کی حرکیات کو بدل دیتا ہے۔ بجٹ پر قابل ذکر نتائج حاصل کرنے کی صلاحیت، جیسا کہ TinyZero پروجیکٹ اور وسیع تر فائن ٹیوننگ تحریک سے مثال ملتی ہے، مصنوعی ذہانت کی ترقی کے لیے زیادہ قابل رسائی، موثر، اور ممکنہ طور پر زیادہ متنوع مستقبل کی طرف تبدیلی کا اشارہ دیتی ہے۔ استدلال کا ‘آہا لمحہ’ اب صرف سلیکون قلعوں تک محدود نہیں رہا؛ یہ رات کے کھانے کی قیمت سے کم میں قابل رسائی تجربہ بن رہا ہے، تخلیقی صلاحیتوں کو جگا رہا ہے اور زمین سے ممکنہ چیزوں کی حدود کو آگے بڑھا رہا ہے۔