2. Nvidia
مصنوعی ذہانت کے نظاموں کی بڑھتی ہوئی مانگ کی وجہ سے بڑے لینگویج ماڈل ڈویلپرز کی جانب سے بھاری سرمایہ کاری جاری ہے۔ تاہم، ایک کمپنی پہلے ہی اس AI انقلاب کے ثمرات سے لطف اندوز ہو رہی ہے: Nvidia۔ اپنے غالب گرافکس پروسیسنگ یونٹس (GPUs) کے ساتھ AI کی دوڑ کو بھڑکانے کے بعد، Nvidia اب اپنے انقلابی Blackwell پروسیسر اور پلیٹ فارم کے ساتھ انسانی سطح کی ذہانت کے حصول میں مدد فراہم کرنے کے لیے بالکل تیار ہے۔
Blackwell اپنے پیشرو، H100 سے آگے نکل جاتا ہے، جو عام ماڈل ٹریننگ کے کاموں کے لیے 2.5 گنا زیادہ طاقت فراہم کرتا ہے، جبکہ نمایاں طور پر کم توانائی استعمال کرتا ہے۔ بڑے ڈیٹا سینٹر آپریٹرز اور AI لیبز، بشمول Google، Meta، Microsoft، OpenAI، Tesla، اور xAI جیسی صنعت کی दिग्गज کمپنیوں نے سینکڑوں ہزاروں Blackwell GPUs خریدنے کا عہد کیا ہے۔
اگرچہ DeepSeek اور Alibaba جیسی چینی کمپنیوں کے حالیہ ماڈلز نے پرانے، کم طاقتور Nvidia GPUs کا استعمال کرتے ہوئے متاثر کن صلاحیتوں کا مظاہرہ کیا ہے، Nvidia صرف اپنی کامیابیوں پر مطمئن نہیں ہے۔ کمپنی فعال طور پر متنوع ایپلی کیشنز کے لیے پلیٹ فارم تیار کر رہی ہے، جس میں منشیات کی دریافت (Clara for Biopharma) اور خود مختار گاڑیاں (Drive AGX) سے لے کر ویڈیو پروڈکشن (Holoscan) اور ڈیجیٹل ٹوئنز (Omniverse) شامل ہیں۔ حقیقی دنیا کے منظرناموں کے وسیع میدان میں AI کی ترقی کو فروغ دے کر، Nvidia حکمت عملی کے ساتھ خود کو مسلسل ترقی کے لیے تیار کر رہی ہے، چاہے مستقبل کے ماڈلز کمپیوٹیشنل طاقت پر کم انحصار ظاہر کریں۔
2. OpenAI
2019 سے، OpenAI نے مسلسل اپنے ماڈلز کو تربیتی ڈیٹا اور کمپیوٹنگ وسائل کو بڑھا کر بہتر بنایا ہے، ایک ایسی حکمت عملی جسے صنعت بھر میں بڑے پیمانے پر اپنایا گیا ہے۔ تاہم، جیسے جیسے اس اسکیلنگ اپروچ سے کم ہوتے ہوئے منافع واضح ہوتے گئے، OpenAI نے AGI کے حصول کے لیے ایک نئے راستے کی ضرورت کو تسلیم کیا – ایسے ماڈلز جو زیادہ تر کاموں میں انسانی ذہانت کو پیچھے چھوڑ دیتے ہیں۔
OpenAI کا حل o1 ماڈل کی شکل میں آیا۔ صرف پری ٹریننگ کے دوران وسائل کو بڑھانے پر توجہ مرکوز کرنے کے بجائے، OpenAI نے o1 کو انفرنس کے دوران زیادہ وقت اور کمپیوٹنگ پاور مختص کرنے کے لیے انجینئر کیا، وہ مرحلہ جہاں ماڈل فعال طور پر تعینات ہوتا ہے اور صارف کے پرامپٹس کا جواب دیتا ہے۔ اس عمل کے دوران، o1 صارف اور متعلقہ ڈیٹا ذرائع دونوں سے سیاق و سباق کی معلومات اکٹھا کرتا ہے اور اسے برقرار رکھتا ہے۔ یہ جواب کے لیے بہترین راستہ طے کرنے کے لیے آزمائش اور غلطی کا طریقہ کار استعمال کرتا ہے۔ نتیجہ پیچیدہ سوالات کے پی ایچ ڈی سطح کے جوابات کی تیاری ہے، جو o1 کو کارکردگی کے بینچ مارک رینکنگ میں سب سے اوپر لے جاتا ہے۔
OpenAI ChatGPT Plus سبسکرائبرز کو o1 کے ‘تجرباتی’ اور ‘منی’ ورژن پیش کرتا ہے۔ مزید برآں، ChatGPT Pro نامی ایک پریمیم سروس $200 فی مہینہ میں مکمل o1 ماڈل تک لامحدود رسائی فراہم کرتی ہے۔ دسمبر 2024 میں، OpenAI نے o1 کے جانشین، o3 کی نقاب کشائی کی، اور فروری 2025 میں، بامعاوضہ صارفین کو o3-mini تک رسائی دی، جو سائنس، ریاضی اور کوڈنگ کے لیے موزوں ایک چھوٹا، تیز تغیر ہے۔ OpenAI کے نئے ریزننگ ماڈلز کا سب سے گہرا اثر AGI کی راہ پر ذہانت میں مزید پیش رفت کے حصول کے لیے انفرنس ٹائم پر کمپیوٹنگ کو بڑھانے کے ایک امید افزا راستے کے طور پر توثیق ہے۔
2. Google DeepMind
آج کے چیٹ بوٹس کی راہ ہموار کرنے والی بنیادی تحقیق 2010 کی دہائی کے آخر میں Google میں شروع ہوئی۔ Google نے ChatGPT کے ابھرنے سے بہت پہلے ایک بڑا لینگویج ماڈل سے چلنے والا چیٹ بوٹ تیار کیا تھا۔ تاہم، حفاظت، رازداری اور قانونی مضمرات سے متعلق خدشات کی وجہ سے مبینہ طور پر ایک محتاط طریقہ اختیار کیا گیا، جس کی وجہ سے اس کی عوامی ریلیز میںتاخیر ہوئی۔ اس ہچکچاہٹ کے نتیجے میں Google ابتدائی طور پر ChatGPT کے لانچ سے شروع ہونے والی AI دوڑ میں پیچھے رہ گیا۔
2024 میں Google DeepMind کے Gemini 2.0 کی ریلیز نے Google کی یقینی واپسی کا اشارہ دیا۔ Gemini 2.0 پہلے بڑے پیمانے پر مارکیٹ AI ماڈل کی نمائندگی کرتا ہے جو فطری طور پر ملٹی موڈل ہے، جو متن کی طرح روانی کے ساتھ تصاویر، ویڈیو، آڈیو اور کمپیوٹر کوڈ پر کارروائی کرنے اور تخلیق کرنے کی صلاحیت رکھتا ہے۔ یہ صلاحیت ماڈل کو ویڈیو کلپس، یا یہاں تک کہ فون کیمرے سے لائیو ویڈیو فیڈز کا تجزیہ کرنے اور اس کے بارے میں استدلال کرنے کے قابل بناتی ہے، جس میں قابل ذکر رفتار اور درستگی ہے۔
Gemini دیگر Google سروسز، جیسے Maps اور Search کو کنٹرول کرنے کی اپنی صلاحیت کے لیے بھی نمایاں ہے۔ یہ انضمام Google کے اسٹریٹجک فائدے کو ظاہر کرتا ہے، اس کی AI تحقیق کو اس کے قائم کردہ معلومات اور پیداواری ٹولز کے ساتھ جوڑتا ہے۔ Gemini ان پہلے AI ماڈلز میں سے ہے جو خود مختار آپریشن اور صارف کی جانب سے پیچیدہ مسائل کے ذریعے استدلال کرنے کی صلاحیت کا مظاہرہ کرتے ہیں۔ Gemini 2.0 Flash Thinking Experimental ماڈل صارفین کو اس سوچ کے عمل کے بارے میں بصیرت فراہم کرتا ہے جو جواب تک پہنچنے کے لیے استعمال کیا جاتا ہے۔ مزید برآں، دسمبر میں، Google نے Project Mariner متعارف کرایا، جو Gemini پر مبنی ایجنٹک AI فیچر ہے جو آن لائن گروسری شاپنگ جیسے کاموں کو خود مختار طریقے سے انجام دینے کے لیے ڈیزائن کیا گیا ہے۔
2. Anthropic
جنریٹیو AI کی بنیادی ایپلی کیشنز اب تک ٹیکسٹ رائٹنگ، سمری اور امیج جنریشن کے گرد مرکوز رہی ہیں۔ اگلا ارتقائی مرحلہ بڑے لینگویج ماڈلز کو استدلال کی صلاحیتوں اور ٹولز استعمال کرنے کی صلاحیت سے آراستہ کرنا ہے۔ Anthropic کے ‘Computer Use’ ماڈل نے اس مستقبل کی ابتدائی جھلک فراہم کی۔
2024 میں Claude 3.5 Sonnet سے شروع کرتے ہوئے، Anthropic کا ماڈل اسکرین پر ہونے والی سرگرمی کو سمجھ سکتا ہے، بشمول انٹرنیٹ کا مواد۔ یہ کرسر کو حرکت دے سکتا ہے، بٹنوں پر کلک کر سکتا ہے اور متن داخل کر سکتا ہے۔ ایک مظاہرے کی ویڈیو میں Claude کی ویب سائٹس پر دستیاب معلومات کا استعمال کرتے ہوئے ایک فارم مکمل کرنے کی صلاحیت کو دکھایا گیا جو براؤزر ٹیبز میں کھلی ہوئی تھیں۔ یہ ایک ذاتی ویب سائٹ بنانے یا ایک دن کے سفر کے لاجسٹکس کو منظم کرنے جیسے کام انجام دے سکتا ہے۔ AI کے خود مختار اقدامات، جیسے نئے ٹیبز کھولنا، تلاش کرنا اور ڈیٹا فیلڈز کو آباد کرنا، واقعی قابل ذکر ہیں۔
جبکہ ماڈل فی الحال سست رفتار سے کام کرتا ہے اور ہو سکتا ہے کہ ہمیشہ درست جواب نہ دے، Anthropic کی جانب سے اپنی حدود کی نشاندہی کرنے اور ان سے نمٹنے کے ساتھ تیزی سے بہتری کی توقع کی جاتی ہے۔ Google کے مذکورہ بالا Project Mariner نے دسمبر میں Anthropic کی پیروی کی، اور OpenAI نے جنوری 2025 میں اپنا کمپیوٹر استعمال ماڈل، Operator متعارف کرایا۔ فروری 2025 میں، Anthropic نے اپنی اگلی بڑی تکرار، Claude 3.7 Sonnet کی نقاب کشائی کی، ایک بڑا ماڈل جو خود بخود چیلنجنگ سوالات کے لیے ریزننگ موڈ کو شامل کرنے کی صلاحیت رکھتا ہے۔
2. Microsoft
Microsoft کے Phi ماڈلز کی ترقی 2023 میں کمپنی کے محققین کی جانب سے پوچھے گئے ایک بنیادی سوال سے ہوئی: “چھوٹے سے چھوٹا ماڈل سائز کیا ہے جو ابھرتی ہوئی ذہانت کی علامات ظاہر کر سکتا ہے؟” یہ انکوائری ‘چھوٹے لینگویج ماڈلز’ کے ارتقاء میں ایک اہم لمحہ تھا، ایسے ماڈلز جو محدود میموری، پروسیسنگ پاور یا کنیکٹیویٹی والے منظرناموں میں بہترین کارکردگی کے لیے ڈیزائن کیے گئے ہیں، جہاں تیز رفتار رسپانس ٹائمز بہت ضروری ہیں۔
2024 کے دوران، Microsoft نے چھوٹے ماڈلز کی دو نسلیں جاری کیں جنہوں نے استدلال اور منطق کی صلاحیتوں کا مظاہرہ کیا جو تربیت کے دوران واضح طور پر شامل نہیں کی گئی تھیں۔ اپریل میں، کمپنی نے Phi-3 ماڈلز کی ایک سیریز کی نقاب کشائی کی جو زبان، استدلال، کوڈنگ اور ریاضی کے بینچ مارکس میں بہترین کارکردگی کا مظاہرہ کرتی ہے، ممکنہ طور پر ان کی مصنوعی ڈیٹا پر تربیت کی وجہ سے جو نمایاں طور پر بڑے اور زیادہ قابل LLMs کے ذریعے تیار کیا گیا ہے۔ اوپن سورس Phi-3 کے مختلف قسموں کو 2024 کے دوران Hugging Face پر 4.5 ملین سے زیادہ بار ڈاؤن لوڈ کیا گیا۔
2024 کے آخر میں، Microsoft نے اپنے Phi-4 چھوٹے لینگویج ماڈلز لانچ کیے، جنہوں نے استدلال پر مرکوز کاموں میں Phi-3 ماڈلز کو پیچھے چھوڑ دیا اور یہاں تک کہ GPQA (سائنسی سوالات) اور MATH بینچ مارکس پر OpenAI کے GPT-4o کو بھی پیچھے چھوڑ دیا۔ Microsoft نے ماڈل کو اوپن سورس اور اوپن ویٹ لائسنس کے تحت جاری کیا، جس سے ڈویلپرز کو فون یا لیپ ٹاپ کے لیے ایج ماڈلز یا ایپلی کیشنز بنانے کا اختیار ملا۔ ایک ماہ سے بھی کم عرصے میں، Phi-4 نے Hugging Face پر 375,000 ڈاؤن لوڈز حاصل کیے۔
2. Amazon
Amazon AWS نے حال ہی میں Trainium2 متعارف کرایا، جو AI کے لیے اس کے Trainium پروسیسر کا ایک نیا ورژن ہے، جو ممکنہ طور پر مخصوص سیٹنگز میں Nvidia GPUs کے غلبے کو چیلنج کر سکتا ہے۔ Trainium2 کو سب سے بڑے جنریٹیو AI ماڈلز کی تربیت اور ماڈل تعیناتی کے بعد انفرنس ٹائم آپریشنز کے لیے درکار بڑے پیمانے پر کمپیوٹنگ پاور فراہم کرنے کے لیے انجینئر کیا گیا ہے۔ AWS کا دعویٰ ہے کہ Trainium موازنہ کاموں کے لیے GPUs سے 30% سے 40% زیادہ لاگت سے موثر ہے۔
Trainium2 پہلے Trainium چپ میں دیکھی گئی طاقت اور سافٹ ویئر انٹیگریشن کی خامیوں کو دور کرتا ہے، جس سے Amazon ممکنہ طور پر Nvidia کے ساتھ فرق کو ختم کر سکتا ہے۔ (یہ بات قابل غور ہے کہ AWS خود GPUs کے لیے Nvidia پر بہت زیادہ انحصار کرتا ہے۔) Nvidia کو بے دخل کرنا ایک مشکل چیلنج ہے کیونکہ Nvidia کی CUDA سافٹ ویئر لیئر کے ساتھ کسٹمر لاک ان ہے، جو محققین کو اس بات پر دانے دار کنٹرول فراہم کرتا ہے کہ ان کے ماڈلز چپ کے وسائل کو کس طرح استعمال کرتے ہیں۔ Amazon اپنی کرنل کنٹرول سافٹ ویئر لیئر، Neuron Kernel Interface (NKI) پیش کرتا ہے، جو CUDA کی طرح، محققین کو چپ کرنل کے تعاملات پر ٹھیک ٹھیک کنٹرول فراہم کرتا ہے۔
یہ نوٹ کرنا ضروری ہے کہ Trainium2 کو ابھی تک بڑے پیمانے پر جانچا جانا ہے۔ AWS فی الحال Anthropic کے لیے 400,000 Trainium2 چپس کے ساتھ ایک سرور کلسٹر بنا رہا ہے، جو بڑے پیمانے پر تعیناتیوں میں اس کے AI چپس کی کارکردگی کو بہتر بنانے کے بارے میں قیمتی بصیرت فراہم کر سکتا ہے۔
2. Arm
برطانوی سیمی کنڈکٹر ڈیزائنر Arm طویل عرصے سے فونز، سینسرز اور IoT ہارڈ ویئر جیسے چھوٹے آلات کو طاقت دینے والے چپس میں استعمال ہونے والے فن تعمیر کا ایک اہم فراہم کنندہ رہا ہے۔ یہ کردار ابھرتے ہوئے دور میں زیادہ اہمیت اختیار کر لیتا ہے جہاں ایج ڈیوائس چپس AI ماڈلز پر عمل درآمد کریں گے۔ ڈیٹا سینٹرز بھی اس ارتقاء میں ایک اہم کردار ادا کریں گے، اکثر سب سے زیادہ ڈیمانڈنگ AI پروسیسنگ میں سے کچھ یا تمام کو سنبھالتے ہیں اور ایج ڈیوائسز کو نتائج فراہم کرتے ہیں۔
جیسے جیسے دنیا بھر میں ڈیٹا سینٹرز پھیلتے ہیں، ان کی بجلی کی کھپت ایک تیزی سے دباؤ والا مسئلہ بن جائے گا۔ یہ عنصر Arm کے تازہ ترین Neoverse CPU فن تعمیر میں کارکردگی پر زور دینے میں معاون ہے۔ کمپنی کے مطابق، یہ پچھلی نسلوں کے مقابلے میں 50% کارکردگی میں بہتری اور مسابقتی x86 آرکیٹیکچرز کا استعمال کرتے ہوئے پروسیسرز کے مقابلے میں 20% بہتر کارکردگی فی واٹ کا حامل ہے۔
Arm کی رپورٹ ہے کہ Amazon، Microsoft، Google اور Oracle سبھی نے عام مقصد کمپیوٹنگ اور CPU پر مبنی AI انفرنس اور ٹریننگ دونوں کے لیے Arm Neoverse کو اپنایا ہے۔ مثال کے طور پر، 2024 میں، Microsoft نے اعلان کیا کہ کلاؤڈ کے لیے ڈیزائن کیا گیا اس کا پہلا کسٹم سلیکون، Cobalt 100 پروسیسر، Arm Neoverse پر بنایا گیا تھا۔ کچھ بڑے AI ڈیٹا سینٹرز NVIDIA کے Grace Hopper Superchip پر انحصار کریں گے، جو Neoverse پر مبنی Grace CPU اور Hopper GPU کو یکجا کرتا ہے۔ Arm اس سال اپنا CPU لانچ کرنے والا ہے، جس میں Meta اس کے ابتدائی صارفین میں سے ایک ہے۔
2. Gretel
پچھلے ایک سال کے دوران، AI کمپنیوں نے ویب سے کھرچنے والے ڈیٹا کی بڑھتی ہوئی مقدار کے ساتھ اپنے ماڈلز کو تربیت دینے سے کم ہوتے ہوئے منافع کا تجربہ کیا ہے۔ نتیجتاً، انہوں نے اپنی توجہ تربیتی ڈیٹا کی محض مقدار سے اس کے معیار کی طرف منتقل کر دی ہے۔ اس کی وجہ سے پبلشر پارٹنرز سے لائسنس یافتہ غیر عوامی اور خصوصی مواد میں سرمایہ کاری میں اضافہ ہوا ہے۔ AI محققین کو اپنے انسانی ساختہ یا انسانی تشریح شدہ تربیتی ڈیٹا کے اندر خلاء یا اندھے مقامات کو بھی دور کرنے کی ضرورت ہے۔ اس مقصد کے لیے، انہوں نے خصوصی AI ماڈلز کے ذریعے تیار کردہ مصنوعی تربیتی ڈیٹا کا تیزی سے رخ کیا ہے۔
Gretel نے 2024 میں مصنوعی تربیتی ڈیٹا کی تخلیق اور کیوریشن میں مہارت حاصل کر کے شہرت حاصل کی۔ کمپنی نے اپنے فلیگ شپ پروڈکٹ، Gretel Navigator کی عام دستیابی کا اعلان کیا، جو ڈویلپرز کو قدرتی زبان یا SQL پرامپٹس کا استعمال کرتے ہوئے ٹھیک ٹیوننگ اور ٹیسٹنگ کے لیے مصنوعی تربیتی ڈیٹا سیٹس بنانے، بڑھانے، ترمیم کرنے اور کیوریٹ کرنے کے قابل بناتا ہے۔ پلیٹ فارم نے پہلے ہی 150,000 سے زیادہ ڈویلپرز کی ایک کمیونٹی کو اپنی طرف متوجہ کیا ہے جنہوں نے تربیتی ڈیٹا کے 350 بلین سے زیادہ ٹکڑوں کو ترکیب کیا ہے۔
دیگر صنعت کے کھلاڑیوں نے Gretel کی صلاحیتوں کو نوٹس لیا ہے۔ Gretel نے Google کے ساتھ شراکت داری کی تاکہ اس کے مصنوعی تربیتی ڈیٹا کو Google Cloud کے صارفین کے لیے آسانی سے دستیاب بنایا جا سکے۔ Databricks کے ساتھ اسی طرح کی شراکت داری کا اعلان جون میں کیا گیا، جس سے Databricks کے انٹرپرائز صارفین کو Databricks کلاؤڈ کے اندر چلنے والے اپنے ماڈلز کے لیے مصنوعی تربیتی ڈیٹا تک رسائی حاصل ہوئی۔
2. Mistral AI
Mistral AI، جنریٹیو AI میدان میں فرانس کا دعویدار، نے فرنٹیئر AI ماڈل ڈویلپمنٹ میں سب سے آگے OpenAI، Anthropic اور Google پر مسلسل دباؤ ڈالا ہے۔ Mistral AI نے 2024 میں اہم تکنیکی ترقیوں کو شامل کرتے ہوئے نئے ماڈلز کا ایک سلسلہ جاری کیا، جس نے اپنی APIs کی براہ راست مارکیٹنگ اور اسٹریٹجک شراکت داری دونوں کے ذریعے تیزی سے کاروباری ترقی کا مظاہرہ کیا۔
سال کے شروع میں، کمپنی نے Mixtral نامی اوپن سورس ماڈلز کا ایک جوڑا متعارف کرایا، جو ‘مکسچر آف ایکسپرٹس’ آرکیٹیکچر کے اپنے اختراعی استعمال کے لیے قابل ذکر ہے، جہاں ماڈل کے پیرامیٹرز کا صرف ایک خصوصی ذیلی سیٹ ایک سوال کو سنبھالنے کے لیے مصروف ہوتا ہے، جس سے کارکردگی میں اضافہ ہوتا ہے۔ جولائی 2024 میں، Mistral نے Mistral Large 2 کا اعلان کیا، جس نے 123 بلین پیرامیٹرز پر، کوڈ جنریشن، ریاضی، استدلال اور فنکشن کالنگ میں نمایاں بہتری کا مظاہرہ کیا۔ فرانسیسی کمپنی نے Ministral 3B اور Ministral 8B بھی جاری کیے، چھوٹے ماڈلز جو لیپ ٹاپ یا فون پر عمل درآمد کے لیے ڈیزائن کیے گئے ہیں، جو صارف کی جانب سے فراہم کردہ سیاق و سباق کی معلومات کے تقریباً 50 ٹیکسٹ صفحات کو ذخیرہ کرنے کی صلاحیت رکھتے ہیں۔
Mistral نے یورپ میں OpenAI جیسی امریکی AI کمپنیوں کے کم لاگت اور لچکدار متبادل کے طور پر خود کو پوزیشن میں لا کر کامیابی حاصل کی ہے۔ اس نے 2024 کے دوران امریکی انٹرپرائز مارکیٹ میں اپنی توسیع جاری رکھی۔ جون میں، کمپنی نے وینچر کیپیٹل فرم جنرل کیٹالسٹ کی قیادت میں $640 ملین کی فنڈنگ حاصل کی، جس سے Mistral کی قیمت تقریباً $6.2 بلین ہو گئی۔
2. Fireworks AI
Fireworks ایک حسب ضرورت رن ٹائم ماحول پیش کرتا ہے جو AI تعیناتیوں کے لیے بنیادی ڈھانچہ بنانے سے وابستہ اکثر پیچیدہ انجینئرنگ کے کام کو ہموار کرتا ہے۔ Fireworks پلیٹ فارم کا استعمال کرتے ہوئے، انٹرپرائزز 100 سے زیادہ AI ماڈلز میں سے کسی کو بھی ضم کر سکتے ہیں اور پھر انہیں اپنے مخصوص استعمال کے معاملات کے لیے اپنی مرضی کے مطابق اور ٹھیک ٹیون کر سکتے ہیں۔
کمپنی نے 2024 کے دوران نئی مصنوعات متعارف کروائیں جو اسے AI انڈسٹری میں اہم رجحانات سے فائدہ اٹھانے کے لیے پوزیشن میں لائیں گی۔ سب سے پہلے، ڈویلپرز AI سے چلنے والے ماڈلز اور ایپلی کیشنز کی رسپانس پر تیزی سے توجہ مرکوز کر رہے ہیں۔ Fireworks نے FireAttention V2 کا آغاز کیا، آپٹیمائزیشن اور کوانٹائزیشن سافٹ ویئر جو ماڈل کی کارکردگی کو تیز کرتا ہے اور نیٹ ورک کی تاخیر کو کم کرتا ہے۔ دوم، AI سسٹمز تیزی سے ‘پائپ لائنز’ میں تیار ہو رہے ہیں جو APIs کے ذریعے مختلف ماڈلز اور ٹولز کو استعمال کرتے ہیں۔ نیا FireFunction V2 سافٹ ویئر ان تیزی سے پیچیدہ سسٹمز کے اندر تمام اجزاء کے لیے ایک آرکیسٹریٹر کے طور پر کام کرتا ہے، خاص طور پر جب انٹرپرائزز زیادہ خود مختار AI ایپلی کیشنز تعینات کرتے ہیں۔
Fireworks نے 2024 میں ریونیو گروتھ میں 600% اضافے کی اطلاع دی ہے۔ اس کے کسٹمر بیس میں Verizon، DoorDash، Uber، Quora اور Upwork جیسی نمایاں کمپنیاں شامل ہیں۔
2. Snorkel AI
انٹرپرائزز کو یہ احساس ہو گیا ہے کہ ان کے AI سسٹمز کی تاثیر کا براہ راست تعلق ان کے ڈیٹا کے معیار سے ہے۔ Snorkel AI نے انٹرپرائزز کو AI ماڈلز میں استعمال کے لیے اپنا ملکیتی ڈیٹا تیار کرنے میں مدد کر کے ایک فروغ پزیر کاروبار بنایا ہے۔ کمپنی کا Snorkel Flow AI ڈیٹا ڈویلپمنٹ پلیٹ فارم کمپنیوں کو اپنے ملکیتی ڈیٹا کو لیبل لگانے اور کیوریٹ کرنے کا ایک لاگت سے موثر طریقہ فراہم کرتا ہے، جس سے وہ اپنے مخصوص کاروباری ضروریات کے لیے AI ماڈلز کو اپنی مرضی کے مطابق بنانے اور ان کا جائزہ لینے میں اس کے استعمال کو ممکن بناتا ہے۔
2024 میں، Snorkel نے تصاویر کو شامل کرنے کے لیے اپنی سپورٹ کو بڑھایا، جس سے کمپنیوں کو اپنے ملکیتی امیجز کا استعمال کرتے ہوئے ملٹی موڈل AI ماڈلز اور امیج جنریٹرز کو تربیت دینے کی اجازت ملی۔ اس نے اپنے پلیٹ فارم میں بازیافت بڑھانے والی نسل (RAG) کو بھی شامل کیا، جس سے صارفین کو طویل دستاویزات، جیسے ملکیتی نالج بیس مواد سے معلومات کے صرف سب سے زیادہ متعلقہ حصوں کو بازیافت کرنے کے قابل بنایا گیا، تاکہ AI ٹریننگ میں استعمال کیا جا سکے۔ Snorkel Custom، ایک نئی، اعلیٰ ٹچ سروس لیول، Snorkel کے مشین لرننگ ماہرین کو براہ راست صارفین کے ساتھ پروجیکٹس پر تعاون کرنا شامل ہے۔
Snorkel کا کہنا ہے کہ 2024 کے دوران اس کی سال بہ سال سالانہ بکنگ دوگنی ہو گئی، جس میں پچھلے تین سالوں میں سے ہر ایک کے لیے سالانہ بکنگ میں تین ہندسوں کا اضافہ ہوا ہے۔ کمپنی کے مطابق، چھ بڑے بینک اب Snorkel Flow کا استعمال کرتے ہیں، ساتھ ہی Chubb، Wayfair اور Experian جیسے برانڈز بھی۔
2. CalypsoAI
جیسا کہ AI اہم فیصلہ سازی کے عمل میں تیزی سے اہم کردار ادا کرتا ہے، انٹرپرائزز ماڈلز کے اندرونی کاموں میں بہتر مرئیت تلاش کر رہے ہیں۔ یہ ضرورت خاص طور پر ریگولیٹڈ صنعتوں میں واضح ہے جنہیں تعصب اور دیگر غیر ارادی نتائج کے لیے مسلسل نگرانی کرنی چاہیے۔ CalypsoAI ان پہلی کمپنیوں میں سے ایک تھی جنہوں نے اس ابھرتی ہوئی ضرورت کو تسلیم کیا اور اپنے AI انفراسٹرکچر پلیٹ فارم میں بہتر وضاحت کی خصوصیات کے ساتھ تیزی سے جواب دیا۔
جو چیز Calypso کو الگ کرتی ہے وہ اس کی مشاہدہ کرنے والی ٹیکنالوجی کی وسعت ہے۔ 2024 میں، کمپنی نے اپنا AI سیکیورٹی پلیٹ فارم لانچ کیا، جو انٹرپرائز ڈیٹا کو محفوظ بناتا ہے، آڈٹ کرتا ہے اور تمام فعال جنریٹیو AI ماڈلز کی نگرانی کرتا ہے جو ایک کمپنی استعمال کر رہی ہو، قطع نظر اس کے کہ ماڈل وینڈر کون ہے یا ماڈل اندرونی طور پر ہوسٹ کیا گیا ہے یا بیرونی طور پر۔ Calypso نے نئے ویژولائزیشن ٹولز بھی متعارف کرائے جو صارفین کو حقیقی وقت میں AI فیصلوں کی بنیادی منطق کا مشاہدہ کرنے کی اجازت دیتے ہیں۔
مارکیٹ Calypso کے AI مشاہدے پر زور دینے پر مثبت ردعمل ظاہر کر رہی ہے۔ کمپنی 2024 کے دوران ریونیو میں دس گنا اضافے کی اطلاع دیتی ہے اور 2025 میں مزید پانچ گنا اضافے کی توقع رکھتی ہے۔
2. Galileo
جبکہ AI سسٹمز ایک سال پہلے کے مقابلے میں حقائق سے متعلق فریب کاری اور تعصبات کی کم مثالیں ظاہر کرتے ہیں، وہ ان مسائل کا شکار رہتے ہیں۔ یہ AI استعمال کرنے والے کسی بھی کاروبار کے لیے ایک اہم تشویش کا باعث بنتا ہے، خاص طور پر صحت کی دیکھ بھال اور بینکنگ جیسے ریگولیٹڈ شعبوں میں۔ AI ڈویلپمنٹ ٹیمیں Galileo کے AI پلیٹ فارم کا استعمال اپنے ماڈلز اور ایپلی کیشنز کی درستگی کی پیمائش، اصلاح اور نگرانی کے لیے کرتی ہیں۔
2024 کے اوائل میں، دو سال کی تحقیق کے بعد، Galileo نے Luna جاری کیا، جو نقصان دہ نتائج کی نشاندہی کرنے کے لیے تربیت یافتہ تشخیصی ماڈلز کا ایک مجموعہ ہے۔ یہ ماڈلز Galileo کے پلیٹ فارم کو LLM کے کام کی تیزی سے جانچ پڑتال کرنے اور اسکور کرنے کے قابل بناتے ہیں کیونکہ یہ ٹوکنز کو اکٹھا کرتا ہے جو اس کے جواب کو تشکیل دیتے ہیں۔ اس عمل میں تقریباً 200 ملی سیکنڈ لگتے ہیں، جس سے AI کے آؤٹ پٹ کو صارف کو دکھائے جانے سے روکنے اور جھنڈا لگانے کے لیے کافی وقت ملتا ہے۔ جبکہ ایک معیاری LLM یہ کام انجام دے سکتا ہے، یہ کافی زیادہ مہنگا ہوگا۔ Galileo کے مقصد سے بنائے گئے ماڈلز اعلیٰ درستگی، لاگت کی کارکردگی اور، خاص طور پر، رفتار پیش کرتے ہیں۔
Galileo نے 2024 میں اپنے کسٹمر بیس میں چار گنا اضافے کی اطلاع دی ہے، جس میں Twilio، Reddit، Chegg، Comcast اور JPMorgan Chase جیسے کلائنٹس شامل ہیں۔ اسٹارٹ اپ نے Hugging Face کے CEO Clément Delangue جیسے سرمایہ کاروں سے $68 ملین کی فنڈنگ بھی حاصل کی۔
2. Runway
AI کے ارد گرد سب سے اہم خواہشات—اور اضطراب—میں سے ایک فلم سازی کے فن اور معاشیات میں انقلاب لانے کے لیے کافی معیار کی ویڈیو بنانے کی صلاحیت ہے۔ ٹیکنالوجی نے 2024 میں اس مستقبل کی طرف اہم پیش رفت کی، جس میں Runway، نیویارک میں قائم ایک ویڈیو جنریشن اسٹارٹ اپ نے اہم کردار ادا کیا۔ جون 2024 میں Runway کے Gen-3 Alpha ماڈل کی ریلیز نے AI کمیونٹی کے اندر تیار کردہ ویڈیو کی نمایاں طور پر بہتر یقین دہانی کے لیے وسیع پیمانے پر پذیرائی حاصل کی۔
Runway نے AI ویڈیو کی جمالیات کو کنٹرول کرنے کے لیے اپنے ٹولز میں بڑی بہتری بھی نافذ کی۔ ماڈل کو تصاویر اور ویڈیو دونوں پر تربیت دی گئی تھی اور یہ متن یا تصویری ان پٹ کی بنیاد پر ویڈیو تیار کر سکتا ہے۔ کمپنی نے اس کے بعد Gen-3 Alpha Turbo جاری کیا، جو Gen-3 کا زیادہ لاگت سے موثر اور تیز ورژن ہے۔
ہالی ووڈ جنریٹیو AI کی پیشرفت پر گہری نظر رکھے ہوئے ہے، اور Runway کی رپورٹ ہے کہ اس نے تفریحی صنعت کے کھلاڑیوں کے لیے اپنے ماڈلز کے حسب ضرورت ورژن تیار کرنا شروع کر دیے ہیں۔ اس نے ستمبر 2024 میں Lionsgate Studios کے ساتھ باضابطہ شراکت داری کی۔ Runway نے پروڈکشن کمپنی کے لیے ایک حسب ضرورت ماڈل تیار کیا اور اسے Lionsgate کی فلم کیٹلاگ پر تربیت دی۔ Runway کا کہنا ہے کہ ماڈل کا مقصد Lionsgate کے فلم سازوں، ہدایت کاروں اور دیگر تخلیق کاروں کو ان کے کام کو “بڑھانے” میں مدد کرنا ہے جبکہ “وقت، پیسہ اور وسائل کی بچت” کرنا ہے۔ Runway کا خیال ہے کہ Lionsgate کے ساتھ اس کا انتظام دیگر پروڈکشن کمپنیوں کے ساتھ اسی طرح کے تعاون کے لیے ایک بلیو پرنٹ کے طور پر کام کر سکتا ہے۔
2. Cerebras Systems
AI سسٹمز، خاص طور پر بڑے فرنٹیئر ماڈلز، کو بڑے پیمانے پر کام کرنے کے لیے بے پناہ کمپیوٹنگ پاور کی ضرورت ہوتی ہے۔ اس کے لیے کام کے بوجھ کو تقسیم کرنے کے لیے ہزاروں یا لاکھوں چپس کے باہمی ربط کی ضرورت ہوتی ہے۔ تاہم، چپس کے درمیان نیٹ ورک کنکشن کارکردگی کی رکاوٹیں پیدا کر سکتے ہیں۔ Cerebras Systems کی ٹیکنالوجی کو ایک واحد، غیر معمولی طور پر بڑی چپ پر کمپیوٹنگ پاور کی ایک بڑی مقدار کو مربوط کرنے کے رفتار اور کارکردگی کے فوائد کو بروئے کار لانے کے لیے ڈیزائن کیا گیا ہے۔
کمپنی کا تازہ ترین WSE-3 (تیسری نسل کا Wafer Scale Engine) چپ، مثال کے طور پر، 814 مربع ملی میٹر ہے، جو ڈنر پلیٹ کے سائز کا ہے، اور Nvidia کے مارکیٹ لیڈنگ H100 چپس سے 56 گنا بڑا ہے۔ چپ میں 4 ٹریلین ٹرانزسٹرز شامل ہیں اور یہ 44 گیگا بٹس میموری پیش کرتا ہے۔ ان چپس کو سپر کمپیوٹرز بنانے کے لیے کلسٹر کیا جا سکتا ہے، جیسے Condor Galaxy، باہم مربوط سپر کمپیوٹرز کا ایک ‘تارامی جھرمٹ’ جسے Cerebras اپنے سب سے بڑے کسٹمر، G42، متحدہ عرب امارات میں قائم AI اور کلاؤڈ کمپیوٹنگ کمپنی کے تعاون سے تیار کر رہا ہے۔
آج تک، Cerebras نے بڑی تحقیقی تنظیموں میں ایک جگہ تلاش کی ہے، جس میں Mayo Clinic، Sandia National Laboratories، Lawrence Livermore National Laboratory اور Los Alamos National Laboratory شامل ہیں۔ کمپنی نے ستمبر 2024 میں IPO کے لیے فائل کیا۔ پراسپیکٹس سے پتہ چلتا ہے کہ کمپنی کی سیلز 2023 میں تین گنا سے زیادہ بڑھ کر $78.7 ملین ہو گئی اور 2024 کی پہلی ششماہی میں $136.4 ملین تک پہنچ گئی۔