مصنوعی ذہانت کی مسلسل پیش قدمی گزشتہ ہفتے بھی تیز رفتاری سے جاری رہی، جس میں اس شعبے کے چند بااثر ترین کھلاڑیوں کی جانب سے اہم انکشافات اور تحقیقی نتائج سامنے آئے۔ پیشرفت تیزی سے سامنے آئی، جس میں تخلیقی پیداوار، علمی پروسیسنگ، اور پیشہ ورانہ ماحول میں AI کے عملی اطلاق میں ترقی کو ظاہر کیا گیا۔ OpenAI، Google، اور Anthropic ہر ایک نے قابل ذکر سنگ میل عبور کیے، جس سے AI ٹیکنالوجیز کی ابھرتی ہوئی صلاحیتوں اور روزمرہ کی زندگی اور کام میں ان کے انضمام کی تازہ جھلکیاں پیش کی گئیں۔ ان انفرادی اقدامات کو سمجھنا AI جدت طرازی کی وسیع تر سمت اور مختلف شعبوں پر اس کے ممکنہ اثرات کی واضح تصویر فراہم کرتا ہے۔
OpenAI نے مربوط تصویری جنریشن کے ساتھ بصری جنون کو بھڑکا دیا
OpenAI نے اپنے مقبول ChatGPT انٹرفیس میں براہ راست ایک نئی خصوصیت کی تعیناتی کے ساتھ عوام کی خاصی توجہ حاصل کی۔ منگل کو، کمپنی نے صارفین کو مقامی طور پر تصاویر بنانے کے قابل بنایا، جس سے اس کے DALL-E امیج کریشن ٹول کے ساتھ الگ سے تعامل کرنے کی پچھلی ضرورت ختم ہوگئی۔ یہ انضمام، جو جدید GPT-4o ماڈل سے تقویت یافتہ ہے، نے فوری طور پر دنیا بھر کے صارفین کے دل جیت لیے۔ مانوس چیٹ ماحول میں ٹیکسٹ پرامپٹس سے براہ راست بصری مواد تیار کرنے کی ہموار صلاحیت بے حد مقبول ثابت ہوئی۔
انٹرنیٹ تیزی سے تجربات کا کینوس بن گیا۔ ایک خاص طور پر غالب رجحان اس وقت ابھرا جب صارفین نے اس ٹول کی عام تصاویر کو تبدیل کرنے، یا مکمل طور پر نئے مناظر تخلیق کرنے میں مہارت دریافت کی، جو Studio Ghibli جیسے مشہور اینیمیشن ہاؤسز کی یاد دلانے والی نرم، پرکشش جمالیات میں پیش کیے گئے تھے۔ یہ مخصوص انداز ایک وائرل رجحان بن گیا، جس نے سوشل میڈیا فیڈز کو anime سے متاثر پورٹریٹس اور خوابناک مناظر سے بھر دیا۔ جس آسانی سے صارفین اس مخصوص فنکارانہ حساسیت کو استعمال کر سکتے تھے، اس نے ماڈل کی اسٹائلسٹک پرامپٹس کی باریک بینی کو اجاگر کیا، لیکن ایک ابھرتے ہوئے تنازعہ کی پیش گوئی بھی کی۔
بدھ کی شام تک، ڈیجیٹل منظر نامہ بدلنا شروع ہو گیا۔ Ghibli-esque بصری مواد کو نقل کرنے کی کوشش کرنے والے صارفین، یا واضح طور پر دیگر معاصر فنکاروں کے انداز کی نقل کرنے والی تصاویر بنانے والے صارفین نے پایا کہ ان کے پرامپٹس کو تیزی سے انکار کے پیغامات مل رہے ہیں۔ یہ کوئی من مانی پابندی نہیں تھی۔ OpenAI نے بعد میں اپنی پالیسی واضح کی، جس میں ‘زندہ فنکار کے انداز میں’ امیجری بنانے کی کوشش کرنے والی درخواستوں کو روکنے کے لیےبنائے گئے حفاظتی اقدامات کے نفاذ کی تصدیق کی۔ اس اقدام نے OpenAI کی جانب سے AI کی منفرد فنکارانہ دستخطوں کو نقل کرنے کی صلاحیت کے گرد پیچیدہ اخلاقی اور ممکنہ کاپی رائٹ کے مسائل سے نمٹنے کے لیے ایک فعال قدم کا اشارہ دیا۔ اس نے جنریٹو AI کے دور میں دانشورانہ املاک کے بارے میں جاری بحث اور پلیٹ فارمز کی فنکاروں کے کام کی غیر مجاز تقلید کو روکنے کی ذمہ داری کو اجاگر کیا۔ اگرچہ اس کا مقصد تخلیق کاروں کی حفاظت کرنا تھا، اس مداخلت نے سنسرشپ اور AI ٹولز کے ذریعے سہولت فراہم کردہ تخلیقی اظہار کی حدود کے بارے میں بحثیں بھی شروع کر دیں۔
نئی تصویری جنریشن کی صلاحیت کے لیے سراسر جوش و خروش نے OpenAI کے بنیادی ڈھانچے پر غیر متوقع دباؤ ڈالا۔ طلب اس سطح تک بڑھ گئی جس نے کمپنی کے کمپیوٹنگ وسائل کی حدود کو جانچا۔ CEO Sam Altman نے عوامی طور پر صورتحال کا اعتراف کیا، بے پناہ مقبولیت کو نوٹ کرتے ہوئے تکنیکی چیلنجوں کی طرف اشارہ کیا۔ ‘لوگوں کو چیٹ جی پی ٹی میں تصاویر پسند کرتے ہوئے دیکھنا بہت مزہ آتا ہے۔ لیکن ہمارے GPUs پگھل رہے ہیں،’ انہوں نے تبصرہ کیا، جس سے بڑے پیمانے پر جدید ترین AI خصوصیات کی تعیناتی کے پیچھے آپریشنل دباؤ پر ایک واضح نظر ڈالی گئی۔ نتیجتاً، OpenAI نے بوجھ کو منظم کرنے کے لیے عارضی شرح کی حدود متعارف کرانے کا اعلان کیا، خاص طور پر مفت درجے کے صارفین کے لیے، جو جلد ہی روزانہ محدود تعداد میں تصویری جنریشن تک محدود ہو جائیں گے۔ اس ضرورت نے جدید AI ماڈلز سے وابستہ اہم کمپیوٹیشنل لاگت کو اجاگر کیا، خاص طور پر وہ جو تصویری ترکیب جیسے پیچیدہ کاموں میں شامل ہیں، اور وسیع پیمانے پر رسائی فراہم کرنے کی معاشی حقیقتوں کو۔
صلاحیت کے مسائل اور اخلاقی مباحثوں سے ہٹ کر، فیچر رول آؤٹ تکنیکی خرابیوں سے خالی نہیں تھا۔ کچھ صارفین نے ماڈل کی بعض قسم کی تصاویر کو درست یا مناسب طریقے سے پیش کرنے کی صلاحیت میں تضادات کا مشاہدہ کیا اور رپورٹ کیا۔ ایک مخصوص تنقید نے ان مشکلات کی نشاندہی کی جو ماڈل کو ‘سیکسی خواتین’ کی تصویر کشی پیدا کرنے میں پیش آتی نظر آتی ہیں، جس کے نتیجے میں عجیب و غریب یا ناقص نتائج برآمد ہوتے ہیں۔ Sam Altman نے سوشل میڈیا کے ذریعے براہ راست اس تشویش کا ازالہ کیا، اسے ‘ایک بگ’ کے طور پر درجہ بندی کیا جسے درست کیا جانا ہے۔ یہ واقعہ ایک یاد دہانی کے طور پر کام کرتا ہے کہ یہاں تک کہ انتہائی جدید AI ماڈل بھی نامکمل کام ہیں، جو ممکنہ طور پر ان کے تربیتی ڈیٹا میں شامل تعصبات یا الگورتھمک حدود کے لیے حساس ہیں جو غیر متوقع اور بعض اوقات پریشان کن نتائج کا باعث بن سکتے ہیں۔ ان طاقتور ٹولز کو بہتر بنانے کے راستے میں مسلسل تکرار اور خامیوں کو سامنے آنے پر ان کا ازالہ کرنا شامل ہے، خاص طور پر وہ جو حساس یا باریک نمائندگی کو چھوتی ہیں۔ ابتدائی جوش و خروش، بعد کی پابندیاں، بنیادی ڈھانچے کا دباؤ، اور تسلیم شدہ بگس نے اجتماعی طور پر ایک بڑے صارف کی بنیاد پر اہم AI ٹیکنالوجی کی تعیناتی کے متحرک اور چیلنجنگ عمل کی ایک واضح تصویر پینٹ کی۔
Google نے Gemini 2.5 کے ساتھ AI ادراک کو بہتر بنایا
جبکہ OpenAI کے بصری ٹول نے ہفتے کی زیادہ تر توجہ حاصل کی، Google نے خاموشی سے اپنے AI ہتھیاروں میں ایک اہم ارتقاء متعارف کرایا۔ منگل کو Gemini 2.5 کی نقاب کشائی ہوئی، جسے صرف ایک ماڈل کے طور پر نہیں بلکہ AI سسٹمز کے ایک نئے خاندان کے طور پر پیش کیا گیا جو بہتر استدلال کی صلاحیتوں پر بنیادی توجہ کے ساتھ انجنیئر کیا گیا ہے۔ Google کی طرف سے اجاگر کی گئی مرکزی جدت ماڈل کی مبینہ صلاحیت ہے کہ وہ جواب دینے سے پہلے ‘روک’ سکے اور زیادہ دانستہ سوچ کے عمل میں مشغول ہو۔ یہ زیادہ نفیس مسئلہ حل کرنے اور کم جذباتی آؤٹ پٹ جنریشن کی طرف ایک قدم تجویز کرتا ہے۔
اس نئی نسل کی ابتدائی پیشکش Gemini 2.5 Pro Experimental ہے۔ اس تکرار کو واضح طور پر ایک ملٹی موڈل ماڈل کے طور پر بیان کیا گیا ہے، جس کا مطلب ہے کہ یہ مختلف فارمیٹس بشمول ٹیکسٹ، آڈیو، امیجز، ویڈیو، اور کمپیوٹر کوڈ میں معلومات پر کارروائی کرنے اور سمجھنے کی صلاحیت رکھتا ہے۔ Google اس ماڈل کو ان کاموں کے لیے پوزیشن دے رہا ہے جن میں اعلیٰ منطق، سائنس، ٹیکنالوجی، انجینئرنگ، اور ریاضی (STEM) کے شعبوں میں پیچیدہ مسئلہ حل کرنا، نفیس کوڈنگ کی مدد، اور ایجنٹک رویے کی ضرورت والے ایپلی کیشنز شامل ہیں - جہاں AI پہل کر سکتا ہے اور خود مختار طور پر کثیر مرحلہ وار کام انجام دے سکتا ہے۔ ‘Experimental’ پر زور یہ بتاتا ہے کہ Google اب بھی اس تکرار کو بہتر بنا رہا ہے، ممکنہ طور پر صارف کی رائے جمع کر رہا ہے تاکہ وسیع تر، زیادہ مستحکم ریلیز سے پہلے اس کی صلاحیتوں کو مزید نکھارا جا سکے۔
اس جدید استدلال کی طاقت تک رسائی ایک پریمیم پر آتی ہے۔ Gemini 2.5 Pro Experimental خصوصی طور پر Google کے Gemini Advanced پلان کے سبسکرائبرز کے لیے دستیاب کیا جا رہا ہے، جس کی ماہانہ فیس $20 ہے۔ یہ درجہ بند رسائی کی حکمت عملی ایک عام صنعتی نمونے کی عکاسی کرتی ہے، جہاں سب سے جدید خصوصیات ابتدائی طور پر ادائیگی کرنے والے صارفین کو پیش کی جاتی ہیں، ممکنہ طور پر مزید تحقیق اور ترقی کی مالی اعانت فراہم کرتی ہیں جبکہ مارکیٹ کو بھی تقسیم کرتی ہیں۔ یہ جدید AI صلاحیتوں کی جمہوری بنانے کے بارے میں سوالات اٹھاتا ہے اور کیا سب سے طاقتور ٹولز پے والز کے پیچھے رہیں گے، ممکنہ طور پر آرام دہ صارفین اور پریمیم رسائی کے لیے ادائیگی کرنے کے خواہشمند یا قابل افراد کے درمیان فرق کو وسیع کرتے ہیں۔
ریلیز کے ساتھ ایک کلیدی اسٹریٹجک اعلان بھی تھا: Google نے کہا کہ تمام آنے والے Gemini ماڈلز میں یہ بہتر استدلال کی فعالیت بطور ڈیفالٹ شامل ہوگی۔ یہ Google کی AI ترقیاتی فلسفے میں ایک بنیادی تبدیلی کا اشارہ دیتا ہے، جو اس کی پوری مستقبل کی لائن اپ میں گہری علمی پروسیسنگ کو ترجیح دیتا ہے۔ استدلال کو ایک معیاری خصوصیت کے طور پر شامل کرکے، Google کا مقصد اپنے ماڈلز کو ممتاز کرنا ہے، ممکنہ طور پر انہیں زیادہ قابل اعتماد، درست، اور پیچیدہ، باریک سوالات سے نمٹنے کے قابل بنانا ہے جو خالصتاً پیٹرن میچنگ یا تیز ردعمل پیدا کرنے پر مرکوز ماڈلز کو الجھا سکتے ہیں۔ یہ عزم Google کی AI پیشکشوں کو خاص طور پر انٹرپرائز ایپلی کیشنز، تحقیقی کوششوں، اور پیچیدہ تجزیاتی کاموں کے لیے موزوں بنا سکتا ہے جہاں مکمل پن اور منطقی مستقل مزاجی سب سے اہم ہے۔ ‘روکیں اور سوچیں’ کا طریقہ کار نظریاتی طور پر AI ‘ہیلوسینیشن’ - اعتماد سے بیان کردہ غلطیاں - کے کم واقعات کا باعث بن سکتا ہے، جو صنعت کے لیے ایک اہم چیلنج بنی ہوئی ہے۔ اس نقطہ نظر کی طویل مدتی کامیابی کا انحصار اس بات پر ہوگا کہ آیا بہتر استدلال حقیقی دنیا کی ایپلی کیشنز میں واضح طور پر اعلیٰ کارکردگی اور صارف کے اطمینان میں ترجمہ کرتا ہے۔
Anthropic نے جدید کام کی جگہ پر AI کے کردار کو روشن کیا
ہفتے کی AI داستان میں ایک اور پرت کا اضافہ کرتے ہوئے، Anthropic نے اس بارے میں قیمتی بصیرت فراہم کی کہ مصنوعی ذہانت کو پیشہ ورانہ ترتیبات میں اصل میں کس طرح استعمال کیا جا رہا ہے۔ جمعرات کو، کمپنی نے اپنی جاری تحقیقی پہل، Economic Index کی دوسری قسط شائع کی۔ یہ منصوبہ روزگار کی حرکیات اور وسیع تر معیشت پر AI کے ٹھوس اثرات کی نگرانی اور تجزیہ کے لیے وقف ہے۔ تازہ ترین رپورٹ نے ایک بڑے ڈیٹاسیٹ کا جائزہ لیا، جس میں Anthropic کے Claude 3.7 Sonnet ماڈل کا استعمال کرتے ہوئے کی گئی دس لاکھ گمنام گفتگوؤں کا جائزہ لیا گیا۔
استعمال شدہ طریقہ کار خاص طور پر بصیرت انگیز تھا۔ Anthropic کے محققین نے نہ صرف گفتگو کے مواد کا تجزیہ کیا۔ انہوں نے امریکی محکمہ محنت کے جامع O*NET ڈیٹا بیس میں درج 17,000 سے زیادہ الگ الگ ملازمت کے کاموں کے ساتھ تعاملات کو احتیاط سے نقشہ بنایا۔ یہ Occupational Information Network ڈیٹا بیس مختلف پیشوں کی تفصیلی وضاحت فراہم کرتا ہے، بشمول ہر ایک کے لیے درکار مخصوص کام، مہارتیں اور علم۔ AI کے استعمال کے نمونوں کو ان معیاری ملازمت کے کاموں سے جوڑ کر، Anthropic ایک دانے دار، ڈیٹا پر مبنی نقطہ نظر پیدا کر سکتا ہے کہ کس طرح AI ٹولز کو پیشوں کے وسیع میدان میں روزمرہ کے کام کے تانے بانے میں ضم کیا جا رہا ہے۔
اس تجزیے سے سامنے آنے والے سب سے اہم نتائج میں سے ایک اضافے اور آٹومیشن کے درمیان توازن سے متعلق تھا۔ ڈیٹا نے اشارہ کیا کہ اضافہ - وہ مثالیں جہاں انسان AI کو اپنے کام میں مدد، اضافہ، یا تیز کرنے کے لیے ایک آلے کے طور پر استعمال کرتے ہیں - مشاہدہ شدہ استعمال کا تقریباً 57% تھا۔ اس سے پتہ چلتا ہے کہ، کم از کم Claude کے استعمال کے نمونوں کی بنیاد پر، تعامل کا غالب طریقہ فی الحال انسانوں کو AI کے ساتھ کام کرنا شامل ہے بجائے اس کے کہ پورے کاموں کو خود مختار تکمیل (آٹومیشن) کے لیے AI کو سونپ دیا جائے۔ یہ تلاش ان بیانیوں کا مقابلہ کرتی ہے جو صرف AI کی طرف سے انسانی ملازمتوں کی جگہ لینے پر مرکوز ہیں، یہ تجویز کرتی ہے کہ فی الحال ایک زیادہ باہمی تعاون پر مبنی رشتہ رائج ہے۔ اس کا مطلب یہ ہے کہ بہت سے پیشہ ور افراد ٹیکنالوجی کے ذریعے مکمل طور پر بے گھر ہونے کے بجائے، اپنے موجودہ کرداروں میں اپنی پیداواری صلاحیت، تخلیقی صلاحیت، یا کارکردگی کو بہتر بنانے کے لیے AI کا فائدہ اٹھا رہے ہیں۔
تاہم، رپورٹ نے اس بات میں بھی کافی باریکی ظاہر کی کہ AI تعامل کے نمونے مخصوص پیشے اور انجام دیے جانے والے کام کی نوعیت کے لحاظ سے کیسے مختلف ہوتے ہیں۔ ڈیٹا نے پیشہ ورانہ زمروں میں صارف کی مصروفیت میں واضح فرق کو اجاگر کیا۔ مثال کے طور پر:
- اعلی تکرار والے کام: عام طور پر کاپی رائٹرز اور ایڈیٹرز جیسے کرداروں سے وابستہ کاموں نے ٹاسک تکرار کی بلند ترین سطح کا مظاہرہ کیا۔ یہ ایک باہمی تعاون کے عمل کو بیان کرتا ہے جہاں انسانی صارف اور AI ماڈل ایک آگے پیچھے تبادلے میں مشغول ہوتے ہیں، مشترکہ طور پر مواد کو بہتر اور تیار کرتے ہیں۔ انسان رہنمائی کرتا ہے، اشارہ کرتا ہے، اور ترمیم کرتا ہے، جبکہ AI تخلیق کرتا ہے، تجویز کرتا ہے، اور نظر ثانی کرتا ہے - تخلیق میں ایک حقیقی شراکت داری۔
- اعلی ہدایتی استعمال والے کام: اس کے برعکس، عام طور پر مترجمین اور ترجمانوں کے ذریعہ انجام دیے جانے والے کاموں نے ہدایتی استعمال پر سب سے زیادہ انحصار ظاہر کیا۔ اس موڈ میں، انسانی صارف ایک واضح ہدایت یا ان پٹ فراہم کرتا ہے، اور AI ماڈل سے توقع کی جاتی ہے کہ وہ کم سے کم جاری انسانی مداخلت یا تطہیر کے ساتھ، بڑے پیمانے پر آزادانہ طور پر کام مکمل کرے۔ اس سے پتہ چلتا ہے کہ زبان کی ترجمانی جیسے کچھ اچھی طرح سے متعین کاموں کے لیے، صارفین AI کو ایک خود مختار ٹول کے طور پر برتنے کے زیادہ مائل ہیں جو تیار شدہ مصنوعات فراہم کرنے کی صلاحیت رکھتا ہے۔
یہ متضاد نمونے اس بات کی نشاندہی کرتے ہیں کہ کام کی جگہ میں AI کا انضمام یک سنگی نہیں ہے۔ جس طرح سے افراد AI ٹولز کے ساتھ تعامل کرتے ہیں وہ ان کی ملازمتوں کی مخصوص ضروریات اور ان مسائل کی اقسام سے بہت زیادہ متاثر ہوتا ہے جنہیں وہ حل کرنے کی کوشش کر رہے ہیں۔ اس تغیر پذیری کے لیبر مارکیٹ کے مختلف شعبوں پر AI کے حقیقی اثرات کو سمجھنے کے لیے اہم مضمرات ہیں۔ اس سے پتہ چلتا ہے کہ AI اپنانے کے اثرات - چاہے وہ ملازمت کی تبدیلی، بے گھر ہونے، یا نئے کرداروں کی تخلیق کا باعث بنے - ممکنہ طور پر صنعتوں اور پیشوں میں کافی حد تک مختلف ہوں گے۔ Anthropic کی تحقیق تیزی سے AI سے چلنے والی دنیا میں کام کے مستقبل کے بارے میں جاری بحث کو مطلع کرنے کے لیے اہم تجرباتی ڈیٹا فراہم کرتی ہے، قیاس آرائیوں سے آگے بڑھ کر موجودہ رجحانات کی زیادہ ثبوت پر مبنی تفہیم کی طرف بڑھتی ہے۔