فریب نظر کے مظہر کو سمجھنا
OpenAI کے داخلی ٹیسٹوں، جیسا کہ ایک حالیہ مقالے میں تفصیل سے بتایا گیا ہے، ماڈلز جیسے o3 اور o4-mini میں فریب نظر کی شرح میں نمایاں اضافہ کو اجاگر کرتے ہیں۔ یہ ماڈلز، جو جدید استدلال اور ملٹی موڈل صلاحیتوں کے ساتھ ڈیزائن کیے گئے ہیں، AI ٹیکنالوجی کی جدید ترین مثال ہیں۔ وہ تصاویر تیار کر سکتے ہیں، ویب تلاش کر سکتے ہیں، ٹاسک کو خودکار کر سکتے ہیں، ماضی کی گفتگو کو یاد رکھ سکتے ہیں، اور پیچیدہ مسائل کو حل کر سکتے ہیں۔ تاہم، یہ ترقی بظاہر ایک قیمت پر آتی ہے۔
ان فریب نظروں کی حد تک مقدار طے کرنے کے لیے، OpenAI ایک مخصوص ٹیسٹ استعمال کرتا ہے جسے PersonQA کہا جاتا ہے۔ اس ٹیسٹ میں ماڈل کو مختلف افراد کے بارے میں حقائق کا ایک مجموعہ فراہم کرنا اور پھر ان افراد کے بارے میں سوالات پوچھنا شامل ہے۔ ماڈل کی درستگی کا اندازہ اس کی درست جوابات فراہم کرنے کی صلاحیت کی بنیاد پر کیا جاتا ہے۔
پچھلے جائزوں میں، o1 ماڈل نے صرف 16% کی فریب نظر کی شرح کے ساتھ 47% کی قابل تعریف درستگی کی شرح حاصل کی۔ تاہم، جب o3 اور o4-mini کو اسی تشخیص کے تابع کیا گیا تو نتائج نمایاں طور پر مختلف تھے۔
o4-mini ماڈل، جو کہ کم دنیاوی علم کے ساتھ ایک چھوٹا تغیر ہے، سے فریب نظر کی زیادہ شرح ظاہر کرنے کی توقع تھی۔ اس کے باوجود، 48% کی اصل شرح حیرت انگیز طور پر زیادہ تھی، اس بات پر غور کرتے ہوئے کہ o4-mini ایک تجارتی طور پر دستیاب مصنوعات ہے جو بڑے پیمانے پر ویب تلاش اور معلومات کی بازیافت کے لیے استعمال ہوتی ہے۔
مکمل سائز کے o3 ماڈل نے بھی فریب نظر کا شکار ہونے کا ایک متعلقہ رجحان ظاہر کیا۔ اپنے 33% جوابات میں، ماڈل نے معلومات تیار کیں، جس سے مؤثر طریقے سے o1 ماڈل کی فریب نظر کی شرح دوگنی ہو گئی۔ اس کے باوجود، o3 نے درستگی کی ایک اعلی شرح بھی حاصل کی، جسے OpenAI مجموعی طور پر زیادہ دعوے کرنے کے رجحان سے منسوب کرتا ہے۔
فریب نظر کی تعریف
AI کے تناظر میں، ‘فریب نظر’ کی اصطلاح سے مراد ماڈل کا یہ رجحان ہے کہ وہ بغیر کسی ظاہری ماخذ یا جواز کے حقائق سے غلط یا بے معنی جوابات پیدا کرے۔ یہ محض خراب ڈیٹا یا غلط تشریح سے پیدا ہونے والی غلطیاں نہیں ہیں۔ اس کے بجائے، فریب نظر ماڈل کے استدلال کے عمل میں ایک بنیادی نقص کی نمائندگی کرتے ہیں۔
جب کہ غلط معلومات یقینی طور پر مختلف ذرائع سے حاصل ہو سکتی ہیں، جیسے کہ ویکیپیڈیا اندراجات یا Reddit تھریڈز، یہ مثالیں زیادہ تر قابل شناخت غلطیوں سے ملتی جلتی ہیں جن کا انتساب مخصوص ڈیٹا پوائنٹس سے کیا جا سکتا ہے۔ دوسری طرف، فریب نظر کی خصوصیت AI ماڈل کی غیر یقینی صورتحال کے لمحات میں حقائق کی ایجاد ہے، ایک ایسا مظہر جسے کچھ ماہرین نے ‘تخلیقی خلا کو بھرنا’ قرار دیا ہے۔
اس نکتے کو واضح کرنے کے لیے، سوال پر غور کریں، ‘ابھی آئی فون 16 کے سات ماڈل کون سے دستیاب ہیں؟’ چونکہ ایپل کے علاوہ کسی کو نہیں معلوم کہ اگلا آئی فون کیا ہوگا، اس لیے LLM کچھ حقیقی جوابات فراہم کرنے کا امکان رکھتا ہے — اور پھر کام کو ختم کرنے کے لیے اضافی ماڈل تیار کرتا ہے۔ یہ فریب نظر کی ایک واضح مثال ہے، جہاں ماڈل کام کو مکمل کرنے کے لیے معلومات تیار کرتا ہے، یا جسے ‘تخلیقی خلا کو بھرنا’ کہا جاتا ہے۔
تربیتی ڈیٹا کا کردار
ChatGPT جیسے چیٹ بوٹس کو انٹرنیٹ ڈیٹا کی وسیع مقدار پر تربیت دی جاتی ہے۔ یہ ڈیٹا ان کے جوابات کے مواد کو مطلع کرتا ہے بلکہ اس بات کو بھی تشکیل دیتا ہے کہ وہ کیسے جواب دیتے ہیں۔ ماڈلز کو سوالات اور مماثل مثالی جوابات کی لاتعداد مثالوں کا سامنا کرنا پڑتا ہے، جو مخصوص لہجے، رویوں اور شائستگی کی سطحوں کو تقویت بخشتا ہے۔
یہ تربیتی عمل نادانستہ طور پر فریب نظر کے مسئلے میں حصہ ڈال سکتا ہے۔ ماڈلز کو براہ راست سوال کو حل کرنے والے پراعتماد جوابات فراہم کرنے کی ترغیب دی جاتی ہے۔ یہ انہیں سوال کا جواب دینے کو ترجیح دینے کا باعث بن سکتا ہے، یہاں تک کہ اگر انہیں ایسا کرنے کے لیے معلومات ایجاد کرنی پڑیں، بجائے اس کے کہ وہ اعتراف کریں کہ انہیں جواب معلوم نہیں ہے۔
جوہر میں، تربیتی عمل نادانستہ طور پر پراعتماد اور بظاہر باخبر جوابات کو انعام دے سکتا ہے، یہاں تک کہ اگر وہ حقائق سے غلط ہوں۔ یہ جوابات پیدا کرنے کے لیے ایک تعصب پیدا کر سکتا ہے، قطع نظر ان کی درستگی کے، جو فریب نظر کے مسئلے کو بڑھا سکتا ہے۔
AI غلطیوں کی نوعیت
AI غلطیوں اور انسانی غلطیوں کے درمیان مماثلتیں کھینچنا پرکشش ہے۔ بہر حال، انسان معصوم نہیں ہیں، اور ہمیں AI سے بھی کامل ہونے کی توقع نہیں کرنی چاہیے۔ تاہم، یہ تسلیم کرنا بہت ضروری ہے کہ AI غلطیاں بنیادی طور پر انسانی غلطیوں سے مختلف عملوں سے پیدا ہوتی ہیں۔
AI ماڈلز جھوٹ نہیں بولتے، غلط فہمیاںپیدا نہیں کرتے، یا معلومات کو اس طرح غلط یاد نہیں رکھتے جس طرح انسان کرتے ہیں۔ ان میں علمی صلاحیتوں اور سیاق و سباق کی آگہی کی کمی ہے جو انسانی استدلال کی بنیاد ہیں۔ اس کے بجائے، وہ امکانات کی بنیاد پر کام کرتے ہیں، اپنی تربیتی ڈیٹا میں دیکھے گئے نمونوں کی بنیاد پر کسی جملے میں اگلے لفظ کی پیشن گوئی کرتے ہیں۔
اس امکانی نقطہ نظر کا مطلب ہے کہ AI ماڈلز کے پاس درستگی یا غلطی کی کوئی حقیقی سمجھ نہیں ہے۔ وہ محض الفاظ کے سب سے زیادہ ممکنہ سلسلے کو تیار کرتے ہیں جو انہوں نے اپنی تربیتی ڈیٹا سے سیکھے ہیں۔ اس سے بظاہر مربوط جوابات کی نسل پیدا ہو سکتی ہے جو درحقیقت حقائق سے غلط ہیں۔
جب کہ ماڈلز کو پوری انٹرنیٹ کے قابل معلومات فراہم کی جاتی ہیں، انہیں یہ نہیں بتایا جاتا کہ کون سی معلومات اچھی ہے یا بری، درست ہے یا غلط — انہیں کچھ بھی نہیں بتایا جاتا۔ ان کے پاس موجودہ بنیادی علم یا بنیادی اصولوں کا ایک سیٹ نہیں ہے جو ان کی اپنی معلومات کو ترتیب دینے میں مدد کر سکے۔ یہ سب محض اعداد کا کھیل ہے — الفاظ کے وہ نمونے جو کسی خاص سیاق و سباق میں سب سے زیادہ کثرت سے موجود ہیں وہ LLM کی ‘حقیقت’ بن جاتے ہیں۔
چیلنج سے نمٹنا
جدید AI ماڈلز میں فریب نظر کی بڑھتی ہوئی شرح ایک اہم چیلنج ہے۔ OpenAI اور دیگر AI ڈویلپرز اس مسئلے کو سمجھنے اور کم کرنے کے لیے فعال طور پر کام کر رہے ہیں۔ تاہم، فریب نظر کی بنیادی وجوہات پوری طرح سے سمجھ میں نہیں آتی ہیں، اور مؤثر حل تلاش کرنا ایک جاری کوشش ہے۔
ایک ممکنہ نقطہ نظر تربیتی ڈیٹا کے معیار اور تنوع کو بہتر بنانا ہے۔ ماڈلز کو زیادہ درست اور جامع معلومات سے بے نقاب کر کے، ڈویلپرز ان کے جھوٹی معلومات سیکھنے اور اسے جاری رکھنے کے امکان کو کم کر سکتے ہیں۔
ایک اور نقطہ نظر فریب نظر کا پتہ لگانے اور روکنے کے لیے مزید جدید تکنیک تیار کرنا ہے۔ اس میں ماڈلز کو یہ پہچاننے کی تربیت دینا شامل ہو سکتا ہے کہ وہ کسی خاص معلومات کے بارے میں کب غیر یقینی ہیں اور کافی ثبوت کے بغیر دعوے کرنے سے گریز کریں۔
دریں اثنا، OpenAI کو مختصر مدتی حل تلاش کرنے کے ساتھ ساتھ بنیادی وجہ کی تحقیقات جاری رکھنے کی ضرورت پڑ سکتی ہے۔ بہر حال، یہ ماڈلز پیسہ کمانے والی مصنوعات ہیں اور انہیں قابل استعمال حالت میں ہونے کی ضرورت ہے۔ ایک خیال کسی قسم کی مجموعی مصنوعات بنانا ہوگا — ایک چیٹ انٹرفیس جس میں متعدد مختلف OpenAI ماڈلز تک رسائی ہو۔
جب کسی سوال کے لیے جدید استدلال کی ضرورت ہوتی ہے، تو یہ GPT-4o کو کال کرے گا، اور جب یہ فریب نظر کے امکانات کو کم کرنا چاہتا ہے، تو یہ کسی پرانے ماڈل جیسے o1 کو کال کرے گا۔ شاید کمپنی اس سے بھی زیادہ شوقین ہو سکے اور کسی ایک سوال کے مختلف عناصر کا خیال رکھنے کے لیے مختلف ماڈلز استعمال کر سکے، اور پھر آخر میں اسے ایک ساتھ جوڑنے کے لیے ایک اضافی ماڈل استعمال کر سکے۔ چونکہ یہ بنیادی طور پر متعدد AI ماڈلز کے درمیان ٹیم ورک ہوگا، اس لیے شاید کسی قسم کا حقائق کی جانچ پڑتال کا نظام بھی نافذ کیا جا سکے۔
درستگی کی شرح کو بڑھانا اصل مقصد نہیں ہے۔ اصل مقصد فریب نظر کی شرح کو کم کرنا ہے، جس کا مطلب ہے کہ ہمیں ان جوابات کو بھی اہمیت دینے کی ضرورت ہے جو کہتے ہیں ‘مجھے نہیں معلوم’ اور ساتھ ہی صحیح جوابات بھی۔
حقائق کی جانچ پڑتال کی اہمیت
AI ماڈلز میں فریب نظر کا بڑھتا ہوا پھیلاؤ حقائق کی جانچ پڑتال کی اہمیت کو اجاگر کرتا ہے۔ اگرچہ یہ ماڈلز معلومات کی بازیافت اور ٹاسک آٹومیشن کے لیے قیمتی ٹولز ہو سکتے ہیں، لیکن انہیں سچائی کے ناقابل تسخیر ذرائع کے طور پر نہیں سمجھا جانا چاہیے۔
AI ماڈلز کے آؤٹ پٹ کی تشریح کرتے وقت صارفین کو ہمیشہ احتیاط برتنی چاہیے اور انہیں موصول ہونے والی کسی بھی معلومات کی آزادانہ طور پر تصدیق کرنی چاہیے۔ یہ خاص طور پر اس وقت بہت ضروری ہے جب حساس یا اہم معاملات سے نمٹا جائے۔
AI سے تیار کردہ مواد کے لیے ایک تنقیدی اور شکوک و شبہات پر مبنی نقطہ نظر اختیار کر کے، ہم فریب نظر سے وابستہ خطرات کو کم کر سکتے ہیں اور اس بات کو یقینی بنا سکتے ہیں کہ ہم درست معلومات کی بنیاد پر باخبر فیصلے کر رہے ہیں۔ اگر آپ LLMs میں بڑے ہیں، تو انہیں استعمال کرنا بند کرنے کی کوئی ضرورت نہیں ہے — لیکن نتائج کی حقائق کی جانچ پڑتال کی ضرورت پر وقت بچانے کی خواہش کو غالب نہ آنے دیں۔ ہمیشہ حقائق کی جانچ پڑتال کریں!
AI کے مستقبل کے لیے مضمرات
فریب نظر کے چیلنج کے AI کے مستقبل کے لیے اہم مضمرات ہیں۔ جیسے جیسے AI ماڈلز ہماری زندگیوں میں زیادہ مربوط ہوتے جا رہے ہیں، یہ ضروری ہے کہ وہ قابل اعتماد اور قابل اعتماد ہوں۔ اگر AI ماڈلز جھوٹی یا گمراہ کن معلومات پیدا کرنے کا شکار ہیں، تو اس سے عوامی اعتماد ختم ہو سکتا ہے اور ان کے وسیع پیمانے پر اپنانے میں رکاوٹ پیدا ہو سکتی ہے۔
فریب نظر کے مسئلے کو حل کرنا نہ صرف AI ماڈلز کی درستگی کو بہتر بنانے کے لیے بہت ضروری ہے بلکہ ان کے اخلاقی اور ذمہ دارانہ استعمال کو یقینی بنانے کے لیے بھی بہت ضروری ہے۔ AI سسٹمز تیار کر کے جو فریب نظر کا شکار کم ہیں، ہم غلط معلومات اور دھوکہ دہی کے خطرات کو کم کرتے ہوئے ان کی نیکی کے لیے صلاحیت کو استعمال کر سکتے ہیں۔