مصنوعی ذہانت: فیصلہ سازی میں انسانی نقائص کا آئینہ دار
حالیہ تحقیقات نے مصنوعی ذہانت (AI) کے ایک دلچسپ لیکن تشویشناک پہلو کو اجاگر کیا ہے: اس کا انسانی فیصلہ سازی میں نظر آنے والے غیر منطقی رجحانات کا شکار ہونا۔ اس انکشاف نے AI کے بارے میں روایتی تصور کو ایک معروضی اور غیر جانبدار آلے کے طور پر چیلنج کیا ہے، جس سے مختلف ایپلی کیشنز میں اس کی عملی افادیت کا دوبارہ جائزہ لینے کی ضرورت ہے۔
ایک اہم مطالعہ نے انسانی نفسیات میں رائج علمی تعصبات کے ایک طیف میں ایک نمایاں AI نظام، ChatGPT کے رویے کا باریک بینی سے جائزہ لیا۔ مینوفیکچرنگ اینڈ سروس آپریشنز مینجمنٹ نامی معتبر جریدے میں شائع ہونے والی تحقیق کے نتائج سے پتہ چلا کہ ChatGPT نے تقریباً نصف جانچے گئے منظرناموں میں متعدد غیر منطقی فیصلہ سازی کے نمونے دکھائے۔ ان نمونوں میں گرم ہاتھ کی غلطی، بنیادی شرح سے غفلت، اور ڈوبی ہوئی لاگت کی غلطی جیسے دستاویزی تعصبات شامل ہیں، جو اہم فیصلہ سازی کے سیاق و سباق میں AI کی وشوسنییتا اور مناسبیت کے بارے میں اہم خدشات کو جنم دیتے ہیں۔
AI میں انسانی جیسی خامیوں کا انکشاف
کینیڈا اور آسٹریلیا میں پھیلے ہوئے پانچ ممتاز تعلیمی اداروں کے ماہرین کے کنسورشیم کی طرف سے کی گئی تحقیق نے OpenAI کے GPT-3.5 اور GPT-4 کی کارکردگی کا سختی سے جائزہ لیا، جو کہ بڑے لسانی ماڈلز (LLMs) ہیں جو ChatGPT کو طاقت دیتے ہیں۔ مطالعہ کے جامع تجزیے سے یہ بات سامنے آئی کہ ان LLMs کے استدلال کے عمل میں "متاثر کن مستقل مزاجی" کے باوجود، وہ انسانی جیسی خامیوں اور تعصبات سے محفوظ نہیں ہیں۔
مصنفین نے ہوشیاری سے اس بات پر روشنی ڈالی کہ AI نظاموں کے اندر یہ موروثی مستقل مزاجی فوائد اور نقصانات دونوں پیش کرتی ہے۔ اگرچہ مستقل مزاجی واضح، فارمولک حل کے ساتھ کاموں کو ہموار کر سکتی ہے، لیکن جب اسے موضوعی یا ترجیحی فیصلوں پر لاگو کیا جائے تو یہ ممکنہ خطرات لاحق کرتی ہے۔ ایسے منظرناموں میں، AI کے ذریعے انسانی تعصبات کی نقل تیار کرنے سے ناقص نتائج اور متعصبانہ نتائج برآمد ہو سکتے ہیں۔
یانگ چن، جو اس مطالعے کے مرکزی مصنف اور آئیوی بزنس سکول میں آپریشنز مینجمنٹ کے اسسٹنٹ پروفیسر ہیں، نے AI ٹولز کے مناسب استعمال کو سمجھنے کی اہمیت پر زور دیا۔ انہوں نے خبردار کیا کہ اگرچہ AI درست حساب کتاب اور منطقی استدلال کی ضرورت والے کاموں میں بہترین کارکردگی کا مظاہرہ کرتا ہے، لیکن موضوعی فیصلہ سازی کے عمل میں اس کے استعمال کے لیے محتاط غور و فکر اور چوکس نگرانی کی ضرورت ہے۔
AI میں انسانی تعصبات کی نقالی
AI نظاموں کے اندر انسانی تعصبات کی موجودگی کی گہرائی میں جانے کے لیے، محققین نے تجربات کا ایک سلسلہ تیار کیا جس میں عام طور پر معلوم انسانی تعصبات کی عکاسی کی گئی، جن میں خطرے سے گریز، خود اعتمادی، اور وقف اثر شامل ہیں۔ انہوں نے ChatGPT کو ان تعصبات کو متحرک کرنے کے لیے ڈیزائن کردہ اشارے پیش کیے اور اس بات کا تعین کرنے کے لیے AI کے ردعمل کا باریک بینی سے تجزیہ کیا کہ آیا یہ انسانوں کی طرح ایک ہی علمی جال میں پھنس جائے گا۔
سائنسدانوں نے LLMs کو روایتی نفسیات کے تجربات سے اخذ کردہ فرضی سوالات پیش کیے۔ ان سوالات کو حقیقی دنیا کی تجارتی ایپلی کیشنز کے تناظر میں ترتیب دیا گیا تھا، جو انوینٹری مینجمنٹ اور سپلائر مذاکرات جیسے شعبوں پر محیط تھے۔ مقصد یہ معلوم کرنا تھا کہ کیا AI انسانی تعصبات کی تقلید کرے گا اور کیا ان تعصبات کے لیے اس کی حساسیت مختلف کاروباری ڈومینز میں برقرار رہے گی۔
نتائج سے پتہ چلا کہ GPT-4 نے اپنے پیشرو، GPT-3.5 سے واضح ریاضیاتی حل والے مسائل کو حل کرنے میں بہتر کارکردگی کا مظاہرہ کیا۔ GPT-4 نے ان منظرناموں میں کم غلطیاں دکھائیں جن میں احتمالات کے حساب کتاب اور منطقی استدلال کی ضرورت تھی۔ تاہم، موضوعی نقالیوں میں، جیسے کہ فائدہ حاصل کرنے کے لیے خطرناک آپشن کا تعاقب کرنے کا فیصلہ کرنا، چیٹ بوٹ نے اکثر انسانوں کی طرف سے ظاہر کی جانے والی غیر منطقی ترجیحات کی عکاسی کی۔
AI کی یقینیت کے لیے ترجیح
خاص طور پر، مطالعے سے یہ بات سامنے آئی کہ "GPT-4 یقینیت کے لیے اس سے بھی زیادہ مضبوط ترجیح دکھاتا ہے جتنا کہ انسان کرتے ہیں۔" یہ مشاہدہ AI کے مبہم کاموں کا سامنا کرنے پر محفوظ اور زیادہ متوقع نتائج کو ترجیح دینے کے رجحان کو اجاگر کرتا ہے۔ یقینیت کی طرف میلان بعض حالات میں فائدہ مند ہو سکتا ہے، لیکن یہ جدید حل تلاش کرنے یا غیر متوقع حالات کے مطابق ڈھالنے کی AI کی صلاحیت کو بھی محدود کر سکتا ہے۔
اہم بات یہ ہے کہ چیٹ بوٹس کا رویہ قابل ذکر حد تک مستقل رہا، اس سے قطع نظر کہ سوالات کو تجریدی نفسیاتی مسائل یا آپریشنل کاروباری عمل کے طور پر پیش کیا گیا۔ یہ مستقل مزاجی بتاتی ہے کہ مشاہدہ شدہ تعصبات محض یاد شدہ مثالوں کا نتیجہ نہیں تھے بلکہ اس بات کا ایک لازمی پہلو تھا کہ AI نظام کس طرح استدلال کرتے ہیں اور معلومات پر کارروائی کرتے ہیں۔ مطالعہ نے یہ نتیجہ اخذ کیا کہ AI کے ذریعے ظاہر کیے جانے والے تعصبات اس کے استدلال کے میکانزم کے اندر پیوست ہیں۔
مطالعے کے سب سے حیران کن انکشافات میں سے ایک یہ تھا کہ GPT-4 نے کبھی کبھار انسانی جیسی غلطیوں کو کس طرح بڑھایا۔ تصدیقی تعصب کے کاموں میں، GPT-4 نے مسلسل متعصبانہ جوابات دیے۔ مزید برآں، اس نے GPT 3.5 کے مقابلے میں گرم ہاتھ کی غلطی کی طرف زیادہ واضح رجحان کا مظاہرہ کیا، جو بے ترتیبی میں نمونے دیکھنے کے مضبوط رجحان کی نشاندہی کرتا ہے۔
تعصب سے بچنے کی مثالیں
دلچسپ بات یہ ہے کہ ChatGPT نے کچھ عام انسانی تعصبات سے بچنے کی صلاحیت کا مظاہرہ کیا، جن میں بنیادی شرح سے غفلت اور ڈوبی ہوئی لاگت کی غلطی شامل ہیں۔ بنیادی شرح سے غفلت اس وقت ہوتی ہے جب افراد قصص پارینہ یا کیس سے متعلق مخصوص معلومات کے حق میں شماریاتی حقائق کو نظر انداز کرتے ہیں۔ ڈوبی ہوئی لاگت کی غلطی اس وقت پیدا ہوتی ہے جب فیصلہ سازی ان اخراجات سے بے جا متاثر ہوتی ہے جو پہلے ہی اٹھائے جا چکے ہیں، جس سے عقلی فیصلے دھندلا جاتے ہیں۔
مصنفین کا کہنا ہے کہ ChatGPT کے انسانی جیسے تعصبات اس تربیتی ڈیٹا سے پیدا ہوتے ہیں جس سے یہ بے نقاب ہوتا ہے، جس میں علمی تعصبات اور ہیورسٹکس شامل ہیں جو انسان ظاہر کرتے ہیں۔ ان رجحانات کو ٹھیک ٹیوننگ کے عمل کے دوران مزید تقویت ملتی ہے، خاص طور پر جب انسانی رائے عقلی کے بجائے قابل فہم ردعمل کو ترجیح دیتی ہے۔ مبہم کاموں کے پیش نظر، AI براہ راست منطق پر مکمل طور پر انحصار کرنے کے بجائے انسانی استدلال کے نمونوں کی طرف مائل ہوتا ہے۔
AI کے تعصبات سے نمٹنا
AI کے تعصبات سے وابستہ خطرات کو کم کرنے کے لیے، محققین اس کے استعمال کے لیے ایک محتاط نقطہ نظر کی وکالت کرتے ہیں۔ وہ تجویز کرتے ہیں کہ AI کو ان علاقوں میں استعمال کیا جائے جہاں اس کی طاقتیں مضمر ہیں، جیسے کہ وہ کام جو درستگی اور غیر جانبدارانہ حساب کتاب کا مطالبہ کرتے ہیں، جیسا کہ کیلکولیٹر کے ذریعے انجام دیے جاتے ہیں۔ تاہم، جب نتیجہ موضوعی یا اسٹریٹجک ان پٹ پر منحصر ہوتا ہے، تو انسانی نگرانی سب سے اہم ہو جاتی ہے۔
چن نے اس بات پر زور دیا کہ "اگر آپ درست، غیر جانبدارانہ فیصلہ سازی کی حمایت چاہتے ہیں، تو GPT کو ان علاقوں میں استعمال کریں جہاں آپ پہلے ہی کیلکولیٹر پر بھروسہ کریں گے۔" انہوں نے مزید تجویز کیا کہ انسانی مداخلت، جیسے کہ معلوم تعصبات کو درست کرنے کے لیے صارف کے اشارے کو ایڈجسٹ کرنا، اس وقت ضروری ہے جب AI کو ایسے سیاق و سباق میں استعمال کیا جائے جس کے لیے باریک بینی سے فیصلے اور اسٹریٹجک سوچ کی ضرورت ہوتی ہے۔
مینا آندیاپن، جو اس مطالعے کی شریک مصنفہ اور کینیڈا کی میک ماسٹر یونیورسٹی میں انسانی وسائل اور مینجمنٹ کی ایسوسی ایٹ پروفیسر ہیں، AI کے ساتھ ایک ملازم کی طرح سلوک کرنے کی وکالت کرتی ہیں جو اہم فیصلے کرتا ہے۔ وہ اس بات پر زور دیتی ہیں کہ AI کو ذمہ داری اور مؤثر طریقے سے استعمال کرنے کو یقینی بنانے کے لیے نگرانی اور اخلاقی رہنما خطوط کی ضرورت ہے۔ ایسی رہنمائی فراہم کرنے میں ناکامی سے ناقص سوچ کی آٹومیشن ہو سکتی ہے، نہ کہ فیصلہ سازی کے عمل میں مطلوبہ بہتری۔
مضمرات اور غور و فکر
مطالعے کے نتائج کے مختلف شعبوں میں AI نظاموں کی ترقی اور تعیناتی کے لیے گہرے مضمرات ہیں۔ یہ انکشاف کہ AI انسانی جیسے تعصبات کا شکار ہے، اس بات پر زور دیتا ہے کہ مخصوص کاموں کے لیے اس کی مناسبیت کا احتیاط سے جائزہ لیا جائے اور ممکنہ خطرات کو کم کرنے کے لیے حفاظتی اقدامات کو نافذ کیا جائے۔
وہ تنظیمیں جو فیصلہ سازی کے لیے AI پر انحصار کرتی ہیں، انہیں تعصب کے امکان سے آگاہ ہونا چاہیے اور اس سے نمٹنے کے لیے اقدامات کرنے چاہئیں۔ اس میں تعصب کو کم کرنے کے لیے اضافی تربیتی ڈیٹا فراہم کرنا، ایسے الگورتھم استعمال کرنا جو تعصب کا شکار کم ہوں، یا یہ یقینی بنانے کے لیے انسانی نگرانی کو نافذ کرنا شامل ہو سکتا ہے کہ AI کے فیصلے منصفانہ اور درست ہوں۔
مطالعہ AI تعصب کے اسباب اور نتائج کے بارے میں مزید تحقیق کی ضرورت پر بھی روشنی ڈالتا ہے۔ AI نظام کس طرح تعصبات پیدا کرتے ہیں اس کی بہتر سمجھ حاصل کر کے، ہم انہیں پہلی جگہ پر ہونے سے روکنے کے لیے حکمت عملی تیار کر سکتے ہیں۔
ذمہ دار AI کے نفاذ کے لیے سفارشات
AI نظاموں کے ذمہ دار اور مؤثر نفاذ کو یقینی بنانے کے لیے، درج ذیل سفارشات پر غور کیا جانا چاہیے:
- تعیناتی سے پہلے ممکنہ تعصبات کے لیے AI نظاموں کا اچھی طرح سے جائزہ لیں۔ اس میں AI نظام کو مختلف ڈیٹا سیٹوں اور منظرناموں پر جانچنا شامل ہے تاکہ کسی بھی ایسے علاقے کی نشاندہی کی جا سکے جہاں یہ تعصب کا شکار ہو سکتا ہے۔
- تعصب کو کم کرنے کے لیے اضافی تربیتی ڈیٹا فراہم کریں۔ تربیتی ڈیٹا جتنا زیادہ متنوع اور نمائندہ ہوگا، AI نظام کے تعصب پیدا کرنے کا امکان اتنا ہی کم ہوگا۔
- ایسے الگورتھم استعمال کریں جو تعصب کا شکار کم ہوں۔ کچھ الگورتھم دوسروں کے مقابلے میں تعصب کا زیادہ شکار ہوتے ہیں۔ کسی خاص کام کے لیے الگورتھم کا انتخاب کرتے وقت، تعصب کے امکان پر غور کرنا ضروری ہے۔
- یہ یقینی بنانے کے لیے انسانی نگرانی کو نافذ کریں کہ AI کے فیصلے منصفانہ اور درست ہیں۔ انسانی نگرانی AI کے فیصلوں میں کسی بھی تعصب کی نشاندہی کرنے اور درست کرنے میں مدد کر سکتی ہے۔
- AI کے استعمال کے لیے واضح اخلاقی رہنما خطوط قائم کریں۔ ان رہنما خطوط میں انصاف، احتساب اور شفافیت جیسے مسائل کو حل کرنا چاہیے۔
ان سفارشات پر عمل کر کے، تنظیمیں اس بات کو یقینی بنا سکتی ہیں کہ AI نظاموں کو اس طرح استعمال کیا جائے جو فائدہ مند اور ذمہ دار دونوں ہو۔ اس تحقیق سے حاصل ہونے والی بصیرتیں ایک قیمتی یاد دہانی کا کام کرتی ہیں کہ اگرچہ AI میں بے پناہ وعدے موجود ہیں، لیکن اس کے نفاذ کے لیے احتیاط اور اخلاقی اصولوں کے عزم کے ساتھ رجوع کرنا بہت ضروری ہے۔ تبھی ہم AI کی مکمل صلاحیت سے فائدہ اٹھا سکتے ہیں اور اس کے ممکنہ خطرات سے محفوظ رہ سکتے ہیں۔