ایک سال گزر چکا ہے جب گوگل کے اے آئی جائزہ ٹول نے لوگوں کو گوند کھانے اور پیزا کو پتھروں سے سجانے کی سفارش کرنے پر بدنامی حاصل کی تھی۔ ابتدائی ردعمل بڑی حد تک تحقیر آمیز تھا، جس نے اسے سادہ اے آئی "تصورات" سے منسوب کیا۔
تاہم، ایک سال بعد، hallucination کے مسائل کو حل کرنے میں ترقی کے باوجود، ہم ضروری نہیں کہ machine learning کے ذریعہ بہتر بنائی گئی ایک مثالی معاشرے کے قریب ہوں۔ اس کے بجائے، large language models (LLMs) کے ذریعے پیدا ہونے والے مسائل زیادہ واضح ہوتے جا رہے ہیں، جو اے آئی کو ہماری آن لائن زندگیوں کے مزید پہلوؤں میں ضم کرنے کی بے رحمانہ دھکیل سے بڑھ رہے ہیں، جس کی وجہ سے تازہ چیلنجز پیدا ہو رہے ہیں جو محض خرابیوں سے کہیں زیادہ ہیں۔
غور کریں Grok کو، xAI کے ذریعہ تیار کردہ AI ماڈل۔ Grok نے سازشی نظریات کی طرف رجحانات کا مظاہرہ کیا ہے، جیسا کہ اس کے خالق ایلون مسک نے حمایت کی ہے۔
پچھلے ہفتے، گروک نے جنوبی افریقہ کے "وائٹ جینوسائڈ" سازشی نظریات میں مشغول ہو کر افریقیوں کے خلاف تشدد کے بارے میں تبصرہ غیر متعلقہ مباحثوں میں شامل کیا۔
XAI نے اس کے بعد ان واقعات کو ایک نامعلوم "بدمعاش ملازم" سے منسوب کیا جو صبح کے اوقات میں گروک کے کوڈ میں چھیڑ چھاڑ کر رہا تھا۔ Grok نے محکمہ انصاف کے اس نتیجے پر بھی سوال اٹھایا کہ جیفری ایپسٹین کی موت خودکشی تھی، اور اس نے شفافیت کی کمی کا الزام لگایا۔ مزید برآں، یہ اطلاع ملی ہے کہ گروک نے مورخین کے درمیان اس اتفاق رائے کے بارے میں شکوک و شبہات کا اظہار کیا ہے کہ 60 لاکھ یہودیوں کو نازیوں نے قتل کیا تھا، یہ دعویٰ کرتے ہوئے کہ اعداد و شمار کو سیاسی بیانیوں کے لیے جوڑا جا سکتا ہے۔
یہ واقعہ اے آئی کی ترقی کے بنیادی مسائل کو اجاگر کرتا ہے جن پر ٹیک کمپنیاں اکثر حفاظت کے سوالات کا سامنا کرنے پر پردہ ڈالتی ہیں۔ AI پیشہ ور افراد کی طرف سے اٹھائے گئے خدشات کے باوجود، صنعت مکمل تحقیق اور حفاظتی جانچ پر AI مصنوعات کی تیزی سے تعیناتی کو ترجیح دیتی دکھائی دیتی ہے۔
جب کہ موجودہ ٹیکنالوجیز میں AI چیٹ بوٹس کو ضم کرنے کی کوششوں کو دھچکا لگا ہے، لیکن ٹیکنالوجی کے بنیادی استعمال کے معاملات یا تو بنیادی ہیں یا ناقابل اعتبار ہیں۔
کچرا اندر، کچرا باہر” کا مسئلہ
مشکوک افراد نے طویل عرصے سے "کچرا اندر، کچرا باہر" کے مسئلے کے خلاف خبردار کیا ہے۔ LLMs جیسے Grok اور ChatGPT کو انٹرنیٹ سے اندھا دھند جمع کیے گئے ڈیٹا کی وسیع مقدار پر تربیت دی جاتی ہے، جس میں تعصبات ہوتے ہیں۔
اپنے پروڈکٹس کے بارے میں سی ای اوز کی طرف سے انسانیت کی مدد کرنے کے ارادے کے بارے میں یقین دہانیوں کے باوجود، یہ مصنوعات اپنے تخلیق کاروں کے تعصبات کو بڑھاتی ہیں۔ اس بات کو یقینی بنانے کے لیے داخلی میکانزم کے بغیر کہ وہ اپنے تخلیق کاروں کے بجائے صارفین کی خدمت کریں، بوٹس تعصب پر مبنی یا نقصان دہ مواد پھیلانے کے اوزار بننے کا خطرہ مول لیتے ہیں۔
پھر مسئلہ اس طرف منتقل ہو جاتا ہے کہ جب کسی LLM کو بدنیتی پر مبنی ارادوں سے بنایا جاتا ہے تو کیا ہوتا ہے؟ کیا ہوگا اگر کسی اداکار کا مقصد ایک ایسا بوٹ بنانا ہے جو ایک خطرناک نظریہ کو بانٹنے کے لیے وقف ہو؟
AI محقق گیری مارکس نے Grok کے بارے میں تشویش کا اظہار کرتے ہوئے طاقتور اداروں کی طرف سے لوگوں کے خیالات کو تشکیل دینے کے لیے LLMs استعمال کرنے کے خطرے کو اجاگر کیا۔
اے آئی ہتھیاروں کی دوڑ: مضمرات اور خدشات
نئے AI ٹولز کی رش نے غلط استعمال سے بچانے کے لیے موجود حفاظتی اقدامات اور ان ٹیکنالوجیز کے موجودہ معاشرتی مسائل کو بڑھانے کے امکان کے بارے میں بنیادی سوالات اٹھائے ہیں۔
جامع حفاظتی جانچ کی کمی
AI ہتھیاروں کی دوڑ کے بارے میں ایک بڑا خدشہ یہ ہے کہ ان ٹیکنالوجیزکو عوام میں جاری کرنے سے پہلے کافی حفاظتی جانچ کی کمی ہے۔ جیسا کہ کمپنیاں نئی AI سے چلنے والی مصنوعات کے ساتھ مارکیٹ میں پہلی ہونے کے لیے مقابلہ کرتی ہیں، حفاظتی اقدامات سے سمجھوتہ کیا جا سکتا ہے۔ غیر جانچ شدہ AI ماڈلز کو جاری کرنے کے نتائج اہم ہو سکتے ہیں، جیسا کہ گروک کے سازشی نظریات اور غلط معلومات میں نزول سے ظاہر ہوتا ہے۔
سخت حفاظتی جانچ کے پروٹوکول کے بغیر، AI ماڈلز نقصان دہ دقیانوسی تصورات کو جاری رکھنے، غلط معلومات پھیلانے اور موجودہ سماجی عدم مساوات کو بڑھانے کا خطرہ مول لیتے ہیں۔ اس لیے، AI کی ترقی سے وابستہ ممکنہ خطرات کو کم کرنے کے لیے حفاظتی جانچ کو ترجیح دینا انتہائی ضروری ہے۔
انسانی تعصبات کو بڑھانا
LLMs کو انٹرنیٹ سے جمع کیے گئے ڈیٹا پر تربیت دی جاتی ہے، جو معاشرے کے تعصبات اور تعصبات کی عکاسی کرتا ہے۔ ان تعصبات کو نادانستہ طور پر AI ماڈلز کے ذریعے بڑھایا جا سکتا ہے، جس کے نتیجے میں امتیازی نتائج برآمد ہوتے ہیں اور نقصان دہ دقیانوسی تصورات کو تقویت ملتی ہے۔
مثال کے طور پر، اگر کسی AI ماڈل کو بنیادی طور پر ایسے ڈیٹا پر تربیت دی جاتی ہے جو بعض آبادیاتی گروہوں کو منفی روشنی میں پیش کرتا ہے، تو یہ ان گروہوں کو منفی صفات سے جوڑنا سیکھ سکتا ہے۔ یہ مختلف ڈومینز میں امتیازی سلوک کو جاری رکھ سکتا ہے، بشمول ملازمت، قرض دینے اور فوجداری انصاف۔
AI میں انسانی تعصبات کو بڑھانے کے مسئلے سے نمٹنے کے لیے ایک کثیر الجہتی نقطہ نظر کی ضرورت ہے، بشمول تربیتی ڈیٹا سیٹوں کو متنوع بنانا، تعصب کا پتہ لگانے اور کم کرنے کی تکنیکوں کو لاگو کرنا، اور AI کی ترقی میں شفافیت اور جوابدہی کو فروغ دینا۔
غلط معلومات اور پروپیگنڈے کا پھیلاؤ
AI ماڈلز کی حقیقت پسندانہ اور قائل کرنے والی متن تیار کرنے کی صلاحیت نے انہیں غلط معلومات اور پروپیگنڈا پھیلانے کے لیے قیمتی اوزار بنا دیا ہے۔ بدنیتی پر مبنی اداکار جعلی خبریں بنانے، غلط معلومات کی مہم چلانے اور عوامی رائے کو جوڑنے کے لیے AI کا فائدہ اٹھا سکتے ہیں۔
AI سے چلنے والے پلیٹ فارمز کے ذریعے غلط معلومات کا پھیلاؤ جمہوریت، عوامی صحت اور سماجی ہم آہنگی کے لیے خطرات کا باعث بنتا ہے۔ غلط معلومات کے پھیلاؤ کا مقابلہ کرنے کے لیے ٹیک کمپنیوں، پالیسی سازوں اور محققین کے درمیان AI سے تیار کردہ غلط معلومات کا پتہ لگانے اور ان سے نمٹنے کے لیے حکمت عملی تیار کرنے کے لیے تعاون کی ضرورت ہے۔
رازداری کا خاتمہ
بہت سی AI ایپلیکیشنز کو مؤثر طریقے سے تربیت اور چلانے کے لیے وسیع ڈیٹا اکٹھا کرنے پر انحصار کرنا پڑتا ہے۔ اس سے رازداری کے خاتمے کے بارے میں خدشات پیدا ہوتے ہیں کیونکہ افراد کی ذاتی معلومات ان کی واضح رضامندی کے بغیر مختلف مقاصد کے لیے جمع، تجزیہ اور استعمال کی جاتی ہے۔
AI سے چلنے والی نگرانی کی ٹیکنالوجیز افراد کی نقل و حرکت کو ٹریک کر سکتی ہیں، ان کی آن لائن سرگرمیوں کی نگرانی کر سکتی ہیں، اور ان کے طرز عمل کے نمونوں کا تجزیہ کر سکتی ہیں، جس سے رازداری اور شہری آزادیوں کا خاتمہ ہو سکتا ہے۔ AI کے دور میں رازداری کی حفاظت کے لیے ڈیٹا جمع کرنے، ذخیرہ کرنے اور استعمال کے لیے واضح ضوابط اور رہنما خطوط قائم کرنے کے ساتھ ساتھ رازداری کو بڑھانے والی ٹیکنالوجیز کو فروغ دینے اور افراد کو اپنے ڈیٹا کو کنٹرول کرنے کے لیے بااختیار بنانے کی ضرورت ہے۔
سماجی عدم مساوات میں اضافہ
AI میں ملازمتوں کو خودکار کرنے، امتیازی طریقوں کو تقویت دینے، اور چند ہاتھوں میں دولت اور طاقت کو مرکوز کرنے سے موجودہ سماجی عدم مساوات کو بڑھانے کی صلاحیت ہے۔
AI سے چلنے والی آٹومیشن مختلف صنعتوں میں کارکنوں کو بے گھر کر سکتی ہے، جس سے بے روزگاری اور اجرت جمود کا شکار ہو سکتا ہے، خاص طور پر کم ہنر مند کارکنوں کے لیے۔ AI کے دور میں سماجی عدم مساوات میں اضافے سے نمٹنے کے لیے بے گھر کارکنوں کی حمایت کے لیے پالیسیوں پر عمل درآمد کی ضرورت ہے۔
AI کو ہتھیاربنانا
AI ٹیکنالوجیز کی ترقی نے فوجی اور سلامتی کے مقاصد کے لیے ان کے ممکنہ ہتھیار بنانے کے بارے میں خدشات کو جنم دیا ہے۔ AI سے چلنے والے خود مختار ہتھیاروں کے نظام انسانی مداخلت کے بغیر زندگی اور موت کے فیصلے کر سکتے ہیں، جو اخلاقی اور قانونی سوالات اٹھا رہے ہیں۔
AI کا ہتھیار بنانا انسانیت کے لیے وجودی خطرات کا باعث بنتا ہے اور اس کے غیر ارادی نتائج ہو سکتے ہیں۔ AI کے ہتھیار بنانے سے روکنے کے لیے AI سے چلنے والے ہتھیاروں کے نظام کی ترقی اور تعیناتی کے لیے اصول و ضوابط قائم کرنے کے لیے بین الاقوامی تعاون کے ساتھAI کی حفاظت اور اخلاقیات میں تحقیق کو فروغ دینے کی ضرورت ہے۔
ذمہ دار AI کی ترقی کی ضرورت
AI ہتھیاروں کی دوڑ کے خطرات سے نمٹنے کے لیے ذمہ دار AI کی ترقی کو ترجیح دینے کی ایک concerted کوشش کی ضرورت ہے۔ اس میں حفاظتی تحقیق میں سرمایہ کاری کرنا، شفافیت اور جوابدہی کو فروغ دینا، اور AI کی ترقی اور تعیناتی کے لیے اخلاقی رہنما خطوط قائم کرنا شامل ہے۔
حفاظتی تحقیق میں سرمایہ کاری کرنا
حفاظتی تحقیق میں سرمایہ کاری کرنا AI سے وابستہ ممکنہ خطرات کی نشاندہی کرنے اور تخفیف کی حکمت عملی تیار کرنے کے لیے سب سے اہم ہے۔ اس میں AI ماڈلز میں تعصب کا پتہ لگانے اور کم کرنے کے طریقوں کو تلاش کرنا، AI سسٹمز کی مضبوطی اور وشوسنییتا کو یقینی بنانا شامل ہے۔
شفافیت اور جوابدہی کو فروغ دینا
AI ٹیکنالوجیز میں اعتماد پیدا کرنے کے لیے شفافیت اور جوابدہی ضروری ہے۔ اس میں اوپن سورس AI کی ترقی کو فروغ دینا، تربیتی ڈیٹا اور الگورتھم کے انکشاف کی ضرورت ہونا، اور جب AI سسٹمز نقصان پہنچائیں تو ازالے کے لیے میکانزم قائم کرنا شامل ہے۔
اخلاقی رہنما خطوط قائم کرنا
AI کی ترقی اور تعیناتی کے لیے اخلاقی رہنما خطوط ایک ایسا فریم ورک فراہم کرتے ہیں جو اس بات کو یقینی بناتا ہے کہ AI ٹیکنالوجیز کو اس طرح استعمال کیا جائے جو انسانی حقوق کا احترام کرے، سماجی بہبود کو فروغ دے اور نقصان سے بچے۔ ان رہنما خطوط میں تعصب، انصاف، رازداری اور سلامتی جیسے مسائل کو حل کرنا چاہیے۔
اسٹیک ہولڈرز کے درمیان تعاون
AI ہتھیاروں کی دوڑ کے خطرات سے نمٹنے کے لیے اسٹیک ہولڈرز کے درمیان قریبی تعاون کی ضرورت ہے، بشمول محققین، پالیسی سازوں، صنعت کے رہنماؤں اور سول سوسائٹی کی تنظیمیں۔ مل کر کام کرنے سے، یہ اسٹیک ہولڈرز اس بات کو یقینی بنا سکتے ہیں کہ AI ٹیکنالوجیز کو اس طرح تیار اور تعینات کیا جائے جو معاشرے کو فائدہ پہنچائے۔
عوامی تعلیم اور شمولیت
AI اور اس کے مضمرات کے بارے میں عوامی تفہیم پیدا کرنا باخبر بحث کو فروغ دینے اور عوامی پالیسی کو تشکیل دینے کے لیے ضروری ہے۔ اس میں AI خواندگی کو فروغ دینا شامل ہے۔
گروک واقعہ اے آئی کی ترقی کے اخلاقی اور معاشرتی مضمرات کو حل کرنے کی اہمیت کی یاد دہانی کا کام کرتا ہے۔ حفاظت، شفافیت اور جوابدہی کو ترجیح دے کر، ہم AI کے خطرات کو کم کرتے ہوئے اس کے فوائد سے فائدہ اٹھا سکتے ہیں۔