ایک حالیہ تحقیق میں موجودہ نسل کے جنریٹیو AI سرچ ٹولز میں ایک اہم خامی کا انکشاف ہوا ہے: وہ اکثر خبروں کے مضامین کے لیے درست حوالہ جات فراہم کرنے میں ناکام رہتے ہیں۔ یہ حد ان تیزی سے ترقی کرتی ہوئی ٹیکنالوجیز کی حدود کی ایک اہم یاد دہانی کا کام کرتی ہے، خاص طور پر جب سوشل میڈیا پلیٹ فارمز انہیں صارف کے تجربات میں تیزی سے ضم کر رہے ہیں۔
غلط حوالوں کا مسئلہ
دی ٹو سینٹر فار ڈیجیٹل جرنلزم نے یہ مطالعہ کیا، اور اس کے نتائج تشویشناک ہیں۔ تحقیق سے پتہ چلتا ہے کہ زیادہ تر نمایاں AI سرچ انجن خبروں کے مضامین کا صحیح حوالہ دینے میں جدوجہد کرتے ہیں۔ یہ ٹولز اکثر حوالہ جاتی لنکس گھڑ لیتے ہیں یا جب کسی ماخذ کے بارے میں پوچھا جاتا ہے تو وہ جواب فراہم نہیں کر پاتے۔
مطالعہ نے بصری طور پر ایک چارٹ میں مختلف AI چیٹ بوٹس کی کارکردگی کو ظاہر کیا، جس سے متعلقہ حوالہ جات فراہم کرنے میں اعتبار کی عمومی کمی ظاہر ہوئی۔ خاص طور پر، xAI کا Grok چیٹ بوٹ، جسے Elon Musk نے ‘سب سے زیادہ سچا’ AI قرار دیا ہے، اس سلسلے میں سب سے کم درست یا قابل بھروسہ وسائل میں سے ایک تھا۔
رپورٹ میں کہا گیا ہے:
“مجموعی طور پر، چیٹ بوٹس نے 60% سے زیادہ سوالات کے غلط جوابات دیے۔ مختلف پلیٹ فارمز پر، غلطی کی سطح مختلف تھی، Perplexity نے 37% سوالات کا غلط جواب دیا، جبکہ Grok میں غلطی کی شرح بہت زیادہ تھی، 94% سوالات کا غلط جواب دیا۔”
یہ مختلف AI ٹولز کی درستگی کی سطحوں میں ایک اہم فرق کو اجاگر کرتا ہے، کچھ دوسروں کے مقابلے میں کافی خراب کارکردگی کا مظاہرہ کرتے ہیں۔
ممنوعہ مواد تک رسائی
رپورٹ کے ذریعے بے نقاب کیا گیا ایک اور تشویشناک پہلو AI ٹولز کی ان ذرائع سے معلومات تک رسائی اور فراہم کرنے کی صلاحیت سے متعلق ہے جنہوں نے AI سکریپنگ کو روکنے کے لیے اقدامات کیے ہیں۔
رپورٹ میں کہا گیا ہے:
“بعض اوقات، چیٹ بوٹس نے یا تو غلط جواب دیا یا ان پبلشرز کے سوالات کا جواب دینے سے انکار کر دیا جنہوں نے انہیں اپنے مواد تک رسائی کی اجازت دی تھی۔ دوسری طرف، انہوں نے بعض اوقات ان پبلشرز کے بارے میں سوالات کا صحیح جواب دیا جن کے مواد تک انہیں رسائی نہیں ہونی چاہیے تھی۔”
یہ مشاہدہ بتاتا ہے کہ کچھ AI فراہم کنندگان robots.txt کمانڈز کا احترام نہیں کر رہے ہیں جو انہیں کاپی رائٹ شدہ مواد تک رسائی سے روکنے کے لیے بنائے گئے ہیں۔ یہ ان پابندیوں کو نظرانداز کرنے والے AI ٹولز کے اخلاقی اور قانونی مضمرات کے بارے میں سوالات اٹھاتا ہے۔
تحقیق کے لیے AI پر بڑھتا ہوا انحصار
بنیادی مسئلہ AI ٹولز پر بطور سرچ انجن بڑھتے ہوئے انحصار میں مضمر ہے، خاص طور پر نوجوان صارفین میں۔ بہت سے نوجوان اب ChatGPT کو اپنے بنیادی تحقیقی ٹول کے طور پر استعمال کرتے ہوئے بڑے ہو رہے ہیں۔ یہ رجحان خطرناک ہے، AI ٹولز کی درست معلومات فراہم کرنے اور صارفین کو اہم موضوعات پر قابل اعتماد طریقے سے تعلیم دینے میں ظاہر ہونے والی غیر یقینی صورتحال کو دیکھتے ہوئے۔
تحقیقی نتائج ایک سخت یاد دہانی کا کام کرتے ہیں کہ AI سے تیار کردہ جوابات ہمیشہ قیمتی یا استعمال کے قابل بھی نہیں ہوتے ہیں۔ اصل خطرہ ان ٹولز کو حقیقی تحقیق کے متبادل اور علم کے شارٹ کٹ کے طور پر فروغ دینے میں ہے۔ خاص طور پر نوجوان صارفین کے لیے، یہ ایسے افراد کی ایک نسل کا باعث بن سکتا ہے جو کم باخبر، کم لیس، اور ممکنہ طور پر ناقص نظاموں پر بہت زیادہ انحصار کرتے ہیں۔
AI ایک ٹول کے طور پر، حل نہیں
Mark Cuban، ایک مشہور بزنس مین، نے SXSW میں ایک سیشن کے دوران اس چیلنج کا مؤثر طریقے سے خلاصہ کیا۔ انہوں نے زور دیا:
“AI کبھی بھی جواب نہیں ہوتا۔ AI ٹول ہے۔ آپ کے پاس جو بھی مہارتیں ہیں، آپ AI کو ان کو بڑھانے کے لیے استعمال کر سکتے ہیں۔”
Cuban کا نقطہ نظر اس بات پر زور دیتا ہے کہ اگرچہ AI ٹولز فوائد پیش کر سکتے ہیں اور کارکردگی کو بڑھانے کی صلاحیت کے لیے ان کو تلاش کیا جانا چاہیے، لیکن وہ خود مختار حل نہیں ہیں۔
AI ویڈیو مواد تیار کر سکتا ہے، لیکن اس میں ایک زبردست بیانیہ تیار کرنے کی صلاحیت کا فقدان ہے، جو سب سے اہم عنصر ہے۔ اسی طرح، AI ایپ ڈویلپمنٹ میں مدد کے لیے کوڈ تیار کر سکتا ہے، لیکن یہ خود ایپ نہیں بنا سکتا۔
یہ حدود تنقیدی سوچ اور انسانی مہارت کے ناگزیر کردار کو اجاگر کرتی ہیں۔ AI آؤٹ پٹ بلاشبہ مختلف کاموں میں مدد کر سکتے ہیں، لیکن وہ انسانی ذہانت اور مہارت کی بنیادی ضرورت کو پورا نہیں کر سکتے۔
تنقیدی جائزہ اور مہارت کی ترقی کی ضرورت
تشویش، خاص طور پر اس تحقیق کے تناظر میں، یہ ہے کہ نوجوانوں کو یہ یقین دلایا جا رہا ہے کہ AI ٹولز حتمی جوابات فراہم کر سکتے ہیں۔ تاہم، مطالعہ، متعدد دیگر تحقیقی کوششوں کے ساتھ، مسلسل یہ ظاہر کرتا ہے کہ AI اس میں خاص طور پر ماہر نہیں ہے۔
روایتی تحقیقی طریقوں کے متبادل کے طور پر AI کو فروغ دینے کے بجائے، توجہ افراد کو اس بارے میں تعلیم دینے پر ہونی چاہیے کہ یہ نظام ان کی موجودہ صلاحیتوں کو کیسے بڑھا سکتے ہیں۔ AI سے مؤثر طریقے سے فائدہ اٹھانے کے لیے، صارفین کے پاس سب سے پہلے مضبوط تحقیق اور تجزیاتی مہارتوں کے ساتھ ساتھ متعلقہ شعبوں میں مہارت ہونی چاہیے۔
مضمرات میں گہری غوطہ
اس تحقیق کے مضمرات غلط حوالوں کی فوری تشویش سے آگے بڑھتے ہیں۔ یہ دنیا کے بارے میں ہماری سمجھ کو تشکیل دینے میں AI کے کردار اور غلط معلومات کے تیزی سے پھیلنے کے امکان کے بارے میں وسیع تر سوالات اٹھاتا ہے۔
1. معلوماتی ذرائع پر اعتماد کا خاتمہ:
جب AI ٹولز مسلسل غلط یا من گھڑت حوالہ جات فراہم کرتے ہیں، تو یہ مجموعی طور پر معلوماتی ایکو سسٹم پر اعتماد کو ختم کر دیتا ہے۔ صارفین تمام ذرائع پر تیزی سے شک کرنے لگ سکتے ہیں، جس سے معتبر اور غیر معتبر معلومات میں فرق کرنا مشکل ہو جاتا ہے۔
2. تعلیم اور سیکھنے پر اثر:
تحقیق کے لیے AI ٹولز پر انحصار، خاص طور پر نوجوان صارفین میں، تعلیم اور سیکھنے پر نقصان دہ اثرات مرتب کر سکتا ہے۔ طلباء مضامین کی سطحی سمجھ پیدا کر سکتے ہیں، جس میں معلومات کا مؤثر طریقے سے جائزہ لینے کے لیے ضروری تنقیدی سوچ کی مہارتوں کا فقدان ہوتا ہے۔
3. AI ڈویلپرز کی اخلاقی ذمہ داریاں:
اس مطالعہ کے نتائج AI ڈویلپرز کی اخلاقی ذمہ داریوں کو اجاگر کرتے ہیں۔ انہیں اپنے سسٹمز میں درستگی اور شفافیت کو ترجیح دینی چاہیے اور اس بات کو یقینی بنانا چاہیے کہ AI ٹولز کو غلط معلومات پھیلانے یا معلوماتی ذرائع کی سالمیت کو نقصان پہنچانے کے لیے استعمال نہ کیا جائے۔
4. میڈیا لٹریسی اور تنقیدی سوچ کی ضرورت:
AI سے تیار کردہ مواد کے غلبے والے دور میں، میڈیا لٹریسی اور تنقیدی سوچ کی مہارتیں پہلے سے کہیں زیادہ اہم ہیں۔ افراد کو معلومات کا تنقیدی جائزہ لینے، تعصبات کی نشاندہی کرنے، اور معتبر اور غیر معتبر ذرائع کے درمیان فرق کرنے کے لیے لیس ہونا چاہیے۔
5. تحقیق اور معلومات کی بازیافت میں AI کا مستقبل:
تحقیق تحقیق اور معلومات کی بازیافت کے لیے AI ٹولز کی مسلسل ترقی اور بہتری کی ضرورت کو اجاگر کرتی ہے۔ اگرچہ AI ان شعبوں میں انقلاب لانے کی صلاحیت رکھتا ہے، لیکن موجودہ حدود کو دور کرنا اور اس بات کو یقینی بنانا بہت ضروری ہے کہ یہ ٹولز ذمہ داری اور اخلاقی طور پر استعمال ہوں۔
مخصوص خدشات پر توسیع
آئیے تحقیق کے ذریعے اٹھائے گئے کچھ مخصوص خدشات پر مزید غور کریں:
A. ‘وہم’ کا مسئلہ:
AI چیٹ بوٹس اپنی ‘وہم’ پیدا کرنے، یا مکمل طور پر من گھڑت معلومات پیدا کرنے کے رجحان کے لیے جانے جاتے ہیں۔ یہ خاص طور پر حوالوں کے تناظر میں مسئلہ ہے، جہاں درستگی سب سے اہم ہے۔ مطالعہ کا یہ نتیجہ کہ AI ٹولز اکثر حوالہ جاتی لنکس بناتے ہیں اس مسئلے کی سنگینی کو اجاگر کرتا ہے۔
B. تعصب کا مسئلہ:
AI ماڈلز کو وسیع ڈیٹا سیٹس پر تربیت دی جاتی ہے، جس میں تعصبات ہوسکتے ہیں جو سماجی تعصبات یا ترچھی ہوئی رائے کی عکاسی کرتے ہیں۔ یہ تعصبات AI کے جوابات میں ظاہر ہو سکتے ہیں، جس سے غلط یا گمراہ کن معلومات ملتی ہیں۔ یہ خاص طور پر تشویشناک ہے جب AI ٹولز کو حساس یا متنازعہ موضوعات پر تحقیق کے لیے استعمال کیا جاتا ہے۔
C. شفافیت کا مسئلہ:
بہت سے AI ماڈلز کے اندرونی کام اکثر مبہم ہوتے ہیں، جس سے یہ سمجھنا مشکل ہو جاتا ہے کہ وہ اپنے نتائج تک کیسے پہنچتے ہیں۔ شفافیت کی اس کمی کی وجہ سے سسٹم میں غلطیوں یا تعصبات کی نشاندہی کرنا اور ان کو درست کرنا مشکل ہو جاتا ہے۔
D. کاپی رائٹ کا مسئلہ:
مطالعہ کا یہ نتیجہ کہ کچھ AI ٹولز ان ذرائع سے مواد تک رسائی حاصل کرتے ہیں جنہوں نے انہیں بلاک کر دیا ہے کاپی رائٹ کے سنگین خدشات کو جنم دیتا ہے۔ AI ڈویلپرز کو دانشورانہ املاک کے حقوق کا احترام کرنا چاہیے اور اس بات کو یقینی بنانا چاہیے کہ ان کے ٹولز کو کاپی رائٹ کی خلاف ورزی کے لیے استعمال نہ کیا جائے۔
آگے کا راستہ: ذمہ دار AI ترقی اور تعلیم
آگے کے راستے کے لیے دو جہتی نقطہ نظر کی ضرورت ہے: ذمہ دار AI ترقی اور جامع تعلیم۔
1. ذمہ دار AI ترقی:
AI ڈویلپرز کو اپنے سسٹمز کے ڈیزائن اور نفاذ میں درستگی، شفافیت، اور اخلاقی تحفظات کو ترجیح دینی چاہیے۔ اس میں شامل ہے:
- حوالہ کی درستگی کو بہتر بنانا: AI ٹولز کو درست اور قابل تصدیق حوالہ جات فراہم کرنے کو یقینی بنانے کے لیے تکنیک تیار کرنا۔
- تعصب سے نمٹنا: AI ماڈلز میں تعصب کو کم کرنے اور اس بات کو یقینی بنانے کے لیے طریقے نافذ کرنا کہ وہ منصفانہ اور متوازن معلومات فراہم کریں۔
- شفافیت میں اضافہ: AI ماڈلز کو زیادہ شفاف اور قابل فہم بنانا، صارفین کو یہ سمجھنے کی اجازت دینا کہ وہ اپنے نتائج تک کیسے پہنچتے ہیں۔
- کاپی رائٹ کا احترام: اس بات کو یقینی بنانا کہ AI ٹولز دانشورانہ املاک کے حقوق کا احترام کرتے ہیں اور اجازت کے بغیر کاپی رائٹ شدہ مواد تک رسائی یا استعمال نہیں کرتے ہیں۔
2. جامع تعلیم:
افراد، خاص طور پر نوجوانوں کو AI ٹولز کی صلاحیتوں اور حدود کے بارے میں تعلیم دی جانی چاہیے۔ اس میں شامل ہے:
- میڈیا لٹریسی کو فروغ دینا: تنقیدی سوچ کی مہارتیں اور مختلف ذرائع سے معلومات کا جائزہ لینے کی صلاحیت سکھانا۔
- تحقیقی مہارتوں پر زور دینا: روایتی تحقیقی طریقوں کی اہمیت اور معلومات کی آزادانہ طور پر تصدیق کرنے کی صلاحیت کو تقویت دینا۔
- AI کی حدود کو سمجھنا: صارفین کو AI کی غلط یا متعصب معلومات پیدا کرنے کی صلاحیت کے بارے میں تعلیم دینا۔
- ذمہ دارانہ استعمال کی حوصلہ افزائی: AI ٹولز کے ذمہ دارانہ اور اخلاقی استعمال کو فروغ دینا۔
ذمہ دار AI ترقی کو جامع تعلیم کے ساتھ ملا کر، ہم AI کی صلاحیت کو بروئے کار لا سکتے ہیں اور اس کے خطرات کو کم کر سکتے ہیں۔ مقصد ایک ایسا مستقبل بنانا ہے جہاں AI غلط معلومات اور الجھن کا ذریعہ بننے کے بجائے سیکھنے اور دریافت کے لیے ایک قیمتی ٹول کے طور پر کام کرے۔ اس مطالعہ کے نتائج آگے کے کام کی ایک اہم یاد دہانی فراہم کرتے ہیں۔ ایک حقیقی معنوں میں باخبر اور AI خواندہ معاشرے کی طرف سفر کے لیے مسلسل چوکسی، تنقیدی جائزہ، اور ذمہ دارانہ جدت طرازی کے عزم کی ضرورت ہے۔