درستگی کا بھرم
سرچ انجن کا بنیادی وعدہ صارفین کو معتبر ذرائع سے جوڑنا تھا۔ اب، یہ وعدہ ٹوٹ رہا ہے۔ AI سے چلنے والے سرچ ٹولز تیزی سے مادے پر رفتار کو ترجیح دے رہے ہیں، ایسے جوابات دے رہے ہیں جو بظاہر پراعتماد ہوں لیکن ان میں قابل تصدیق ثبوت کی ضروری حمایت کا فقدان ہے۔ ہم جو کچھ دیکھ رہے ہیں وہ ایک ایسے نظام سے تبدیلی ہے جو صارفین کو قابل بھروسہ معلومات کی رہنمائی کرتا ہے، ایسے نظام کی طرف جو جوابات تیار کرتا ہے، اکثر ان کی سچائی کا بہت کم خیال رکھتا ہے۔
یہ محض کبھی کبھار ہونے والی غلطیوں کا معاملہ نہیں ہے۔ یہ ایک نظامی مسئلہ ہے۔ کولمبیا جرنلزم ریویو (CJR) کے مطالعے سے پتہ چلتا ہے کہ AI سرچ انجن صرف غلطیاں نہیں کر رہے ہیں۔ وہ فعال طور پر قابل تصدیق ذرائع سے الگ ایک حقیقت تعمیر کر رہے ہیں۔ وہ ویب بھر سے مواد اکٹھا کر رہے ہیں، لیکن صارفین کو اصل ذرائع — ان ویب سائٹس کی طرف بھیجنے کے بجائے جو محنت سے معلومات تیار اور شائع کرتی ہیں — وہ فوری، اکثر من گھڑت جوابات فراہم کر رہے ہیں۔
ٹریفک کی کمی اور فرضی حوالے
اس نقطہ نظر کے نتائج دور رس ہیں۔ فوری اثر معلومات کے اصل ذرائع تک ٹریفک میں نمایاں کمی ہے۔ ویب سائٹس، نیوز آرگنائزیشنز، اور محققین جو مواد بنانے میں وقت اور وسائل لگاتے ہیں، وہ خود کو نظرانداز ہوتے ہوئے پا رہے ہیں۔ صارفین اپنے جوابات براہ راست AI سے حاصل کر رہے ہیں، انہیں ان سائٹس پر جانے کی ضرورت نہیں ہے جنہوں نے معلومات فراہم کی تھیں۔
ایک علیحدہ مطالعہ اس خطرناک رجحان کی تصدیق کرتا ہے، جس سے پتہ چلتا ہے کہ AI سے تیار کردہ سرچ کے نتائج اور چیٹ بوٹس سے کلک تھرو ریٹ روایتی سرچ انجن جیسے Google کے مقابلے میں کافی کم ہیں۔ اس کا مطلب ہے کہ آن لائن مواد کی لائف لائن — سامعین تک پہنچنے کی صلاحیت — آہستہ آہستہ دم توڑ رہی ہے۔
لیکن مسئلہ اس سے بھی زیادہ گہرا ہے۔ یہ AI ٹولز نہ صرف ذرائع کا حوالہ دینے میں ناکام ہو رہے ہیں۔ وہ اکثر فرضی حوالے بنا رہے ہیں۔ وہ غیر موجود ویب پیجز، یا ایسے URLs کے لنکس تیار کر رہے ہیں جو ٹوٹے ہوئے ہیں یا غیر متعلقہ ہیں۔ یہ ایک طالب علم کی طرح ہے جو ایک تحقیقی مقالہ لکھتا ہے اور اپنے دعووں کی حمایت کے لیے ذرائع ایجاد کرتا ہے۔ یہ صرف لاپرواہی نہیں ہے۔ یہ فکری ایمانداری کی بنیادی خلاف ورزی ہے۔
دھوکہ دہی میں ایک گہری غوطہ
CJR کے مطالعے نے کئی معروف AI سرچ ماڈلز کی کارکردگی کا باریک بینی سے تجزیہ کیا۔ نتائج انتہائی پریشان کن ہیں۔ Google کے Gemini اور xAI کے Grok 3 — AI سرچ کے منظر نامے میں دو نمایاں کھلاڑی — کے ذریعہ تیار کردہ نصف سے زیادہ حوالے من گھڑت یا ناقابل رسائی ویب پیجز کی طرف لے گئے۔ یہ کوئی معمولی خرابی نہیں ہے۔ یہ ایک نظامی ناکامی ہے۔
اور مسئلہ حوالوں سے آگے بڑھتا ہے۔ عام طور پر، چیٹ بوٹس 60 فیصد سے زیادہ معاملات میں غلط معلومات فراہم کرتے پائے گئے۔ جائزہ لیے گئے ماڈلز میں، Grok 3 بدترین مجرم کے طور پر سامنے آیا، جس کے 94 فیصد جوابات میں غلطیاں تھیں۔ Gemini، اگرچہ تھوڑا بہتر کارکردگی کا مظاہرہ کر رہا تھا، پھر بھی ہر دس کوششوں میں صرف ایک بار مکمل طور پر درست جواب فراہم کرنے میں کامیاب رہا۔ یہاں تک کہ Perplexity، جو آزمائشی ماڈلز میں سب سے زیادہ درست ثابت ہوا، پھر بھی 37 فیصد وقت غلط جوابات دیتا رہا۔
یہ نمبر صرف اعدادوشمار نہیں ہیں۔ وہ معلومات کی وشوسنییتا میں بنیادی خرابی کی نمائندگی کرتے ہیں۔ وہ تجویز کرتے ہیں کہ وہ ٹولز جو ہمیں ڈیجیٹل دنیا کی پیچیدگیوں کو سمجھنے میں مدد کرنے کے لیے بنائے گئے ہیں، درحقیقت، ہمیں گمراہ کر رہے ہیں۔
قوانین کو نظر انداز کرنا: روبوٹ ایکسکلوشن پروٹوکول
مطالعے کے مصنفین نے اس AI سے چلنے والے دھوکہ دہی کا ایک اور پریشان کن پہلو دریافت کیا۔ ایسا لگتا ہے کہ کئی AI ماڈلز جان بوجھ کر روبوٹ ایکسکلوشن پروٹوکول کو نظر انداز کر رہے ہیں۔ یہ پروٹوکول ایک معیاری، وسیع پیمانے پر اپنایا جانے والا طریقہ کار ہے جو ویب سائٹس کو یہ کنٹرول کرنے کی اجازت دیتا ہے کہ ان کی سائٹ کے کن حصوں تک خودکار بوٹس کے ذریعے رسائی اور سکریپ کیا جا سکتا ہے۔ یہ ویب سائٹس کے لیے اپنے مواد کی حفاظت اور اس کے استعمال کے طریقے کو منظم کرنے کا ایک طریقہ ہے۔
حقیقت یہ ہے کہ AI سرچ انجن اس پروٹوکول کو نظر انداز کر رہے ہیں سنگین اخلاقی سوالات اٹھاتے ہیں۔ یہ مواد تخلیق کاروں کے حقوق کے لیے بے توجہی اور اجازت کے بغیر آن لائن معلومات کا استحصال کرنے کی خواہش کا پتہ دیتا ہے۔ یہ رویہ ویب کی بنیادوں کو کمزور کرتا ہے، جو معلومات تک رسائی اور املاک دانش کے تحفظ کے درمیان ایک نازک توازن پر انحصار کرتا ہے۔
ماضی کی وارننگز کی بازگشت
CJR کے مطالعے کے نتائج الگ تھلگ نہیں ہیں۔ وہ نومبر 2024 میں شائع ہونے والے ایک سابقہ مطالعے سے گونجتے ہیں، جس میں ChatGPT کی تلاش کی صلاحیتوں پر توجہ مرکوز کی گئی تھی۔ اس پہلے کی تفتیش نے پراعتماد لیکن غلط جوابات، گمراہ کن حوالوں، اور ناقابل بھروسہ معلومات کی بازیافت کا ایک مستقل نمونہ ظاہر کیا۔ دوسرے لفظوں میں، CJR کی طرف سے شناخت کیے گئے مسائل نئے نہیں ہیں۔ وہ مستقل اور نظامی ہیں۔
اعتماد اور ایجنسی کا خاتمہ
ماہرین کچھ عرصے سے جنریٹیو AI کے خطرات کے بارے میں خطرے کی گھنٹی بجا رہے ہیں۔ Chirag Shah اور Emily M. Bender جیسے ناقدین نے خدشات کا اظہار کیا ہے کہ AI سرچ انجن صارف کی ایجنسی کو ختم کر رہے ہیں، معلومات تک رسائی میں تعصبات کو بڑھا رہے ہیں، اور اکثر گمراہ کن یا یہاں تک کہ زہریلے جوابات پیش کر رہے ہیں جنہیں صارفین بغیر کسی سوال کے قبول کر سکتے ہیں۔
بنیادی مسئلہ یہ ہے کہ یہ AI ماڈلز بظاہر مستند بنائے گئے ہیں، یہاں تک کہ جب وہ غلط ہوں۔ انہیں متن اور کوڈ کے وسیع ڈیٹا سیٹس پر تربیت دی جاتی ہے، اور وہ ایسے جوابات تیار کرنے کے قابل ہیں جو انسانی زبان کی قابل ذکر روانی کے ساتھ نقل کرتے ہیں۔ لیکن یہ روانی دھوکہ دہی ہو سکتی ہے۔ یہ اس حقیقت کو چھپا سکتی ہے کہ بنیادی معلومات ناقص، من گھڑت، یا محض غلط ہے۔
غلط معلومات کا طریقہ کار
CJR کے مطالعے میں 1,600 سوالات کا تفصیلی تجزیہ شامل تھا، جو اس بات کا موازنہ کرنے کے لیے ڈیزائن کیا گیا تھا کہ مختلف جنریٹیو AI سرچ ماڈلز نے معلومات کیسے حاصل کیں۔ محققین نے اہم عناصر جیسے کہ سرخیاں، پبلشرز، اشاعت کی تاریخیں، اور URLs پر توجہ مرکوز کی۔ انہوں نے ChatGPT Search, Microsoft CoPilot, DeepSeek Search, Perplexity (اور اس کا Pro ورژن), xAI’s Grok-2 اور Grok-3 Search, اور Google Gemini سمیت کئی ماڈلز کا تجربہ کیا۔
ٹیسٹنگ کا طریقہ کار سخت تھا۔ محققین نے 20 مختلف پبلشرز سے حاصل کردہ 10 بے ترتیب طور پر منتخب کردہ مضامین سے براہ راست اقتباسات استعمال کیے۔ اس نقطہ نظر نے اس بات کو یقینی بنایا کہ سوالات حقیقی دنیا کے مواد پر مبنی تھے اور یہ کہ ماڈلز کا جائزہ اس مواد کو درست طریقے سے بازیافت کرنے اور اس کی نمائندگی کرنے کی ان کی صلاحیت پر کیا جا رہا تھا۔
نتائج، جیسا کہ پہلے تفصیل سے بتایا گیا ہے، AI سے چلنے والی تلاش کی حالت کی ایک سنگین تصویر پیش کرتے ہیں۔ وہ ٹولز جو تیزی سے معلومات کے لیے ہمارے بنیادی گیٹ وے بن رہے ہیں، واضح طور پر ناقابل بھروسہ ہیں، من گھڑت ہونے کا شکار ہیں، اور اکثر ان ذرائع کا احترام نہیں کرتے جن پر وہ انحصار کرتے ہیں۔
معلومات کے مستقبل کے لیے مضمرات
اس وسیع پیمانے پر غلط معلومات کے مضمرات گہرے ہیں۔ اگر ہم ان ٹولز پر بھروسہ نہیں کر سکتے جو ہم معلومات تلاش کرنے کے لیے استعمال کرتے ہیں، تو ہم باخبر فیصلے کیسے کر سکتے ہیں؟ ہم بامعنی بحث میں کیسے حصہ لے سکتے ہیں؟ ہم طاقت کو کیسے جوابدہ ٹھہرا سکتے ہیں؟
AI سے چلنے والی تلاش کا عروج، اپنی موروثی خامیوں اور تعصبات کے ساتھ، ہمارے معلوماتی ماحولیاتی نظام کے تانے بانے کے لیے ایک اہم خطرہ ہے۔ یہ نیوز آرگنائزیشنز، محققین، اور دیگر مواد تخلیق کاروں کی ساکھ کو کمزور کرتا ہے۔ یہ اداروں پر عوامی اعتماد کو ختم کرتا ہے۔ اور یہ ان لوگوں کو بااختیار بناتا ہے جو غلط معلومات پھیلانے اور رائے عامہ کو جوڑ توڑ کرنے کی کوشش کرتے ہیں۔
ہمارے سامنے چیلنج صرف AI سرچ انجن کی درستگی کو بہتر بنانا نہیں ہے۔ یہ ڈیجیٹل دور میں معلومات کی تلاش کے لیے ہمارے نقطہ نظر پر بنیادی طور پر نظر ثانی کرنا ہے۔ ہمیں شفافیت، جوابدہی، اور معلومات کے ذرائع کے احترام کو ترجیح دینے کی ضرورت ہے۔ ہمیں ایسے ٹولز اور حکمت عملی تیار کرنے کی ضرورت ہے جو صارفین کو آن لائن ملنے والی معلومات کا تنقیدی جائزہ لینے کے لیے بااختیار بنائیں۔ اور ہمیں شک اور تنقیدی سوچ کے کلچر کو فروغ دینے کی ضرورت ہے، جہاں ہم صرف معلومات حاصل کرنے والے نہ ہوں، بلکہ سچائی کی تلاش میں سرگرم شریک ہوں۔ باخبر گفتگو کا مستقبل، اور شاید جمہوریت کا بھی، اس پر منحصر ہے۔
AI سے چلنے والی تلاش میں غلط معلومات کا بحران صرف ایک تکنیکی مسئلہ نہیں ہے۔ یہ ایک سماجی مسئلہ ہے۔ اس کے لیے ایک کثیر جہتی ردعمل کی ضرورت ہے، جس میں نہ صرف انجینئرز اور ڈویلپرز، بلکہ صحافی، ماہرین تعلیم، پالیسی ساز، اور عوام بھی شامل ہوں۔ ہمیں اجتماعی طور پر ایک زیادہ قابل بھروسہ، معتبر، اور شفاف معلوماتی ماحولیاتی نظام بنانے کے لیے کام کرنا چاہیے، جو جھوٹ پھیلانے والوں کی نہیں بلکہ باخبر شہریوں کی ضروریات کو پورا کرے۔
موجودہ رفتار غیر مستحکم ہے۔ اگر AI سرچ درستگی اور سچائی پر رفتار اور سہولت کو ترجیح دیتی رہی، تو ہم ایک ایسی دنیا بنانے کا خطرہ مول لیتے ہیں جہاں غلط معلومات کا راج ہو، اور جہاں معروضی حقیقت کا تصور تیزی سے مٹتا جائے۔ ایسا ہونے کی اجازت دینے کے لیے داؤ بہت زیادہ ہے۔