معلومات کی تصدیق میں AI کا عروج
سوشل میڈیا پلیٹ فارمز میں AI کا انضمام کوئی نئی بات نہیں ہے۔ X کا xAI کے Grok کے ساتھ صارفین کو بات چیت کرنے کی اجازت دینے کا اقدام، کچھ طریقوں سے، محض ایک رجحان کی پیروی کرنا ہے۔ یہ Perplexity کے نقطہ نظر کی عکاسی کرتا ہے، جو اسی طرح کا تجربہ پیش کرنے کے لیے X پر ایک خودکار اکاؤنٹ چلاتا ہے۔
xAI نے X پر Grok کی خودکار موجودگی قائم کرنے کے بعد، صارفین نے تیزی سے اس کی صلاحیتوں کو تلاش کرنا شروع کر دیا، سوالات پوچھنا اور جوابات تلاش کرنا۔ ہندوستان جیسے خطوں میں، ایک خاص طور پر پریشان کن نمونہ سامنے آیا: لوگوں نے Grok کا استعمال تبصروں اور سوالات کی تصدیق کے لیے کرنا شروع کر دیا، جن میں سے بہت سے مخصوص سیاسی نظریات کو نشانہ بناتے تھے۔
انسانی فیکٹ چیکرز کے خدشات
Grok، اور درحقیقت اس قسم کے کسی بھی AI اسسٹنٹ پر، حقائق کی جانچ کے لیے انحصار کرنا سنگین تشویش کا باعث ہے۔ ان AI بوٹس کی فطرت ہی یہ ہے کہ وہ ایسے جوابات تشکیل دے سکتے ہیں جو قائل لگتے ہوں، قطع نظر اس کے کہ وہ حقیقت میں کتنے درست ہیں۔ یہ کوئی نظریاتی تشویش نہیں ہے۔ Grok کا جعلی خبریں اور غلط معلومات پھیلانے کا ایک دستاویزی ریکارڈ ہے۔
ایک قابل ذکر واقعہ پیش آیا، جہاں کئی ریاستی سیکرٹریوں نے Musk سے Grok میں اہم ترامیم کرنے کی درخواست کی۔ یہ فوری درخواست AI اسسٹنٹ کی جانب سے پیدا کردہ گمراہ کن معلومات کے منظر عام پر آنے کے بعد کی گئی تھی، جس نے انتخابات سے قبل سوشل نیٹ ورکس پر خطرے کی گھنٹی بجا دی تھی۔
Grok اس میں اکیلا نہیں ہے۔ دیگر نمایاں چیٹ بوٹس، بشمول OpenAI کے ChatGPT اور Google کے Gemini، بھی انتخابات سے متعلق غلط معلومات فراہم کرتے پائے گئے۔ ڈس انفارمیشن ریسرچرز نے 2023 میں انکشاف کیا کہ ChatGPT جیسے AI چیٹ بوٹس کو گمراہ کن بیانیے پر مشتمل قائل کرنے والے متن تیار کرنے کے لیے آسانی سے استعمال کیا جا سکتا ہے۔
صداقت کا وہم
Poynter میں انٹرنیشنل فیکٹ چیکنگ نیٹ ورک (IFCN) کی ڈائریکٹر، Angie Holan نے بنیادی مسئلے کو بیان کرتے ہوئے کہا، “AI اسسٹنٹس، جیسے Grok، وہ قدرتی زبان استعمال کرنے میں بہت اچھے ہیں اور ایسا جواب دیتے ہیں جو ایسا لگتا ہے جیسے کسی انسان نے کہا ہو۔ اور اس طرح، AI پروڈکٹس میں فطری پن اور مستند آواز والے جوابات کا یہ دعویٰ ہوتا ہے، یہاں تک کہ جب وہ ممکنہ طور پر بہت غلط ہوں۔ یہاں خطرہ یہی ہوگا۔”
جیسا کہ Holan نے روشنی ڈالی ہے، خطرہ صداقت کی دھوکہ دہی والی ظاہری شکل میں ہے۔ AI کی انسانی زبان کی نقل کرنے کی صلاحیت اعتبار کا ایک وہم پیدا کرتی ہے، یہاں تک کہ جب بنیادی معلومات ناقص ہوں یا مکمل طور پر من گھڑت ہوں۔
بنیادی فرق: AI بمقابلہ انسانی فیکٹ چیکرز
AI اسسٹنٹس اور انسانی فیکٹ چیکرز کے درمیان فرق واضح ہے۔ انسانی فیکٹ چیکرز معلومات کی باریک بینی سے تصدیق کرتے ہیں، متعدد، معتبر ذرائع سے استفادہ کرتے ہیں۔ وہ شفافیت کے ساتھ کام کرتے ہیں، اپنے ناموں اور تنظیمی وابستگیوں کو اپنے نتائج کے ساتھ منسلک کرتے ہیں، اس طرح احتساب کو یقینی بناتے ہیں اور ساکھ کو بڑھاتے ہیں۔
بھارت کی غیر منافع بخش فیکٹ چیکنگ ویب سائٹ Alt News کے شریک بانی، Pratik Sinha نے نشاندہی کی کہ اگرچہ Grok کے جوابات فی الحال قائل کن دکھائی دے سکتے ہیں، لیکن اس کی درستگی بنیادی طور پر اس ڈیٹا سے محدود ہے جو اسے موصول ہوتا ہے۔ انہوں نے ڈیٹا سورس کی شفافیت کے اہم مسئلے کو اجاگر کرتے ہوئے کہا، “کون فیصلہ کرے گا کہ اسے کون سا ڈیٹا فراہم کیا جائے گا، اور یہیں پر حکومتی مداخلت وغیرہ سامنے آئے گی۔”
Sinha نے زور دے کر کہا کہ شفافیت کا فقدان ممکنہ نقصان کا باعث بنتا ہے۔ “کوئی بھی چیز جس میں شفافیت کا فقدان ہو نقصان کا باعث بنے گی کیونکہ جس چیز میں شفافیت کا فقدان ہو اسے کسی بھی طرح سے ڈھالا جا سکتا ہے۔”
Grok کا اپنا اعتراف: غلط استعمال کا امکان
ایک ستم ظریفی موڑ میں، X پر Grok کے اکاؤنٹ نے، اپنے پوسٹ کردہ جوابات میں سے ایک میں، تسلیم کیا کہ اسے “غلط استعمال کیا جا سکتا ہے – غلط معلومات پھیلانے اور رازداری کی خلاف ورزی کرنے کے لیے۔”
اس اعتراف کے باوجود، خودکار اکاؤنٹ اپنے جوابات وصول کرنے والے صارفین کو کوئی ڈس کلیمر فراہم کرنے میں ناکام رہتا ہے۔ یہ بھول صارفین کو غلط معلومات کا شکار ہونے کا خطرہ چھوڑ دیتی ہے، خاص طور پر ان معاملات میں جہاں AI نے جواب کو “hallucinate” کیا ہو، AI کے میدان میں ایک اچھی طرح سے دستاویزی واقعہ جہاں سسٹم غلط یا بے معنی معلومات پیدا کرتا ہے۔
ڈیجیٹل فیوچرز لیب کی ریسرچ ایسوسی ایٹ، Anushka Jain نے اس نکتے کی وضاحت کرتے ہوئے کہا، “یہ جواب فراہم کرنے کے لیے معلومات بنا سکتا ہے۔” معلومات گھڑنے کا یہ رجحان حقائق کی جانچ کے تناظر میں AI کی موروثی حدود کو واضح کرتا ہے۔
ٹریننگ ڈیٹا کا مسئلہ
ایک اور پیچیدگی Grok کے ٹریننگ ڈیٹا کے سوال سے پیدا ہوتی ہے۔ اس بارے میں غیر یقینی صورتحال ہے کہ Grok کس حد تک X پر پوسٹس کو ٹریننگ مواد کے طور پر استعمال کرتا ہے، اور ایسی پوسٹس کی حقائق کی جانچ کے لیے استعمال کیے جانے والے کوالٹی کنٹرول کے اقدامات، اگر کوئی ہیں تو۔ پہلے نافذ کی گئی ایک تبدیلی نے Grok کو X صارف کے ڈیٹا تک ڈیفالٹ رسائی دی تھی، جس سے AI کے پلیٹ فارم پر موجود غلط معلومات کو جذب کرنے اور پھیلانے کے امکانات کے بارے میں خدشات پیدا ہوئے۔
AI سے تیار کردہ معلومات کا عوامی بمقابلہ نجی استعمال
ایک اور اہم تشویش سوشل میڈیا پلیٹ فارمز پر Grok جیسے AI اسسٹنٹس کی عوامی نوعیت کے گرد گھومتی ہے۔ ChatGPT جیسے چیٹ بوٹس کے ساتھ بات چیت کے برعکس، جو عام طور پر نجی ماحول میں ہوتی ہے، Grok کے جوابات عوامی طور پردیے جاتے ہیں۔
یہ عوامی پھیلاؤ ایسی صورتحال پیدا کرتا ہے جہاں، یہاں تک کہ اگر ایک صارف کو معلوم ہو کہ AI کی فراہم کردہ معلومات غلط ہو سکتی ہے، پلیٹ فارم پر موجود دیگر صارفین اسے پھر بھی سچ سمجھ سکتے ہیں۔ یہ سنگین سماجی نتائج کا باعث بن سکتا ہے۔
تاریخی مثالیں موجود ہیں۔ مثال کے طور پر، ہندوستان نے WhatsApp کے ذریعے پھیلائی جانے والی غلط معلومات کی وجہ سے ہجوم کے ہاتھوں تشدد کے المناک واقعات دیکھے۔ یہ واقعات، اگرچہ Generative AI کی وسیع پیمانے پر دستیابی سے پہلے کے ہیں، لیکن بے لگام غلط معلومات کے حقیقی دنیا کے خطرات کی ایک سخت یاد دہانی کے طور پر کام کرتے ہیں۔ GenAI کی آمد، اپنی مصنوعی مواد تیار کرنے کی صلاحیت کے ساتھ جو کہ حیرت انگیز طور پر حقیقت پسندانہ دکھائی دیتا ہے، نے ان خطرات کو مزید بڑھا دیا ہے۔
AI کی غلطی کی شرح
IFCN کی Holan نے خبردار کیا کہ، “اگر آپ ان Grok جوابات میں سے بہت سے دیکھتے ہیں، تو آپ کہیں گے، ارے، ٹھیک ہے، ان میں سے زیادہ تر درست ہیں، اور ایسا ہو سکتا ہے، لیکن کچھ ایسے ہوں گے جو غلط ہوں گے۔ اور کتنے؟ یہ کوئی چھوٹا حصہ نہیں ہے۔ کچھ تحقیقی مطالعات سے پتہ چلتا ہے کہ AI ماڈلز 20% غلطی کی شرحوں سے مشروط ہیں… اور جب یہ غلط ہوتا ہے، تو یہ حقیقی دنیا کے نتائج کے ساتھ واقعی غلط ہو سکتا ہے۔”
Holan کی طرف سے اجاگر کردہ 20% غلطی کی شرح، ایک اہم اعداد و شمار ہے۔ یہ ان حالات میں AI کی موروثی عدم اعتماد کو واضح کرتا ہے جہاں حقائق کی درستگی کا مطالبہ کیا جاتا ہے۔ اور، جیسا کہ وہ زور دیتی ہیں، ان غلطیوں کے نتائج گہرے ہو سکتے ہیں، جو ڈیجیٹل دائرے سے بہت آگے تک پھیلے ہوئے ہیں۔
AI: ایک ٹول، انسانی فیصلے کا متبادل نہیں
جبکہ AI کمپنیاں، بشمول xAI، مسلسل اپنے ماڈلز کو زیادہ انسانی جیسی بات چیت حاصل کرنے کے لیے بہتر بناتی ہیں، بنیادی حقیقت یہ ہے کہ: AI انسانی فیصلے کی جگہ نہیں لے سکتا، اور نہ ہی اسے لینا چاہیے، خاص طور پر حقائق کی جانچ کے اہم شعبے میں۔
ٹیک کمپنیوں میں انسانی فیکٹ چیکرز پر انحصار کم کرنے کے راستے تلاش کرنے کا رجحان تشویش کا باعث ہے۔ X اور Meta جیسے پلیٹ فارمز نے “کمیونٹی نوٹس” جیسے اقدامات کی مثال دیتے ہوئے، کراؤڈ سورسڈ فیکٹ چیکنگ کے تصور کو اپنایا ہے۔ یہ تبدیلیاں، اگرچہ ممکنہ طور پر کچھ فوائد پیش کرتی ہیں، لیکن سخت فیکٹ چیکنگ کے معیارات کے ممکنہ خاتمے کے بارے میں بھی سوالات اٹھاتی ہیں۔
انسانی فیکٹ چیکنگ کی طرف واپسی؟
Alt News کے Sinha نے ایک پرامید نظریہ پیش کیا، یہ تجویز کرتے ہوئے کہ لوگ بالآخر مشینوں کے آؤٹ پٹ اور انسانی فیکٹ چیکرز کے کام کے درمیان فرق کرنا سیکھ جائیں گے، بالآخر مؤخر الذکر کی درستگی اور وشوسنییتا کو اہمیت دیں گے۔
IFCN کی Holan نے پیش گوئی کی، “ہم بالآخر فیکٹ چیکنگ کی طرف زیادہ جھکاؤ دیکھیں گے۔”
تاہم، انہوں نے خبردار کیا کہ اس دوران، فیکٹ چیکرز کو AI سے تیار کردہ معلومات کے تیزی سے پھیلاؤ کی وجہ سے کام کے بوجھ میں اضافے کا سامنا کرنا پڑے گا۔ چیلنج غلط معلومات کے سیلاب کا مؤثر طریقے سے مقابلہ کرنا ہوگا، اس بات کو یقینی بنانا کہ عوام کو سچائی سے آگاہ کیا جائے، نہ کہ قائل کرنے والے وہموں سے۔
بنیادی سوال: سچائی کی پرواہ کرنا
معاملے کے مرکز میں ایک بنیادی سوال ہے: “کیا آپ واقعی اس بات کی پرواہ کرتے ہیں کہ اصل میں کیا سچ ہے یا نہیں؟ کیا آپ صرف ایسی چیز کا دکھاوا ڈھونڈ رہے ہیں جو سچ لگتی اور محسوس ہوتی ہے بغیر اصل میں سچ ہوئے؟ کیونکہ AI اسسٹنس آپ کو یہی دے گا۔” Holan نے کہا۔
یہ سوال معلومات کی ترسیل میں AI کے عروج سے پیدا ہونے والی اہم الجھن کو سمیٹتا ہے۔ کیا ہم، ایک معاشرے کے طور پر، سہولت اور سچائی کی ظاہری شکل کو حقائق کی تصدیق کے محنت طلب عمل پر ترجیح دینے کے لیے تیار ہیں؟ اس سوال کا جواب بالآخر معلومات کے مستقبل کو تشکیل دے گا، اس بات کا تعین کرے گا کہ آیا ہم تیار کردہ حقائق کی دنیا کے سامنے جھک جاتے ہیں یا سچائی اور درستگی کے اصولوں کو برقرار رکھتے ہیں۔