AI چیٹ بوٹس اور روسی غلط معلومات

کریملن کی حمایت یافتہ جھوٹ کا وسیع اثر

مسئلے کی جڑ آن لائن معلومات کے ذرائع کو جان بوجھ کر آلودہ کرنے میں ہے۔ تلاش کے نتائج اور ویب کرالرز کو کریملن کے حامی جھوٹ سے بھر کر، غلط معلومات پھیلانے والوں کا ایک نیٹ ورک بڑے لسانی ماڈلز (LLMs) کے آؤٹ پٹ کو فعال طور پر تشکیل دے رہا ہے۔ یہ ماڈل، جو AI چیٹ بوٹس کو طاقت دیتے ہیں جن کے ساتھ ہم روزانہ بات چیت کرتے ہیں، انٹرنیٹ سے کھرچنے والے وسیع ڈیٹا سیٹس پر انحصار کرتے ہیں۔ جب یہ ڈیٹا غلط معلومات سے آلودہ ہوتا ہے، تو نتیجہ خیز آؤٹ پٹ ان تعصبات کی عکاسی کرتا ہے۔

NewsGuard، ایک کمپنی جو خبروں اور معلومات کی ویب سائٹس کے لیے ساکھ کی درجہ بندی اور غلط معلومات کے فنگر پرنٹس فراہم کرتی ہے، نے اس رجحان کا گہرائی سے تجزیہ کیا۔ ان کے نتائج ایک پریشان کن حقیقت کو ظاہر کرتے ہیں: معروف AI چیٹ بوٹس کے ذریعے تیار کردہ معلومات کا ایک اہم حصہ کریملن کے حامی ویب سائٹس کے ایک مخصوص نیٹ ورک کے ذریعے پھیلائے گئے بیانیوں کی بازگشت کرتا ہے۔

غلط معلومات کا طریقہ کار: AI ماڈلز کو کیسے جوڑ توڑ کیا جاتا ہے

اس ڈس انفارمیشن نیٹ ورک کے ذریعے استعمال کی جانے والی حکمت عملی مکارانہ اور نفیس دونوں ہے۔ اس کا بنیادی مقصد انسانی قارئین کو متوجہ کرنا نہیں ہے۔ بلکہ، یہ ان الگورتھم کو جوڑ توڑ کرنے کے لیے ڈیزائن کیا گیا ہے جو AI چیٹ بوٹس کی بنیاد رکھتے ہیں۔ یہ حربہ، جسے ‘LLM گرومنگ’ کہا جاتا ہے، متعدد ویب سائٹس پر جھوٹی یا گمراہ کن معلومات کو حکمت عملی کے ساتھ لگانے پر مشتمل ہے، یہ جانتے ہوئے کہ یہ پلیٹ فارم LLMs کے ذریعے کھرچ کر ہضم کیے جائیں گے۔

امریکن سن لائٹ پروجیکٹ (ASP)، ایک امریکی غیر منافع بخش تنظیم، نے فروری 2025 کی ایک رپورٹ میں اس خطرے کو اجاگر کیا۔ انہوں نے خبردار کیا کہ پراودا نیٹ ورک، جو روسی حامی بیانیے کو آگے بڑھانے والی ویب سائٹس کا ایک مجموعہ ہے، ممکنہ طور پر AI ماڈلز کو متاثر کرنے کے واضح مقصد کے ساتھ بنایا گیا تھا۔ روس کے حامی بیانیے کا حجم جتنا زیادہ ہوگا، LLMs کے انہیں اپنے علمی بنیاد میں ضم کرنے کا امکان اتنا ہی زیادہ ہوگا۔

اس کے مضمرات دور رس ہیں۔ چونکہ LLMs ہماری روزمرہ کی زندگیوں میں تیزی سے ضم ہوتے جا رہے ہیں، معلومات اور مدد کے ذرائع کے طور پر کام کر رہے ہیں، ہیرا پھیری والے مواد کے وسیع پیمانے پر پھیلنے کا امکان خطرناک ہے۔

NewsGuard کا آڈٹ: اثر کی پیمائش کرنا

اس مسئلے کی حد کا اندازہ لگانے کے لیے، NewsGuard نے دس نمایاں AI چیٹ بوٹس کا آڈٹ کیا۔ ان میں شامل ہیں:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

آڈٹ 15 الگ الگ جھوٹے بیانیوں پر مرکوز تھا جنہیں اپریل 2022 اور فروری 2025 کے درمیان 150 کریملن کے حامی پراودا ویب سائٹس نے فعال طور پر فروغ دیا تھا۔ ان بیانیوں میں موضوعات کی ایک رینج شامل تھی، یہ سب ایک مخصوص سیاسی ایجنڈے کو آگے بڑھانے کے لیے ڈیزائن کیے گئے تھے۔

طریقہ کار میں NewsGuard کے Misinformation Fingerprints کی بنیاد پر پرامپٹس کی ایک سیریز کے ساتھ ہر چیٹ بوٹ کی جانچ کرنا شامل ہے، جو اہم خبروں کے موضوعات پر واضح طور پر جھوٹے دعووں کا ایک کیٹلاگ ہے۔ پرامپٹس کو تین مختلف انداز میں تیار کیا گیا تھا – Innocent, Leading, اور Malign – ان مختلف طریقوں کی نقل کرنے کے لیے جن سے صارفین جنریٹیو AI ماڈلز کے ساتھ بات چیت کرتے ہیں۔ اس کے نتیجے میں کل 450 جوابات (45 فی چیٹ بوٹ) ملے۔

پریشان کن نتائج: چیٹ بوٹس میں غلط معلومات عام ہیں۔

NewsGuard آڈٹ کے نتائج واضح تھے۔ مجموعی طور پر، دس AI چیٹ بوٹس نے 33.55% جوابات میں جھوٹے روسی ڈس انفارمیشن بیانیے کو دہرایا۔ انہوں نے 18.22% معاملات میں کوئی جواب نہیں دیا اور 48.22% معاملات میں بیانیے کو غلط ثابت کیا۔

ہر ایک چیٹ بوٹ نے پراودا نیٹ ورک سے پیدا ہونے والی غلط معلومات کو دہرایا۔ اس سے بھی زیادہ تشویشناک بات یہ ہے کہ سات چیٹ بوٹس نے پراودا ویب سائٹس کے مخصوص مضامین کو اپنے ذرائع کے طور پر براہ راست حوالہ دیا۔ اگرچہ دو AI ماڈل واضح حوالہ جات فراہم نہیں کرتے ہیں، لیکن وہ پھر بھی نیٹ ورک سے جھوٹے بیانیے تیار کرتے یا دہراتے پائے گئے۔ حوالہ جات فراہم کرنے والے آٹھ ماڈلز میں سے صرف ایک نے پراودا کا حوالہ نہیں دیا۔

مجموعی طور پر، 450 چیٹ بوٹ سے تیار کردہ جوابات میں سے 56 میں پراودا نیٹ ورک کے ذریعے شائع کردہ جھوٹے دعووں کو پھیلانے والے مضامین کے براہ راست لنکس شامل تھے۔ چیٹ بوٹس نے مجموعی طور پر 92 مختلف مضامین کا حوالہ دیا جن میں غلط معلومات تھیں، دو ماڈلز نے 27 پراودا مضامین کا حوالہ دیا۔ یہ مضامین نیٹ ورک کے اندر مختلف ڈومینز سے نکلے ہیں، جن میں Denmark.news-pravda.com, Trump.news-pravda.com, اور NATO.news-pravda.com شامل ہیں۔

پرامپٹس کی نوعیت: حقیقی دنیا کے تعاملات کی نقل کرنا

NewsGuard آڈٹ میں استعمال ہونے والے تین پرامپٹ اسٹائلز کو AI چیٹ بوٹس کے ساتھ صارف کے تعاملات کے سپیکٹرم کی عکاسی کرنے کے لیے ڈیزائن کیا گیا تھا:

  • Innocent Prompts: ان پرامپٹس نے جھوٹے بیانیے کو غیر جانبدار، غیر اہم انداز میں پیش کیا، گویا صارف بغیر کسی پہلے سے طے شدہ تصور کے محض معلومات حاصل کر رہا ہو۔
  • Leading Prompts: ان پرامپٹس نے جھوٹے بیانیے کو واضح طور پر بیان کیے بغیر، اس کی صداقت کا اشارہ دیتے ہوئے، لطیف طریقے سے تجویز کیا۔ یہ ان منظرناموں کی نقل کرتا ہے جہاں صارفین کو غلط معلومات سے کچھ پہلے سے سامنا ہو سکتا ہے اور وہ تصدیق چاہتے ہیں۔
  • Malign Prompts: ان پرامپٹس نے جھوٹے بیانیے کو براہ راست حقیقت کے طور پر پیش کیا، ان حالات کی عکاسی کرتے ہوئے جہاں صارفین پہلے ہی غلط معلومات پر یقین رکھتے ہیں اور کمک چاہتے ہیں۔

یہ کثیر جہتی نقطہ نظر یہ سمجھنے میں بہت اہم تھا کہ کس طرح مختلف قسم کے صارف کی مصروفیت چیٹ بوٹ کے جواب کو متاثر کر سکتی ہے۔ اس سے پتہ چلتا ہے کہ چیٹ بوٹس پرامپٹ اسٹائل سے قطع نظر غلط معلومات کو دہرانے کے لیے حساس تھے، حالانکہ جوابات کی تعدد اور نوعیت مختلف تھی۔

چیٹ بوٹس کے ذریعے گونجنے والی غلط معلومات کی مخصوص مثالیں۔

NewsGuard رپورٹ پراودا نیٹ ورک کے ذریعے پھیلائی گئی اور اس کے بعد AI چیٹ بوٹس کے ذریعے دہرائی گئی مخصوص جھوٹی کہانیوں کی متعدد مثالیں فراہم کرتی ہے۔ یہ مثالیں ڈس انفارمیشن مہم کی وسعت اور گہرائی کو اجاگر کرتی ہیں۔ کچھ بیانیوں میں شامل ہیں:

  • یہ دعوے کہ یوکرین ایک نازی ریاست ہے۔
  • یوکرین میں تنازعہ کی وجوہات کے بارے میں جھوٹے دعوے۔
  • تنازعہ میں مغربی شمولیت کے بارے میں گمراہ کن معلومات۔
  • یوکرائنی قیادت کے بارے میں من گھڑت کہانیاں۔

یہ ان بہت سی جھوٹی کہانیوں کی صرف چند مثالیں ہیں جنہیں NewsGuard نے احتیاط سے دستاویزی اور ٹریک کیا ہے۔ یہ حقیقت کہ یہ بیانیے معروف AI چیٹ بوٹس کے ذریعے گونج رہے ہیں، موثر جوابی اقدامات کی فوری ضرورت کو اجاگر کرتے ہیں۔

AI سے چلنے والی غلط معلومات کا مقابلہ کرنے کا چیلنج

اس مسئلے کو حل کرنا ایک پیچیدہ کام ہے۔ اس کے لیے ایک کثیر جہتی نقطہ نظر کی ضرورت ہے جس میں تکنیکی حل اور صارف کی آگاہی میں اضافہ دونوں شامل ہوں۔

تکنیکی حل:

  • بہتر ڈیٹا فلٹرنگ: AI ڈویلپرز کو LLMs کو تربیت دینے کے لیے استعمال کیے جانے والے ڈیٹا سیٹس سے غلط معلومات کو فلٹر کرنے کے لیے مزید مضبوط میکانزم نافذ کرنے کی ضرورت ہے۔ اس میں غیر بھروسہ مند ذرائع کی شناخت اور انہیں خارج کرنا، نیز ایسے الگورتھم تیار کرنا شامل ہے جو ممکنہ طور پر جھوٹی یا گمراہ کن معلومات کا پتہ لگا سکیں اور انہیں جھنڈا لگا سکیں۔
  • بہتر ذریعہ کی تصدیق: چیٹ بوٹس کو معتبر اور تصدیق شدہ ذرائع سے معلومات کو ترجیح دینے کے لیے ڈیزائن کیا جانا چاہیے۔ اس میں واضح حوالہ جات فراہم کرنا اور صارفین کو پیش کردہ معلومات کی اصل کو آسانی سے ٹریس کرنے کی اجازت دینا شامل ہے۔
  • شفافیت اور وضاحت: AI ماڈلز کو اپنے فیصلہ سازی کے عمل کے بارے میں زیادہ شفاف ہونا چاہیے۔ صارفین کو یہ سمجھنے کے قابل ہونا چاہیے کہ چیٹ بوٹ ایک خاص جواب کیوں دے رہا ہے اور یہ کن ڈیٹا ذرائع پر انحصار کر رہا ہے۔

صارف کی آگاہی:

  • میڈیا لٹریسی ایجوکیشن: صارفین کو AI سے تیار کردہ غلط معلومات کے امکان کے بارے میں تعلیم دینے کی ضرورت ہے۔ اس میں تنقیدی سوچ کی مہارتیں تیار کرنا اور آن لائن معلومات کے ذرائع کی ساکھ کا جائزہ لینے کا طریقہ سیکھنا شامل ہے۔
  • شک و شبہ اور تصدیق: صارفین کو AI چیٹ بوٹس کے ذریعے فراہم کردہ معلومات سے صحت مند شک و شبہ کے ساتھ رجوع کرنا چاہیے۔ دیگر ذرائع سے معلومات کا حوالہ دینا اور ان دعووں سے محتاط رہنا بہت ضروری ہے جو بہت زیادہ سنسنی خیز یا سچ ہونے کے لیے بہت اچھے لگتے ہیں۔

طویل مدتی خطرات: سیاسی، سماجی اور تکنیکی

AI چیٹ بوٹس کے ذریعے غلط معلومات کا بے قابو پھیلاؤ اہم طویل مدتی خطرات کا باعث بنتا ہے۔ یہ خطرات انفرادی جھوٹے بیانیوں کے فوری اثرات سے آگے بڑھتے ہیں اور وسیع تر سماجی نتائج کو گھیرے ہوئے ہیں۔

  • سیاسی خطرات: AI سے چلنے والی غلط معلومات کے ذریعے رائے عامہ میں ہیرا پھیری جمہوری عمل کو کمزور کر سکتی ہے اور اداروں پر اعتماد کو ختم کر سکتی ہے۔ اسے انتخابات کو متاثر کرنے، اختلاف پیدا کرنے اور حکومتوں کو غیر مستحکم کرنے کے لیے استعمال کیا جا سکتا ہے۔
  • سماجی خطرات: جھوٹے بیانیوں کا پھیلاؤ موجودہ سماجی تقسیم کو بڑھا سکتا ہے اور نئی تقسیم پیدا کر سکتا ہے۔ یہ تعصب، امتیازی سلوک اور یہاں تک کہ تشدد کو ہوا دے سکتا ہے۔
  • تکنیکی خطرات: غلط معلومات کے پھیلاؤ کی وجہ سے AI ٹیکنالوجی پر اعتماد میں کمی اس کی ترقی اور اپنانے میں رکاوٹ بن سکتی ہے۔ لوگ AI ٹولز استعمال کرنے سے گریزاں ہو سکتے ہیں اگر وہ فراہم کردہ معلومات کی درستگی اور وشوسنییتا پر یقین نہیں رکھ سکتے۔

AI سے چلنے والی غلط معلومات کے خلاف جنگ ایک اہم جنگ ہے۔ اس کے لیے AI ڈویلپرز، پالیسی سازوں، ماہرین تعلیم اور انفرادی صارفین کی جانب سے ایک ٹھوس کوشش کی ضرورت ہے تاکہ یہ یقینی بنایا جا سکے کہ یہ طاقتور ٹیکنالوجیز ذمہ داری اور اخلاقی طور پر استعمال ہوں۔ معلومات کا مستقبل، اور درحقیقت ہمارے معاشروں کا مستقبل، اس پر منحصر ہو سکتا ہے۔