'LLM گرومنگ' کا طریقہ کار
پراودا نیٹ ورک تقریباً 150 جعلی نیوز سائٹس کے ایک وسیع جال کے ذریعے کام کرتا ہے۔ تاہم، یہ سائٹس انسانی استعمال کے لیے نہیں بنائی گئی ہیں۔ کم سے کم ٹریفک کے ساتھ – زیادہ تر صفحات کو ماہانہ 1,000 سے بھی کم ভিজিটর ملتے ہیں – ان کا بنیادی مقصد AI سسٹمز کو مواد فراہم کرنا ہے۔ یہ حکمت عملی غلط معلومات پھیلانے کے ایک نئے طریقہ کار کی نمائندگی کرتی ہے، جو روایتی طریقوں سے ہٹ کر ہے جو براہ راست انسانی قارئین کو نشانہ بناتے ہیں۔
اس حربے کو ‘LLM گرومنگ‘ کہا جاتا ہے، ایک ایسی اصطلاح جو AI ٹریننگ ڈیٹا میں دانستہ ہیرا پھیری کو بیان کرتی ہے۔ نیٹ ورک یہ کام بڑے پیمانے پر ایسے مواد کو شائع کرکے حاصل کرتا ہے جو سرچ انجن (SEO) کے لیے بہت زیادہ آپٹمائزڈ ہوتا ہے۔ یہ یقینی بناتا ہے کہ پروپیگنڈے کو AI ماڈلز آسانی سے اپنے اندر جذب اور دوبارہ تقسیم کر لیں، ان کے آؤٹ پٹس کو متاثر کریں اور ممکنہ طور پر عوامی تاثر کو تشکیل دیں۔
جان مارک ڈوگن، جو ماسکو میں مقیم ایک امریکی ہیں اور نیوز گارڈ کے مطابق مبینہ طور پر روسی ڈس انفارمیشن مہمات کی حمایت کرتے ہیں، نے ایک مقامی کانفرنس میں بنیادی اصول کی وضاحت کی: ‘یہ معلومات جتنی متنوع ہوگی، اتنا ہی یہ تربیت اور مستقبل کے AI کو متاثر کرے گی۔’ یہ بیان آپریشن کی خفیہ نوعیت کو اجاگر کرتا ہے، جس کا مقصد AI سسٹمز کی بنیادی ڈیٹا کو آہستہ آہستہ خراب کرنا ہے جس پر وہ بنائے گئے ہیں۔
آپریشن کا پیمانہ اور دائرہ کار
پراودا نیٹ ورک کی سرگرمیوں کا پیمانہ حیران کن ہے۔ صرف 2024 میں، ان سائٹس نے 49 ممالک میں تقریباً 3.6 ملین مضامین شائع کیے۔ ڈومین کے نام حکمت عملی کے ساتھ جائز نیوز ذرائع کی نقل کرنے کے لیے منتخب کیے جاتے ہیں، مثال کے طور پر NATO.News-Pravda.com، Trump.News-Pravda.com، اور Macron.News-Pravda.com۔ یہ نقل دھوکہ دہی کی ایک تہہ کا اضافہ کرتی ہے، جس سے عام لوگوں کے لیے مستند اور من گھڑت مواد میں فرق کرنا مشکل ہو جاتا ہے۔
مواد خود وسیع موضوعات پر محیط ہے، لیکن مسلسل روس کے حامی بیانیے کو فروغ دیتا ہے اور مغربی نقطہ نظر کو کمزور کرتا ہے۔ یہ نیٹ ورک کم از کم اپریل 2022 سے سرگرم ہے، اور نیوز گارڈ کے تجزیے میں اپریل 2022 سے فروری 2025 کے درمیان پراودا نیٹ ورک کے ذریعے تقسیم کیے گئے 15 تصدیق شدہ جھوٹے واقعات پر توجہ مرکوز کی گئی ہے۔
AI چیٹ بوٹس کی کمزوری
نیوز گارڈ کی تحقیقات میں پراودا نیٹ ورک کی غلط معلومات کے لیے کئی اہم AI چیٹ بوٹس کی کمزوری کا جائزہ لینے کے لیے ان کی جانچ پڑتال شامل تھی۔ جن سسٹمز کی جانچ کی گئی ان میں شامل ہیں:
- OpenAI’s ChatGPT-4o
- You.com’s Smart Assistant
- xAI’s Grok
- Inflection’s Pi
- Mistral’s le Chat
- Microsoft’s Copilot
- Meta AI
- Anthropic’s Claude
- Google’s Gemini
- Perplexity
نتائج تشویشناک تھے۔ AI چیٹ بوٹس نے 33.5 فیصد معاملات میں پراودا نیٹ ورک سے جھوٹے بیانیے کو قبول کیا۔ اگرچہ سسٹمز نے 48.2 فیصد واقعات میں روسی مواد کو غلط معلومات کے طور پر درست طریقے سے شناخت کیا، لیکن انہوں نے بعض اوقات گمراہ کن ذرائع کا حوالہ دیا، ممکنہ طور پر انہیں غیر ضروری ساکھ دی۔ بقیہ 18.2 فیصد جوابات غیر نتیجہ خیز تھے، جس سے AI سے تیار کردہ مواد کے دور میں سچ اور جھوٹ میں فرق کرنے میں درپیش چیلنجز کو مزید اجاگر کیا گیا۔
AI سے چلنے والی غلط معلومات کا مقابلہ کرنے کا چیلنج
اس قسم کی ہیرا پھیری کا مقابلہ کرنا ایک اہم چیلنج پیش کرتا ہے۔ معروف ڈس انفارمیشن ویب سائٹس کو بلاک کرنے کے روایتی طریقے غیر موثر ثابت ہو رہے ہیں۔ جب حکام پراودا ڈومینز کو بلاک کرتے ہیں، تو نئے ڈومینز تیزی سے سامنے آتے ہیں، جو نیٹ ورک کی چستی اور لچک کو ظاہر کرتے ہیں۔
مزید برآں، غلط معلومات بیک وقت متعدد چینلز کے ذریعے پھیلتی ہے، اکثر مختلف نیٹ ورک سائٹس ایک دوسرے کے مواد کو دوبارہ پیش کرتی ہیں۔ یہ باہم مربوط ذرائع کا ایک پیچیدہ جال بناتا ہے، جس سے پروپیگنڈے کو اس کی جڑ سے الگ کرنا اور بے اثر کرنا مشکل ہو جاتا ہے۔ محض ویب سائٹس کو بلاک کرنا وسیع تر، مربوط مہم کے خلاف محدود تحفظ فراہم کرتا ہے۔
وسیع تر سیاق و سباق: ریاست کی سرپرستی میں AI ہیرا پھیری
پراودا نیٹ ورک کی سرگرمیاں الگ تھلگ واقعات نہیں ہیں۔ وہ AI کو غلط معلومات کے مقاصد کے لیے استعمال کرنے کی ریاستی سرپرستی میں کی جانے والی کوششوں کے ایک وسیع تر نمونے کے مطابق ہیں۔ ایک حالیہ OpenAI مطالعہ سے پتہ چلا ہے کہ روس، چین، ایران اور اسرائیل کے ریاستی حمایت یافتہ اداکار پہلے ہی پروپیگنڈہ مہمات کے لیے AI سسٹمز کو استعمال کرنے کی کوشش کر چکے ہیں۔ یہ آپریشن اکثر AI سے تیار کردہ مواد کو روایتی، دستی طور پر بنائے گئے مواد کے ساتھ جوڑتے ہیں، جس سے مستند اور ہیرا پھیری والی معلومات کے درمیان لکیریں دھندلی ہو جاتی ہیں۔
سیاسی ہیرا پھیری میں AI کا استعمال صرف ریاستی اداکاروں تک محدود نہیں ہے۔ سیاسی گروہوں، جیسے کہ جرمنی کی انتہائی دائیں بازو کی AFD پارٹی، کو بھی پروپیگنڈے کے مقاصد کے لیے AI امیج ماڈلز کا استعمال کرتے ہوئے دیکھا گیا ہے۔ یہاں تک کہ ڈونلڈ ٹرمپ جیسی شخصیات نے بھی AI سے تیار کردہ مواد کے ساتھ مشغولیت اختیار کی ہے، دونوں ایک صارف کے طور پر اور، ستم ظریفی یہ ہے کہ، حقیقی معلومات کو AI سے تیار کردہ جعلی قرار دے کر۔ یہ حربہ، جسے جوابی پروپیگنڈے کی ایک شکل کے طور پر شناخت کیا گیا ہے، تمام آن لائن معلومات میں عدم اعتماد پیدا کرتا ہے، ممکنہ طور پر افراد کو حقائق کی درستگی سے قطع نظر، صرف بھروسہ مند شخصیات پر انحصار کرنے پر مجبور کرتا ہے۔
یہاں تک کہ AI ماڈلز کا ڈیزائن بھی ریاستی ایجنڈوں سے متاثر ہو سکتا ہے۔ مثال کے طور پر، چینی AI ماڈلز میں سنسرشپ اور پروپیگنڈہ پہلے سے لوڈ پایا گیا ہے، جو چینی حکومت کی سیاسی ترجیحات کی عکاسی کرتا ہے۔
جھوٹے بیانیے کی مخصوص مثالوں پر گہری نظر
اگرچہ نیوز گارڈ کی رپورٹ پراودا نیٹ ورک کے ذریعے پھیلائے گئے ہر ایک جھوٹے بیانیے کی تفصیل نہیں دیتی ہے، لیکن تصدیق شدہ جھوٹے واقعات کو استعمال کرنے کا طریقہ کار غلط معلومات پھیلانے کے ایک نمونے کی نشاندہی کرتا ہے جو کہ:
- مغربی اداروں کو کمزور کرنا: کہانیاں جھوٹے طور پر NATO کو جارحانہ یا غیر مستحکم قرار دے سکتی ہیں، یا مغربی رہنماؤں کو ملوث کرنے والے اسکینڈلز گھڑ سکتی ہیں۔
- روس کے حامی جذبات کو فروغ دینا: بیانیے روس کی فوجی کامیابیوں کو بڑھا چڑھا کر پیش کر سکتے ہیں، اس کی انسانی حقوق کی خلاف ورزیوں کو کم کر سکتے ہیں، یا عالمی سطح پر اس کے اقدامات کا جواز پیش کر سکتے ہیں۔
- اختلاف اور تقسیم کو ہوا دینا: مواد کا مقصد مغربی ممالک کے اندر موجودہ سماجی اور سیاسی تناؤ کو بڑھانا، تفرقہ انگیز مسائل کو بڑھانا اور پولرائزیشن کو فروغ دینا ہو سکتا ہے۔
- مخصوص واقعات کے ارد گرد حقیقت کو مسخ کرنا: انتخابات، تنازعات، یا بین الاقوامی واقعات جیسے واقعات کے بارے میں جھوٹی معلومات پھیلائی جا سکتی ہیں، بیانیے کو توڑ مروڑ کر روس کے حامی تشریح کے حق میں پیش کیا جا سکتا ہے۔
مستقل دھاگہ ایک مخصوص جغرافیائی سیاسی ایجنڈے کو پورا کرنے کے لیے معلومات کی ہیرا پھیری ہے۔ AI کا استعمال ان بیانیوں کی رسائی اور ممکنہ اثر کو بڑھاتا ہے، جس سے ان کا پتہ لگانا اور ان کا مقابلہ کرنا مشکل ہو جاتا ہے۔
طویل مدتی مضمرات
AI سے چلنے والی اس غلط معلومات کے مضمرات دور رس ہیں۔ معلومات کے ذرائع پر اعتماد کا خاتمہ، عوامی رائے میں ہیرا پھیری کا امکان، اور جمہوری عمل کا عدم استحکام، یہ سب سنگین خدشات ہیں۔ چونکہ AI سسٹمز ہماری روزمرہ کی زندگیوں میں تیزی سے ضم ہوتے جا رہے ہیں، اس لیے سچ اور جھوٹ میں فرق کرنے کی صلاحیت اور بھی زیادہ اہم ہوتی جا رہی ہے۔
‘LLM گرومنگ’ تکنیک معلوماتی جنگ کے منظر نامے میں ایک اہم اضافے کی نمائندگی کرتی ہے۔ یہ AI سسٹمز کی ہیرا پھیری کے لیے کمزوری اور اس ابھرتے ہوئے خطرے کے خلاف مضبوط دفاع کی ضرورت کو اجاگر کرتا ہے۔ چیلنج نہ صرف غلط معلومات کے ذرائع کی شناخت اور انہیں بلاک کرنے میں ہے بلکہ AI ماڈلز کو اثر و رسوخ کی ان لطیف لیکن وسیع شکلوں سے بچانے کے لیے حکمت عملی تیار کرنے میں بھی ہے۔ اس کے لیے ایک کثیر جہتی نقطہ نظر کی ضرورت ہے، جس میں شامل ہیں:
- بہتر AI خواندگی: عوام کو AI سے تیار کردہ غلط معلومات کے امکانات کے بارے میں آگاہ کرنا اور تنقیدی سوچ کی مہارتوں کو فروغ دینا۔
- بہتر AI ڈیٹیکشن ٹولز: AI سے تیار کردہ مواد اور غلط معلومات کی شناخت اور اسے جھنڈا لگانے کے لیے زیادہ جدید طریقے تیار کرنا۔
- مضبوط AI ٹریننگ ڈیٹا: AI ٹریننگ ڈیٹا کی سالمیت اور تنوع کو یقینی بنانے کے لیے اقدامات کو نافذ کرنا، اسے ہیرا پھیری کے لیے زیادہ مزاحم بنانا۔
- بین الاقوامی تعاون: اس عالمی چیلنج سے نمٹنے کے لیے حکومتوں، ٹیک کمپنیوں اور محققین کے درمیان تعاون کو فروغ دینا۔
- شفافیت میں اضافہ: AI ڈویلپرز کو استعمال شدہ تربیتی ڈیٹا اور ان کے ماڈلز میں موجود ممکنہ تعصبات کے بارے میں شفاف ہونا چاہیے۔
- الگورتھمک احتساب: AI ڈویلپرز کو ان کے سسٹمز کے آؤٹ پٹس کے لیے جوابدہ ٹھہرانا، خاص طور پر جب ان آؤٹ پٹس کو غلط معلومات پھیلانے کے لیے استعمال کیا جائے۔
AI سے چلنے والی غلط معلومات کے خلاف جنگ ایک پیچیدہ اور ارتقا پذیر جنگ ہے۔ اس کے لیے معلومات کی سالمیت کے تحفظ اور باخبر فیصلہ سازی کی بنیادوں کی حفاظت کے لیے افراد، تنظیموں اور حکومتوں کی جانب سے ایک ٹھوس کوشش کی ضرورت ہے۔ پراودا نیٹ ورک کی سرگرمیاں اس میں شامل داؤ اور اس بڑھتے ہوئے خطرے سے نمٹنے کی عجلت کی ایک سخت یاد دہانی کا کام کرتی ہیں۔ باخبر عوامی مباحثے کا مستقبل، اور ممکنہ طور پر جمہوری معاشروں کا استحکام، اس نئی قسم کی ہیرا پھیری کا کامیابی سے مقابلہ کرنے کی ہماری صلاحیت پر منحصر ہو سکتا ہے۔ چیلنج صرف تکنیکی نہیں ہے۔ یہ سماجی بھی ہے، جس کے لیے ڈیجیٹل دور میں سچائی، درستگی اور تنقیدی سوچ کے لیے ایک نئے عزم کی ضرورت ہے۔