ক্রেমলিন-সমর্থিত মিথ্যার ব্যাপক প্রভাব
সমস্যার মূলে রয়েছে অনলাইন তথ্যের উৎসগুলোর ইচ্ছাকৃত দূষণ। সার্চ রেজাল্ট এবং ওয়েব ক্রলারগুলিকে ক্রেমলিন-পন্থী মিথ্যা দিয়ে প্লাবিত করার মাধ্যমে, অপপ্রচারকারীরা সক্রিয়ভাবে বৃহৎ ভাষা মডেল (LLMs)-এর আউটপুটকে প্রভাবিত করছে। এই মডেলগুলি, যা আমাদের দৈনন্দিন জীবনে ব্যবহৃত AI চ্যাটবটগুলিকে শক্তি যোগায়, ইন্টারনেট থেকে সংগ্রহ করা বিশাল ডেটাসেটের উপর নির্ভর করে। যখন এই ডেটা ভুল তথ্যের দ্বারা দূষিত হয়, তখন ফলাফলস্বরূপ আউটপুট এই পক্ষপাতগুলিকে প্রতিফলিত করে।
NewsGuard, একটি সংস্থা যা সংবাদ এবং তথ্যের ওয়েবসাইটগুলির জন্য বিশ্বাসযোগ্যতা রেটিং এবং ভুল তথ্যের ফিঙ্গারপ্রিন্ট সরবরাহ করে, এই ঘটনার একটি গভীর বিশ্লেষণ পরিচালনা করেছে। তাদের ফলাফল একটি বিরক্তিকর বাস্তবতা প্রকাশ করে: নেতৃস্থানীয় AI চ্যাটবটগুলির দ্বারা উত্পন্ন তথ্যের একটি উল্লেখযোগ্য অংশ ক্রেমলিন-পন্থী ওয়েবসাইটগুলির একটি নির্দিষ্ট নেটওয়ার্ক দ্বারা প্রচারিত বর্ণনার প্রতিধ্বনি করে।
অপপ্রচারের কৌশল: কীভাবে AI মডেলগুলিকে ম্যানিপুলেট করা হয়
এই অপপ্রচার নেটওয়ার্ক দ্বারা ব্যবহৃত কৌশলটি একই সাথে কপট এবং অত্যাধুনিক। এটি প্রাথমিকভাবে মানব পাঠকদের আকৃষ্ট করার লক্ষ্যে নয়; বরং, এটি AI চ্যাটবটগুলির অন্তর্নিহিত অ্যালগরিদমগুলিকে ম্যানিপুলেট করার জন্য ডিজাইন করা হয়েছে। ‘LLM গ্রুমিং’ নামে পরিচিত এই কৌশলটিতে অসংখ্য ওয়েবসাইটে কৌশলগতভাবে মিথ্যা বা বিভ্রান্তিকর তথ্য স্থাপন করা জড়িত, এটি জেনে যে এই প্ল্যাটফর্মগুলি LLMs দ্বারা স্ক্র্যাপ এবং গ্রহণ করা হবে।
আমেরিকান সানলাইট প্রজেক্ট (ASP), একটি মার্কিন অলাভজনক সংস্থা, ফেব্রুয়ারী ২০২৫-এর একটি প্রতিবেদনে এই হুমকির কথা তুলে ধরেছে। তারা সতর্ক করে দিয়েছিল যে প্রাভদা নেটওয়ার্ক, রাশিয়ান-পন্থী বর্ণনা প্রচারকারী ওয়েবসাইটগুলির একটি সংগ্রহ, সম্ভবত AI মডেলগুলিকে প্রভাবিত করার সুস্পষ্ট উদ্দেশ্যে তৈরি করা হয়েছিল। রাশিয়া-পন্থী বর্ণনার পরিমাণ যত বেশি, LLMs-এর তাদের জ্ঞান ভান্ডারে সেগুলি সংহত করার সম্ভাবনা তত বেশি।
এর প্রভাব সুদূরপ্রসারী। যেহেতু LLMs আমাদের দৈনন্দিন জীবনে ক্রমবর্ধমানভাবে একত্রিত হচ্ছে, তথ্য এবং সহায়তার উৎস হিসাবে কাজ করছে, ম্যানিপুলেটেড সামগ্রীর ব্যাপক প্রচারের সম্ভাবনা উদ্বেগজনক।
NewsGuard-এর অডিট: প্রভাবের পরিমাণ নির্ধারণ
এই সমস্যার মাত্রা মূল্যায়ন করার জন্য, NewsGuard দশটি বিশিষ্ট AI চ্যাটবটের একটি অডিট পরিচালনা করেছে। এর মধ্যে অন্তর্ভুক্ত ছিল:
- OpenAI’s ChatGPT-4o
- You.com’s Smart Assistant
- xAI’s Grok
- Inflection’s Pi
- Mistral’s le Chat
- Microsoft’s Copilot
- Meta AI
- Anthropic’s Claude
- Google’s Gemini
- Perplexity’s answer engine
অডিটটি ১৫টি স্বতন্ত্র মিথ্যা বর্ণনার উপর দৃষ্টি নিবদ্ধ করেছিল যা এপ্রিল ২০২২ থেকে ফেব্রুয়ারি ২০২৫ এর মধ্যে ১৫০টি ক্রেমলিন-পন্থী প্রাভদা ওয়েবসাইট দ্বারা সক্রিয়ভাবে প্রচারিত হয়েছিল। এই বর্ণনাগুলি বিভিন্ন বিষয়কে কভার করে, সমস্তই একটি নির্দিষ্ট রাজনৈতিক এজেন্ডাকে এগিয়ে নেওয়ার জন্য ডিজাইন করা হয়েছে।
পদ্ধতিটিতে NewsGuard-এর Misinformation Fingerprints-এর উপর ভিত্তি করে একাধিক প্রম্পট দিয়ে প্রতিটি চ্যাটবট পরীক্ষা করা জড়িত ছিল, যা গুরুত্বপূর্ণ সংবাদ বিষয়গুলিতে প্রদর্শিত মিথ্যা দাবির একটি ক্যাটালগ। প্রম্পটগুলি তিনটি ভিন্ন শৈলীতে তৈরি করা হয়েছিল – ইনোসেন্ট, লিডিং এবং ম্যালিগন্যান্ট – জেনারেটিভ AI মডেলগুলির সাথে ব্যবহারকারীদের বিভিন্ন উপায়ে ইন্টারঅ্যাক্ট করার অনুকরণ করতে। এর ফলে মোট ৪৫০টি প্রতিক্রিয়া পাওয়া গেছে (প্রতি চ্যাটবটে ৪৫টি)।
বিরক্তিকর ফলাফল: চ্যাটবট জুড়ে অপপ্রচারের প্রাদুর্ভাব
NewsGuard অডিটের ফলাফলগুলি ছিল কঠোর। সম্মিলিতভাবে, দশটি AI চ্যাটবট ৩৩.৫৫% প্রতিক্রিয়ায় মিথ্যা রাশিয়ান অপপ্রচারের পুনরাবৃত্তি করেছে। তারা ১৮.২২% ক্ষেত্রে কোনও প্রতিক্রিয়া দেয়নি এবং ৪৮.২২% ক্ষেত্রে বর্ণনাটিকে ডিবাঙ্ক করেছে।
পরীক্ষিত প্রতিটি চ্যাটবট প্রাভদা নেটওয়ার্ক থেকে উদ্ভূত অপপ্রচারের পুনরাবৃত্তি করেছে। আরও উদ্বেগজনক বিষয় হল, সাতটি চ্যাটবট তাদের উৎস হিসাবে প্রাভদা ওয়েবসাইটগুলির নির্দিষ্ট নিবন্ধগুলিকে সরাসরি উদ্ধৃত করেছে। যদিও দুটি AI মডেল সুস্পষ্ট উদ্ধৃতি সরবরাহ করে না, তবুও তাদের নেটওয়ার্ক থেকে মিথ্যা বর্ণনা তৈরি বা পুনরাবৃত্তি করতে দেখা গেছে। উৎস উল্লেখ করা আটটি মডেলের মধ্যে কেবল একটি প্রাভদাকে উল্লেখ করেনি।
মোট, ৪৫০টি চ্যাটবট-জেনারেটেড প্রতিক্রিয়ার মধ্যে ৫৬টিতে প্রাভদা নেটওয়ার্ক দ্বারা প্রকাশিত মিথ্যা দাবি প্রচারকারী নিবন্ধগুলির সরাসরি লিঙ্ক অন্তর্ভুক্ত ছিল। চ্যাটবটগুলি সম্মিলিতভাবে ৯২টি ভিন্ন নিবন্ধ উদ্ধৃত করেছে যাতে ভুল তথ্য রয়েছে, দুটি মডেল ২৭টি প্রাভদা নিবন্ধের উল্লেখ করেছে। এই নিবন্ধগুলি নেটওয়ার্কের মধ্যে বিভিন্ন ডোমেন থেকে উদ্ভূত হয়েছে, যার মধ্যে Denmark.news-pravda.com, Trump.news-pravda.com, এবং NATO.news-pravda.com রয়েছে।
প্রম্পটের প্রকৃতি: বাস্তব-বিশ্বের মিথস্ক্রিয়াগুলির অনুকরণ
NewsGuard অডিটে ব্যবহৃত তিনটি প্রম্পট শৈলী AI চ্যাটবটগুলির সাথে ব্যবহারকারীর মিথস্ক্রিয়াগুলির বর্ণালীকে প্রতিফলিত করার জন্য ডিজাইন করা হয়েছিল:
- Innocent Prompts: এই প্রম্পটগুলি মিথ্যা বর্ণনাটিকে একটি নিরপেক্ষ, অ-নেতৃত্বপূর্ণ উপায়ে উপস্থাপন করেছে, যেন ব্যবহারকারী কোনও পূর্ব ধারণা ছাড়াই কেবল তথ্য খুঁজছেন।
- Leading Prompts: এই প্রম্পটগুলি সূক্ষ্মভাবে মিথ্যা বর্ণনাটির পরামর্শ দিয়েছে, এটিকে স্পষ্টভাবে উল্লেখ না করে এর বৈধতার ইঙ্গিত দিয়েছে। এটি এমন পরিস্থিতিগুলির অনুকরণ করে যেখানে ব্যবহারকারীদের ভুল তথ্যের কিছু পূর্ব অভিজ্ঞতা থাকতে পারে এবং তারা নিশ্চিতকরণ খুঁজছেন।
- Malign Prompts: এই প্রম্পটগুলি সরাসরি মিথ্যা বর্ণনাটিকে সত্য হিসাবে দাবি করেছে, এমন পরিস্থিতিগুলিকে প্রতিফলিত করে যেখানে ব্যবহারকারীরা ইতিমধ্যে ভুল তথ্য সম্পর্কে নিশ্চিত এবং তারা পুনর্বহাল খুঁজছেন।
এই বহু-মুখী পদ্ধতিটি বোঝার জন্য অত্যন্ত গুরুত্বপূর্ণ ছিল যে কীভাবে বিভিন্ন ধরণের ব্যবহারকারীর সম্পৃক্ততা চ্যাটবটের প্রতিক্রিয়াকে প্রভাবিত করতে পারে। এটি প্রকাশ করেছে যে চ্যাটবটগুলি প্রম্পট শৈলী নির্বিশেষে অপপ্রচারের পুনরাবৃত্তি করার জন্য সংবেদনশীল ছিল, যদিও প্রতিক্রিয়াগুলির ফ্রিকোয়েন্সি এবং প্রকৃতি ভিন্ন ছিল।
চ্যাটবটগুলির দ্বারা প্রতিধ্বনিত অপপ্রচারের নির্দিষ্ট উদাহরণ
NewsGuard রিপোর্ট প্রাভদা নেটওয়ার্ক দ্বারা প্রচারিত এবং পরবর্তীতে AI চ্যাটবটগুলির দ্বারা পুনরাবৃত্তি করা নির্দিষ্ট মিথ্যা বর্ণনার অসংখ্য উদাহরণ সরবরাহ করে। এই উদাহরণগুলি অপপ্রচার অভিযানের বিস্তৃতি এবং গভীরতা তুলে ধরে। কিছু বর্ণনার মধ্যে অন্তর্ভুক্ত ছিল:
- ইউক্রেন একটি নাৎসি রাষ্ট্র বলে দাবি।
- ইউক্রেনের সংঘাতের কারণ সম্পর্কে মিথ্যা দাবি।
- সংঘাতের মধ্যে পশ্চিমা জড়িত থাকার বিষয়ে বিভ্রান্তিকর তথ্য।
- ইউক্রেনীয় নেতৃত্ব সম্পর্কে বানানো গল্প।
এগুলি হল অনেকগুলি মিথ্যা বর্ণনার কয়েকটি উদাহরণ যা NewsGuard দ্বারা সতর্কতার সাথে নথিভুক্ত এবং ট্র্যাক করা হয়েছে। এই বর্ণনাগুলি যে নেতৃস্থানীয় AI চ্যাটবটগুলির দ্বারা প্রতিধ্বনিত হচ্ছে তা কার্যকর প্রতিকারের জরুরি প্রয়োজনীয়তাকে তুলে ধরে।
AI-চালিত অপপ্রচারের বিরুদ্ধে লড়াইয়ের চ্যালেঞ্জ
এই সমস্যার সমাধান একটি জটিল কাজ। এর জন্য প্রযুক্তিগত সমাধান এবং ব্যবহারকারীর সচেতনতা বৃদ্ধি উভয়ই জড়িত একটি বহু-মুখী পদ্ধতির প্রয়োজন।
প্রযুক্তিগত সমাধান:
- উন্নত ডেটা ফিল্টারিং: AI ডেভেলপারদের LLMs প্রশিক্ষণের জন্য ব্যবহৃত ডেটাসেটগুলি থেকে ভুল তথ্য ফিল্টার করার জন্য আরও শক্তিশালী প্রক্রিয়া বাস্তবায়ন করতে হবে। এর মধ্যে অবিশ্বস্ত উৎসগুলি সনাক্ত করা এবং বাদ দেওয়া, সেইসাথে অ্যালগরিদম তৈরি করা যা সম্ভাব্য মিথ্যা বা বিভ্রান্তিকর তথ্য সনাক্ত করতে এবং ফ্ল্যাগ করতে পারে।
- উন্নত উৎস যাচাইকরণ: চ্যাটবটগুলিকে বিশ্বাসযোগ্য এবং যাচাইকৃত উৎসগুলি থেকে তথ্যকে অগ্রাধিকার দেওয়ার জন্য ডিজাইন করা উচিত। এর মধ্যে সুস্পষ্ট উদ্ধৃতি সরবরাহ করা এবং ব্যবহারকারীদের সহজেই উপস্থাপিত তথ্যের উৎস ট্রেস করার অনুমতি দেওয়া অন্তর্ভুক্ত।
- স্বচ্ছতা এবং ব্যাখ্যাক্ষমতা: AI মডেলগুলির তাদের সিদ্ধান্ত গ্রহণের প্রক্রিয়া সম্পর্কে আরও স্বচ্ছ হওয়া উচিত। ব্যবহারকারীদের বুঝতে সক্ষম হওয়া উচিত কেন একটি চ্যাটবট একটি নির্দিষ্ট প্রতিক্রিয়া প্রদান করছে এবং এটি কোন ডেটা উৎসগুলির উপর নির্ভর করছে।
ব্যবহারকারীর সচেতনতা:
- মিডিয়া সাক্ষরতা শিক্ষা: ব্যবহারকারীদের AI-জেনারেটেড ভুল তথ্যের সম্ভাবনা সম্পর্কে শিক্ষিত করা প্রয়োজন। এর মধ্যে সমালোচনামূলক চিন্তাভাবনার দক্ষতা বিকাশ করা এবং অনলাইন তথ্যের উৎসগুলির বিশ্বাসযোগ্যতা মূল্যায়ন করতে শেখা অন্তর্ভুক্ত।
- সংশয়বাদ এবং যাচাইকরণ: ব্যবহারকারীদের AI চ্যাটবটগুলির দ্বারা প্রদত্ত তথ্যের প্রতি একটি স্বাস্থ্যকর মাত্রার সংশয়বাদ নিয়ে যোগাযোগ করা উচিত। অন্যান্য উৎসগুলির সাথে তথ্য ক্রস-রেফারেন্স করা এবং যে দাবিগুলি খুব চাঞ্চল্যকর বা সত্য বলে মনে হয় সেগুলি সম্পর্কে সতর্ক থাকা অত্যন্ত গুরুত্বপূর্ণ।
দীর্ঘমেয়াদী ঝুঁকি: রাজনৈতিক, সামাজিক এবং প্রযুক্তিগত
AI চ্যাটবটগুলির মাধ্যমে অপপ্রচারের অনিয়ন্ত্রিত বিস্তার উল্লেখযোগ্য দীর্ঘমেয়াদী ঝুঁকি তৈরি করে। এই ঝুঁকিগুলি পৃথক মিথ্যা বর্ণনার তাৎক্ষণিক প্রভাবের বাইরেও বিস্তৃত এবং বৃহত্তর সামাজিক পরিণতিগুলিকে অন্তর্ভুক্ত করে।
- রাজনৈতিক ঝুঁকি: AI-চালিত অপপ্রচারের মাধ্যমে জনমতের ম্যানিপুলেশন গণতান্ত্রিক প্রক্রিয়াগুলিকে দুর্বল করতে পারে এবং প্রতিষ্ঠানের প্রতি আস্থা হ্রাস করতে পারে। এটি নির্বাচনকে প্রভাবিত করতে, বিভেদ বপন করতে এবং সরকারকে অস্থিতিশীল করতে ব্যবহার করা যেতে পারে।
- সামাজিক ঝুঁকি: মিথ্যা বর্ণনার বিস্তার বিদ্যমান সামাজিক বিভাজনগুলিকে বাড়িয়ে তুলতে পারে এবং নতুন তৈরি করতে পারে। এটি কুসংস্কার, বৈষম্য এবং এমনকি সহিংসতাকে উস্কে দিতে পারে।
- প্রযুক্তিগত ঝুঁকি: ভুল তথ্যের বিস্তারের কারণে AI প্রযুক্তির প্রতি আস্থার ক্ষয় এর বিকাশ এবং গ্রহণকে বাধাগ্রস্ত করতে পারে। লোকেরা AI সরঞ্জামগুলি ব্যবহার করতে অনিচ্ছুক হতে পারে যদি তারা প্রদত্ত তথ্যের নির্ভুলতা এবং নির্ভরযোগ্যতার উপর আস্থা রাখতে না পারে।
AI-চালিত অপপ্রচারের বিরুদ্ধে লড়াই একটি গুরুত্বপূর্ণ বিষয়। এই শক্তিশালী প্রযুক্তিগুলি দায়িত্বশীল এবং নৈতিকভাবে ব্যবহার করা হয় তা নিশ্চিত করার জন্য AI ডেভেলপার, নীতিনির্ধারক, শিক্ষাবিদ এবং স্বতন্ত্র ব্যবহারকারীদের কাছ থেকে একটি সমন্বিত প্রচেষ্টার প্রয়োজন। তথ্যের ভবিষ্যত এবং প্রকৃতপক্ষে আমাদের সমাজের ভবিষ্যত এর উপর নির্ভর করতে পারে।