‘এলএলএম গ্রুমিং’-এর কৌশল
প্রাভদা নেটওয়ার্ক প্রায় ১৫০টি ভুয়া সংবাদ সাইটের একটি বিশাল ওয়েবের মাধ্যমে কাজ করে। এই সাইটগুলো মানুষের পড়ার জন্য তৈরি করা হয়নি। খুবই কম ট্রাফিক সহ – বেশিরভাগ পেজে মাসিক ১,০০০-এর কম ভিজিটর আসে – তাদের প্রাথমিক উদ্দেশ্য হল এআই সিস্টেমে কন্টেন্ট সরবরাহ করা। এই কৌশলটি মিথ্যা তথ্যের একটি নতুন পদ্ধতির প্রতিনিধিত্ব করে, যা সরাসরি মানব পাঠকদের লক্ষ্য করে প্রথাগত পদ্ধতির বাইরে চলে যায়।
এই কৌশলটি ‘LLM গ্রুমিং‘ নামে পরিচিত, একটি শব্দ যা AI প্রশিক্ষণ ডেটার ইচ্ছাকৃত ম্যানিপুলেশন বর্ণনা করে। নেটওয়ার্কটি সার্চ ইঞ্জিনগুলির (SEO) জন্য প্রচুর পরিমাণে অপ্টিমাইজ করা কন্টেন্ট প্রকাশ করে এটি অর্জন করে। এটি নিশ্চিত করে যে প্রোপাগান্ডা AI মডেলগুলির দ্বারা সহজেই গৃহীত এবং পুনরায় বিতরণ করা হয়, তাদের আউটপুটগুলিকে প্রভাবিত করে এবং সম্ভাব্য জনসাধারণের ধারণাকে আকার দেয়।
মস্কোতে বসবাসকারী একজন আমেরিকান জন মার্ক ডুগান, যাকে নিউজগার্ড রাশিয়ান অপপ্রচার অভিযানে সমর্থন করার অভিযোগে চিহ্নিত করেছে, একটি স্থানীয় সম্মেলনে অন্তর্নিহিত নীতিটি ব্যাখ্যা করেছেন: ‘তথ্য যত বৈচিত্র্যময়, এটি প্রশিক্ষণ এবং ভবিষ্যতের AI কে তত বেশি প্রভাবিত করে।’ এই বিবৃতিটি অপারেশনের ক্ষতিকর প্রকৃতিকে তুলে ধরে, যার লক্ষ্য AI সিস্টেমগুলি তৈরি করা হয়েছে এমন ভিত্তিমূলক ডেটাকে সূক্ষ্মভাবে দূষিত করা।
অপারেশনের স্কেল এবং সুযোগ
প্রাভদা নেটওয়ার্কের কার্যক্রমের মাত্রা বিস্ময়কর। শুধুমাত্র 2024 সালে, এই সাইটগুলি 49টি দেশে প্রায় 3.6 মিলিয়ন নিবন্ধ প্রকাশ করেছে। ডোমেইন নামগুলি কৌশলগতভাবে বৈধ সংবাদ উত্সগুলির অনুকরণ করার জন্য বেছে নেওয়া হয়েছে, উদাহরণগুলির মধ্যে রয়েছে NATO.News-Pravda.com, Trump.News-Pravda.com, এবং Macron.News-Pravda.com। এই নকলটি প্রতারণার একটি স্তর যুক্ত করে, যা সাধারণ দর্শকদের জন্য খাঁটি এবং বানোয়াট বিষয়বস্তুর মধ্যে পার্থক্য করা আরও কঠিন করে তোলে।
বিষয়বস্তু নিজেই বিস্তৃত বিষয়গুলিকে কভার করে, কিন্তু ধারাবাহিকভাবে রাশিয়াপন্থী আখ্যানগুলিকে প্রচার করে এবং পশ্চিমা দৃষ্টিকোণকে দুর্বল করে। নেটওয়ার্কটি কমপক্ষে এপ্রিল 2022 সাল থেকে সক্রিয় রয়েছে এবং নিউজগার্ডের বিশ্লেষণ এপ্রিল 2022 থেকে ফেব্রুয়ারি 2025 এর মধ্যে প্রাভদা নেটওয়ার্ক দ্বারা বিতরণ করা 15টি যাচাইযোগ্য মিথ্যা গল্পের উপর দৃষ্টি নিবদ্ধ করেছে।
এআই চ্যাটবটগুলির দুর্বলতা
নিউজগার্ডের তদন্তে প্রাভদা নেটওয়ার্কের ভুল তথ্যের প্রতি তাদের দুর্বলতা মূল্যায়ন করার জন্য বেশ কয়েকটি বিশিষ্ট AI চ্যাটবট পরীক্ষা করা হয়েছে। পরীক্ষিত সিস্টেমগুলির মধ্যে রয়েছে:
- OpenAI’s ChatGPT-4o
- You.com’s Smart Assistant
- xAI’s Grok
- Inflection’s Pi
- Mistral’s le Chat
- Microsoft’s Copilot
- Meta AI
- Anthropic’s Claude
- Google’s Gemini
- Perplexity
ফলাফল উদ্বেগজনক ছিল। এআই চ্যাটবটগুলি 33.5% ক্ষেত্রে প্রাভদা নেটওয়ার্ক থেকে মিথ্যা বিবরণ গ্রহণ করেছে। যদিও সিস্টেমগুলি 48.2% দৃষ্টান্তে রাশিয়ান বিষয়বস্তুকে ভুল তথ্য হিসাবে সঠিকভাবে চিহ্নিত করেছে, তারা কখনও কখনও বিভ্রান্তিকর উত্সগুলি উদ্ধৃত করেছে, সম্ভাব্যভাবে তাদের অযাচিত বিশ্বাসযোগ্যতা দিয়েছে। অবশিষ্ট 18.2% প্রতিক্রিয়া অনির্দিষ্ট ছিল, যা AI-উত্পাদিত সামগ্রীর যুগে সত্যকে মিথ্যা থেকে আলাদা করার চ্যালেঞ্জগুলিকে আরও তুলে ধরে।
এআই-চালিত ভুল তথ্যের বিরুদ্ধে লড়াইয়ের চ্যালেঞ্জ
এই ধরনের ম্যানিপুলেশনের বিরুদ্ধে লড়াই করা একটি উল্লেখযোগ্য চ্যালেঞ্জ উপস্থাপন করে। পরিচিত ভুল তথ্য ওয়েবসাইটগুলিকে ব্লক করার ঐতিহ্যগত পদ্ধতিগুলি অকার্যকর প্রমাণিত হচ্ছে। যখন কর্তৃপক্ষ প্রাভদা ডোমেনগুলিকে ব্লক করে, তখন নতুন ডোমেন দ্রুত আবির্ভূত হয়, যা নেটওয়ার্কের তত্পরতা এবং স্থিতিস্থাপকতা প্রদর্শন করে।
অধিকন্তু, ভুল তথ্য একই সাথে একাধিক চ্যানেলের মাধ্যমে প্রবাহিত হয়, প্রায়শই বিভিন্ন নেটওয়ার্ক সাইট একে অপরের বিষয়বস্তু পুনরুত্পাদন করে। এটি আন্তঃসংযুক্ত উত্সগুলির একটি জটিল ওয়েব তৈরি করে, যা প্রোপাগান্ডাকে তার মূলে বিচ্ছিন্ন এবং নিরপেক্ষ করা কঠিন করে তোলে। ওয়েবসাইটগুলিকে ব্লক করা বৃহত্তর, সমন্বিত প্রচারণার বিরুদ্ধে সীমিত সুরক্ষা সরবরাহ করে।
বৃহত্তর প্রেক্ষাপট: রাষ্ট্র-স্পন্সরড এআই ম্যানিপুলেশন
প্রাভদা নেটওয়ার্কের কার্যকলাপ বিচ্ছিন্ন ঘটনা নয়। তারা রাষ্ট্র-স্পন্সরড প্রচেষ্টার একটি বৃহত্তর প্যাটার্নের সাথে সঙ্গতিপূর্ণ যা ভুল তথ্যের উদ্দেশ্যে AI কে ব্যবহার করে। একটি সাম্প্রতিক OpenAI সমীক্ষায় প্রকাশিত হয়েছে যে রাশিয়া, চীন, ইরান এবং ইস্রায়েলের রাষ্ট্র-সমর্থিত অভিনেতারা ইতিমধ্যেই প্রচারণার জন্য AI সিস্টেম ব্যবহার করার চেষ্টা করেছে। এই অপারেশনগুলি প্রায়শই AI-উত্পাদিত বিষয়বস্তুকে ঐতিহ্যগত, ম্যানুয়ালি তৈরি করা উপকরণগুলির সাথে একত্রিত করে, খাঁটি এবং ম্যানিপুলেট করা তথ্যের মধ্যেকার লাইনগুলিকে অস্পষ্ট করে তোলে।
রাজনৈতিক কারসাজিতে AI-এর ব্যবহার রাষ্ট্রীয় অভিনেতাদের মধ্যে সীমাবদ্ধ নয়। জার্মানির অতি-ডানপন্থী AFD পার্টির মতো রাজনৈতিক দলগুলিকেও প্রচারের উদ্দেশ্যে AI ইমেজ মডেল ব্যবহার করতে দেখা গেছে। এমনকি ডোনাল্ড ট্রাম্পের মতো ব্যক্তিত্বরাও AI-উত্পাদিত বিষয়বস্তুর সাথে জড়িত হয়েছেন, উভয়ই একজন ভোক্তা হিসাবে এবং, হাস্যকরভাবে, প্রকৃত তথ্যকে AI-উত্পাদিত জাল হিসাবে লেবেল করে। এই কৌশলটি, পাল্টা-প্রোপাগান্ডা হিসাবে চিহ্নিত, সমস্ত অনলাইন তথ্যের প্রতি অবিশ্বাস বপন করে, সম্ভাব্যভাবে ব্যক্তিদের শুধুমাত্র বিশ্বস্ত ব্যক্তিদের উপর নির্ভর করতে চালিত করে, তথ্যের নির্ভুলতা নির্বিশেষে।
এমনকি AI মডেলগুলির নকশা নিজেই রাষ্ট্রীয় এজেন্ডা দ্বারা প্রভাবিত হতে পারে। উদাহরণস্বরূপ, চীনা AI মডেলগুলি সেন্সরশিপ এবং প্রচারের সাথে প্রিলোড করা হয়েছে বলে জানা গেছে, যা চীনা সরকারের রাজনৈতিক অগ্রাধিকারগুলিকে প্রতিফলিত করে।
ডিপ ডাইভ: মিথ্যা বর্ণনার নির্দিষ্ট উদাহরণ
যদিও নিউজগার্ডের প্রতিবেদনে প্রাভদা নেটওয়ার্ক দ্বারা প্রচারিত প্রতিটি মিথ্যা বর্ণনার বিশদ বিবরণ নেই, যাচাইযোগ্য মিথ্যা গল্পগুলি ব্যবহার করার পদ্ধতিটি নিম্নলিখিত উদ্দেশ্যে ডিজাইন করা ভুল তথ্য ছড়ানোর একটি প্যাটার্ন নির্দেশ করে:
- পশ্চিমা প্রতিষ্ঠানগুলোকে দুর্বল করা: গল্পগুলো মিথ্যাভাবে ন্যাটোকে আক্রমণাত্মক বা অস্থিতিশীল হিসেবে চিত্রিত করতে পারে, অথবা পশ্চিমা নেতাদের জড়িত কেলেঙ্কারি তৈরি করতে পারে।
- রাশিয়াপন্থী মনোভাব প্রচার করা: আখ্যানগুলো রাশিয়ার সামরিক সাফল্যকে বাড়িয়ে তুলতে পারে, তার মানবাধিকার লঙ্ঘনকে কমিয়ে দেখাতে পারে, অথবা বিশ্ব মঞ্চে তার কর্মকাণ্ডকে ন্যায্যতা দিতে পারে।
- বিবাদ ও বিভাজন বপন করা: বিষয়বস্তু পশ্চিমা দেশগুলোর মধ্যে বিদ্যমান সামাজিক ও রাজনৈতিক উত্তেজনা বাড়িয়ে তুলতে, বিভাজনমূলক বিষয়গুলোকে প্রসারিত করতে এবং মেরুকরণকে উৎসাহিত করতে পারে।
- নির্দিষ্ট ঘটনাকে ঘিরে বাস্তবতাকে বিকৃত করা: নির্বাচন, সংঘাত বা আন্তর্জাতিক ঘটনার মতো ঘটনা সম্পর্কে মিথ্যা তথ্য ছড়ানো যেতে পারে, যাতে রাশিয়াপন্থী ব্যাখ্যার পক্ষে আখ্যানটিকে মোচড় দেওয়া যায়।
ধারাবাহিক থ্রেড হল একটি নির্দিষ্ট ভূ-রাজনৈতিক এজেন্ডা পরিবেশন করার জন্য তথ্যের ম্যানিপুলেশন। AI-এর ব্যবহার এই আখ্যানগুলোর নাগাল এবং সম্ভাব্য প্রভাবকে বাড়িয়ে তোলে, যা তাদের সনাক্ত করা এবং প্রতিহত করা কঠিন করে তোলে।
দীর্ঘমেয়াদী প্রভাব
এই AI-চালিত ভুল তথ্যের প্রভাব সুদূরপ্রসারী। তথ্যের উৎসের প্রতি আস্থার ক্ষয়, জনসাধারণের মতামতকে প্রভাবিত করার সম্ভাবনা এবং গণতান্ত্রিক প্রক্রিয়াকে অস্থিতিশীল করা সবই গুরুতর উদ্বেগের বিষয়। যেহেতু AI সিস্টেমগুলি আমাদের দৈনন্দিন জীবনে ক্রমবর্ধমানভাবে একত্রিত হচ্ছে, সত্য এবং মিথ্যার মধ্যে পার্থক্য করার ক্ষমতা আরও বেশি গুরুত্বপূর্ণ হয়ে উঠছে।
‘এলএলএম গ্রুমিং’ কৌশলটি তথ্য যুদ্ধের ক্ষেত্রে একটি উল্লেখযোগ্য বৃদ্ধি উপস্থাপন করে। এটি AI সিস্টেমগুলির ম্যানিপুলেশনের দুর্বলতা এবং এই উদীয়মান হুমকির বিরুদ্ধে শক্তিশালী প্রতিরক্ষার প্রয়োজনীয়তা তুলে ধরে। চ্যালেঞ্জটি কেবল ভুল তথ্যের উত্সগুলি সনাক্ত এবং ব্লক করার মধ্যেই নয়, এই সূক্ষ্ম কিন্তু ব্যাপক প্রভাবের বিরুদ্ধে AI মডেলগুলিকে ইনোকুলেট করার কৌশল বিকাশের মধ্যেও রয়েছে। এর জন্য একটি বহুমুখী পদ্ধতির প্রয়োজন, যার মধ্যে রয়েছে:
- বর্ধিত এআই সাক্ষরতা: AI-উত্পাদিত ভুল তথ্যের সম্ভাবনা সম্পর্কে জনসাধারণকে শিক্ষিত করা এবং সমালোচনামূলক চিন্তাভাবনার দক্ষতাকে উন্নীত করা।
- উন্নত এআই সনাক্তকরণ সরঞ্জাম: AI-উত্পাদিত বিষয়বস্তু এবং ভুল তথ্য সনাক্তকরণ এবং ফ্ল্যাগ করার জন্য আরও উন্নত পদ্ধতি বিকাশ করা।
- শক্তিশালী এআই প্রশিক্ষণ ডেটা: AI প্রশিক্ষণ ডেটার সততা এবং বৈচিত্র্য নিশ্চিত করার জন্য ব্যবস্থা বাস্তবায়ন করা, এটিকে ম্যানিপুলেশনের বিরুদ্ধে আরও প্রতিরোধী করে তোলা।
- আন্তর্জাতিক সহযোগিতা: এই বৈশ্বিক চ্যালেঞ্জ মোকাবেলায় সরকার, প্রযুক্তি কোম্পানি এবং গবেষকদের মধ্যে সহযোগিতা বৃদ্ধি করা।
- স্বচ্ছতা বৃদ্ধি: AI ডেভেলপারদের ব্যবহৃত প্রশিক্ষণ ডেটা এবং তাদের মডেলের মধ্যে বিদ্যমান সম্ভাব্য পক্ষপাত সম্পর্কে স্বচ্ছ হওয়া উচিত।
- অ্যালগরিদমিক জবাবদিহিতা: AI ডেভেলপারদের তাদের সিস্টেমের আউটপুটের জন্য দায়বদ্ধ করা, বিশেষ করে যখন সেই আউটপুটগুলি ভুল তথ্য ছড়ানোর জন্য ব্যবহৃত হয়।
AI-চালিত ভুল তথ্যের বিরুদ্ধে যুদ্ধ একটি জটিল এবং বিকশিত যুদ্ধ। তথ্যর সততা রক্ষা এবং জ্ঞাত সিদ্ধান্ত গ্রহণের ভিত্তি রক্ষার জন্য ব্যক্তি, সংস্থা এবং সরকারগুলির একটি সমন্বিত প্রচেষ্টার প্রয়োজন। প্রাভদা নেটওয়ার্কের কার্যকলাপগুলি জড়িত ঝুঁকি এবং এই ক্রমবর্ধমান হুমকির মোকাবেলার জরুরিতার একটি কঠোর অনুস্মারক হিসাবে কাজ করে। জ্ঞাত জনসাধারণের আলোচনার ভবিষ্যত এবং সম্ভাব্যভাবে গণতান্ত্রিক সমাজের স্থিতিশীলতা, এই নতুন ধরনের ম্যানিপুলেশনকে সফলভাবে প্রতিহত করার আমাদের ক্ষমতার উপর নির্ভর করতে পারে। চ্যালেঞ্জটি কেবল প্রযুক্তিগত নয়; এটি সামাজিকও, ডিজিটাল যুগে সত্য, নির্ভুলতা এবং সমালোচনামূলক চিন্তাভাবনার প্রতি একটি নতুন প্রতিশ্রুতির প্রয়োজন।