AI সার্চ আপনাকে মিথ্যা বলছে

নির্ভুলতার বিভ্রম (The Illusion of Accuracy)

সার্চ ইঞ্জিনগুলির মূল প্রতিশ্রুতি ছিল ব্যবহারকারীদের বিশ্বাসযোগ্য উৎসের সাথে সংযুক্ত করা। এখন, সেই প্রতিশ্রুতি ক্ষয় হচ্ছে। AI-চালিত সার্চ টুলগুলি ক্রমবর্ধমানভাবে বিষয়বস্তুর চেয়ে গতিকে অগ্রাধিকার দিচ্ছে, এমন উত্তর তৈরি করছে যা আপাতদৃষ্টিতে আত্মবিশ্বাসী মনে হলেও যাচাইযোগ্য প্রমাণের প্রয়োজনীয় সমর্থন নেই। আমরা যা দেখছি তা হল একটি নির্ভরযোগ্য তথ্যের দিকে ব্যবহারকারীদের গাইড করার সিস্টেম থেকে সরে আসা, এমন একটি সিস্টেমে যা প্রতিক্রিয়া তৈরি করে, প্রায়শই তাদের সত্যতার প্রতি সামান্য মনোযোগ দেয়।

এটি কেবল মাঝে মাঝে ভুলের বিষয় নয়। এটি একটি পদ্ধতিগত সমস্যা। Columbia Journalism Review (CJR)-এর সমীক্ষা প্রকাশ করে যে AI সার্চ ইঞ্জিনগুলি কেবল ভুল করছে না; তারা সক্রিয়ভাবে যাচাইযোগ্য উৎস থেকে বিচ্ছিন্ন একটি বাস্তবতা তৈরি করছে। তারা ওয়েব জুড়ে থাকা বিষয়বস্তু স্ক্র্যাপ করছে, কিন্তু ব্যবহারকারীদের মূল উৎসগুলিতে—যে ওয়েবসাইটগুলি পরিশ্রম করে তথ্য তৈরি এবং প্রকাশ করে—তাদের কাছে পাঠানোর পরিবর্তে, তারা তাৎক্ষণিক, প্রায়শই বানানো উত্তর সরবরাহ করছে।

ট্র্যাফিক হ্রাস এবং ফ্যান্টম সাইটেশন (The Traffic Drain and the Phantom Citations)

এই পদ্ধতির পরিণতি সুদূরপ্রসারী। তাৎক্ষণিক প্রভাব হল তথ্যের মূল উৎসগুলিতে ট্র্যাফিকের উল্লেখযোগ্য হ্রাস। ওয়েবসাইট, সংবাদ সংস্থা এবং গবেষকরা যারা বিষয়বস্তু তৈরিতে সময় এবং সম্পদ বিনিয়োগ করেন তারা নিজেদেরকে উপেক্ষিত দেখতে পাচ্ছেন। ব্যবহারকারীরা সরাসরি AI থেকে তাদের উত্তর পাচ্ছেন, তথ্যের উৎস সাইটগুলি দেখার প্রয়োজন ছাড়াই।

একটি পৃথক সমীক্ষা এই উদ্বেগজনক প্রবণতাকে সমর্থন করে, যেখানে দেখা গেছে যে AI-জেনারেটেড সার্চ রেজাল্ট এবং চ্যাটবটগুলি থেকে ক্লিক-থ্রু রেটগুলি Google-এর মতো ঐতিহ্যবাহী সার্চ ইঞ্জিনগুলির তুলনায় উল্লেখযোগ্যভাবে কম। এর মানে হল অনলাইন সামগ্রীর লাইফব্লাড—একটি দর্শকের কাছে পৌঁছানোর ক্ষমতা—ধীরে ধীরে শ্বাসরুদ্ধ হয়ে আসছে।

কিন্তু সমস্যা আরও গভীর। এই AI সরঞ্জামগুলি কেবল উৎসগুলিকে ক্রেডিট দিতে ব্যর্থ হচ্ছে না; তারা প্রায়শই ফ্যান্টম সাইটেশন তৈরি করছে। তারা অস্তিত্বহীন ওয়েবপেজগুলিতে বা ভাঙা বা অপ্রাসঙ্গিক URL-গুলিতে লিঙ্ক তৈরি করছে। এটি এমন একজন শিক্ষার্থীর মতো যে একটি গবেষণাপত্র লিখছে এবং তাদের দাবি সমর্থন করার জন্য উৎস উদ্ভাবন করছে। এটি কেবল অগোছালো নয়; এটি বুদ্ধিবৃত্তিক সততার একটি মৌলিক লঙ্ঘন।

প্রতারণার গভীরে একটি দৃষ্টিপাত (A Deep Dive into the Deception)

CJR সমীক্ষাটি বেশ কয়েকটি শীর্ষস্থানীয় AI সার্চ মডেলের কর্মক্ষমতা সতর্কতার সাথে বিশ্লেষণ করেছে। ফলাফলগুলি গভীরভাবে বিরক্তিকর। Google-এর Gemini এবং xAI-এর Grok 3—AI সার্চ ল্যান্ডস্কেপের দুটি বিশিষ্ট খেলোয়াড়—দ্বারা উত্পন্ন অর্ধেকেরও বেশি সাইটেশন বানানো বা অ্যাক্সেসযোগ্য নয় এমন ওয়েবপেজের দিকে পরিচালিত করে। এটি একটি ছোটখাটো ত্রুটি নয়; এটি একটি পদ্ধতিগত ব্যর্থতা।

এবং সমস্যাটি সাইটেশনের বাইরেও প্রসারিত। চ্যাটবটগুলি, সাধারণভাবে, একটি বিস্ময়কর ৬০% এরও বেশি ক্ষেত্রে ভুল তথ্য সরবরাহ করতে দেখা গেছে। মূল্যায়ন করা মডেলগুলির মধ্যে, Grok 3 সবচেয়ে খারাপ অপরাধী হিসাবে দাঁড়িয়েছে, যার ৯৪% প্রতিক্রিয়ার মধ্যে ভুল তথ্য রয়েছে। Gemini, সামান্য ভালো পারফর্ম করলেও, প্রতি দশটি প্রচেষ্টার মধ্যে মাত্র একবার সম্পূর্ণ সঠিক উত্তর দিতে সক্ষম হয়েছে। এমনকী Perplexity, যেটি পরীক্ষিত মডেলগুলির মধ্যে সবচেয়ে নির্ভুল হিসাবে আবির্ভূত হয়েছে, তবুও ৩৭% সময় ভুল প্রতিক্রিয়া দিয়েছে।

এই সংখ্যাগুলি কেবল পরিসংখ্যান নয়; তারা তথ্যের নির্ভরযোগ্যতার একটি মৌলিক ভাঙ্গনের প্রতিনিধিত্ব করে। তারা পরামর্শ দেয় যে ডিজিটাল বিশ্বের জটিলতাগুলি নেভিগেট করতে আমাদের সাহায্য করার জন্য ডিজাইন করা সরঞ্জামগুলি আসলে আমাদের বিপথে নিয়ে যাচ্ছে।

নিয়ম উপেক্ষা করা: রোবট এক্সক্লুশন প্রোটোকল (Ignoring the Rules: The Robot Exclusion Protocol)

সমীক্ষার লেখকরা এই AI-চালিত প্রতারণার আরেকটি বিরক্তিকর দিক উন্মোচন করেছেন। বেশ কয়েকটি AI মডেল ইচ্ছাকৃতভাবে Robot Exclusion Protocol উপেক্ষা করছে বলে মনে হয়েছে। এই প্রোটোকলটি একটি স্ট্যান্ডার্ড, ব্যাপকভাবে গৃহীত প্রক্রিয়া যা ওয়েবসাইটগুলিকে স্বয়ংক্রিয় বটগুলির দ্বারা তাদের সাইটের কোন অংশগুলি অ্যাক্সেস এবং স্ক্র্যাপ করা যেতে পারে তা নিয়ন্ত্রণ করতে দেয়। এটি ওয়েবসাইটগুলির জন্য তাদের বিষয়বস্তু রক্ষা করার এবং এটি কীভাবে ব্যবহৃত হয় তা পরিচালনা করার একটি উপায়।

AI সার্চ ইঞ্জিনগুলি এই প্রোটোকলটিকে উপেক্ষা করছে এই ঘটনাটি গুরুতর নৈতিক প্রশ্ন উত্থাপন করে। এটি বিষয়বস্তু নির্মাতাদের অধিকারের প্রতি অবজ্ঞা এবং অনুমতি ছাড়াই অনলাইন তথ্য শোষণ করার ইচ্ছার পরামর্শ দেয়। এই আচরণ ওয়েবের মৌলিক ভিত্তিগুলিকে দুর্বল করে দেয়, যা তথ্যের অ্যাক্সেস এবং বৌদ্ধিক সম্পত্তি রক্ষার মধ্যে একটি সূক্ষ্ম ভারসাম্যের উপর নির্ভর করে।

অতীতের সতর্কবার্তার প্রতিধ্বনি (Echoes of Past Warnings)

CJR সমীক্ষার ফলাফলগুলি বিচ্ছিন্ন নয়। তারা নভেম্বর ২০২৪-এ প্রকাশিত একটি পূর্ববর্তী সমীক্ষার সাথে অনুরণিত হয়, যা ChatGPT-এর অনুসন্ধান ক্ষমতার উপর দৃষ্টি নিবদ্ধ করেছিল। সেই পূর্ববর্তী তদন্তটি আত্মবিশ্বাসী কিন্তু ভুল প্রতিক্রিয়া, বিভ্রান্তিকর সাইটেশন এবং অবিশ্বস্ত তথ্য পুনরুদ্ধারের একটি ধারাবাহিক প্যাটার্ন প্রকাশ করেছিল। অন্য কথায়, CJR দ্বারা চিহ্নিত সমস্যাগুলি নতুন নয়; সেগুলি স্থায়ী এবং পদ্ধতিগত।

বিশ্বাস এবং এজেন্সির ক্ষয় (The Erosion of Trust and Agency)

ক্ষেত্রের বিশেষজ্ঞরা কিছু সময়ের জন্য জেনারেটিভ AI-এর বিপদ সম্পর্কে সতর্ক করে আসছেন। Chirag Shah এবং Emily M. Bender-এর মতো সমালোচকরা উদ্বেগ প্রকাশ করেছেন যে AI সার্চ ইঞ্জিনগুলি ব্যবহারকারীর এজেন্সি হ্রাস করছে, তথ্যের অ্যাক্সেসে পক্ষপাতিত্ব বাড়াচ্ছে এবং প্রায়শই বিভ্রান্তিকর বা এমনকি বিষাক্ত উত্তর উপস্থাপন করছে যা ব্যবহারকারীরা প্রশ্ন ছাড়াই গ্রহণ করতে পারে।

মূল সমস্যা হল এই AI মডেলগুলি কর্তৃত্বপূর্ণ শব্দ করার জন্য ডিজাইন করা হয়েছে, এমনকি যখন তারা ভুল হয়। এগুলি টেক্সট এবং কোডের বিশাল ডেটাসেটের উপর প্রশিক্ষিত, এবং তারা এমন প্রতিক্রিয়া তৈরি করতে সক্ষম যা অসাধারণ সাবলীলতার সাথে মানুষের ভাষা অনুকরণ করে। কিন্তু এই সাবলীলতা প্রতারণামূলক হতে পারে। এটি এই সত্যটিকে মুখোশ করতে পারে যে অন্তর্নিহিত তথ্য ত্রুটিপূর্ণ, বানানো বা কেবল ভুল।

ভুল তথ্যের কার্যকারিতা (The Mechanics of the Misinformation)

CJR সমীক্ষায় ১,৬০০টি প্রশ্নের একটি বিশদ বিশ্লেষণ জড়িত ছিল, যা বিভিন্ন জেনারেটিভ AI সার্চ মডেল কীভাবে তথ্য পুনরুদ্ধার করে তা তুলনা করার জন্য ডিজাইন করা হয়েছিল। গবেষকরা শিরোনাম, প্রকাশক, প্রকাশের তারিখ এবং URL-এর মতো মূল উপাদানগুলির উপর দৃষ্টি নিবদ্ধ করেছিলেন। তারা ChatGPT Search, Microsoft CoPilot, DeepSeek Search, Perplexity (এবং এর Pro সংস্করণ), xAI-এর Grok-2 এবং Grok-3 Search এবং Google Gemini সহ বিভিন্ন মডেল পরীক্ষা করেছেন।

পরীক্ষার পদ্ধতিটি কঠোর ছিল। গবেষকরা ২০টি ভিন্ন প্রকাশকের কাছ থেকে উৎস করা ১০টি এলোমেলোভাবে নির্বাচিত নিবন্ধ থেকে সরাসরি উদ্ধৃতি ব্যবহার করেছেন। এই পদ্ধতিটি নিশ্চিত করেছে যে প্রশ্নগুলি বাস্তব-বিশ্বের বিষয়বস্তুর উপর ভিত্তি করে তৈরি করা হয়েছে এবং মডেলগুলিকে সেই বিষয়বস্তুটি সঠিকভাবে পুনরুদ্ধার এবং উপস্থাপন করার ক্ষমতার উপর মূল্যায়ন করা হচ্ছে।

ফলাফলগুলি, যেমনটি আগে বিস্তারিতভাবে বলা হয়েছে, AI-চালিত অনুসন্ধানের অবস্থার একটি হতাশাজনক চিত্র তুলে ধরে। যে সরঞ্জামগুলি ক্রমবর্ধমানভাবে তথ্যের জন্য আমাদের প্রাথমিক প্রবেশদ্বার হয়ে উঠছে সেগুলি স্পষ্টতই অবিশ্বস্ত, বানোয়াট প্রবণ এবং প্রায়শই তারা যে উৎসগুলির উপর নির্ভর করে সেগুলির প্রতি অসম্মানজনক।

তথ্যের ভবিষ্যতের জন্য প্রভাব (The Implications for the Future of Information)

এই ব্যাপক ভুল তথ্যের প্রভাবগুলি গভীর। যদি আমরা তথ্য খোঁজার জন্য যে সরঞ্জামগুলি ব্যবহার করি সেগুলিকে বিশ্বাস করতে না পারি, তাহলে আমরা কীভাবে অবগত সিদ্ধান্ত নিতে পারি? আমরা কীভাবে অর্থপূর্ণ বিতর্কে জড়িত হতে পারি? আমরা কীভাবে ক্ষমতাকে জবাবদিহি করতে পারি?

AI-চালিত অনুসন্ধানের উত্থান, এর অন্তর্নিহিত ত্রুটি এবং পক্ষপাতিত্ব সহ, আমাদের তথ্য বাস্তুতন্ত্রের একেবারে কাঠামোর জন্য একটি উল্লেখযোগ্য হুমকি তৈরি করে। এটি সংবাদ সংস্থা, গবেষক এবং অন্যান্য বিষয়বস্তু নির্মাতাদের বিশ্বাসযোগ্যতাকে দুর্বল করে। এটি প্রতিষ্ঠানের প্রতি জনসাধারণের আস্থা কমিয়ে দেয়। এবং এটি তাদের ক্ষমতা দেয় যারা ভুল তথ্য ছড়াতে এবং জনমতকে প্রভাবিত করতে চায়।

আমাদের সামনের চ্যালেঞ্জটি কেবল AI সার্চ ইঞ্জিনগুলির নির্ভুলতা উন্নত করা নয়। এটি ডিজিটাল যুগে তথ্যের অনুসন্ধানের পদ্ধতির বিষয়ে মৌলিকভাবে পুনর্বিবেচনা করা। আমাদের স্বচ্ছতা, জবাবদিহিতা এবং তথ্যের উৎসগুলির প্রতি শ্রদ্ধাকে অগ্রাধিকার দিতে হবে। আমাদের এমন সরঞ্জাম এবং কৌশল তৈরি করতে হবে যা ব্যবহারকারীদের অনলাইনে তারা যে তথ্যগুলির মুখোমুখি হয় সেগুলিকে সমালোচনামূলকভাবে মূল্যায়ন করার ক্ষমতা দেয়। এবং আমাদের সংশয়বাদ এবং সমালোচনামূলক চিন্তাভাবনার একটি সংস্কৃতি গড়ে তুলতে হবে, যেখানে আমরা কেবল তথ্যের নিষ্ক্রিয় প্রাপক নই, বরং সত্যের সন্ধানে সক্রিয় অংশগ্রহণকারী। অবগত আলোচনার ভবিষ্যৎ, এবং সম্ভবত গণতন্ত্র নিজেই, এর উপর নির্ভর করে।


AI-চালিত অনুসন্ধানে ভুল তথ্যের সংকট কেবল একটি প্রযুক্তিগত সমস্যা নয়; এটি একটি সামাজিক সমস্যা। এটি কেবল প্রকৌশলী এবং ডেভেলপারদের নয়, সাংবাদিক, শিক্ষাবিদ, নীতিনির্ধারক এবং জনসাধারণের সম্মিলিত প্রচেষ্টার মাধ্যমে একটি বহুমুখী প্রতিক্রিয়া দাবি করে। আমাদের অবশ্যই সম্মিলিতভাবে একটি আরও নির্ভরযোগ্য, বিশ্বাসযোগ্য এবং স্বচ্ছ তথ্য ইকোসিস্টেম তৈরি করতে কাজ করতে হবে, যা মিথ্যাবাদীদের নয়, অবগত নাগরিকদের চাহিদা পূরণ করে।


বর্তমান গতিপথটি অস্থিতিশীল। যদি AI অনুসন্ধান নির্ভুলতা এবং সত্যের চেয়ে গতি এবং সুবিধাকে অগ্রাধিকার দিতে থাকে, তাহলে আমরা এমন একটি বিশ্ব তৈরি করার ঝুঁকিতে রয়েছি যেখানে ভুল তথ্য সর্বোচ্চ রাজত্ব করে এবং যেখানে বস্তুনিষ্ঠ বাস্তবতার ধারণাটি ক্রমশ অধরা হয়ে যায়। এটি ঘটতে দেওয়ার জন্য ঝুঁকিগুলি খুব বেশি।