চ্যাটজিপিটি মডেল: হ্যালুসিনেশন সমস্যা

সাম্প্রতিক গবেষণাগুলোতে একটি উদ্বেগের বিষয় উঠে এসেছে: নতুন চ্যাটজিপিটি মডেলগুলোতে আগের মডেলগুলোর তুলনায় হ্যালুসিনেশনের হার বেশি দেখা যাচ্ছে। এই আবিষ্কারটি বৃহৎ ভাষা মডেলগুলোর (LLMs) উন্নত ক্ষমতা এবং নির্ভরযোগ্যতার মধ্যে আপস নিয়ে গুরুত্বপূর্ণ প্রশ্ন তুলেছে। আসুন এই অনুসন্ধানের বিশদ বিবরণে প্রবেশ করি এবং এর সম্ভাব্য প্রভাবগুলো নিয়ে আলোচনা করি।

এই ঘটনার পেছনের ধারণা

OpenAI-এর অভ্যন্তরীণ পরীক্ষাগুলোতে, যেমন একটি সাম্প্রতিক গবেষণাপত্রে বিস্তারিতভাবে বলা হয়েছে, o3 এবং o4-mini-এর মতো মডেলগুলোতে হ্যালুসিনেশনের হার উল্লেখযোগ্যভাবে বৃদ্ধি পেয়েছে। এই মডেলগুলো, যেগুলো উন্নত যুক্তি এবং মাল্টিমোডাল ক্ষমতা দিয়ে ডিজাইন করা হয়েছে, AI প্রযুক্তির অত্যাধুনিকতাকে উপস্থাপন করে। তারা ছবি তৈরি করতে, ওয়েব অনুসন্ধান করতে, কাজগুলো স্বয়ংক্রিয় করতে, অতীতের কথোপকথন মনে রাখতে এবং জটিল সমস্যা সমাধান করতে পারে। তবে, এই উন্নতির একটি মূল্য দিতে হচ্ছে।

এই হ্যালুসিনেশনগুলোর পরিমাণ নির্ধারণ করার জন্য, OpenAI PersonQA নামক একটি নির্দিষ্ট পরীক্ষা ব্যবহার করে। এই পরীক্ষায়, মডেলটিকে বিভিন্ন ব্যক্তি সম্পর্কে কিছু তথ্য দেওয়া হয় এবং তারপর সেই ব্যক্তিদের সম্পর্কে প্রশ্ন করা হয়। মডেলের সঠিক উত্তর দেওয়ার ক্ষমতার ওপর ভিত্তি করে এর যথার্থতা মূল্যায়ন করা হয়।

আগের মূল্যায়নগুলোতে, o1 মডেলটি ৪৭% যথার্থতার হার অর্জন করেছিল এবং এর হ্যালুসিনেশনের হার ছিল মাত্র ১৬%। তবে, যখন o3 এবং o4-mini-কে একই মূল্যায়নের আওতায় আনা হয়েছিল, তখন ফলাফলগুলো উল্লেখযোগ্যভাবে ভিন্ন ছিল।

o4-mini মডেলটি, যেহেতু এটি কম বিশ্ব-জ্ঞান সম্পন্ন একটি ছোট সংস্করণ, তাই এটির হ্যালুসিনেশনের হার বেশি হওয়ার কথা ছিল। তবুও, ৪৮% এর প্রকৃত হার আশ্চর্যজনকভাবে বেশি ছিল, এই বিষয়টি বিবেচনা করে যে o4-mini একটি বাণিজ্যিকভাবে উপলব্ধ পণ্য যা ওয়েব অনুসন্ধান এবং তথ্য উদ্ধারের জন্য ব্যাপকভাবে ব্যবহৃত হয়।

পূর্ণ আকারের o3 মডেলটিও হ্যালুসিনেশনের একটি উদ্বেগজনক প্রবণতা দেখিয়েছে। এর ৩৩% প্রতিক্রিয়াতে, মডেলটি তথ্য তৈরি করেছে, যা o1 মডেলের হ্যালুসিনেশনের হারকে দ্বিগুণ করেছে। এই সত্ত্বেও, o3 একটি উচ্চ যথার্থতার হারও অর্জন করেছে, যা OpenAI সাধারণভাবে আরও বেশি দাবি করার প্রবণতার জন্য দায়ী করে।

হ্যালুসিনেশন কী

AI-এর প্রেক্ষাপটে “হ্যালুসিনেশন” শব্দটি মডেলের সেই প্রবণতাকে বোঝায়, যেখানে কোনো আপাত উৎস বা ন্যায্যতা ছাড়াই ভুল বা ভিত্তিহীন প্রতিক্রিয়া তৈরি করে। এগুলো কেবল খারাপ ডেটা বা ভুল ব্যাখ্যার কারণে হওয়া ভুল নয়। বরং, হ্যালুসিনেশন মডেলের যুক্তিবোধ প্রক্রিয়ার একটি মৌলিক ত্রুটিকে উপস্থাপন করে।

যদিও ভুল তথ্য বিভিন্ন উৎস থেকে আসতে পারে, যেমন উইকিপিডিয়া এন্ট্রি বা রেডিট থ্রেড, এই উদাহরণগুলো অনেকটা অনুসরণযোগ্য ত্রুটির মতো যা নির্দিষ্ট ডেটা পয়েন্টের জন্য দায়ী করা যেতে পারে। অন্যদিকে, হ্যালুসিনেশনগুলো অনিশ্চয়তার মুহূর্তে AI মডেলের তথ্য উদ্ভাবনের মাধ্যমে চিহ্নিত করা হয়, যেটিকে কিছু বিশেষজ্ঞ “সৃজনশীল শূন্যস্থান পূরণ” বলে অভিহিত করেছেন।

বিষয়টি পরিষ্কার করার জন্য, প্রশ্নটি বিবেচনা করুন, ‘বর্তমানে iPhone 16-এর কয়টি মডেল পাওয়া যাচ্ছে?’ যেহেতু পরবর্তী iPhone কী হবে তা শুধুমাত্র Apple জানে, তাই LLM সম্ভবত কিছু বাস্তব উত্তর দেবে — এবং তারপর কাজটি শেষ করার জন্য অতিরিক্ত মডেল তৈরি করবে। এটি হ্যালুসিনেশনের একটি স্পষ্ট উদাহরণ, যেখানে মডেলটি কাজটি সম্পূর্ণ করার জন্য তথ্য তৈরি করে, অথবা যেটাকে ‘সৃজনশীল শূন্যস্থান পূরণ’ বলা হয়।

প্রশিক্ষণের ডেটার ভূমিকা

চ্যাটবটগুলো, যেমন চ্যাটজিপিটি, ইন্টারনেটের বিপুল পরিমাণ ডেটা দিয়ে প্রশিক্ষিত। এই ডেটা তাদের প্রতিক্রিয়ার বিষয়বস্তু সম্পর্কে জানায় কিন্তু তারা কীভাবে সাড়া দেয় তাও তৈরি করে। মডেলগুলো অসংখ্য প্রশ্ন এবং মিলে যাওয়া আদর্শ প্রতিক্রিয়ার উদাহরণের মুখোমুখি হয়, যা নির্দিষ্ট সুর, মনোভাব এবং শালীনতার স্তরকে শক্তিশালী করে।

এই প্রশিক্ষণ প্রক্রিয়াটি অনিচ্ছাকৃতভাবে হ্যালুসিনেশনের সমস্যায় অবদান রাখতে পারে। মডেলগুলোকে আত্মবিশ্বাসী প্রতিক্রিয়া জানাতে উৎসাহিত করা হয় যা সরাসরি প্রশ্নের উত্তর দেয়। এর ফলে তারা প্রশ্নের উত্তর দেওয়াকে অগ্রাধিকার দিতে পারে, এমনকি যদি তাদের তা করার জন্য তথ্য তৈরি করতে হয়, পরিবর্তে তারা উত্তরটি জানে না বলার চেয়ে।

মোটকথা, প্রশিক্ষণ প্রক্রিয়াটি ভুল হলেও আত্মবিশ্বাসী এবং আপাতদৃষ্টিতে জ্ঞানী প্রতিক্রিয়াগুলোকে পুরস্কৃত করতে পারে। এটি তাদের যথার্থতা নির্বিশেষে উত্তর তৈরি করার দিকে একটি পক্ষপাত তৈরি করতে পারে, যা হ্যালুসিনেশনের সমস্যাকে আরও বাড়িয়ে তুলতে পারে।

AI ভুলের প্রকৃতি

AI ভুল এবং মানুষের ভুলের মধ্যে সমান্তরাল টানাটা স্বাভাবিক। সর্বোপরি, মানুষ ত্রুটিহীন নয়, এবং আমাদের AI থেকেও নিখুঁত হওয়ার আশা করা উচিত নয়। তবে, এটা মনে রাখা জরুরি যে AI ভুলগুলো মানুষের ভুলের চেয়ে মৌলিকভাবে ভিন্ন প্রক্রিয়া থেকে উদ্ভূত হয়।

AI মডেলগুলো মিথ্যা বলে না, ভুল বোঝাবুঝি তৈরি করে না, অথবা মানুষের মতো তথ্য ভুলভাবে মনে রাখে না। তাদের মধ্যে মানুষের যুক্তিবোধের ভিত্তি তৈরি করা জ্ঞানীয় ক্ষমতা এবং প্রাসঙ্গিক সচেতনতার অভাব রয়েছে। পরিবর্তে, তারা তাদের প্রশিক্ষণ ডেটাতে দেখা প্যাটার্নের উপর ভিত্তি করে একটি বাক্যে পরবর্তী শব্দটি ভবিষ্যদ্বাণী করে সম্ভাবনার ভিত্তিতে কাজ করে।

এই সম্ভাব্য পদ্ধতির অর্থ হলো AI মডেলগুলোর যথার্থতা বা নির্ভুলতা সম্পর্কে কোনো সত্যিকারের ধারণা নেই। তারা কেবল তাদের প্রশিক্ষণ ডেটা থেকে শেখা পরিসংখ্যানগত সম্পর্কের উপর ভিত্তি করে সবচেয়ে সম্ভাব্য শব্দের ক্রম তৈরি করে। এর ফলে আপাতদৃষ্টিতে সুসংগত প্রতিক্রিয়া তৈরি হতে পারে যা আসলে ভুল।

মডেলগুলোকে পুরো ইন্টারনেটের তথ্য সরবরাহ করা হলেও, তাদের বলা হয় না কোন তথ্য ভালো বা খারাপ, সঠিক বা ভুল — তাদের কিছুই বলা হয় না। তাদের বিদ্যমান মৌলিক জ্ঞান বা অন্তর্নিহিত নীতিগুলোর কোনো সেট নেই যা তাদের নিজেদের জন্য তথ্য বাছাই করতে সহায়তা করতে পারে। এটা কেবল একটি সংখ্যার খেলা — একটি নির্দিষ্ট প্রেক্ষাপটে সবচেয়ে বেশি বিদ্যমান শব্দগুলোর প্যাটার্ন LLM-এর “সত্য” হয়ে ওঠে।

চ্যালেঞ্জ মোকাবেলা

উন্নত AI মডেলগুলোতে হ্যালুসিনেশনের ক্রমবর্ধমান হার একটি বড় চ্যালেঞ্জ তৈরি করেছে। OpenAI এবং অন্যান্য AI ডেভেলপাররা এই সমস্যাটি বুঝতে এবং কমাতে সক্রিয়ভাবে কাজ করছেন। তবে, হ্যালুসিনেশনের অন্তর্নিহিত কারণগুলো সম্পূর্ণরূপে বোঝা যায়নি, এবং কার্যকর সমাধান খুঁজে বের করার প্রচেষ্টা চলছে।

একটি সম্ভাব্য উপায় হলো প্রশিক্ষণের ডেটার গুণমান এবং বৈচিত্র্য উন্নত করা। মডেলগুলোকে আরও নির্ভুল এবং ব্যাপক তথ্যের সাথে পরিচয় করিয়ে, ডেভেলপাররা তাদের ভুল তথ্য শেখা এবং স্থায়ী করার সম্ভাবনা কমাতে পারেন।

আরেকটি উপায় হলো হ্যালুসিনেশন সনাক্ত এবং প্রতিরোধের জন্য আরও অত্যাধুনিক কৌশল তৈরি করা। এর মধ্যে কোনো নির্দিষ্ট তথ্য সম্পর্কে অনিশ্চিত হলে মডেলগুলোকে চিনতে প্রশিক্ষণ দেওয়া এবং পর্যাপ্ত প্রমাণ ছাড়াই দাবি করা থেকে বিরত থাকতে উৎসাহিত করা যেতে পারে।

ইতিমধ্যে, OpenAI-কে একটি স্বল্পমেয়াদী সমাধান অনুসরণ করার পাশাপাশি মূল কারণ অনুসন্ধানের গবেষণা চালিয়ে যেতে হতে পারে। সর্বোপরি, এই মডেলগুলো অর্থ উপার্জনকারী পণ্য এবং তাদের ব্যবহারযোগ্য অবস্থায় থাকা দরকার। একটি ধারণা হতে পারে একটি সমষ্টিগত পণ্য তৈরি করা — একটি চ্যাট ইন্টারফেস যা একাধিক ভিন্ন OpenAI মডেলের অ্যাক্সেস করতে পারে।

যখন কোনো প্রশ্নের জন্য উন্নত যুক্তির প্রয়োজন হয়, তখন এটি GPT-4o-কে কল করবে, এবং যখন এটি হ্যালুসিনেশনের সম্ভাবনা কমাতে চায়, তখন এটি o1-এর মতো পুরনো মডেলকে কল করবে। সম্ভবত কোম্পানিটি আরও আকর্ষণীয় হতে পারবে এবং একটি একক প্রশ্নের বিভিন্ন উপাদানগুলোর যত্ন নেওয়ার জন্য বিভিন্ন মডেল ব্যবহার করতে পারবে, এবং তারপর শেষে এটিকে একত্রিত করার জন্য একটি অতিরিক্ত মডেল ব্যবহার করতে পারবে। যেহেতু এটি মূলত একাধিক AI মডেলের মধ্যে টিমওয়ার্ক হবে, তাই সম্ভবত কোনো ধরনের ফ্যাক্ট-চেকিং সিস্টেমও বাস্তবায়ন করা যেতে পারে।

যথার্থতার হার বাড়ানো প্রধান লক্ষ্য নয়। প্রধান লক্ষ্য হলো হ্যালুসিনেশনের হার কমানো, যার মানে আমাদের “আমি জানি না” বলা প্রতিক্রিয়াগুলোকে সঠিক উত্তরগুলোর মতোই মূল্যবান মনে করতে হবে।

ফ্যাক্ট-চেকিংয়ের গুরুত্ব

AI মডেলগুলোতে হ্যালুসিনেশনের ক্রমবর্ধমান প্রাদুর্ভাব ফ্যাক্ট-চেকিংয়ের গুরুত্বকে তুলে ধরে। যদিও এই মডেলগুলো তথ্য পুনরুদ্ধার এবং টাস্ক অটোমেশনের জন্য মূল্যবান সরঞ্জাম হতে পারে, তবে তাদের সত্যের অকাট্য উৎস হিসেবে বিবেচনা করা উচিত নয়।

AI মডেলের আউটপুট ব্যাখ্যা করার সময় ব্যবহারকারীদের সর্বদা সতর্কতা অবলম্বন করা উচিত এবং তারা যে কোনো তথ্য পায় তা স্বাধীনভাবে যাচাই করা উচিত। সংবেদনশীল বা ফলস্বরূপ বিষয়গুলোর ক্ষেত্রে এটি বিশেষভাবে গুরুত্বপূর্ণ।

AI-উত্পাদিত সামগ্রীর প্রতি সমালোচনামূলক এবং সন্দেহজনক দৃষ্টিভঙ্গি গ্রহণ করে, আমরা হ্যালুসিনেশনের সাথে সম্পর্কিত ঝুঁকিগুলো কমাতে পারি এবং নিশ্চিত করতে পারি যে আমরা সঠিক তথ্যের উপর ভিত্তি করে সচেতন সিদ্ধান্ত নিচ্ছি। আপনি যদি LLM-এ আগ্রহী হন, তবে সেগুলো ব্যবহার করা বন্ধ করার দরকার নেই — তবে সময় বাঁচানোর আকাঙ্ক্ষাকে ফলাফলের ফ্যাক্ট-চেক করার প্রয়োজনের চেয়ে বেশি হতে দেবেন না। সর্বদা ফ্যাক্ট-চেক করুন!

AI-এর ভবিষ্যতের জন্য প্রভাব

হ্যালুসিনেশনের চ্যালেঞ্জ AI-এর ভবিষ্যতের জন্য উল্লেখযোগ্য প্রভাব ফেলে। AI মডেলগুলো আমাদের জীবনে আরও বেশি একত্রিত হওয়ার সাথে সাথে এটি অপরিহার্য যে তারা নির্ভরযোগ্য এবং বিশ্বাসযোগ্য হোক। যদি AI মডেলগুলো মিথ্যা বা বিভ্রান্তিকর তথ্য তৈরি করার প্রবণ হয়, তবে এটি জনগণের বিশ্বাসকে নষ্ট করতে পারে এবং তাদের ব্যাপক গ্রহণকে বাধা দিতে পারে।

হ্যালুসিনেশনের সমস্যা মোকাবেলা করা কেবল AI মডেলগুলোর যথার্থতা উন্নত করার জন্য নয়, তাদের নৈতিক এবং দায়িত্বশীল ব্যবহার নিশ্চিত করার জন্যও গুরুত্বপূর্ণ। হ্যালুসিনেশনের প্রবণতা কম এমন AI সিস্টেম তৈরি করে, আমরা ভুল তথ্য এবং প্রতারণার ঝুঁকি কমিয়ে ভালোর জন্য তাদের সম্ভাবনাকে কাজে লাগাতে পারি।