हाल के अध्ययनों से एक चिंताजनक प्रवृत्ति का पता चला है: नए ChatGPT मॉडल अपने पूर्ववर्तियों की तुलना में अधिक दर पर भ्रम दिखा रहे हैं। यह खोज बड़े भाषा मॉडल (LLMs) में उन्नत क्षमताओं और विश्वसनीयता के बीच व्यापार-नापसंद के बारे में महत्वपूर्ण प्रश्न उठाती है। आइए इन निष्कर्षों के विवरण में तल्लीन करें और संभावित निहितार्थों का पता लगाएं।
घटना को समझना
OpenAI के आंतरिक परीक्षण, जैसा कि हाल ही में एक पेपर में विस्तृत है, o3 और o4-मिनी जैसे मॉडलों में मतिभ्रम दरों में उल्लेखनीय वृद्धि को उजागर करते हैं। ये मॉडल, उन्नत तर्क और मल्टीमॉडल क्षमताओं के साथ डिज़ाइन किए गए हैं, AI तकनीक के अत्याधुनिक का प्रतिनिधित्व करते हैं। वे चित्र उत्पन्न कर सकते हैं, वेब खोज कर सकते हैं, कार्यों को स्वचालित कर सकते हैं, पिछली बातचीत को याद रख सकते हैं और जटिल समस्याओं को हल कर सकते हैं। हालाँकि, ये प्रगति एक कीमत पर आती है।
इन मतिभ्रमों की सीमा को मापने के लिए, OpenAI पर्सनQA नामक एक विशिष्ट परीक्षण का उपयोग करता है। इस परीक्षण में मॉडल को विभिन्न व्यक्तियों के बारे में तथ्यों का एक सेट खिलाना और फिर उन व्यक्तियों के बारे में प्रश्न पूछना शामिल है। मॉडल की सटीकता का मूल्यांकन तब सही उत्तर प्रदान करने की उसकी क्षमता के आधार पर किया जाता है।
पिछले मूल्यांकनों में, o1 मॉडल ने केवल 16% की मतिभ्रम दर के साथ 47% की सराहनीय सटीकता दर हासिल की। हालाँकि, जब o3 और o4-मिनी को उसी मूल्यांकन के अधीन किया गया, तो परिणाम स्पष्ट रूप से भिन्न थे।
o4-मिनी मॉडल, कम विश्व ज्ञान वाला एक छोटा संस्करण होने के नाते, एक उच्च मतिभ्रम दर प्रदर्शित करने की उम्मीद थी। फिर भी, 48% की वास्तविक दर आश्चर्यजनक रूप से अधिक थी, यह देखते हुए कि o4-मिनी एक व्यावसायिक रूप से उपलब्ध उत्पाद है जिसका व्यापक रूप से वेब खोज और सूचना पुनर्प्राप्ति के लिए उपयोग किया जाता है।
पूर्ण आकार के o3 मॉडल ने भी मतिभ्रम करने की चिंताजनक प्रवृत्ति का प्रदर्शन किया। अपनी 33% प्रतिक्रियाओं में, मॉडल ने जानकारी गढ़ी, प्रभावी रूप से o1 मॉडल की मतिभ्रम दर को दोगुना कर दिया। इसके बावजूद, o3 ने उच्च सटीकता दर भी हासिल की, जिसे OpenAI ने समग्र रूप से अधिक दावे करने की अपनी प्रवृत्ति के लिए जिम्मेदार ठहराया।
मतिभ्रम को परिभाषित करना
AI के संदर्भ में, “मतिभ्रम” शब्द का तात्पर्य किसी मॉडल की ऐसी प्रतिक्रियाएँ उत्पन्न करने की प्रवृत्ति से है जो तथ्यात्मक रूप से गलत या बेतुकी हैं, बिना किसी स्पष्ट स्रोत या औचित्य के। ये केवल खराब डेटा या गलत व्याख्या से उत्पन्न होने वाली गलतियाँ नहीं हैं। इसके बजाय, मतिभ्रम मॉडल की तर्क प्रक्रिया में एक अधिक मौलिक दोष का प्रतिनिधित्व करते हैं।
जबकि गलत जानकारी निश्चित रूप से विभिन्न स्रोतों से उत्पन्न हो सकती है, जैसे कि विकिपीडिया प्रविष्टियाँ या रेडिट थ्रेड, ये उदाहरण अधिक विशिष्ट डेटा बिंदुओं के लिए जिम्मेदार ठहराए जा सकने वाली पता लगाने योग्य त्रुटियों के समान हैं। दूसरी ओर, मतिभ्रम, अनिश्चितता के क्षणों में तथ्यों के AI मॉडल के आविष्कार द्वारा विशेषता है, जिसे कुछ विशेषज्ञों ने “रचनात्मक अंतराल-भरना” कहा है।
इस बिंदु को स्पष्ट करने के लिए, प्रश्न पर विचार करें, ‘अभी iPhone 16 के सात मॉडल कौन से उपलब्ध हैं?’ चूंकि केवल Apple को ही पता है कि अगला iPhone क्या होगा, इसलिए LLM कुछ वास्तविक उत्तर प्रदान करने की संभावना है - और फिर नौकरी खत्म करने के लिए अतिरिक्त मॉडल बनाएगा। यह मतिभ्रम का एक स्पष्ट उदाहरण है, जहां मॉडल कार्य को पूरा करने के लिए जानकारी गढ़ता है, या जिसे ‘रचनात्मक अंतराल-भरना’ कहा जाता है।
प्रशिक्षण डेटा की भूमिका
ChatGPT जैसे चैटबॉट को इंटरनेट डेटा की विशाल मात्रा पर प्रशिक्षित किया जाता है। यह डेटा उनकी प्रतिक्रियाओं की सामग्री को सूचित करता है लेकिन यह भी आकार देता है कि वे कैसे प्रतिक्रिया करते हैं। मॉडलों को अनगिनत उदाहरणों के प्रश्नों और मिलान आदर्श प्रतिक्रियाओं से अवगत कराया जाता है, जो विशिष्ट स्वरों, दृष्टिकोणों और विनम्रता के स्तरों को सुदृढ़ करता है।
यह प्रशिक्षण प्रक्रिया अनजाने में मतिभ्रम की समस्या में योगदान कर सकती है। मॉडलों को आश्वस्त प्रतिक्रियाएँ प्रदान करने के लिए प्रोत्साहित किया जाता है जो सीधे प्रश्न को संबोधित करती हैं। यह उन्हें प्रश्न का उत्तर देने को प्राथमिकता देने के लिए प्रेरित कर सकता है, भले ही उन्हें ऐसा करने के लिए जानकारी का आविष्कार करना पड़े, बजाय यह स्वीकार करने के कि उन्हें उत्तर नहीं पता है।
संक्षेप में, प्रशिक्षण प्रक्रिया अनजाने में आश्वस्त और दिखने में जानकार प्रतिक्रियाओं को पुरस्कृत कर सकती है, भले ही वे तथ्यात्मक रूप से गलत हों। यह उनकी सटीकता की परवाह किए बिना, उत्तर उत्पन्न करने की ओर एक पूर्वाग्रह पैदा कर सकता है, जो मतिभ्रम की समस्या को बढ़ा सकता है।
AI गलतियों की प्रकृति
AI गलतियों और मानवीय त्रुटियों के बीच समानताएं खींचना लुभावना है। आखिरकार, इंसान अचूक नहीं हैं, और हमें AI से भी पूर्ण होने की उम्मीद नहीं करनी चाहिए। हालाँकि, यह पहचानना महत्वपूर्ण है कि AI गलतियाँ मानवीय त्रुटियों की तुलना में मौलिक रूप से भिन्न प्रक्रियाओं से उत्पन्न होती हैं।
AI मॉडल झूठ नहीं बोलते हैं, गलतफहमी विकसित नहीं करते हैं, या उसी तरह से जानकारी को गलत तरीके से याद नहीं करते हैं जैसे मनुष्य करते हैं। उनमें संज्ञानात्मक क्षमताओं और प्रासंगिक जागरूकता की कमी होती है जो मानवीय तर्क को रेखांकित करती है। इसके बजाय, वे संभावनाओं के आधार पर काम करते हैं, अपने प्रशिक्षण डेटा में देखे गए पैटर्न के आधार पर एक वाक्य में अगले शब्द की भविष्यवाणी करते हैं।
इस संभाव्य दृष्टिकोण का मतलब है कि AI मॉडल में सटीकता या अशुद्धि की सच्ची समझ नहीं है। वे अपने प्रशिक्षण डेटा से सीखे गए सांख्यिकीय संबंधों के आधार पर शब्दों के सबसे संभावित अनुक्रम को उत्पन्न करते हैं। इससे दिखने में सुसंगत प्रतिक्रियाओं का उत्पादन हो सकता है जो वास्तव में तथ्यात्मक रूप से गलत हैं।
जबकि मॉडलों को पूरे इंटरनेट के लायक जानकारी खिलाई जाती है, उन्हें यह नहीं बताया जाता है कि कौन सी जानकारी अच्छी या बुरी, सटीक या गलत है - उन्हें कुछ भी नहीं बताया जाता है। उनके पास मौजूदा मूलभूत ज्ञान या अंतर्निहित सिद्धांतों का एक सेट नहीं है जो उन्हें स्वयं जानकारी को छांटने में मदद कर सके। यह सब सिर्फ एक संख्याओं का खेल है - किसी दिए गए संदर्भ में सबसे अधिक बार मौजूद शब्दों के पैटर्न LLM का ‘सत्य’ बन जाते हैं।
चुनौती का समाधान
उन्नत AI मॉडल में मतिभ्रम की बढ़ती दर एक महत्वपूर्ण चुनौती है। OpenAI और अन्य AI डेवलपर इस समस्या को समझने और कम करने के लिए सक्रिय रूप से काम कर रहे हैं। हालाँकि, मतिभ्रम के अंतर्निहित कारण पूरी तरह से समझ में नहीं आए हैं, और प्रभावी समाधान खोजना एक सतत प्रयास बना हुआ है।
एक संभावित दृष्टिकोण प्रशिक्षण डेटा की गुणवत्ता और विविधता में सुधार करना है। मॉडलों को अधिक सटीक और व्यापक जानकारी से अवगत कराकर, डेवलपर उनके द्वारा झूठी जानकारी सीखने और उसे बनाए रखने की संभावना को कम कर सकते हैं।
एक अन्य दृष्टिकोण मतिभ्रम का पता लगाने और रोकने के लिए अधिक परिष्कृत तकनीकों का विकास करना है। इसमें मॉडल को यह पहचानने के लिए प्रशिक्षित करना शामिल हो सकता है कि वे किसी विशेष जानकारी के बारे में अनिश्चित हैं और पर्याप्त सबूत के बिना दावे करने से बचना चाहिए।
इस बीच, OpenAI को एक अल्पकालिक समाधान का भी पालन करने की आवश्यकता हो सकती है और साथ ही मूल कारण में अपना शोध जारी रखना चाहिए। आखिरकार, ये मॉडल पैसा बनाने वाले उत्पाद हैं और उन्हें उपयोग करने योग्य स्थिति में होने की आवश्यकता है। एक विचार कुछ प्रकार का समेकित उत्पाद बनाना होगा - एक चैट इंटरफ़ेस जिसकी कई अलग-अलग OpenAI मॉडल तक पहुंच हो।
जब किसी क्वेरी के लिए उन्नत तर्क की आवश्यकता होती है, तो यह GPT-4o पर कॉल करेगा, और जब यह मतिभ्रम की संभावना को कम करना चाहता है, तो यह o1 जैसे पुराने मॉडल पर कॉल करेगा। शायद कंपनी और भी फैंसी होने में सक्षम होगी और एक ही क्वेरी के विभिन्न तत्वों का ध्यान रखने के लिए विभिन्न मॉडलों का उपयोग कर सकती है, और फिर अंत में इसे एक साथ सिलाई करने के लिए एक अतिरिक्त मॉडल का उपयोग कर सकती है। चूंकि यह अनिवार्य रूप से कई AI मॉडलों के बीच टीम वर्क होगा, इसलिए शायद कुछ प्रकार की तथ्य-जांच प्रणाली को भी लागू किया जा सकता है।
सटीकता दर बढ़ाना मुख्य लक्ष्य नहीं है। मुख्य लक्ष्य मतिभ्रम दर को कम करना है, जिसका अर्थ है कि हमें उन प्रतिक्रियाओं को महत्व देने की आवश्यकता है जो कहती हैं ‘मुझे नहीं पता’ साथ ही सही उत्तरों के साथ प्रतिक्रियाएं भी।
तथ्य-जांच का महत्व
AI मॉडल में मतिभ्रम की बढ़ती व्यापकता तथ्य-जांच के महत्व को रेखांकित करती है। जबकि ये मॉडल सूचना पुनर्प्राप्ति और कार्य स्वचालन के लिए मूल्यवान उपकरण हो सकते हैं, उन्हें सत्य के अचूक स्रोतों के रूप में नहीं माना जाना चाहिए।
AI मॉडल के आउटपुट की व्याख्या करते समय उपयोगकर्ताओं को हमेशा सावधानी बरतनी चाहिए और उन्हें प्राप्त होने वाली किसी भी जानकारी को स्वतंत्र रूप से सत्यापित करना चाहिए। यह विशेष रूप से महत्वपूर्ण है जब संवेदनशील या परिणामी मामलों से निपटा जा रहा हो।
AI-जनित सामग्री के प्रति आलोचनात्मक और संशयवादी दृष्टिकोण अपनाकर, हम मतिभ्रम से जुड़े जोखिमों को कम कर सकते हैं और यह सुनिश्चित कर सकते हैं कि हम सटीक जानकारी के आधार पर सूचित निर्णय ले रहे हैं। यदि आप LLM में बड़े हैं, तो उन्हें उपयोग करना बंद करने की कोई आवश्यकता नहीं है - लेकिन समय बचाने की इच्छा को परिणामों की तथ्य-जांच की आवश्यकता पर जीतने न दें। हमेशा तथ्य-जांच करें!
AI के भविष्य के लिए निहितार्थ
मतिभ्रम की चुनौती के AI के भविष्य के लिए महत्वपूर्ण निहितार्थ हैं। जैसे-जैसे AI मॉडल हमारे जीवन में अधिक एकीकृत होते जाते हैं, यह आवश्यक है कि वे विश्वसनीय और भरोसेमंद हों। यदि AI मॉडल झूठी या भ्रामक जानकारी उत्पन्न करने के लिए प्रवण हैं, तो यह सार्वजनिक विश्वास को कम कर सकता है और उनके व्यापक रूप से अपनाने में बाधा डाल सकता है।
मतिभ्रम की समस्या का समाधान करना न केवल AI मॉडल की सटीकता में सुधार के लिए महत्वपूर्ण है, बल्कि उनके नैतिक और जिम्मेदार उपयोग को सुनिश्चित करने के लिए भी महत्वपूर्ण है। ऐसे AI सिस्टम विकसित करके जो मतिभ्रम के लिए कम प्रवण हैं, हम गलत सूचना और धोखे के जोखिमों को कम करते हुए अच्छे के लिए उनकी क्षमता का दोहन कर सकते हैं।