सटीकता का भ्रम (The Illusion of Accuracy)
सर्च इंजन का मूल वादा उपयोगकर्ताओं को विश्वसनीय स्रोतों से जोड़ना था। अब, वह वादा टूट रहा है। AI-संचालित खोज उपकरण तेजी से पदार्थ पर गति को प्राथमिकता दे रहे हैं, ऐसे उत्तर दे रहे हैं जो आत्मविश्वास से भरे दिखाई देते हैं लेकिन सत्यापन योग्य साक्ष्य के आवश्यक समर्थन का अभाव है। हम जो देख रहे हैं वह एक ऐसी प्रणाली से बदलाव है जो उपयोगकर्ताओं को विश्वसनीय जानकारी के लिए मार्गदर्शन करती है, एक ऐसी प्रणाली में जो प्रतिक्रियाओं का निर्माण करती है, अक्सर उनकी सच्चाई के प्रति बहुत कम सम्मान के साथ।
यह केवल सामयिक त्रुटियों का मामला नहीं है। यह एक प्रणालीगत समस्या है। CJR अध्ययन से पता चलता है कि AI सर्च इंजन न केवल गलतियाँ कर रहे हैं; वे सक्रिय रूप से सत्यापन योग्य स्रोतों से अलग एक वास्तविकता का निर्माण कर रहे हैं। वे वेब से सामग्री स्क्रैप कर रहे हैं, लेकिन उपयोगकर्ताओं को मूल स्रोतों-वेबसाइटों जो परिश्रमपूर्वक जानकारी का उत्पादन और प्रकाशन करते हैं-पर निर्देशित करने के बजाय, वे तत्काल, अक्सर मनगढ़ंत, उत्तर प्रदान कर रहे हैं।
ट्रैफिक ड्रेन और फैंटम उद्धरण (The Traffic Drain and the Phantom Citations)
इस दृष्टिकोण के परिणाम दूरगामी हैं। तत्काल प्रभाव जानकारी के मूल स्रोतों पर ट्रैफ़िक में महत्वपूर्ण कमी है। वेबसाइटें, समाचार संगठन और शोधकर्ता जो सामग्री बनाने में समय और संसाधन लगाते हैं, वे खुद को दरकिनार पाते हैं। उपयोगकर्ताओं को सीधे AI से अपने उत्तर मिल रहे हैं, बिना उन साइटों पर जाने की आवश्यकता के, जहां से जानकारी उत्पन्न हुई थी।
एक अलग अध्ययन इस खतरनाक प्रवृत्ति की पुष्टि करता है, जिसमें पाया गया कि AI-जनित खोज परिणामों और चैटबॉट से क्लिक-थ्रू दरें Google जैसे पारंपरिक खोज इंजनों की तुलना में काफी कम हैं। इसका मतलब है कि ऑनलाइन सामग्री की जीवनदायिनी-दर्शकों तक पहुंचने की क्षमता-धीरे-धीरे बंद हो रही है।
लेकिन समस्या और भी गहरी है। ये AI उपकरण न केवल स्रोतों को श्रेय देने में विफल हो रहे हैं; वे अक्सर फैंटम उद्धरण बना रहे हैं। वे गैर-मौजूद वेबपृष्ठों, या ऐसे URL के लिंक उत्पन्न कर रहे हैं जो टूटे हुए हैं या अप्रासंगिक हैं। यह एक छात्र के शोध पत्र लिखने और अपने दावों का समर्थन करने के लिए स्रोतों का आविष्कार करने जैसा है। यह सिर्फ मैला नहीं है; यह बौद्धिक ईमानदारी का मौलिक उल्लंघन है।
धोखे में एक गहरी डुबकी (A Deep Dive into the Deception)
CJR अध्ययन ने कई प्रमुख AI खोज मॉडलों के प्रदर्शन का सावधानीपूर्वक विश्लेषण किया। निष्कर्ष बहुत परेशान करने वाले हैं। Google के Gemini और xAI के Grok 3-AI खोज परिदृश्य में दो प्रमुख खिलाड़ी-द्वारा उत्पन्न आधे से अधिक उद्धरण, मनगढ़ंत या दुर्गम वेबपृष्ठों की ओर ले गए। यह एक छोटी सी गड़बड़ नहीं है; यह एक प्रणालीगत विफलता है।
और समस्या उद्धरणों से परे फैली हुई है। चैटबॉट, सामान्य तौर पर, 60% से अधिक मामलों में गलत जानकारी देते पाए गए। मूल्यांकन किए गए मॉडलों में, Grok 3 सबसे खराब अपराधी के रूप में सामने आया, जिसमें 94% प्रतिक्रियाओं में अशुद्धियाँ थीं। Gemini, थोड़ा बेहतर प्रदर्शन करते हुए भी, हर दस प्रयासों में केवल एक बार पूरी तरह से सही उत्तर देने में कामयाब रहा। यहां तक कि Perplexity, जो परीक्षण किए गए मॉडलों में सबसे सटीक के रूप में उभरा, फिर भी 37% समय गलत प्रतिक्रियाएं लौटाता है।
ये संख्याएँ केवल आँकड़े नहीं हैं; वे जानकारी की विश्वसनीयता में एक मौलिक टूटन का प्रतिनिधित्व करते हैं। वे सुझाव देते हैं कि डिजिटल दुनिया की जटिलताओं को नेविगेट करने में हमारी मदद करने के लिए डिज़ाइन किए गए उपकरण वास्तव में हमें गुमराह कर रहे हैं।
नियमों की अनदेखी: रोबोट बहिष्करण प्रोटोकॉल (Ignoring the Rules: The Robot Exclusion Protocol)
अध्ययन के लेखकों ने इस AI-संचालित धोखे का एक और परेशान करने वाला पहलू उजागर किया। कई AI मॉडल जानबूझकर रोबोट बहिष्करण प्रोटोकॉल की अवहेलना करते दिखाई दिए। यह प्रोटोकॉल एक मानक, व्यापक रूप से अपनाया गया तंत्र है जो वेबसाइटों को यह नियंत्रित करने की अनुमति देता है कि उनकी साइट के किन हिस्सों को स्वचालित बॉट द्वारा एक्सेस और स्क्रैप किया जा सकता है। यह वेबसाइटों के लिए अपनी सामग्री की रक्षा करने और यह प्रबंधित करने का एक तरीका है कि इसका उपयोग कैसे किया जाता है।
तथ्य यह है कि AI खोज इंजन इस प्रोटोकॉल को अनदेखा कर रहे हैं, गंभीर नैतिक प्रश्न उठाते हैं। यह सामग्री निर्माताओं के अधिकारों के प्रति उपेक्षा और बिना अनुमति के ऑनलाइन जानकारी का शोषण करने की इच्छा का सुझाव देता है। यह व्यवहार वेब की नींव को कमजोर करता है, जो जानकारी तक पहुंच और बौद्धिक संपदा की सुरक्षा के बीच एक नाजुक संतुलन पर निर्भर करता है।
पिछली चेतावनियों की गूँज (Echoes of Past Warnings)
CJR अध्ययन के निष्कर्ष अलग-थलग नहीं हैं। वे नवंबर 2024 में प्रकाशित एक पिछले अध्ययन के साथ प्रतिध्वनित होते हैं, जो ChatGPT की खोज क्षमताओं पर केंद्रित था। उस पहले की जांच ने आत्मविश्वास से भरे लेकिन गलत उत्तरों, भ्रामक उद्धरणों और अविश्वसनीय जानकारी पुनर्प्राप्ति का एक सुसंगत पैटर्न प्रकट किया। दूसरे शब्दों में, CJR द्वारा पहचानी गई समस्याएँ नई नहीं हैं; वे लगातार और प्रणालीगत हैं।
विश्वास और एजेंसी का क्षरण (The Erosion of Trust and Agency)
क्षेत्र के विशेषज्ञ कुछ समय से जनरेटिव AI के खतरों के बारे में अलार्म बजा रहे हैं। चिराग शाह और एमिली एम. बेंडर जैसे आलोचकों ने चिंता जताई है कि AI सर्च इंजन उपयोगकर्ता एजेंसी को नष्ट कर रहे हैं, सूचना पहुंच में पूर्वाग्रहों को बढ़ा रहे हैं, और अक्सर भ्रामक या यहां तक कि जहरीले उत्तर प्रस्तुत कर रहे हैं जिन्हें उपयोगकर्ता बिना किसी सवाल के स्वीकार कर सकते हैं।
मुख्य मुद्दा यह है कि ये AI मॉडल ध्वनि आधिकारिक होने के लिए डिज़ाइन किए गए हैं, भले ही वे गलत हों। उन्हें पाठ और कोड के विशाल डेटासेट पर प्रशिक्षित किया जाता है, और वे ऐसी प्रतिक्रियाएँ उत्पन्न करने में सक्षम होते हैं जो उल्लेखनीय प्रवाह के साथ मानव भाषा की नकल करते हैं। लेकिन यह प्रवाह भ्रामक हो सकता है। यह इस तथ्य को छिपा सकता है कि अंतर्निहित जानकारी त्रुटिपूर्ण, मनगढ़ंत या बस गलत है।
गलत सूचना के यांत्रिकी (The Mechanics of the Misinformation)
CJR अध्ययन में 1,600 प्रश्नों का विस्तृत विश्लेषण शामिल था, जिसे यह तुलना करने के लिए डिज़ाइन किया गया था कि विभिन्न जनरेटिव AI खोज मॉडल जानकारी कैसे प्राप्त करते हैं। शोधकर्ताओं ने सुर्खियों, प्रकाशकों, प्रकाशन तिथियों और URL जैसे प्रमुख तत्वों पर ध्यान केंद्रित किया। उन्होंने ChatGPT Search, Microsoft CoPilot, DeepSeek Search, Perplexity (और इसके प्रो संस्करण), xAI’s Grok-2 और Grok-3 Search, और Google Gemini सहित कई मॉडलों का परीक्षण किया।
परीक्षण पद्धति कठोर थी। शोधकर्ताओं ने 20 विभिन्न प्रकाशकों से प्राप्त 10 यादृच्छिक रूप से चयनित लेखों से सीधे अंशों का उपयोग किया। इस दृष्टिकोण ने यह सुनिश्चित किया कि प्रश्न वास्तविक दुनिया की सामग्री पर आधारित थे और मॉडलों का मूल्यांकन उस सामग्री को सटीक रूप से पुनः प्राप्त करने और उसका प्रतिनिधित्व करने की उनकी क्षमता पर किया जा रहा था।
परिणाम, जैसा कि पहले विस्तृत किया गया है, AI-संचालित खोज की स्थिति की एक गंभीर तस्वीर पेश करते हैं। वे उपकरण जो तेजी से जानकारी के लिए हमारे प्राथमिक प्रवेश द्वार बन रहे हैं, प्रदर्शनकारी रूप से अविश्वसनीय हैं, निर्माण के लिए प्रवण हैं, और अक्सर उन स्रोतों के प्रति अपमानजनक हैं जिन पर वे भरोसा करते हैं।
सूचना के भविष्य के लिए निहितार्थ (The Implications for the Future of Information)
इस व्यापक गलत सूचना के निहितार्थ गहन हैं। यदि हम उन उपकरणों पर भरोसा नहीं कर सकते हैं जिनका उपयोग हम जानकारी खोजने के लिए करते हैं, तो हम सूचित निर्णय कैसे ले सकते हैं? हम सार्थक बहस में कैसे शामिल हो सकते हैं? हम सत्ता को कैसे जवाबदेह ठहरा सकते हैं?
AI-संचालित खोज का उदय, अपनी अंतर्निहित खामियों और पूर्वाग्रहों के साथ, हमारे सूचना पारिस्थितिकी तंत्र के ताने-बाने के लिए एक महत्वपूर्ण खतरा पैदा करता है। यह समाचार संगठनों, शोधकर्ताओं और अन्य सामग्री निर्माताओं की विश्वसनीयता को कमजोर करता है। यह संस्थानों में जनता के विश्वास को कम करता है। और यह उन लोगों को सशक्त बनाता है जो गलत सूचना फैलाना और जनमत में हेरफेर करना चाहते हैं।
हमारे सामने चुनौती केवल AI खोज इंजनों की सटीकता में सुधार करना नहीं है। यह मौलिक रूप से उस तरीके पर पुनर्विचार करना है जिस तरह से हम डिजिटल युग में जानकारी की खोज करते हैं। हमें पारदर्शिता, जवाबदेही और सूचना के स्रोतों के प्रति सम्मान को प्राथमिकता देने की आवश्यकता है। हमें ऐसे उपकरण और रणनीतियाँ विकसित करने की आवश्यकता है जो उपयोगकर्ताओं को ऑनलाइन मिलने वाली जानकारी का आलोचनात्मक मूल्यांकन करने के लिए सशक्त बनाएं। और हमें संदेह और आलोचनात्मक सोच की संस्कृति को बढ़ावा देने की आवश्यकता है, जहां हम केवल जानकारी के निष्क्रिय प्राप्तकर्ता नहीं हैं, बल्कि सच्चाई की खोज में सक्रिय भागीदार हैं। सूचित प्रवचन का भविष्य, और शायद लोकतंत्र भी, इस पर निर्भर करता है।
AI-संचालित खोज में गलत सूचना का संकट केवल एक तकनीकी समस्या नहीं है; यह एक सामाजिक समस्या है। यह एक बहुआयामी प्रतिक्रिया की मांग करता है, जिसमें न केवल इंजीनियर और डेवलपर्स शामिल हैं, बल्कि पत्रकार, शिक्षक, नीति निर्माता और बड़े पैमाने पर जनता भी शामिल है। हमें सामूहिक रूप से एक अधिक विश्वसनीय, भरोसेमंद और पारदर्शी सूचना पारिस्थितिकी तंत्र बनाने के लिए काम करना चाहिए, जो गलत सूचना फैलाने वालों की नहीं, बल्कि सूचित नागरिकों की जरूरतों को पूरा करे।
वर्तमान प्रक्षेपवक्र अस्थिर है। यदि AI खोज सटीकता और सच्चाई पर गति और सुविधा को प्राथमिकता देना जारी रखती है, तो हम एक ऐसी दुनिया बनाने का जोखिम उठाते हैं जहां गलत सूचना सर्वोच्च शासन करती है, और जहां वस्तुनिष्ठ वास्तविकता की धारणा तेजी से मायावी हो जाती है। ऐसा होने देने के लिए दांव बहुत ऊंचे हैं।