एआय शोध तुम्हाला खोटे बोलत आहे, आणि ते अधिक वाईट होत आहे

अचूकतेचा भ्रम

सर्च इंजिन्सचे मूलभूत वचन वापरकर्त्यांना विश्वसनीय स्त्रोतांशी जोडण्याचे होते. आता, ते वचन पाळले जात नाहीये. AI-सक्षम सर्च टूल्स वेगाला जास्त महत्त्व देत आहेत, ज्यामुळे दिसणारी उत्तरे मिळतात, पण त्यात सत्यता नसते. आपण हे पाहत आहोत की, एक अशी प्रणाली जी वापरकर्त्यांना विश्वसनीय माहितीकडे घेऊन जायची, ती आता स्वतःच उत्तरे तयार करत आहे, अनेकदा त्यांच्या सत्यतेकडे दुर्लक्ष करून.

ही केवळ अधूनमधून होणाऱ्या चुकांची बाब नाही. ही एक पद्धतशीर समस्या आहे. CJR अभ्यासात असे दिसून आले आहे की AI सर्च इंजिन्स केवळ चुका करत नाहीत; तर ते सत्य माहितीपासून दूर असलेली एक वेगळीच वास्तविकता तयार करत आहेत. ते वेबवरील माहिती गोळा करतात, परंतु वापरकर्त्यांना मूळ स्त्रोतांकडे—ज्या वेबसाइट्स माहिती तयार करतात आणि प्रकाशित करतात—त्यांच्याकडे निर्देशित करण्याऐवजी, ते त्वरित, अनेकदा बनावट उत्तरे देतात.

रहदारीतील घट आणि काल्पनिक संदर्भ

या दृष्टिकोनाचे परिणाम दूरगामी आहेत. याचा तात्काळ परिणाम म्हणजे माहितीच्या मूळ स्त्रोतांकडील रहदारीत (traffic) लक्षणीय घट. वेबसाइट्स, बातम्या संस्था आणि संशोधक जे कंटेट तयार करण्यासाठी वेळ आणि संसाधने गुंतवतात, त्यांना डावलले जात आहे. वापरकर्त्यांना त्यांची उत्तरे थेट AI कडून मिळत आहेत, ज्यामुळे माहिती देणाऱ्या साइट्सना भेट देण्याची गरज उरत नाही.

एक वेगळा अभ्यास या चिंताजनक गोष्टीला दुजोरा देतो, ज्यात असे दिसून आले आहे की AI-निर्मित शोध परिणाम आणि चॅटबॉट्समधील क्लिक-थ्रू दर Google सारख्या पारंपारिक शोध इंजिन्सपेक्षा खूपच कमी आहेत. याचा अर्थ असा आहे की ऑनलाइन कंटेटचा ಜೀವ—वाचकांपर्यंत पोहोचण्याची क्षमता— हळूहळू कमी होत आहे.

परंतु समस्या आणखी खोल आहे. ही AI टूल्स केवळ स्त्रोतांना क्रेडिट देत नाहीत; तर ते अनेकदा काल्पनिक संदर्भ तयार करत आहेत. ते अस्तित्वात नसलेल्या वेबपेजेसचे किंवा तुटलेल्या किंवा असंबद्ध असलेल्या URLs चे दुवे (links) तयार करत आहेत. हे एखाद्या विद्यार्थ्याने शोधनिबंध लिहिताना त्यांच्या दाव्यांना समर्थन देण्यासाठी काल्पनिक स्त्रोत तयार करण्यासारखे आहे. हे केवळ निष्काळजीपणाचे नाही; तर बौद्धिक प्रामाणिकतेचा भंग आहे.

फसवणुकीचा सखोल अभ्यास

CJR अभ्यासात अनेक प्रमुख AI शोध मॉडेल्सच्या कामगिरीचे बारकाईने विश्लेषण केले गेले. त्याचे निष्कर्ष खूपच चिंताजनक आहेत. Google चे Gemini आणि xAI चे Grok 3—AI शोध क्षेत्रातील दोन प्रमुख—यांनी तयार केलेल्या अर्ध्याहून अधिक संदर्भांमध्ये बनावट किंवा प्रवेश नसलेली वेबपेजेस होती. ही किरकोळ चूक नाही; तर ही एक पद्धतशीर त्रुटी आहे.

आणि समस्या केवळ संदर्भांपुरती मर्यादित नाही. चॅटबॉट्समध्ये, 60% पेक्षा जास्त प्रकरणांमध्ये चुकीची माहिती दिली गेल्याचे आढळले. तपासलेल्या मॉडेल्समध्ये, Grok 3 सर्वात वाईट ठरले, ज्यात 94% प्रतिसादांमध्ये चुकीची माहिती होती. Gemini ने थोडी चांगली कामगिरी केली, तरीही दहापैकी फक्त एका प्रयत्नात ते पूर्णपणे बरोबर उत्तर देऊ शकले. Perplexity, जे सर्वात अचूक मॉडेल म्हणून समोर आले, तरीही 37% वेळा चुकीची उत्तरे देत होते.

हे आकडे केवळ सांख्यिकी नाहीत; ते माहितीच्या विश्वासार्हतेतील मोठा अभाव दर्शवतात. ते सूचित करतात की जी टूल्स आपल्याला डिजिटल जगाच्या गुंतागुंतीमध्ये मदत करण्यासाठी तयार केली आहेत, ती प्रत्यक्षात आपल्याला चुकीच्या मार्गावर नेत आहेत.

नियमांकडे दुर्लक्ष: रोबोट वगळण्याचा प्रोटोकॉल

अभ्यासाच्या लेखकांनी या AI-चालित फसवणुकीचा आणखी एक त्रासदायक पैलू उघड केला. अनेक AI मॉडेल्स रोबोट एक्सक्लूजन प्रोटोकॉलकडे (Robot Exclusion Protocol) हेतुपुरस्सर दुर्लक्ष करत असल्याचे दिसून आले. हे प्रोटोकॉल एक मानक, व्यापकपणे स्वीकारलेले तंत्रज्ञान आहे जे वेबसाइट्सना त्यांच्या साइटचा कोणता भाग ऑटोमेटेड बॉट्सद्वारे ऍक्सेस आणि स्क्रॅप केला जाऊ शकतो हे नियंत्रित करण्याची परवानगी देते. वेबसाइट्ससाठी त्यांच्या कंटेटचे संरक्षण करण्याचा आणि त्याचा कसा वापर केला जातो हे व्यवस्थापित करण्याचा हा एक मार्ग आहे.

AI सर्च इंजिन्स या प्रोटोकॉलकडे दुर्लक्ष करत आहेत हे तथ्य गंभीर नैतिक प्रश्न उभे करते. हे कंटेट तयार करणाऱ्यांच्या हक्कांकडे दुर्लक्ष दर्शवते आणि परवानगीशिवाय ऑनलाइन माहिती वापरण्याची तयारी दर्शवते. हे वर्तन वेबच्या मूलभूत तत्त्वांना कमकुवत करते, जे माहितीच्या उपलब्धतेमध्ये आणि बौद्धिक संपत्तीच्या संरक्षणात नाजूक संतुलन राखण्यावर अवलंबून असते.

भूतकाळातील इशाऱ्यांचे पडसाद

CJR अभ्यासाचे निष्कर्ष ഒറ്റ्या नाहीत. ते नोव्हेंबर 2024 मध्ये प्रकाशित झालेल्या पूर्वीच्या अभ्यासाशी जुळतात, ज्यात ChatGPT च्या शोध क्षमतेवर लक्ष केंद्रित केले होते. त्या पूर्वीच्या तपासणीत आत्मविश्वासपूर्ण पण चुकीच्या प्रतिसादांचा, दिशाभूल करणाऱ्या संदर्भांचा आणि अविश्वसनीय माहितीचा एक सातत्यपूर्ण नमुना दिसून आला. दुसर्‍या शब्दांत, CJR ने ओळखलेल्या समस्या नवीन नाहीत; त्या कायमस्वरूपी आणि पद्धतशीर आहेत.

विश्वास आणि एजन्सीचा ऱ्हास

जनरेटिव्ह AI च्या धोक्यांबद्दल क्षेत्रातील तज्ञ काही काळापासून धोक्याची सूचना देत आहेत. चिराग शाह आणि एमिली एम. बेंडर यांसारख्या समीक्षकांनी चिंता व्यक्त केली आहे की AI सर्च इंजिन्स वापरकर्त्याची एजन्सी कमी करत आहेत, माहिती मिळवण्यातील पक्षपातीपणा वाढवत आहेत आणि अनेकदा दिशाभूल करणारी किंवा विषारी उत्तरे देत आहेत जी वापरकर्ते प्रश्न न विचारता स्वीकारू शकतात.

मुख्य समस्या अशी आहे की ही AI मॉडेल्स अधिकृत वाटण्यासाठी तयार केली गेली आहेत, जरी ती चुकीची असली तरीही. त्यांना मजकूर आणि कोडच्या प्रचंड डेटासेटवर प्रशिक्षित केले जाते आणि ते मानवी भाषेसारखे दिसणारे प्रतिसाद तयार करण्यास सक्षम आहेत. परंतु ही সাবলীলতা फसवी असू शकते. हे या वस्तुस्थितीला लपवू शकते की मूळ माहिती सदोष, बनावट किंवा चुकीची आहे.

चुकीच्या माहितीची यंत्रणा

CJR अभ्यासात 1,600 प्रश्नांचे तपशीलवार विश्लेषण केले गेले, जे विविध जनरेटिव्ह AI शोध मॉडेल्स माहिती कशी मिळवतात याची तुलना करण्यासाठी डिझाइन केलेले होते. संशोधकांनी मथळे, प्रकाशक, प्रकाशनाची तारीख आणि URLs यासारख्या प्रमुख घटकांवर लक्ष केंद्रित केले. त्यांनी ChatGPT Search, Microsoft CoPilot, DeepSeek Search, Perplexity (आणि त्याची Pro आवृत्ती), xAI चे Grok-2 आणि Grok-3 Search, आणि Google Gemini यासह अनेक मॉडेल्सची चाचणी केली.

चाचणीची पद्धत कठोर होती. संशोधकांनी 20 वेगवेगळ्या प्रकाशकांकडून निवडलेल्या दहा लेखांमधून थेट उतारे वापरले. या दृष्टिकोनामुळे हे सुनिश्चित झाले की प्रश्न वास्तविक-जगातील कंटेटवर आधारित होते आणि मॉडेल्सचे मूल्यांकन त्या कंटेटला अचूकपणे मिळवण्याच्या आणि सादर करण्याच्या क्षमतेवर केले जात होते.

निष्कर्ष, जसे आधी तपशीलवार सांगितले आहे, AI-चालित शोधाच्या स्थितीचे निराशाजनक चित्र रंगवतात. जी टूल्स माहितीसाठी आपले प्राथमिक प्रवेशद्वार बनत आहेत ती स्पष्टपणे अविश्वसनीय, बनावट गोष्टींनी भरलेली आणि अनेकदा ज्या स्त्रोतांवर ते अवलंबून असतात त्यांचा अनादर करणारी आहेत.

माहितीच्या भविष्यासाठी परिणाम

या व्यापक चुकीच्या माहितीचे परिणाम गंभीर आहेत. जर आपण माहिती शोधण्यासाठी वापरत असलेल्या साधनांवर विश्वास ठेवू शकत नसू, तर आपण माहितीपूर्ण निर्णय कसे घेऊ शकतो? आपण अर्थपूर्ण वादविवाद कसा करू शकतो? आपण सत्तेला जबाबदार कसे धरू शकतो?

AI-चालित शोधाचा उदय, त्याच्या अंगभूत त्रुटी आणि पक्षपातीपणासह, आपल्या माहिती प्रणालीसाठी एक महत्त्वपूर्ण धोका आहे. हे बातम्या संस्था, संशोधक आणि इतर कंटेट तयार करणाऱ्यांची विश्वासार्हता कमी करते. हे संस्थांवरील लोकांचा विश्वास कमी करते. आणि हे चुकीची माहिती पसरवू पाहणाऱ्या आणि लोकांच्या मतांमध्ये फेरफार करू पाहणाऱ्यांना सक्षम करते.

आपल्यापुढील आव्हान केवळ AI सर्च इंजिन्सची अचूकता सुधारणे हे नाही. तर डिजिटल युगात माहितीच्या शोधाकडे पाहण्याचा आपला दृष्टिकोन पूर्णपणे बदलणे आवश्यक आहे. आपल्याला पारदर्शकता, जबाबदारी आणि माहितीच्या स्त्रोतांबद्दल आदर यांना प्राधान्य देणे आवश्यक आहे. आपल्याला अशी साधने आणि धोरणे विकसित करणे आवश्यक आहे जी वापरकर्त्यांना ते ऑनलाइन पाहणाऱ्या माहितीचे गंभीरपणे मूल्यांकन करण्यास सक्षम करतील. आणि आपल्याला संशय आणि সমালোচন वृत्तीचे वातावरण तयार करणे आवश्यक आहे, जिथे आपण केवळ माहिती मिळवणारे निष्क्रिय न राहता, सत्याच्या शोधात सक्रिय सहभागी होऊ. माहितीपूर्ण संवादाचे भविष्य आणि कदाचित लोकशाहीचे भविष्य देखील यावर अवलंबून आहे.


AI-चालित शोधामधील चुकीच्या माहितीची समस्या केवळ तांत्रिक समस्या नाही; तर ती एक सामाजिक समस्या आहे. यासाठी केवळ अभियंते आणि विकासकच नव्हे, तर पत्रकार, शिक्षक, धोरणकर्ते आणि सामान्य जनता यांचा समावेश असलेल्या बहुआयामी प्रतिसादाची आवश्यकता आहे. आपल्याला एकत्रितपणे एक अधिक विश्वासार्ह, पारदर्शक माहिती प्रणाली तयार करण्यासाठी कार्य करणे आवश्यक आहे, जी माहितीपूर्ण नागरिकांच्या गरजा पूर्ण करेल, खोटेपणाचा प्रसार करणाऱ्यांच्या नाही.


सध्याची वाटचाल टिकणारी नाही. जर AI शोध अचूकता आणि सत्यापेक्षा वेग आणि सोयीला प्राधान्य देत राहिले, तर आपण असे जग निर्माण करण्याचा धोका पत्करतो जिथे चुकीच्या माहितीचे वर्चस्व असेल आणि जिथे वस्तुनिष्ठ वास्तविकतेची कल्पना अधिकाधिक अस्पष्ट होईल. असे होऊ देणे खूप महागात पडेल.