एक हालिया अध्ययन से पता चला है कि वर्तमान पीढ़ी के जेनरेटिव AI सर्च उपकरणों में एक महत्वपूर्ण कमी है: वे अक्सर समाचार लेखों के लिए सटीक उद्धरण (citations) प्रदान करने में विफल रहते हैं। यह सीमा इन तेजी से विकसित हो रही तकनीकों की सीमाओं का एक महत्वपूर्ण अनुस्मारक है, खासकर जब सोशल मीडिया प्लेटफ़ॉर्म तेजी से उन्हें उपयोगकर्ता अनुभवों में एकीकृत कर रहे हैं।
गलत उद्धरणों की समस्या
टो सेंटर फॉर डिजिटल जर्नलिज्म (Tow Center for Digital Journalism) ने यह अध्ययन किया, और इसके निष्कर्ष चिंताजनक हैं। शोध इंगित करता है कि अधिकांश प्रमुख AI सर्च इंजन समाचार लेखों को सही ढंग से उद्धृत करने में संघर्ष करते हैं। ये उपकरण अक्सर संदर्भ लिंक गढ़ते हैं या स्रोत के बारे में पूछे जाने पर उत्तर देने में असमर्थ होते हैं।
अध्ययन ने एक चार्ट में विभिन्न AI चैटबॉट्स के प्रदर्शन को दृश्य रूप से प्रस्तुत किया, जिसमें प्रासंगिक उद्धरण प्रदान करने में विश्वसनीयता की सामान्य कमी का पता चला। विशेष रूप से, xAI का Grok चैटबॉट, जिसे Elon Musk ने ‘सबसे सच्चा’ AI बताया है, इस संबंध में सबसे कम सटीक या विश्वसनीय संसाधनों में से एक था।
रिपोर्ट में कहा गया है:
“कुल मिलाकर, चैटबॉट्स ने 60% से अधिक प्रश्नों के गलत उत्तर दिए। विभिन्न प्लेटफार्मों पर, अशुद्धि का स्तर अलग-अलग था, Perplexity ने 37% प्रश्नों का गलत उत्तर दिया, जबकि Grok में त्रुटि दर बहुत अधिक थी, 94% प्रश्नों का गलत उत्तर दिया।”
यह विभिन्न AI उपकरणों की सटीकता के स्तर में एक महत्वपूर्ण असमानता को उजागर करता है, जिसमें कुछ दूसरों की तुलना में काफी खराब प्रदर्शन करते हैं।
प्रतिबंधित सामग्री तक पहुँचना
रिपोर्ट द्वारा उजागर किया गया एक और चिंताजनक पहलू AI उपकरणों की उन स्रोतों से जानकारी तक पहुँचने और प्रदान करने की क्षमता से संबंधित है जिन्होंने AI स्क्रैपिंग को रोकने के लिए उपाय किए हैं।
रिपोर्ट में कहा गया है:
“कुछ अवसरों पर, चैटबॉट्स ने उन प्रकाशकों के प्रश्नों का या तो गलत उत्तर दिया या उत्तर देने से इनकार कर दिया, जिन्होंने उन्हें अपनी सामग्री तक पहुँचने की अनुमति दी थी। दूसरी ओर, उन्होंने कभी-कभी उन प्रकाशकों के बारे में प्रश्नों का सही उत्तर दिया, जिनकी सामग्री तक उनकी पहुँच नहीं होनी चाहिए थी।”
यह अवलोकन बताता है कि कुछ AI प्रदाता robots.txt कमांड का सम्मान नहीं कर रहे हैं, जो उन्हें कॉपीराइट सामग्री तक पहुँचने से रोकने के लिए डिज़ाइन किए गए हैं। यह इन प्रतिबंधों को दरकिनार करने वाले AI उपकरणों के नैतिक और कानूनी निहितार्थों के बारे में सवाल उठाता है।
अनुसंधान के लिए AI पर बढ़ती निर्भरता
मुख्य मुद्दा AI उपकरणों पर सर्च इंजन के रूप में बढ़ती निर्भरता में निहित है, खासकर युवा उपयोगकर्ताओं के बीच। कई युवा अब ChatGPT के साथ अपने प्राथमिक शोध उपकरण के रूप में बड़े हो रहे हैं। यह प्रवृत्ति खतरनाक है, यह देखते हुए कि AI उपकरण सटीक जानकारी प्रदान करने और उपयोगकर्ताओं को प्रमुख विषयों पर विश्वसनीय रूप से शिक्षित करने में अविश्वसनीय हैं।
शोध के निष्कर्ष एक स्पष्ट अनुस्मारक के रूप में काम करते हैं कि AI-जनित प्रतिक्रियाएँ हमेशा मूल्यवान या उपयोगी भी नहीं होती हैं। वास्तविक खतरा इन उपकरणों को वास्तविक शोध के प्रतिस्थापन और ज्ञान के शॉर्टकट के रूप में बढ़ावा देने में निहित है। विशेष रूप से युवा उपयोगकर्ताओं के लिए, यह उन व्यक्तियों की एक पीढ़ी का नेतृत्व कर सकता है जो कम सूचित, कम सुसज्जित और संभावित रूप से त्रुटिपूर्ण प्रणालियों पर अत्यधिक निर्भर हैं।
AI एक उपकरण के रूप में, समाधान नहीं
मार्क क्यूबन (Mark Cuban), एक प्रसिद्ध व्यवसायी, ने SXSW में एक सत्र के दौरान इस चुनौती को प्रभावी ढंग से संक्षेप में प्रस्तुत किया। उन्होंने जोर देकर कहा:
“AI कभी भी उत्तर नहीं होता है। AI उपकरण है। आपके पास जो भी कौशल हैं, आप उनका उपयोग AI को बढ़ाने के लिए कर सकते हैं।”
क्यूबन का दृष्टिकोण इस बात को रेखांकित करता है कि AI उपकरण लाभ प्रदान कर सकते हैं और प्रदर्शन को बढ़ाने की उनकी क्षमता के लिए खोज की जानी चाहिए, वे स्टैंडअलोन समाधान नहीं हैं।
AI वीडियो सामग्री उत्पन्न कर सकता है, लेकिन इसमें एक सम्मोहक कथा विकसित करने की क्षमता का अभाव है, जो सबसे महत्वपूर्ण तत्व है। इसी तरह, AI ऐप विकास में सहायता के लिए कोड का उत्पादन कर सकता है, लेकिन यह वास्तविक ऐप का निर्माण नहीं कर सकता है।
ये सीमाएँ महत्वपूर्ण सोच और मानवीय विशेषज्ञता की अपरिहार्य भूमिका को उजागर करती हैं। AI आउटपुट निस्संदेह विभिन्न कार्यों में सहायता कर सकते हैं, लेकिन वे मानवीय सरलता और कौशल की मौलिक आवश्यकता को प्रतिस्थापित नहीं कर सकते हैं।
आलोचनात्मक मूल्यांकन और कौशल विकास की आवश्यकता
चिंता, विशेष रूप से इस शोध के संदर्भ में, यह है कि युवा लोगों को यह विश्वास दिलाया जा रहा है कि AI उपकरण निश्चित उत्तर प्रदान कर सकते हैं। हालाँकि, अध्ययन, कई अन्य शोध प्रयासों के साथ, लगातार प्रदर्शित करता है कि AI इसमें विशेष रूप से कुशल नहीं है।
पारंपरिक शोध विधियों के प्रतिस्थापन के रूप में AI को बढ़ावा देने के बजाय, व्यक्तियों को शिक्षित करने पर ध्यान केंद्रित किया जाना चाहिए कि ये प्रणालियाँ उनकी मौजूदा क्षमताओं को कैसे बढ़ा सकती हैं। AI का प्रभावी ढंग से लाभ उठाने के लिए, उपयोगकर्ताओं के पास पहले मजबूत शोध और विश्लेषणात्मक कौशल, साथ ही प्रासंगिक क्षेत्रों में विशेषज्ञता होनी चाहिए।
निहितार्थों में गहरा गोता
इस शोध के निहितार्थ गलत उद्धरणों की तत्काल चिंता से परे हैं। यह दुनिया की हमारी समझ को आकार देने में AI की भूमिका और गलत सूचना के तेजी से फैलने की क्षमता के बारे में व्यापक प्रश्न उठाता है।
1. सूचना स्रोतों में विश्वास का क्षरण:
जब AI उपकरण लगातार गलत या गढ़े हुए उद्धरण प्रदान करते हैं, तो यह समग्र रूप से सूचना पारिस्थितिकी तंत्र में विश्वास को कम करता है। उपयोगकर्ता सभी स्रोतों के प्रति तेजी से संशय में आ सकते हैं, जिससे विश्वसनीय और अविश्वसनीय जानकारी के बीच अंतर करना मुश्किल हो जाता है।
2. शिक्षा और सीखने पर प्रभाव:
अनुसंधान के लिए AI उपकरणों पर निर्भरता, विशेष रूप से युवा उपयोगकर्ताओं के बीच, शिक्षा और सीखने पर हानिकारक प्रभाव डाल सकती है। छात्र विषयों की सतही समझ विकसित कर सकते हैं, जिसमें जानकारी का प्रभावी ढंग से मूल्यांकन करने के लिए आवश्यक महत्वपूर्ण सोच कौशल की कमी होती है।
3. AI डेवलपर्स की नैतिक जिम्मेदारियाँ:
इस अध्ययन के निष्कर्ष AI डेवलपर्स की नैतिक जिम्मेदारियों को उजागर करते हैं। उन्हें अपनी प्रणालियों में सटीकता और पारदर्शिता को प्राथमिकता देनी चाहिए और यह सुनिश्चित करना चाहिए कि AI उपकरणों का उपयोग गलत सूचना फैलाने या सूचना स्रोतों की अखंडता को कम करने के लिए नहीं किया जाता है।
4. मीडिया साक्षरता और आलोचनात्मक सोच की आवश्यकता:
AI-जनित सामग्री के प्रभुत्व वाले युग में, मीडिया साक्षरता और महत्वपूर्ण सोच कौशल पहले से कहीं अधिक महत्वपूर्ण हैं। व्यक्तियों को जानकारी का आलोचनात्मक मूल्यांकन करने, पूर्वाग्रहों की पहचान करने और विश्वसनीय और अविश्वसनीय स्रोतों के बीच अंतर करने के लिए सुसज्जित होना चाहिए।
5. अनुसंधान और सूचना पुनर्प्राप्ति में AI का भविष्य:
शोध अनुसंधान और सूचना पुनर्प्राप्ति के लिए AI उपकरणों के निरंतर विकास और परिशोधन की आवश्यकता को रेखांकित करता है। जबकि AI में इन क्षेत्रों में क्रांति लाने की क्षमता है, वर्तमान सीमाओं को संबोधित करना और यह सुनिश्चित करना महत्वपूर्ण है कि इन उपकरणों का उपयोग जिम्मेदारी और नैतिक रूप से किया जाए।
विशिष्ट चिंताओं पर विस्तार
आइए शोध द्वारा उठाई गई कुछ विशिष्ट चिंताओं पर आगे बढ़ते हैं:
A. ‘भ्रम’ (Hallucination) की समस्या:
AI चैटबॉट अपनी ‘भ्रम’ पैदा करने, या पूरी तरह से गढ़ी हुई जानकारी उत्पन्न करने की प्रवृत्ति के लिए जाने जाते हैं। यह उद्धरणों के संदर्भ में विशेष रूप से समस्याग्रस्त है, जहां सटीकता सर्वोपरि है। अध्ययन का यह निष्कर्ष कि AI उपकरण अक्सर संदर्भ लिंक बनाते हैं, इस मुद्दे की गंभीरता को उजागर करता है।
B. पूर्वाग्रह (Bias) की समस्या:
AI मॉडल विशाल डेटासेट पर प्रशिक्षित होते हैं, जिसमें पूर्वाग्रह हो सकते हैं जो सामाजिक पूर्वाग्रहों या विषम दृष्टिकोणों को दर्शाते हैं। ये पूर्वाग्रह AI की प्रतिक्रियाओं में प्रकट हो सकते हैं, जिससे गलत या भ्रामक जानकारी प्राप्त हो सकती है। यह विशेष रूप से चिंताजनक है जब AI उपकरणों का उपयोग संवेदनशील या विवादास्पद विषयों पर शोध करने के लिए किया जाता है।
C. पारदर्शिता (Transparency) की समस्या:
कई AI मॉडलों की आंतरिक कार्यप्रणाली अक्सर अपारदर्शी होती है, जिससे यह समझना मुश्किल हो जाता है कि वे अपने निष्कर्षों पर कैसे पहुंचते हैं। पारदर्शिता की यह कमी सिस्टम में त्रुटियों या पूर्वाग्रहों की पहचान और सुधार करना चुनौतीपूर्ण बनाती है।
D. कॉपीराइट (Copyright) की समस्या:
अध्ययन का यह निष्कर्ष कि कुछ AI उपकरण उन स्रोतों से सामग्री तक पहुँचते हैं जिन्होंने उन्हें ब्लॉक कर दिया है, गंभीर कॉपीराइट चिंताएँ पैदा करता है। AI डेवलपर्स को बौद्धिक संपदा अधिकारों का सम्मान करना चाहिए और यह सुनिश्चित करना चाहिए कि उनके उपकरणों का उपयोग कॉपीराइट का उल्लंघन करने के लिए नहीं किया जाता है।
आगे का रास्ता: जिम्मेदार AI विकास और शिक्षा
आगे के रास्ते के लिए दो-आयामी दृष्टिकोण की आवश्यकता है: जिम्मेदार AI विकास और व्यापक शिक्षा।
1. जिम्मेदार AI विकास:
AI डेवलपर्स को अपनी प्रणालियों के डिजाइन और कार्यान्वयन में सटीकता, पारदर्शिता और नैतिक विचारों को प्राथमिकता देनी चाहिए। इसमें शामिल है:
- उद्धरण सटीकता में सुधार: AI उपकरण सटीक और सत्यापन योग्य उद्धरण प्रदान करते हैं, यह सुनिश्चित करने के लिए तकनीकों का विकास करना।
- पूर्वाग्रह को संबोधित करना: AI मॉडल में पूर्वाग्रह को कम करने और यह सुनिश्चित करने के लिए तरीकों को लागू करना कि वे निष्पक्ष और संतुलित जानकारी प्रदान करें।
- पारदर्शिता बढ़ाना: AI मॉडल को अधिक पारदर्शी और व्याख्या योग्य बनाना, जिससे उपयोगकर्ता यह समझ सकें कि वे अपने निष्कर्षों पर कैसे पहुंचते हैं।
- कॉपीराइट का सम्मान करना: यह सुनिश्चित करना कि AI उपकरण बौद्धिक संपदा अधिकारों का सम्मान करते हैं और बिना अनुमति के कॉपीराइट सामग्री तक नहीं पहुँचते हैं या उसका उपयोग नहीं करते हैं।
2. व्यापक शिक्षा:
व्यक्तियों, विशेष रूप से युवा लोगों को AI उपकरणों की क्षमताओं और सीमाओं के बारे में शिक्षित किया जाना चाहिए। इसमें शामिल है:
- मीडिया साक्षरता को बढ़ावा देना: महत्वपूर्ण सोच कौशल और विभिन्न स्रोतों से जानकारी का मूल्यांकन करने की क्षमता सिखाना।
- अनुसंधान कौशल पर जोर देना: पारंपरिक शोध विधियों के महत्व और स्वतंत्र रूप से जानकारी को सत्यापित करने की क्षमता को सुदृढ़ करना।
- AI की सीमाओं को समझना: उपयोगकर्ताओं को AI द्वारा गलत या पक्षपाती जानकारी उत्पन्न करने की क्षमता के बारे में शिक्षित करना।
- जिम्मेदार उपयोग को प्रोत्साहित करना: AI उपकरणों के जिम्मेदार और नैतिक उपयोग को बढ़ावा देना।
जिम्मेदार AI विकास को व्यापक शिक्षा के साथ जोड़कर, हम AI की क्षमता का दोहन कर सकते हैं और इसके जोखिमों को कम कर सकते हैं। लक्ष्य एक ऐसा भविष्य बनाना है जहां AI गलत सूचना और भ्रम का स्रोत बनने के बजाय सीखने और खोज के लिए एक मूल्यवान उपकरण के रूप में कार्य करे। इस अध्ययन के निष्कर्ष आगे आने वाले काम का एक महत्वपूर्ण अनुस्मारक प्रदान करते हैं। एक सच्ची जानकारी और AI-साक्षर समाज की ओर यात्रा के लिए निरंतर सतर्कता, महत्वपूर्ण मूल्यांकन और जिम्मेदार नवाचार के प्रति प्रतिबद्धता की आवश्यकता है।