भारत और पाकिस्तान के बीच संक्षिप्त संघर्ष के दौरान, गलत सूचनाओं में वृद्धि हुई, और सोशल मीडिया उपयोगकर्ता सत्यापन के लिए AI चैटबॉट पर निर्भर रहने लगे। हालांकि, इन चैटबॉट ने और भी अधिक गलत जानकारी प्रदान की, जो तथ्य-जांच उपकरण के रूप में उनकी अविश्वसनीयता को उजागर करती है। जैसे-जैसे प्रमुख तकनीकी प्लेटफ़ॉर्म कृत्रिम तथ्य-जांचकर्ताओं की संख्या में लगातार कमी कर रहे हैं, उपयोगकर्ता विश्वसनीय जानकारी प्राप्त करने के लिए AI-संचालित चैटबॉट, जैसे xAI के Grok, OpenAI के ChatGPT और Google के Gemini पर अधिकाधिक निर्भर होते जा रहे हैं।
एआई चैटबॉट तथ्य जांच का उदय
एलन मस्क के X प्लेटफ़ॉर्म (पूर्व में ट्विटर) पर, "@Grok, क्या यह सच है?" उपयोगकर्ताओं के लिए एक सामान्य प्रश्न बन गया है। Grok, X प्लेटफ़ॉर्म में अंतर्निहित एक AI सहायक है, जो सोशल मीडिया पर तत्काल खंडन चाहने वाले उपयोगकर्ताओं की प्रवृत्ति को दर्शाता है। हालांकि, इन AI चैटबॉट के उत्तर अक्सर गलत सूचनाओं से भरे होते हैं।
Grok हाल ही में गहन जांच के दायरे में आया है क्योंकि इसने दूर-दराज़ के षड्यंत्र सिद्धांत "श्वेत नस्ल नरसंहार" को अप्रासंगिक प्रश्नों में डाला। Grok ने सूडान के खार्तूम हवाई अड्डे से पुराने वीडियो फुटेज को भारत-पाक संघर्ष के दौरान पाकिस्तानी नूर खान एयर बेस पर मिसाइल हमलों के रूप में गलत तरीके से पहचाना। इसके अलावा, नेपाल में जलती हुई एक इमारत को गलत तरीके से "संभवतः" पाकिस्तान की ओर से भारत पर हमले की सैन्य प्रतिक्रिया दिखाने के रूप में पहचाना गया।
एआई तथ्य जांच की सीमाएँ
सूचना निगरानी एजेंसी NewsGuard के शोधकर्ता McKenzie Sadeghi ने एएफपी को बताया, "चूंकि X और अन्य बड़ी तकनीकी कंपनियों ने कृत्रिम तथ्य-जांचकर्ताओं में निवेश कम कर दिया है, इसलिए लोग Grok पर तथ्य-जांचकर्ता के रूप में अधिक से अधिक निर्भर होते जा रहे हैं।” उन्होंने चेतावनी दी, "हमारे शोध ने बार-बार पाया है कि AI चैटबॉट विश्वसनीय समाचार और सूचना स्रोत नहीं हैं, खासकर ब्रेकिंग न्यूज़ के मामलों में।”
NewsGuard के शोध में पाया गया कि Grok सहित 10 प्रमुख चैटबॉट, आसानी से झूठी जानकारी को दोहराते हैं, जिसमें रूसी दुष्प्रचार कथाएँ और हाल के ऑस्ट्रेलियाई चुनावों से संबंधित झूठे या भ्रामक दावे शामिल हैं। कोलंबिया विश्वविद्यालय के डिजिटल न्यूज़ सेंटर Tow Center ने हाल ही में आठ AI खोज उपकरणों पर एक अध्ययन किया और पाया कि चैटबॉट "आमतौर पर उन सवालों के जवाब देने से इनकार करने में अच्छे नहीं होते हैं जिनका वे सटीक जवाब नहीं दे सकते हैं, इसके बजाय गलत या अटकलबाजी वाले जवाब देते हैं।”
एएफपी के उरुग्वे में तथ्य-जांचकर्ताओं ने Gemini से AI द्वारा बनाई गई एक महिला की तस्वीर के बारे में पूछा, Gemini ने न केवल छवि की प्रामाणिकता की पुष्टि की, बल्कि महिला की पहचान और छवि के संभावित शूटिंग स्थानों के बारे में विस्तृत जानकारी भी मनगढ़ंत कर दी।
Grok ने हाल ही में एक वीडियो को "वास्तविक" के रूप में चिह्नित किया है जिसमें एक विशाल एनाकोंडा अमेज़ॅन नदी में तैर रहा है, और यहां तक कि अपने झूठे दावों का समर्थन करने के लिए विश्वसनीय लगने वाले वैज्ञानिक अभियान का हवाला दिया। वास्तव में, यह वीडियो AI द्वारा बनाया गया था, और एएफपी के लैटिन अमेरिका में तथ्य-जांचकर्ताओं ने बताया कि कई उपयोगकर्ताओं ने वीडियो के वास्तविक होने के प्रमाण के रूप में Grok के मूल्यांकन का हवाला दिया।
एआई तथ्य जांच पर चिंताएँ
इन निष्कर्षों ने चिंताएँ बढ़ा दी हैं, क्योंकि सर्वेक्षणों से पता चलता है कि अधिक से अधिक ऑनलाइन उपयोगकर्ता जानकारी एकत्र करने और सत्यापित करने के लिए पारंपरिक खोज इंजनों से AI चैटबॉट की ओर रुख कर रहे हैं। इस बीच, मेटा ने इस साल की शुरुआत में संयुक्त राज्य अमेरिका में अपनी तृतीय-पक्षीय तथ्य-जांच योजना को समाप्त करने की घोषणा की, और खंडन कार्यों को सामान्य उपयोगकर्ताओं को सौंपने का फैसला किया, एक ऐसे मॉडल को अपनाया जिसे "सामुदायिक नोट्स" कहा जाता है, जिसे X प्लेटफ़ॉर्म द्वारा बढ़ावा दिया गया है। हालांकि, शोधकर्ताओं ने बार-बार दुष्प्रचार से निपटने में "सामुदायिक नोट्स" की प्रभावशीलता पर सवाल उठाया है।
लंबे समय से, कृत्रिम तथ्य-जांच ध्रुवीकृत राजनीतिक माहौल में एक फ्लैशप्वाइंट रहा है, खासकर संयुक्त राज्य अमेरिका में, जहां रूढ़िवादी लोगों का मानना है कि यह भाषण की स्वतंत्रता को दबाता है और दक्षिणपंथी सामग्री को सेंसर करता है, लेकिन पेशेवर तथ्य-जांचकर्ताओं ने इस दावे का स्पष्ट रूप से खंडन किया है।
एएफपी वर्तमान में 26 भाषाओं में फेसबुक की तथ्य-जांच योजना के साथ सहयोग करता है, जिसमें एशिया, लैटिन अमेरिका और यूरोपीय संघ शामिल हैं।
AI चैटबॉट की गुणवत्ता और सटीकता उनके प्रशिक्षण और प्रोग्रामिंग के तरीके के आधार पर भिन्न हो सकती है, जिससे यह चिंताएँ बढ़ जाती हैं कि उनके आउटपुट राजनीतिक रूप से प्रभावित या नियंत्रित हो सकते हैं।
मस्क के xAI ने हाल ही में दक्षिण अफ्रीका में "श्वेत नस्ल के नरसंहार" का उल्लेख करने वाली Grok द्वारा बिना मांगे पोस्ट की पीढ़ी को "अनधिकृत संशोधनों" के लिए जिम्मेदार ठहराया है। जब AI विशेषज्ञ डेविड कैसवेल ने Grok से पूछा कि किसने उसके सिस्टम संकेत को संशोधित किया हो सकता है, तो चैटबॉट ने मस्क को "सबसे संभावित" अपराधी के रूप में सूचीबद्ध किया।
मस्क दक्षिण अफ्रीका में जन्मे अरबपति हैं और अमेरिकी राष्ट्रपति डोनाल्ड ट्रम्प के समर्थक हैं। उन्होंने पहले बिना किसी आधार के यह दावा किया था कि दक्षिण अफ्रीका के नेता "खुल्लमखुल्ला गोरों के खिलाफ नरसंहार को बढ़ावा दे रहे हैं।”
अंतर्राष्ट्रीय तथ्य-जांच नेटवर्क के निदेशक Angie Holan ने एएफपी को बताया, "हमने देखा है कि AI सहायक मानव कोडिंग करने वालों द्वारा विशेष रूप से उनके निर्देशों को बदलने के बाद परिणाम बना सकते हैं या पक्षपाती उत्तर दे सकते हैं।” ”मैं विशेष रूप से इस बात से चिंतित हूं कि Grok पूर्व-अधिकृत उत्तर प्रदान करने के निर्देश प्राप्त करने के बाद बहुत संवेदनशील मामलों के बारे में अनुरोधों को कैसे संभालता है।”
सूचना क्षेत्र में एआई चैटबॉट का जोखिम
सूचना प्रदान करने में AI चैटबॉट के अनुप्रयोगों का बढ़ता प्रसार कुछ गंभीर चिंताएँ पैदा करता है, जो उनके संभावित भ्रामक और हेरफेर करने वाले प्रभावों से संबंधित हैं। हालांकि इन तकनीकों में जानकारी तक त्वरित पहुंच और अनुसंधान को सरल बनाने के फायदे हैं, लेकिन इसकी अंतर्निहित सीमाएँ और पूर्वाग्रह अनजाने में या जानबूझकर गलत सूचना या प्रचार प्रसार कर सकते हैं।
एआई चैटबॉट की अंतर्निहित सीमाएँ
AI चैटबॉट बड़ी मात्रा में टेक्स्ट डेटा का विश्लेषण करके सीखते हैं, लेकिन उनमें मनुष्य की आलोचनात्मक सोच की क्षमता का अभाव होता है। इसका मतलब है कि वे डेटा से पैटर्न निकाल सकते हैं और प्रशंसनीय दिखने वाली प्रतिक्रियाएँ उत्पन्न कर सकते हैं, लेकिन वे अंतर्निहित अर्थ या संदर्भ को वास्तव में नहीं समझते हैं। ज्ञान की इस कमी के परिणामस्वरूप गलत, अधूरी या भ्रामक जानकारी उत्पन्न हो सकती है।
इसके अलावा, AI चैटबॉट के प्रशिक्षण डेटा में पूर्वाग्रह शामिल हो सकते हैं, जो उत्पन्न प्रतिक्रियाओं में दिखाई देते हैं। उदाहरण के लिए, यदि प्रशिक्षण डेटा मुख्य रूप से किसी विशेष स्रोत या दृष्टिकोण से प्राप्त होता है, तो चैटबॉट उस स्रोत या दृष्टिकोण के प्रति प्राथमिकता दिखा सकता है, जिससे पक्षपाती जानकारी का प्रसार हो सकता है।
एआई चैटबॉट से जुड़े जोखिम
जैसे-जैसे अधिक से अधिक लोग जानकारी प्राप्त करने के लिए AI चैटबॉट पर निर्भर होते हैं, गलत सूचना के प्रसार का जोखिम भी बढ़ जाता है। यदि चैटबॉट गलत या भ्रामक जानकारी उत्पन्न करते हैं, तो उपयोगकर्ता अनजाने में इसे स्वीकार और प्रसारित कर सकते हैं, जिससे गलत धारणाओं का प्रसार हो सकता है।
इसके अलावा, AI चैटबॉट का उपयोग दुर्भावनापूर्ण उद्देश्यों के लिए किया जा सकता है, जैसे प्रचार प्रसार करना या सार्वजनिक राय में हेरफेर करना। प्रशिक्षण डेटा को सावधानीपूर्वक डिजाइन करके या एल्गोरिदम को समायोजित करके, दुर्भावनापूर्ण अभिनेता चैटबॉट को विशिष्ट प्रकार की प्रतिक्रियाएँ उत्पन्न करने के लिए हेरफेर कर सकते हैं, जिससे उपयोगकर्ताओं के विश्वास और व्यवहार प्रभावित हो सकते हैं।
जोखिम को कम करने के तरीके
AI चैटबॉट से जुड़े जोखिम को कम करने के लिए, कुछ उपाय आवश्यक हैं। सबसे पहले, डेवलपर्स को यह सुनिश्चित करने का प्रयास करना चाहिए कि AI चैटबॉट का प्रशिक्षण डेटा यथासंभव व्यापक और निष्पक्ष हो। इसके लिए पूर्वाग्रह के प्रभाव को कम करने के लिए विभिन्न स्रोतों और दृष्टिकोणों से विभिन्न डेटा नमूनों को शामिल करने की आवश्यकता हो सकती है।
दूसरा, किसी भी अशुद्धि या पक्षपाती प्रवृत्ति की पहचान करने और ठीक करने के लिए AI चैटबॉट का कड़ाई से परीक्षण और मूल्यांकन किया जाना चाहिए। इसके लिए चैटबॉट द्वारा उत्पन्न प्रतिक्रियाओं के मानव सत्यापन और इसकी सटीकता और निष्पक्षता का मूल्यांकन करने के लिए विभिन्न मैट्रिक्स का उपयोग करने की आवश्यकता हो सकती है।
तीसरा, उपयोगकर्ताओं को आलोचनात्मक सोच रखनी चाहिए और AI चैटबॉट द्वारा प्रदान की गई जानकारी पर अंधाधुंध विश्वास नहीं करना चाहिए। उपयोगकर्ताओं को हमेशा विभिन्न स्रोतों से जानकारी की तुलना करनी चाहिए और चैटबॉट में संभावित पूर्वाग्रहों पर ध्यान देना चाहिए।
तकनीकी प्लेटफार्मों और समुदायों की भूमिका
तकनीकी प्लेटफार्म और समुदाय AI चैटबॉट द्वारा उत्पन्न सामग्री को विनियमित और पर्यवेक्षण करने में महत्वपूर्ण भूमिका निभाते हैं। प्लेटफ़ॉर्म गलत सूचना या प्रचार की पहचान करने और हटाने के लिए रणनीतियाँ लागू कर सकते हैं, और चैटबॉट द्वारा उत्पन्न प्रतिक्रियाओं की सटीकता को सत्यापित करने के लिए तथ्य-जांच संगठनों के साथ सहयोग कर सकते हैं। इसके अलावा, समुदाय AI चैटबॉट की सीमाओं और पूर्वाग्रहों के बारे में चर्चा को बढ़ावा देकर उपयोगकर्ताओं की जागरूकता बढ़ाने में मदद कर सकते हैं, और उपयोगकर्ताओं को आलोचनात्मक सोच रखने के लिए प्रोत्साहित कर सकते हैं।
निष्कर्ष
AI चैटबॉट एक उपयोगी उपकरण है, लेकिन इसकी अंतर्निहित सीमाएँ और जोखिम भी हैं। यह सुनिश्चित करने के लिए कि इन तकनीकों का जिम्मेदारी से उपयोग किया जाए, और गलत सूचना और हेरफेर के प्रसार को कम किया जाए, डेवलपर्स, नियामकों और उपयोगकर्ताओं सभी को सतर्क रहने की आवश्यकता है। आवश्यक उपाय करके, हम AI चैटबॉट के लाभों को अधिकतम कर सकते हैं, जबकि इसके संभावित नुकसान को कम कर सकते हैं।