X यूजर्स Grok को फैक्ट-चेकर की तरह इस्तेमाल कर रहे, गलत सूचना की चिंता

सूचना सत्यापन में AI का उदय

सोशल मीडिया प्लेटफ़ॉर्म में AI का एकीकरण नया नहीं है। X का उपयोगकर्ताओं को xAI के Grok के साथ बातचीत करने की अनुमति देने का कदम, कुछ मायनों में, केवल एक प्रवृत्ति का पालन कर रहा है। यह Perplexity के दृष्टिकोण को दर्शाता है, जो समान अनुभव प्रदान करने के लिए X पर एक स्वचालित खाता संचालित करता है।

xAI ने X पर Grok की स्वचालित उपस्थिति स्थापित करने के बाद, उपयोगकर्ताओं ने जल्दी से इसकी क्षमताओं की खोज शुरू कर दी, सवाल पूछे और उत्तर मांगे। भारत जैसे क्षेत्रों में, एक विशेष रूप से परेशान करने वाला पैटर्न सामने आया: व्यक्तियों ने टिप्पणियों और प्रश्नों को सत्यापित करने के लिए Grok को नियोजित करना शुरू कर दिया, जिनमें से कई विशिष्ट राजनीतिक विचारधाराओं को लक्षित करते थे।

मानव तथ्य-जांचकर्ताओं की चिंताएं

तथ्य-जांच के लिए Grok, और वास्तव में इस तरह के किसी भी AI सहायक पर यह निर्भरता गंभीर चिंता का कारण है। इन AI बॉट्स की प्रकृति यह है कि वे ऐसे उत्तर तैयार कर सकते हैं जो विश्वसनीय लगते हैं, भले ही वे तथ्यात्मक रूप से कितने भी सही क्यों न हों। यह कोई सैद्धांतिक चिंता नहीं है; Grok का नकली समाचार और गलत सूचना प्रसारित करने का एक प्रलेखित इतिहास है।

एक उल्लेखनीय उदाहरण सामने आया, जहां कई राज्य सचिवों ने Musk से Grok में महत्वपूर्ण संशोधन करने का आग्रह किया। यह तत्काल अनुरोध AI सहायक द्वारा उत्पन्न भ्रामक जानकारी के सामने आने के बाद आया, जो सोशल नेटवर्क पर प्रसारित हुई, जिससे चुनावों से पहले खतरे की घंटी बज गई।

Grok इस मामले में अकेला नहीं है। OpenAI के ChatGPT और Google के Gemini सहित अन्य प्रमुख चैटबॉट भी चुनावों से संबंधित गलत जानकारी उत्पन्न करते पाए गए। दुष्प्रचार शोधकर्ताओं ने 2023 में खुलासा करते हुए दुरुपयोग की संभावना को और रेखांकित किया कि ChatGPT जैसे AI चैटबॉट का आसानी से भ्रामक आख्यानों वाले प्रेरक पाठ उत्पन्न करने के लिए शोषण किया जा सकता है।

प्रामाणिकता का भ्रम

पॉयंटर में इंटरनेशनल फैक्ट-चेकिंग नेटवर्क (IFCN) की निदेशक एंजी होलैन ने मुख्य मुद्दे को स्पष्ट करते हुए कहा, “AI सहायक, जैसे Grok, वे वास्तव में प्राकृतिक भाषा का उपयोग करने में बहुत अच्छे हैं और एक ऐसा उत्तर देते हैं जो ऐसा लगता है जैसे किसी इंसान ने कहा हो। और इस तरह, AI उत्पादों में स्वाभाविकता और प्रामाणिक-लगने वाली प्रतिक्रियाओं का यह दावा होता है, भले ही वे संभावित रूप से बहुत गलत हों। यहां खतरा यही होगा।”

होलैन के अनुसार, खतरा प्रामाणिकता के भ्रामक रूप में निहित है। AI की मानव भाषा की नकल करने की क्षमता विश्वसनीयता का भ्रम पैदा करती है, भले ही अंतर्निहित जानकारी त्रुटिपूर्ण हो या पूरी तरह से गढ़ी गई हो।

मौलिक अंतर: AI बनाम मानव तथ्य-जांचकर्ता

AI सहायकों और मानव तथ्य-जांचकर्ताओं के बीच का अंतर स्पष्ट है। मानव तथ्य-जांचकर्ता कई, विश्वसनीय स्रोतों का उपयोग करके जानकारी को सावधानीपूर्वक सत्यापित करते हैं। वे पारदर्शिता के साथ काम करते हैं, अपने निष्कर्षों के साथ अपने नाम और संगठनात्मक संबद्धता को जोड़ते हैं, जिससे जवाबदेही सुनिश्चित होती है और विश्वसनीयता बढ़ती है।

भारत की गैर-लाभकारी तथ्य-जांच वेबसाइट Alt News के सह-संस्थापक प्रतीक सिन्हा ने बताया कि जबकि Grok की प्रतिक्रियाएं वर्तमान में प्रेरक लग सकती हैं, इसकी सटीकता मौलिक रूप से उस डेटा द्वारा सीमित है जो इसे प्राप्त होता है। “कौन तय करेगा कि इसे किस डेटा की आपूर्ति की जाती है, और यहीं पर सरकारी हस्तक्षेप आदि तस्वीर में आएंगे,” उन्होंने डेटा स्रोत पारदर्शिता के महत्वपूर्ण मुद्दे पर प्रकाश डालते हुए कहा।

सिन्हा ने जोर देकर कहा कि पारदर्शिता की कमी संभावित नुकसान के लिए एक उपजाऊ जमीन है। “कोई भी चीज जिसमें पारदर्शिता का अभाव होगा, वह नुकसान पहुंचाएगी क्योंकि जिस चीज में पारदर्शिता का अभाव होता है, उसे किसी भी तरह से ढाला जा सकता है।”

Grok का अपना स्वीकारोक्ति: दुरुपयोग की संभावना

कुछ हद तक विडंबनापूर्ण मोड़ में, X पर Grok के खाते ने अपनी पोस्ट की गई प्रतिक्रियाओं में से एक में स्वीकार किया कि इसका “दुरुपयोग किया जा सकता है - गलत सूचना फैलाने और गोपनीयता का उल्लंघन करने के लिए।”

इस स्वीकारोक्ति के बावजूद, स्वचालित खाता अपने उत्तर प्राप्त करने वाले उपयोगकर्ताओं को कोई अस्वीकरण प्रदान करने में विफल रहता है। यह चूक उपयोगकर्ताओं को गलत सूचना के प्रति संवेदनशील बनाती है, खासकर उन मामलों में जहां AI ने उत्तर को “मतिभ्रम” किया है, AI के क्षेत्र में एक अच्छी तरह से प्रलेखित घटना जहां सिस्टम गलत या निरर्थक जानकारी उत्पन्न करता है।

डिजिटल फ्यूचर्स लैब में एक शोध सहयोगी अनुष्का जैन ने इस बिंदु पर विस्तार से बताया, “यह प्रतिक्रिया प्रदान करने के लिए जानकारी बना सकता है।” जानकारी गढ़ने की यह प्रवृत्ति तथ्य-जांच के संदर्भ में AI की अंतर्निहित सीमाओं को रेखांकित करती है।

प्रशिक्षण डेटा दुविधा

जटिलता की एक और परत Grok के प्रशिक्षण डेटा के सवाल से उत्पन्न होती है। इस बात को लेकर अनिश्चितता है कि Grok किस हद तक X पर पोस्ट का उपयोग प्रशिक्षण सामग्री के रूप में करता है, और ऐसी पोस्ट की तथ्य-जांच के लिए नियोजित गुणवत्ता नियंत्रण उपाय, यदि कोई हो, क्या हैं। पहले लागू किए गए एक बदलाव ने Grok को X उपयोगकर्ता डेटा तक डिफ़ॉल्ट पहुंच प्रदान की, जिससे AI द्वारा प्लेटफ़ॉर्म पर मौजूद गलत सूचना को अवशोषित करने और प्रचारित करने की संभावना के बारे में चिंता बढ़ गई।

AI-जनित जानकारी का सार्वजनिक बनाम निजी उपभोग

एक और महत्वपूर्ण चिंता सोशल मीडिया प्लेटफॉर्म पर Grok जैसे AI सहायकों की सार्वजनिक प्रकृति के इर्द-गिर्द घूमती है। ChatGPT जैसे चैटबॉट के साथ बातचीत के विपरीत, जो आमतौर पर एक निजी सेटिंग में होती है, Grok की प्रतिक्रियाएं सार्वजनिक रूप से दी जाती हैं।

यह सार्वजनिक प्रसार एक ऐसी स्थिति पैदा करता है जहां, भले ही एक उपयोगकर्ता इस बात से अवगत हो कि AI द्वारा प्रदान की गई जानकारी गलत हो सकती है, प्लेटफ़ॉर्म पर अन्य उपयोगकर्ता अभी भी इसे सत्य के रूप में स्वीकार कर सकते हैं। इससे गंभीर सामाजिक परिणाम हो सकते हैं।

ऐतिहासिक मिसालें मौजूद हैं। उदाहरण के लिए, भारत ने WhatsApp के माध्यम से प्रसारित गलत सूचनाओं से प्रेरित भीड़ द्वारा पीट-पीटकर हत्या करने की दुखद घटनाओं को देखा। ये घटनाएं, जबकि Generative AI की व्यापक उपलब्धता से पहले की हैं, अनियंत्रित गलत सूचना के वास्तविक दुनिया के खतरों की एक स्पष्ट अनुस्मारक के रूप में काम करती हैं। GenAI के आगमन ने, अपनी सिंथेटिक सामग्री उत्पन्न करने की क्षमता के साथ जो उल्लेखनीय रूप से यथार्थवादी प्रतीत होती है, इन जोखिमों को और बढ़ा दिया है।

AI की त्रुटि दर

IFCN की होलैन ने चेतावनी दी कि, “यदि आप इनमें से बहुत से Grok उत्तर देखते हैं, तो आप कहेंगे, हे, ठीक है, उनमें से अधिकांश सही हैं, और ऐसा हो सकता है, लेकिन कुछ ऐसे होंगे जो गलत होंगे। और कितने? यह एक छोटा अंश नहीं है। कुछ शोध अध्ययनों से पता चला है कि AI मॉडल 20% त्रुटि दर के अधीन हैं… और जब यह गलत होता है, तो यह वास्तविक दुनिया के परिणामों के साथ वास्तव में गलत हो सकता है।”

होलैन द्वारा उजागर की गई 20% त्रुटि दर एक महत्वपूर्ण आंकड़ा है। यह उन स्थितियों में AI की अंतर्निहित अविश्वसनीयता को रेखांकित करता है जो तथ्यात्मक सटीकता की मांग करते हैं। और, जैसा कि वह जोर देती हैं, इन त्रुटियों के परिणाम गहन हो सकते हैं, जो डिजिटल दायरे से कहीं आगे तक फैले हुए हैं।

AI: एक उपकरण, मानव निर्णय का प्रतिस्थापन नहीं

जबकि xAI सहित AI कंपनियां, अधिक मानव-जैसी संचार प्राप्त करने के लिए अपने मॉडल को लगातार परिष्कृत करती हैं, मौलिक वास्तविकता बनी हुई है: AI मानव निर्णय को प्रतिस्थापित नहीं कर सकता है, और न ही करना चाहिए, खासकर तथ्य-जांच के महत्वपूर्ण क्षेत्र में।

तकनीकी कंपनियों के बीच मानव तथ्य-जांचकर्ताओं पर निर्भरता कम करने के रास्ते तलाशने की प्रवृत्ति चिंता का कारण है। X और Meta जैसे प्लेटफ़ॉर्म ने “कम्युनिटी नोट्स” जैसी पहलों द्वारा उदाहरण के रूप में क्राउडसोर्स तथ्य-जांच की अवधारणा को अपनाया है। ये बदलाव, जबकि संभावित रूप से कुछ फायदे पेश करते हैं, कठोर तथ्य-जांच मानकों के संभावित क्षरण के बारे में भी सवाल उठाते हैं।

मानव तथ्य-जांच की ओर एक पेंडुलम स्विंग?

Alt News के सिन्हा ने एक आशावादी दृष्टिकोण व्यक्त किया, यह सुझाव देते हुए कि लोग अंततः मशीनों के आउटपुट और मानव तथ्य-जांचकर्ताओं के काम के बीच अंतर करना सीखेंगे, अंततः बाद की सटीकता और विश्वसनीयता को महत्व देंगे।

IFCN की होलैन ने भविष्यवाणी की, “हम अंततः तथ्य-जांच की ओर पेंडुलम को वापस झूलते हुए देखेंगे।”

हालांकि, उन्होंने आगाह किया कि इस बीच, तथ्य-जांचकर्ताओं को AI-जनित जानकारी के तेजी से प्रसार के कारण बढ़े हुए कार्यभार का सामना करना पड़ सकता है। चुनौती गलत सूचना के ज्वार का प्रभावी ढंग से मुकाबला करना होगा, यह सुनिश्चित करना होगा कि जनता सच्चाई से अवगत रहे, न कि प्रेरक भ्रमों से।

मूल प्रश्न: सच्चाई की परवाह करना

मामले के केंद्र में एक मौलिक प्रश्न निहित है: “क्या आप वास्तव में इस बात की परवाह करते हैं कि वास्तव में क्या सच है या नहीं? क्या आप केवल उस चीज़ के आवरण की तलाश कर रहे हैं जो सच हुए बिना सच लगती और महसूस होती है? क्योंकि AI सहायता आपको यही देगी,” होलैन ने कहा।

यह प्रश्न सूचना प्रसार में AI के उदय से उत्पन्न महत्वपूर्ण दुविधा को समाहित करता है। क्या हम, एक समाज के रूप में, तथ्यों को सत्यापित करने की श्रमसाध्य प्रक्रिया पर सुविधा और सच्चाई की उपस्थिति को प्राथमिकता देने को तैयार हैं? इस प्रश्न का उत्तर अंततः सूचना के भविष्य को आकार देगा, यह निर्धारित करेगा कि क्या हम निर्मित वास्तविकताओं की दुनिया के आगे घुटने टेकते हैं या सच्चाई और सटीकता के सिद्धांतों को बनाए रखते हैं।