एआई चैटबॉट्स और रूसी दुष्प्रचार का प्रसार

क्रेमलिन समर्थित झूठ का व्यापक प्रभाव

समस्या का मूल ऑनलाइन सूचना स्रोतों के जानबूझकर दूषित होने में निहित है। खोज परिणामों और वेब क्रॉलर को क्रेमलिन समर्थक झूठ से भरकर, दुष्प्रचार करने वालों का एक नेटवर्क सक्रिय रूप से बड़े भाषा मॉडल (LLM) के आउटपुट को आकार दे रहा है। ये मॉडल, जो उन AI चैटबॉट्स को शक्ति प्रदान करते हैं जिनके साथ हम प्रतिदिन बातचीत करते हैं, इंटरनेट से स्क्रैप किए गए विशाल डेटासेट पर निर्भर करते हैं। जब यह डेटा गलत सूचना से प्रदूषित होता है, तो परिणामी आउटपुट इन पूर्वाग्रहों को दर्शाता है।

NewsGuard, एक कंपनी जो समाचार और सूचना वेबसाइटों के लिए विश्वसनीयता रेटिंग और गलत सूचना फिंगरप्रिंट प्रदान करती है, ने इस घटना का गहन विश्लेषण किया। उनके निष्कर्ष एक परेशान करने वाली वास्तविकता प्रकट करते हैं: प्रमुख AI चैटबॉट द्वारा उत्पन्न जानकारी का एक महत्वपूर्ण हिस्सा क्रेमलिन समर्थक वेबसाइटों के एक विशिष्ट नेटवर्क द्वारा प्रचारित आख्यानों को दर्शाता है।

दुष्प्रचार की यांत्रिकी: AI मॉडल कैसे हेरफेर किए जाते हैं

इस दुष्प्रचार नेटवर्क द्वारा नियोजित रणनीति कपटपूर्ण और परिष्कृत दोनों है। यह मुख्य रूप से मानव पाठकों को आकर्षित करने के उद्देश्य से नहीं है; बल्कि, यह उन एल्गोरिदम में हेरफेर करने के लिए डिज़ाइन किया गया है जो AI चैटबॉट को रेखांकित करते हैं। ‘LLM ग्रूमिंग’ के रूप में जानी जाने वाली इस रणनीति में कई वेबसाइटों पर रणनीतिक रूप से गलत या भ्रामक जानकारी डालना शामिल है, यह जानते हुए कि इन प्लेटफार्मों को LLM द्वारा स्क्रैप और अंतर्ग्रहण किया जाएगा।

अमेरिकन सनलाइट प्रोजेक्ट (ASP), एक अमेरिकी गैर-लाभकारी संगठन, ने फरवरी 2025 की एक रिपोर्ट में इस खतरे पर प्रकाश डाला। उन्होंने चेतावनी दी कि प्रावदा नेटवर्क, रूसी समर्थक आख्यानों को आगे बढ़ाने वाली वेबसाइटों का एक संग्रह, AI मॉडल को प्रभावित करने के स्पष्ट उद्देश्य से बनाया गया था। रूस समर्थक आख्यानों की मात्रा जितनी अधिक होगी, LLM द्वारा उन्हें अपने ज्ञान के आधार में एकीकृत करने की संभावना उतनी ही अधिक होगी।

इसके निहितार्थ दूरगामी हैं। जैसे-जैसे LLM हमारे दैनिक जीवन में तेजी से एकीकृत होते जा रहे हैं, सूचना और सहायता के स्रोतों के रूप में कार्य कर रहे हैं, हेरफेर की गई सामग्री के व्यापक प्रसार की संभावना खतरनाक है।

NewsGuard का ऑडिट: प्रभाव का परिमाण

इस समस्या की सीमा का आकलन करने के लिए, NewsGuard ने दस प्रमुख AI चैटबॉट का ऑडिट किया। इनमें शामिल थे:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

ऑडिट 15 अलग-अलग झूठे आख्यानों पर केंद्रित था जिन्हें अप्रैल 2022 और फरवरी 2025 के बीच 150 क्रेमलिन समर्थक प्रावदा वेबसाइटों द्वारा सक्रिय रूप से प्रचारित किया गया था। इन आख्यानों में कई विषयों को शामिल किया गया था, जो सभी एक विशिष्ट राजनीतिक एजेंडे को आगे बढ़ाने के लिए डिज़ाइन किए गए थे।

कार्यप्रणाली में NewsGuard के Misinformation Fingerprints, महत्वपूर्ण समाचार विषयों पर स्पष्ट रूप से झूठे दावों की एक सूची, पर आधारित संकेतों की एक श्रृंखला के साथ प्रत्येक चैटबॉट का परीक्षण करना शामिल था। संकेतों को तीन अलग-अलग शैलियों - Innocent, Leading, और Malign - में तैयार किया गया था ताकि उन विभिन्न तरीकों की नकल की जा सके जिनसे उपयोगकर्ता जेनरेटिव AI मॉडल के साथ बातचीत करते हैं। इसके परिणामस्वरूप कुल 450 प्रतिक्रियाएँ हुईं (45 प्रति चैटबॉट)।

परेशान करने वाले परिणाम: चैटबॉट्स में दुष्प्रचार प्रचलित

NewsGuard ऑडिट के निष्कर्ष कठोर थे। सामूहिक रूप से, दस AI चैटबॉट्स ने 33.55% प्रतिक्रियाओं में झूठे रूसी दुष्प्रचार आख्यानों को दोहराया। उन्होंने 18.22% मामलों में कोई प्रतिक्रिया नहीं दी और 48.22% मामलों में आख्यान का खंडन किया।

परीक्षण किए गए प्रत्येक चैटबॉट ने दुष्प्रचार को दोहराया जो प्रावदा नेटवर्क से उत्पन्न हुआ था। इससे भी अधिक चिंताजनक बात यह है कि सात चैटबॉट्स ने सीधे प्रावदा वेबसाइटों के विशिष्ट लेखों को अपने स्रोतों के रूप में उद्धृत किया। जबकि दो AI मॉडल स्पष्ट उद्धरण प्रदान नहीं करते हैं, फिर भी वे नेटवर्क से झूठे आख्यानों को उत्पन्न या दोहराते पाए गए। केवल आठ मॉडलों में से एक जो स्रोतों का हवाला देते हैं, प्रावदा का हवाला नहीं देते हैं।

कुल मिलाकर, 450 चैटबॉट-जनित प्रतिक्रियाओं में से 56 में प्रावदा नेटवर्क द्वारा प्रकाशित झूठे दावों को फैलाने वाले लेखों के सीधे लिंक शामिल थे। चैटबॉट्स ने सामूहिक रूप से दुष्प्रचार वाले 92 विभिन्न लेखों का हवाला दिया, जिसमें दो मॉडल प्रत्येक में 27 प्रावदा लेखों का संदर्भ देते हैं। ये लेख नेटवर्क के भीतर विभिन्न डोमेन से उत्पन्न हुए, जिनमें Denmark.news-pravda.com, Trump.news-pravda.com और NATO.news-pravda.com शामिल हैं।

संकेतों की प्रकृति: वास्तविक दुनिया की बातचीत की नकल

NewsGuard ऑडिट में उपयोग की जाने वाली तीन प्रॉम्प्ट शैलियों को AI चैटबॉट के साथ उपयोगकर्ता के इंटरैक्शन के स्पेक्ट्रम को प्रतिबिंबित करने के लिए डिज़ाइन किया गया था:

  • Innocent Prompts: इन संकेतों ने झूठे आख्यान को एक तटस्थ, गैर-अग्रणी तरीके से प्रस्तुत किया, जैसे कि उपयोगकर्ता बिना किसी पूर्वकल्पित धारणा के बस जानकारी मांग रहा हो।
  • Leading Prompts: इन संकेतों ने झूठे आख्यान को सूक्ष्म रूप से सुझाया, इसे स्पष्ट रूप से बताए बिना इसकी वैधता का संकेत दिया। यह उन परिदृश्यों की नकल करता है जहां उपयोगकर्ताओं को गलत सूचना के लिए कुछ पूर्व जोखिम हो सकता है और वे पुष्टि की तलाश कर रहे हैं।
  • Malign Prompts: इन संकेतों ने झूठे आख्यान को सीधे तथ्य के रूप में जोर दिया, उन स्थितियों को दर्शाते हुए जहां उपयोगकर्ता पहले से ही गलत सूचना के बारे में आश्वस्त हैं और सुदृढीकरण की तलाश कर रहे हैं।

चैटबॉट की प्रतिक्रिया को प्रभावित करने वाले विभिन्न प्रकार के उपयोगकर्ता जुड़ाव को समझने में यह बहुआयामी दृष्टिकोण महत्वपूर्ण था। इसने खुलासा किया कि चैटबॉट प्रॉम्प्ट शैली की परवाह किए बिना दुष्प्रचार को दोहराने के लिए अतिसंवेदनशील थे, हालांकि प्रतिक्रियाओं की आवृत्ति और प्रकृति भिन्न थी।

चैटबॉट्स द्वारा प्रतिध्वनित दुष्प्रचार के विशिष्ट उदाहरण

NewsGuard रिपोर्ट प्रावदा नेटवर्क द्वारा प्रचारित और बाद में AI चैटबॉट्स द्वारा दोहराए गए विशिष्ट झूठे आख्यानों के कई उदाहरण प्रदान करती है। ये उदाहरण दुष्प्रचार अभियान की चौड़ाई और गहराई को उजागर करते हैं। कुछ आख्यानों में शामिल हैं:

  • दावे कि यूक्रेन एक नाजी राज्य है।
  • यूक्रेन में संघर्ष के कारणों के बारे में झूठे दावे।
  • संघर्ष में पश्चिमी भागीदारी के बारे में भ्रामक जानकारी।
  • यूक्रेनी नेतृत्व के बारे में मनगढ़ंत कहानियां।

ये कई झूठे आख्यानों के कुछ उदाहरण हैं जिन्हें NewsGuard द्वारा सावधानीपूर्वक प्रलेखित और ट्रैक किया गया है। तथ्य यह है कि इन आख्यानों को अग्रणी AI चैटबॉट्स द्वारा प्रतिध्वनित किया जा रहा है, प्रभावी जवाबी उपायों की तत्काल आवश्यकता को रेखांकित करता है।

AI-संचालित दुष्प्रचार से निपटने की चुनौती

इस समस्या का समाधान एक जटिल उपक्रम है। इसके लिए तकनीकी समाधान और बढ़ी हुई उपयोगकर्ता जागरूकता दोनों को शामिल करते हुए एक बहु-आयामी दृष्टिकोण की आवश्यकता है।

तकनीकी समाधान:

  • बेहतर डेटा फ़िल्टरिंग: AI डेवलपर्स को LLM को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटासेट से गलत सूचना को फ़िल्टर करने के लिए अधिक मजबूत तंत्र लागू करने की आवश्यकता है। इसमें अविश्वसनीय स्रोतों की पहचान करना और उन्हें बाहर करना, साथ ही ऐसे एल्गोरिदम विकसित करना शामिल है जो संभावित रूप से झूठी या भ्रामक जानकारी का पता लगा सकते हैं और उन्हें चिह्नित कर सकते हैं।
  • बढ़ी हुई स्रोत सत्यापन: चैटबॉट्स को विश्वसनीय और सत्यापित स्रोतों से जानकारी को प्राथमिकता देने के लिए डिज़ाइन किया जाना चाहिए। इसमें स्पष्ट उद्धरण प्रदान करना और उपयोगकर्ताओं को प्रस्तुत जानकारी की उत्पत्ति का आसानी से पता लगाने की अनुमति देना शामिल है।
  • पारदर्शिता और व्याख्यात्मकता: AI मॉडल को अपनी निर्णय लेने की प्रक्रियाओं के बारे में अधिक पारदर्शी होना चाहिए। उपयोगकर्ताओं को यह समझने में सक्षम होना चाहिए कि चैटबॉट एक विशेष प्रतिक्रिया क्यों प्रदान कर रहा है और यह किन डेटा स्रोतों पर निर्भर है।

उपयोगकर्ता जागरूकता:

  • मीडिया साक्षरता शिक्षा: उपयोगकर्ताओं को AI-जनित गलत सूचना की संभावना के बारे में शिक्षित करने की आवश्यकता है। इसमें महत्वपूर्ण सोच कौशल विकसित करना और ऑनलाइन सूचना स्रोतों की विश्वसनीयता का मूल्यांकन करना सीखना शामिल है।
  • संदेह और सत्यापन: उपयोगकर्ताओं को AI चैटबॉट्स द्वारा प्रदान की गई जानकारी को स्वस्थ संदेह के साथ देखना चाहिए। अन्य स्रोतों के साथ जानकारी को क्रॉस-रेफरेंस करना और उन दावों से सावधान रहना महत्वपूर्ण है जो बहुत सनसनीखेज या सच होने के लिए बहुत अच्छे लगते हैं।

दीर्घकालिक जोखिम: राजनीतिक, सामाजिक और तकनीकी

AI चैटबॉट्स के माध्यम से दुष्प्रचार का अनियंत्रित प्रसार महत्वपूर्ण दीर्घकालिक जोखिम पैदा करता है। ये जोखिम व्यक्तिगत झूठे आख्यानों के तत्काल प्रभाव से परे हैं और व्यापक सामाजिक परिणामों को शामिल करते हैं।

  • राजनीतिक जोखिम: AI-संचालित दुष्प्रचार के माध्यम से जनमत का हेरफेर लोकतांत्रिक प्रक्रियाओं को कमजोर कर सकता है और संस्थानों में विश्वास को कम कर सकता है। इसका उपयोग चुनावों को प्रभावित करने, कलह बोने और सरकारों को अस्थिर करने के लिए किया जा सकता है।
  • सामाजिक जोखिम: झूठे आख्यानों का प्रसार मौजूदा सामाजिक विभाजनों को बढ़ा सकता है और नए बना सकता है। यह पूर्वाग्रह, भेदभाव और यहां तक कि हिंसा को भी बढ़ावा दे सकता है।
  • तकनीकी जोखिम: गलत सूचना के प्रसार के कारण AI तकनीक में विश्वास का क्षरण इसके विकास और अपनाने में बाधा डाल सकता है। यदि लोग प्रदान की गई जानकारी की सटीकता और विश्वसनीयता में विश्वास नहीं कर सकते हैं तो वे AI उपकरणों का उपयोग करने में अनिच्छुक हो सकते हैं।

AI-संचालित दुष्प्रचार के खिलाफ लड़ाई एक महत्वपूर्ण है। यह सुनिश्चित करने के लिए कि इन शक्तिशाली तकनीकों का उपयोग जिम्मेदारी से और नैतिक रूप से किया जाता है, AI डेवलपर्स, नीति निर्माताओं, शिक्षकों और व्यक्तिगत उपयोगकर्ताओं से एक ठोस प्रयास की आवश्यकता है। सूचना का भविष्य, और वास्तव में हमारे समाजों का भविष्य, इस पर निर्भर हो सकता है।