रूसी दुष्प्रचार नेटवर्क AI चैटबॉट्स को दुष्प्रचार के साथ हथियार बनाता है

‘LLM ग्रूमिंग’ की कार्यप्रणाली

‘Pravda’ नेटवर्क लगभग 150 नकली समाचार साइटों के एक विशाल जाल के माध्यम से संचालित होता है। हालाँकि, ये साइटें मानव उपभोग के लिए डिज़ाइन नहीं की गई हैं। न्यूनतम ट्रैफ़िक के साथ - अधिकांश पृष्ठों पर प्रति माह 1,000 से कम विज़िटर आते हैं - उनका प्राथमिक उद्देश्य AI सिस्टम को सामग्री प्रदान करना है। यह रणनीति दुष्प्रचार के लिए एक नए दृष्टिकोण का प्रतिनिधित्व करती है, जो सीधे मानव पाठकों को लक्षित करने वाले पारंपरिक तरीकों से परे है।

इस रणनीति को ‘LLM ग्रूमिंग‘ के रूप में जाना जाता है, एक शब्द जो AI प्रशिक्षण डेटा के जानबूझकर हेरफेर का वर्णन करता है। नेटवर्क इसे बड़े पैमाने पर ऐसी सामग्री प्रकाशित करके प्राप्त करता है जो खोज इंजन (SEO) के लिए अत्यधिक अनुकूलित है। यह सुनिश्चित करता है कि प्रचार AI मॉडल द्वारा आसानी से ग्रहण और पुनर्वितरित किया जाता है, उनके आउटपुट को प्रभावित करता है और संभावित रूप से सार्वजनिक धारणा को आकार देता है।

जॉन मार्क डौगन, जो मास्को में रहने वाले एक अमेरिकी हैं और NewsGuard द्वारा कथित तौर पर रूसी दुष्प्रचार अभियानों का समर्थन करने वाले के रूप में पहचाने जाते हैं, ने एक स्थानीय सम्मेलन में अंतर्निहित सिद्धांत को समझाया: ‘यह जानकारी जितनी अधिक विविध होगी, उतना ही यह प्रशिक्षण और भविष्य के AI को प्रभावित करेगी।’ यह कथन ऑपरेशन की कपटपूर्ण प्रकृति पर प्रकाश डालता है, जिसका उद्देश्य AI सिस्टम के आधारभूत डेटा को सूक्ष्म रूप से भ्रष्ट करना है।

ऑपरेशन का पैमाना और दायरा

‘Pravda’ नेटवर्क की गतिविधियों का पैमाना चौंका देने वाला है। अकेले 2024 में, इन साइटों ने 49 देशों में लगभग 3.6 मिलियन लेख प्रकाशित किए। डोमेन नाम रणनीतिक रूप से वैध समाचार स्रोतों की नकल करने के लिए चुने गए हैं, उदाहरणों में NATO.News-Pravda.com, Trump.News-Pravda.com और Macron.News-Pravda.com शामिल हैं। यह नकल धोखे की एक परत जोड़ती है, जिससे आकस्मिक पर्यवेक्षकों के लिए प्रामाणिक और मनगढ़ंत सामग्री के बीच अंतर करना अधिक कठिन हो जाता है।

सामग्री स्वयं विषयों की एक विस्तृत श्रृंखला में फैली हुई है, लेकिन लगातार रूसी समर्थक आख्यानों को बढ़ावा देती है और पश्चिमी दृष्टिकोण को कमजोर करती है। नेटवर्क कम से कम अप्रैल 2022 से सक्रिय है, और NewsGuard के विश्लेषण ने उस समय और फरवरी 2025 के बीच ‘Pravda’ नेटवर्क द्वारा वितरित 15 सत्यापन योग्य झूठी कहानियों पर ध्यान केंद्रित किया।

AI चैटबॉट्स की भेद्यता

NewsGuard की जांच में ‘Pravda’ नेटवर्क के दुष्प्रचार के प्रति उनकी भेद्यता का आकलन करने के लिए कई प्रमुख AI चैटबॉट्स का परीक्षण शामिल था। परीक्षण किए गए सिस्टम में शामिल हैं:

  • OpenAI का ChatGPT-4o
  • You.com का स्मार्ट असिस्टेंट
  • xAI का Grok
  • Inflection का Pi
  • Mistral का le Chat
  • Microsoft का Copilot
  • Meta AI
  • Anthropic का Claude
  • Google का Gemini
  • Perplexity

परिणाम चिंताजनक थे। AI चैटबॉट्स ने 33.5% मामलों में ‘Pravda’ नेटवर्क से झूठे आख्यानों को स्वीकार किया। जबकि सिस्टम ने 48.2% उदाहरणों में रूसी सामग्री को दुष्प्रचार के रूप में सही ढंग से पहचाना, उन्होंने कभी-कभी भ्रामक स्रोतों का हवाला दिया, संभावित रूप से उन्हें अनावश्यक विश्वसनीयता प्रदान की। शेष 18.2% प्रतिक्रियाएँ अनिर्णायक थीं, जो AI-जनित सामग्री के युग में सच्चाई को झूठ से अलग करने में चुनौतियों को और उजागर करती हैं।

AI-संचालित दुष्प्रचार का मुकाबला करने की चुनौती

इस प्रकार के हेरफेर का मुकाबला करना एक महत्वपूर्ण चुनौती प्रस्तुत करता है। ज्ञात दुष्प्रचार वेबसाइटों को ब्लॉक करने के पारंपरिक तरीके अप्रभावी साबित हो रहे हैं। जब अधिकारी ‘Pravda’ डोमेन को ब्लॉक करते हैं, तो नए डोमेन जल्दी से उभर आते हैं, जो नेटवर्क की चपलता और लचीलापन प्रदर्शित करते हैं।

इसके अलावा, दुष्प्रचार एक साथ कई चैनलों के माध्यम से प्रवाहित होता है, अक्सर विभिन्न नेटवर्क साइटें एक-दूसरे की सामग्री को दोहराती हैं। यह परस्पर जुड़े स्रोतों का एक जटिल जाल बनाता है, जिससे प्रचार को उसके मूल में अलग करना और बेअसर करना मुश्किल हो जाता है। केवल वेबसाइटों को ब्लॉक करना व्यापक, समन्वित अभियान के खिलाफ सीमित सुरक्षा प्रदान करता है।

व्यापक संदर्भ: राज्य-प्रायोजित AI हेरफेर

‘Pravda’ नेटवर्क की गतिविधियाँ अलग-थलग घटनाएँ नहीं हैं। वे दुष्प्रचार उद्देश्यों के लिए AI का लाभ उठाने के राज्य-प्रायोजित प्रयासों के एक व्यापक पैटर्न के साथ संरेखित हैं। एक हालिया OpenAI अध्ययन से पता चला है कि रूस, चीन, ईरान और इज़राइल के राज्य-समर्थित अभिनेताओं ने पहले ही प्रचार अभियानों के लिए AI सिस्टम का उपयोग करने का प्रयास किया है। ये ऑपरेशन अक्सर AI-जनित सामग्री को पारंपरिक, मैन्युअल रूप से बनाई गई सामग्री के साथ जोड़ते हैं, जिससे प्रामाणिक और हेरफेर की गई जानकारी के बीच की रेखाएँ धुंधली हो जाती हैं।

राजनीतिक हेरफेर में AI का उपयोग केवल राज्य अभिनेताओं तक ही सीमित नहीं है। जर्मनी की धुर दक्षिणपंथी AFD पार्टी जैसे राजनीतिक समूहों को भी प्रचार उद्देश्यों के लिए AI छवि मॉडल का उपयोग करते हुए देखा गया है। यहां तक कि डोनाल्ड ट्रम्प जैसे आंकड़े भी AI-जनित सामग्री के साथ जुड़े हुए हैं, दोनों एक उपभोक्ता के रूप में और, विरोधाभासी रूप से, वास्तविक जानकारी को AI-जनित नकली के रूप में लेबल करके। यह रणनीति, जिसे प्रति-प्रचार के रूप में पहचाना जाता है, सभी ऑनलाइन जानकारी में अविश्वास पैदा करती है, संभावित रूप से व्यक्तियों को तथ्यात्मक सटीकता की परवाह किए बिना, केवल विश्वसनीय आंकड़ों पर भरोसा करने के लिए प्रेरित करती है।

यहां तक कि AI मॉडल का डिज़ाइन भी राज्य के एजेंडे से प्रभावित हो सकता है। उदाहरण के लिए, चीनी AI मॉडल को सेंसरशिप और प्रचार के साथ प्रीलोड किया गया पाया गया है, जो चीनी सरकार की राजनीतिक प्राथमिकताओं को दर्शाता है।

डीप डाइव: झूठे आख्यानों के विशिष्ट उदाहरण

जबकि NewsGuard रिपोर्ट ‘Pravda’ नेटवर्क द्वारा प्रचारित हर एक झूठे आख्यान का विवरण नहीं देती है, सत्यापन योग्य झूठी कहानियों का उपयोग करने की कार्यप्रणाली दुष्प्रचार फैलाने के एक पैटर्न का सुझाव देती है जिसे निम्न के लिए डिज़ाइन किया गया है:

  1. पश्चिमी संस्थानों को कमजोर करना: कहानियाँ झूठा रूप से NATO को आक्रामक या अस्थिर के रूप में चित्रित कर सकती हैं, या पश्चिमी नेताओं से जुड़े घोटालों को गढ़ सकती हैं।
  2. रूसी समर्थक भावना को बढ़ावा देना: आख्यान रूस की सैन्य सफलताओं को बढ़ा-चढ़ाकर पेश कर सकते हैं, उसके मानवाधिकारों के हनन को कम कर सकते हैं, या वैश्विक मंच पर उसके कार्यों को सही ठहरा सकते हैं।
  3. कलह और विभाजन बोना: सामग्री का उद्देश्य पश्चिमी देशों के भीतर मौजूदा सामाजिक और राजनीतिक तनावों को बढ़ाना, विभाजनकारी मुद्दों को बढ़ाना और ध्रुवीकरण को बढ़ावा देना हो सकता है।
  4. विशिष्ट घटनाओं के आसपास वास्तविकता को विकृत करना: चुनावों, संघर्षों या अंतर्राष्ट्रीय घटनाओं जैसी घटनाओं के बारे में झूठी जानकारी फैलाई जा सकती है, आख्यान को रूसी समर्थक व्याख्या के पक्ष में मोड़ दिया जा सकता है।

लगातार सूत्र एक विशिष्ट भू-राजनीतिक एजेंडे की सेवा के लिए जानकारी का हेरफेर है। AI का उपयोग इन आख्यानों की पहुंच और संभावित प्रभाव को बढ़ाता है, जिससे उन्हें पहचानना और उनका मुकाबला करना कठिन हो जाता है।

दीर्घकालिक निहितार्थ

इस AI-संचालित दुष्प्रचार के निहितार्थ दूरगामी हैं। सूचना स्रोतों में विश्वास का क्षरण, जनमत के हेरफेर की संभावना और लोकतांत्रिक प्रक्रियाओं का अस्थिर होना सभी गंभीर चिंताएँ हैं। जैसे-जैसे AI सिस्टम हमारे दैनिक जीवन में तेजी से एकीकृत होते जा रहे हैं, सच्चाई और झूठ के बीच अंतर करने की क्षमता और भी महत्वपूर्ण होती जा रही है।

‘LLM ग्रूमिंग’ तकनीक सूचना युद्ध के परिदृश्य में एक महत्वपूर्ण वृद्धि का प्रतिनिधित्व करती है। यह AI सिस्टम की हेरफेर के प्रति भेद्यता और इस उभरते खतरे के खिलाफ मजबूत सुरक्षा की आवश्यकता पर प्रकाश डालता है। चुनौती न केवल दुष्प्रचार स्रोतों की पहचान करने और उन्हें ब्लॉक करने में है, बल्कि AI मॉडल को प्रभाव के इन सूक्ष्म लेकिन व्यापक रूपों के खिलाफ टीका लगाने के लिए रणनीतियों को विकसित करने में भी है। इसके लिए एक बहुआयामी दृष्टिकोण की आवश्यकता है, जिसमें शामिल हैं:

  • बढ़ी हुई AI साक्षरता: जनता को AI-जनित दुष्प्रचार की संभावना के बारे में शिक्षित करना और महत्वपूर्ण सोच कौशल को बढ़ावा देना।
  • बेहतर AI पहचान उपकरण: AI-जनित सामग्री और दुष्प्रचार की पहचान करने और उसे चिह्नित करने के लिए अधिक परिष्कृत तरीके विकसित करना।
  • मजबूत AI प्रशिक्षण डेटा: AI प्रशिक्षण डेटा की अखंडता और विविधता सुनिश्चित करने के लिए उपाय लागू करना, जिससे यह हेरफेर के प्रति अधिक प्रतिरोधी हो।
  • अंतर्राष्ट्रीय सहयोग: इस वैश्विक चुनौती से निपटने के लिए सरकारों, तकनीकी कंपनियों और शोधकर्ताओं के बीच सहयोग को बढ़ावा देना।
  • पारदर्शिता में वृद्धि: AI डेवलपर्स को उपयोग किए गए प्रशिक्षण डेटा और उनके मॉडल के भीतर मौजूद संभावित पूर्वाग्रहों के बारे में पारदर्शी होना चाहिए।
  • एल्गोरिथम जवाबदेही: AI डेवलपर्स को उनके सिस्टम के आउटपुट के लिए जवाबदेह ठहराना, खासकर जब उन आउटपुट का उपयोग दुष्प्रचार फैलाने के लिए किया जाता है।

AI-संचालित दुष्प्रचार के खिलाफ लड़ाई एक जटिल और विकसित हो रही है। इसके लिए व्यक्तियों, संगठनों और सरकारों से सूचना की अखंडता की रक्षा करने और सूचित निर्णय लेने की नींव की रक्षा करने के लिए ठोस प्रयास की आवश्यकता है। ‘Pravda’ नेटवर्क की गतिविधियाँ शामिल दांव और इस बढ़ते खतरे को दूर करने की तात्कालिकता की एक स्पष्ट अनुस्मारक के रूप में काम करती हैं। सूचित सार्वजनिक प्रवचन का भविष्य, और संभावित रूप से लोकतांत्रिक समाजों की स्थिरता, इस नए प्रकार के हेरफेर का सफलतापूर्वक मुकाबला करने की हमारी क्षमता पर निर्भर हो सकती है। चुनौती न केवल तकनीकी है; यह सामाजिक भी है, जिसके लिए डिजिटल युग में सच्चाई, सटीकता और महत्वपूर्ण सोच के प्रति नए सिरे से प्रतिबद्धता की आवश्यकता है।