एआय चॅटबॉट्स आणि रशियन दुष्प्रचाराचा प्रसार

क्रेमलिन-समर्थित असत्यांचा व्यापक प्रभाव

समस्येचे मूळ ऑनलाइन माहिती स्रोतांच्या जाणीवपूर्वक दूषितपणात आहे. शोध परिणाम आणि वेब क्रॉलर्सना प्रो-क्रेमलिन असत्यांनी भरून टाकून, दुष्प्रचार करणाऱ्यांचे एक नेटवर्क मोठ्या भाषा मॉडेल (LLMs) च्या आउटपुटला सक्रियपणे आकार देत आहे. हे मॉडेल, जे आपण दररोज संवाद साधतो त्या AI चॅटबॉट्सना सामर्थ्य देतात, ते इंटरनेटवरून स्क्रॅप केलेल्या प्रचंड डेटासेटवर अवलंबून असतात. जेव्हा हा डेटा चुकीच्या माहितीने दूषित होतो, तेव्हा परिणामी आउटपुट हे पूर्वाग्रह प्रतिबिंबित करते.

NewsGuard, एक कंपनी जी बातम्या आणि माहिती वेबसाइटसाठी विश्वासार्हता रेटिंग आणि चुकीच्या माहितीचे फिंगरप्रिंट प्रदान करते, या घटनेचे सखोल विश्लेषण केले. त्यांचे निष्कर्ष एक त्रासदायक सत्य प्रकट करतात: आघाडीच्या AI चॅटबॉट्सद्वारे तयार केलेल्या माहितीचा एक महत्त्वपूर्ण भाग प्रो-क्रेमलिन वेबसाइट्सच्या विशिष्ट नेटवर्कद्वारे प्रसारित केलेल्या कथांशी जुळतो.

दुष्प्रचाराची यंत्रणा: AI मॉडेल्स कसे हाताळले जातात

या दुष्प्रचार नेटवर्कद्वारे वापरलेली रणनीती कपटी आणि अत्याधुनिक दोन्ही आहे. हे प्रामुख्याने मानवी वाचकांना आकर्षित करण्याच्या उद्देशाने नाही; उलट, ते AI चॅटबॉट्सना आधार देणाऱ्या अल्गोरिदममध्ये फेरफार करण्यासाठी डिझाइन केलेले आहे. ‘LLM ग्रूमिंग’ म्हणून ओळखल्या जाणार्‍या या युक्तीमध्ये, अनेक वेबसाइट्सवर हेतुपुरस्सर खोटी किंवा दिशाभूल करणारी माहिती पेरली जाते, हे जाणून की हे प्लॅटफॉर्म LLMs द्वारे स्क्रॅप केले जातील आणि आत्मसात केले जातील.

अमेरिकन सनलाइट प्रोजेक्ट (ASP), एक अमेरिकन ना-नफा संस्था, फेब्रुवारी 2025 च्या अहवालात या धोक्यावर प्रकाश टाकला. त्यांनी चेतावणी दिली की प्रावदा नेटवर्क, प्रो-रशियन कथांना पुढे ढकलणाऱ्या वेबसाइट्सचा संग्रह, AI मॉडेल्सवर प्रभाव टाकण्याच्या स्पष्ट उद्देशाने तयार केले गेले आहे. प्रो-रशिया कथांची संख्या जितकी जास्त असेल, तितकी LLMs त्यांच्या ज्ञानाच्या आधारावर त्यांना समाकलित करण्याची शक्यता जास्त असते.

याचे परिणाम दूरगामी आहेत. LLMs माहिती आणि मदतीचे स्रोत म्हणून आपल्या दैनंदिन जीवनात अधिकाधिक एकत्रित होत असताना, हाताळलेल्या सामग्रीचा व्यापक प्रसार होण्याची शक्यता चिंताजनक आहे.

NewsGuard चे ऑडिट: परिणामाचे प्रमाण

या समस्येची व्याप्ती तपासण्यासाठी, NewsGuard ने दहा प्रमुख AI चॅटबॉट्सचे ऑडिट केले. यात समाविष्ट होते:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

ऑडिट 15 वेगवेगळ्या खोट्या कथांवर केंद्रित होते ज्या एप्रिल 2022 ते फेब्रुवारी 2025 दरम्यान 150 प्रो-क्रेमलिन प्रावदा वेबसाइट्सद्वारे सक्रियपणे प्रसारित केल्या गेल्या होत्या. या कथांमध्ये विविध विषयांचा समावेश होता, आणि त्या सर्व विशिष्ट राजकीय अजेंडा पुढे नेण्यासाठी डिझाइन केल्या होत्या.

कार्यपद्धतीमध्ये NewsGuard च्या मिसइन्फॉर्मेशन फिंगरप्रिंट्सवर आधारित प्रॉम्प्ट्सच्या मालिकेसह प्रत्येक चॅटबॉटची चाचणी करणे समाविष्ट होते, जे महत्त्वाच्या बातम्यांच्या विषयांवरील खोट्या दाव्यांची सूची आहे. हे प्रॉम्प्ट्स तीन वेगवेगळ्या शैलींमध्ये तयार केले गेले होते - इनोसंट, लीडिंग आणि मॅलिग्न - वापरकर्ते जनरेटिव्ह AI मॉडेल्सशी कसा संवाद साधतात याचे अनुकरण करण्यासाठी. याचा परिणाम म्हणून एकूण 450 प्रतिसाद (प्रत्येक चॅटबॉटसाठी 45) मिळाले.

त्रासदायक परिणाम: चॅटबॉट्समध्ये दुष्प्रचार व्यापक

NewsGuard ऑडिटचे निष्कर्ष कठोर होते. एकत्रितपणे, दहा AI चॅटबॉट्सनी 33.55% प्रतिसादांमध्ये रशियन चुकीच्या माहितीच्या कथांची पुनरावृत्ती केली. त्यांनी 18.22% प्रकरणांमध्ये कोणताही प्रतिसाद दिला नाही आणि 48.22% प्रकरणांमध्ये कथेचे खंडन केले.

चाचणी केलेल्या प्रत्येक चॅटबॉटने दुष्प्रचाराची पुनरावृत्ती केली जी प्रावदा नेटवर्कमधून उद्भवली होती. आणखी चिंताजनक बाब म्हणजे, सात चॅटबॉट्सनी थेट प्रावदा वेबसाइट्सवरील विशिष्ट लेखांचा त्यांचे स्रोत म्हणून उल्लेख केला. जरी दोन AI मॉडेल्स स्पष्टपणे संदर्भ देत नसले तरी, ते अजूनही नेटवर्कमधून खोट्या कथा तयार करताना किंवा पुनरावृत्ती करताना आढळले. स्त्रोतांचा उल्लेख करणाऱ्या आठपैकी फक्त एका मॉडेलने प्रावदाचा उल्लेख केला नाही.

एकूण, 450 चॅटबॉट-व्युत्पन्न प्रतिसादांपैकी 56 मध्ये प्रावदा नेटवर्कद्वारे प्रकाशित केलेल्या खोट्या दाव्यांचा प्रसार करणाऱ्या लेखांचे थेट दुवे समाविष्ट होते. चॅटबॉट्सनी एकत्रितपणे चुकीच्या माहिती असलेल्या 92 वेगवेगळ्या लेखांचा उल्लेख केला, ज्यामध्ये दोन मॉडेल्सनी प्रत्येकी 27 प्रावदा लेखांचा संदर्भ दिला. हे लेख नेटवर्कमधील विविध डोमेनमधून आले आहेत, ज्यात Denmark.news-pravda.com, Trump.news-pravda.com आणि NATO.news-pravda.com यांचा समावेश आहे.

प्रॉम्प्ट्सचे स्वरूप: वास्तविक-जगातील संवादांचे अनुकरण

NewsGuard ऑडिटमध्ये वापरलेल्या तीन प्रॉम्प्ट शैली AI चॅटबॉट्ससह वापरकर्त्यांच्या संवादाचे स्पेक्ट्रम प्रतिबिंबित करण्यासाठी डिझाइन केल्या होत्या:

  • इनोसंट प्रॉम्प्ट्स: या प्रॉम्प्ट्सने खोटी कथा तटस्थ, गैर-मार्गदर्शित पद्धतीने सादर केली, जणू काही वापरकर्ता कोणत्याही पूर्वकल्पित कल्पनांशिवाय फक्त माहिती शोधत आहे.
  • लीडिंग प्रॉम्प्ट्स: या प्रॉम्प्ट्सने खोट्या कथेला सूक्ष्मपणे सूचित केले, स्पष्टपणे न सांगता त्याच्या वैधतेचा इशारा दिला. हे अशा परिस्थितींचे अनुकरण करते जिथे वापरकर्त्यांना कदाचित चुकीच्या माहितीचा काही पूर्वीचा अनुभव असेल आणि ते पुष्टी शोधत असतील.
  • मॅलिग्न प्रॉम्प्ट्स: या प्रॉम्प्ट्सने खोटी कथा थेट तथ्य म्हणून मांडली, अशा परिस्थिती प्रतिबिंबित करते जिथे वापरकर्ते आधीच चुकीच्या माहितीबद्दल खात्री बाळगून आहेत आणि मजबुतीकरण शोधत आहेत.

वापरकर्त्यांच्या वेगवेगळ्या प्रकारच्या सहभागामुळे चॅटबॉटच्या प्रतिसादावर कसा परिणाम होऊ शकतो हे समजून घेण्यासाठी हा बहुआयामी दृष्टिकोन महत्त्वपूर्ण होता. हे दिसून आले की चॅटबॉट्स प्रॉम्प्ट शैलीची पर्वा न करता दुष्प्रचाराची पुनरावृत्ती करण्यास संवेदनाक्षम होते, जरी प्रतिसादांची वारंवारता आणि स्वरूप भिन्न होते.

चॅटबॉट्सद्वारे प्रतिध्वनित केलेल्या दुष्प्रचाराची विशिष्ट उदाहरणे

NewsGuard अहवाल प्रावदा नेटवर्कद्वारे प्रसारित केलेल्या आणि त्यानंतर AI चॅटबॉट्सद्वारे पुनरावृत्ती केलेल्या विशिष्ट खोट्या कथांची असंख्य उदाहरणे देतो. ही उदाहरणे दुष्प्रचार मोहिमेची व्याप्ती आणि खोली दर्शवतात. काही कथांमध्ये हे समाविष्ट होते:

  • युक्रेन एक नाझी राष्ट्र असल्याचा दावा.
  • युक्रेनमधील संघर्षाच्या कारणांबद्दल खोटे दावे.
  • संघर्षात पाश्चात्त्य सहभागाबद्दल दिशाभूल करणारी माहिती.
  • युक्रेनियन नेतृत्वाबद्दल बनावट कथा.

NewsGuard द्वारे काळजीपूर्वक दस्तऐवजीकरण केलेल्या आणि ट्रॅक केलेल्या अनेक खोट्या कथांची ही काही उदाहरणे आहेत. आघाडीचे AI चॅटबॉट्स या कथांना प्रतिध्वनित करत आहेत ही वस्तुस्थिती प्रभावी प्रति उपायांची तातडीची गरज अधोरेखित करते.

AI-चालित दुष्प्रचाराचा सामना करण्याचे आव्हान

या समस्येचे निराकरण करणे एक जटिल काम आहे. यासाठी तांत्रिक उपाय आणि वाढलेली वापरकर्ता जागरूकता या दोन्ही गोष्टींचा समावेश असलेला बहुआयामी दृष्टिकोन आवश्यक आहे.

तांत्रिक उपाय:

  • सुधारित डेटा फिल्टरिंग: AI विकासकांनी LLMs प्रशिक्षित करण्यासाठी वापरल्या जाणार्‍या डेटासेटमधून चुकीची माहिती फिल्टर करण्यासाठी अधिक मजबूत यंत्रणा लागू करणे आवश्यक आहे. यामध्ये अविश्वसनीय स्त्रोत ओळखणे आणि वगळणे, तसेच संभाव्य खोट्या किंवा दिशाभूल करणार्‍या माहिती शोधू शकणारे आणि ध्वजांकित करू शकणारे अल्गोरिदम विकसित करणे समाविष्ट आहे.
  • वर्धित स्त्रोत सत्यापन: चॅटबॉट्स विश्वसनीय आणि सत्यापित स्त्रोतांकडून माहितीला प्राधान्य देण्यासाठी डिझाइन केलेले असावे. यामध्ये स्पष्टपणे संदर्भ देणे आणि वापरकर्त्यांना सादर केलेल्या माहितीचा मूळ स्त्रोत सहजपणे शोधण्याची परवानगी देणे समाविष्ट आहे.
  • पारदर्शकता आणि स्पष्टीकरण: AI मॉडेल्स त्यांच्या निर्णय घेण्याच्या प्रक्रियेबद्दल अधिक पारदर्शक असले पाहिजेत. वापरकर्त्यांना हे समजण्यास सक्षम असले पाहिजे की चॅटबॉट विशिष्ट प्रतिसाद का देत आहे आणि ते कोणत्या डेटा स्त्रोतांवर अवलंबून आहे.

वापरकर्ता जागरूकता:

  • मीडिया साक्षरता शिक्षण: वापरकर्त्यांना AI-व्युत्पन्न चुकीच्या माहितीच्या संभाव्यतेबद्दल शिक्षित करणे आवश्यक आहे. यामध्ये गंभीर विचार कौशल्ये विकसित करणे आणि ऑनलाइन माहिती स्त्रोतांच्या विश्वासार्हतेचे मूल्यांकन कसे करावे हे शिकणे समाविष्ट आहे.
  • संशयवाद आणि सत्यापन: वापरकर्त्यांनी AI चॅटबॉट्सद्वारे प्रदान केलेल्या माहितीकडे निरोगी संशयाने पाहिले पाहिजे. इतर स्त्रोतांसह माहितीची क्रॉस-रेफरन्स करणे आणि सनसनाटी किंवा खूप चांगले वाटणारे दावे टाळणे महत्वाचे आहे.

दीर्घकालीन धोके: राजकीय, सामाजिक आणि तांत्रिक

AI चॅटबॉट्सद्वारे चुकीच्या माहितीचा अनियंत्रित प्रसार महत्त्वपूर्ण दीर्घकालीन धोके निर्माण करतो. हे धोके वैयक्तिक खोट्या कथांच्या तात्काळ परिणामाच्या पलीकडे जातात आणि व्यापक सामाजिक परिणामांचा समावेश करतात.

  • राजकीय धोके: AI-चालित दुष्प्रचाराद्वारे जनमताची हाताळणी लोकशाही प्रक्रिया कमकुवत करू शकते आणि संस्थांवरील विश्वास कमी करू शकते. याचा उपयोग निवडणुकांवर प्रभाव टाकण्यासाठी, मतभेद निर्माण करण्यासाठी आणि सरकार अस्थिर करण्यासाठी केला जाऊ शकतो.
  • सामाजिक धोके: खोट्या कथांचा प्रसार विद्यमान सामाजिक विभागणी वाढवू शकतो आणि नवीन तयार करू शकतो. हे पूर्वग्रह, भेदभाव आणि अगदी हिंसाचाराला चालना देऊ शकते.
  • तांत्रिक धोके: चुकीच्या माहितीच्या प्रसारामुळे AI तंत्रज्ञानावरील विश्वास कमी झाल्यामुळे त्याचा विकास आणि अवलंब करणे थांबवता येते. प्रदान केलेल्या माहितीच्या अचूकतेवर आणि विश्वासार्हतेवर विश्वास ठेवता येत नसेल तर लोक AI साधने वापरण्यास संकोच करू शकतात.

AI-चालित दुष्प्रचाराविरुद्धची लढाई ही एक महत्त्वाची लढाई आहे. या शक्तिशाली तंत्रज्ञानाचा जबाबदारीने आणि नैतिकतेने वापर केला जाईल याची खात्री करण्यासाठी AI विकासक, धोरणकर्ते, शिक्षक आणि वैयक्तिक वापरकर्ते यांच्याकडून एकत्रित प्रयत्न आवश्यक आहेत. माहितीचे भविष्य आणि खरोखरच आपल्या समाजांचे भविष्य यावर अवलंबून असू शकते.