‘LLM ग्रूमिंग’ची कार्यपद्धती
प्रावदा नेटवर्क सुमारे 150 बनावट बातम्यांच्या वेबसाइट्सच्या विस्तृत जाळ्याद्वारे कार्य करते. या साइट्स मानवी वापरासाठी बनवलेल्या नाहीत. कमी रहदारीसह – बहुतेक पृष्ठांना 1,000 पेक्षा कमी मासिक भेटी मिळतात – त्यांचा मुख्य उद्देश AI प्रणालींना माहिती पुरवणे आहे. हे धोरण चुकीच्या माहितीसाठी एक नवीन दृष्टिकोन दर्शवते, जे थेट मानवी वाचकांना लक्ष्य करणाऱ्या पारंपारिक पद्धतींच्या पलीकडे जाते.
हे तंत्र ‘LLM ग्रूमिंग’ म्हणून ओळखले जाते, हे एक असे पद आहे जे AI प्रशिक्षण डेटाच्या हेतुपुरस्सर केलेल्या फेरफाराचे वर्णन करते. हे नेटवर्क शोध इंजिनसाठी (SEO) मोठ्या प्रमाणात ऑप्टिमाइझ केलेली सामग्री प्रकाशित करून हे साध्य करते. हे सुनिश्चित करते की प्रोपगंडा AI मॉडेल्सद्वारे सहजपणे स्वीकारला जातो आणि त्याचे पुनर्वितरण केले जाते, त्यांच्या आउटपुटवर प्रभाव टाकतो आणि संभाव्यत: लोकांच्या धारणांना आकार देतो.
मॉस्कोमध्ये राहणारे अमेरिकन आणि NewsGuard द्वारे रशियन दुष्प्रचार मोहिमांना कथितपणे समर्थन देणारे म्हणून ओळखले जाणारे जॉन मार्क डौगन यांनी एका स्थानिक परिषदेत मूळ तत्त्व स्पष्ट केले: “माहिती जितकी वैविध्यपूर्ण असेल तितका तिचा प्रशिक्षणावर आणि भविष्यातील AI वर अधिक प्रभाव पडतो.” हे विधान या ऑपरेशनचे कपटी स्वरूप अधोरेखित करते, ज्याचा उद्देश AI प्रणाली तयार केलेल्या मूलभूत डेटाला सूक्ष्मपणे भ्रष्ट करणे आहे.
ऑपरेशनचा आकार आणि व्याप्ती
प्रावदा नेटवर्कच्या क्रियाकलापांचा आकार थक्क करणारा आहे. 2024 मध्ये, या साइट्सनी 49 देशांमध्ये अंदाजे 3.6 दशलक्ष लेख प्रकाशित केले. डोमेन नावे धोरणात्मकरित्या निवडली जातात आणि ती कायदेशीर बातम्यांच्या स्त्रोतांसारखी दिसतात, जसे की NATO.News-Pravda.com, Trump.News-Pravda.com, आणि Macron.News-Pravda.com. ही नक्कल फसवणुकीचा एक स्तर जोडते, ज्यामुळे सामान्य निरीक्षकांना अस्सल आणि बनावट सामग्रीमधील फरक ओळखणे अधिक कठीण होते.
सामग्री स्वतःच विषयांच्या विस्तृत श्रेणीमध्ये पसरलेली आहे, परंतु सातत्याने रशियन समर्थक कथांना प्रोत्साहन देते आणि पाश्चिमात्य दृष्टिकोनांना कमी लेखते. हे नेटवर्क किमान एप्रिल 2022 पासून सक्रिय आहे, आणि NewsGuard च्या विश्लेषणात एप्रिल 2022 ते फेब्रुवारी 2025 दरम्यान प्रावदा नेटवर्कद्वारे वितरित केलेल्या 15 खोट्या कथांवर लक्ष केंद्रित केले आहे.
AI चॅटबॉट्सची असुरक्षा
NewsGuard च्या तपासणीत प्रावदा नेटवर्कच्या दुष्प्रचारासाठी अनेक प्रमुख AI चॅटबॉट्सच्या असुरक्षिततेचे मूल्यांकन करण्यासाठी चाचणी समाविष्ट होती. चाचणी केलेल्या प्रणालींमध्ये हे समाविष्ट होते:
- OpenAI चे ChatGPT-4o
- You.com चे स्मार्ट असिस्टंट
- xAI चे Grok
- इन्फ्लेक्शनचे Pi
- मिस्ट्रलचे ले चॅट
- मायक्रोसॉफ्टचे कोपायलट
- मेटा AI
- अँथ्रोपिकचे क्लॉड
- गुगलचे जेमिनी
- Perplexity
निष्कर्ष चिंताजनक होते. AI चॅटबॉट्सनी 33.5% प्रकरणांमध्ये प्रावदा नेटवर्कमधील खोट्या कथा स्वीकारल्या. 48.2% घटनांमध्ये प्रणालींनी रशियन सामग्री चुकीची माहिती म्हणून योग्यरित्या ओळखली, तरीही त्यांनी कधीकधी दिशाभूल करणाऱ्या स्त्रोतांचा उल्लेख केला, ज्यामुळे त्यांना अयोग्य विश्वसनीयता मिळू शकते. उर्वरित 18.2% प्रतिसाद अनिर्णायक होते, ज्यामुळे AI-व्युत्पन्न सामग्रीच्या युगात सत्य आणि असत्य यामधील फरक ओळखण्यात येणारी आव्हाने अधिक स्पष्ट झाली.
AI-चालित दुष्प्रचाराचा सामना करण्याचे आव्हान
या प्रकारच्या हाताळणीचा सामना करणे एक मोठे आव्हान आहे. ज्ञात दुष्प्रचार वेबसाइट्स ब्लॉक करण्याच्या पारंपारिक पद्धती अप्रभावी ठरत आहेत. जेव्हा अधिकारी प्रावदा डोमेन ब्लॉक करतात, तेव्हा नवीन डोमेन त्वरित उदयास येतात, जे नेटवर्कची चपळता आणि लवचिकता दर्शवतात.
शिवाय, दुष्प्रचार एकाच वेळी अनेक चॅनेलद्वारे प्रवाहित होतो, अनेकदा वेगवेगळ्या नेटवर्क साइट्स एकमेकांच्या सामग्रीचा प्रसार करतात. हे एकमेकांशी जोडलेल्या स्त्रोतांचे एक जटिल जाळे तयार करते, ज्यामुळे प्रोपगंडा त्याच्या मुळाशी वेगळे करणे आणि निष्प्रभ करणे कठीण होते. केवळ वेबसाइट्स ब्लॉक करणे हे व्यापक, समन्वित मोहिमेपासून मर्यादित संरक्षण प्रदान करते.
व्यापक संदर्भ: राज्य-प्रायोजित AI फेरफार
प्रावदा नेटवर्कच्या क्रियाकलाप ഒറ്റ्या घटना नाहीत. त्या AI चा दुष्प्रचारासाठी उपयोग करण्याच्या राज्य-प्रायोजित प्रयत्नांच्या व्यापक पद्धतीशी जुळतात. अलीकडील OpenAI अभ्यासात असे दिसून आले आहे की रशिया, चीन, इराण आणि इस्रायलमधील राज्य-समर्थित कलाकारांनी आधीच प्रोपगंडा मोहिमांसाठी AI प्रणाली वापरण्याचा प्रयत्न केला आहे. या ऑपरेशन्समध्ये अनेकदा AI-व्युत्पन्न सामग्री पारंपारिक, हाताने तयार केलेल्या सामग्रीसह एकत्रित केली जाते, ज्यामुळे अस्सल आणि फेरफार केलेल्या माहितीमधील रेषा अस्पष्ट होतात.
राजकीय हेराफेरीमध्ये AI चा वापर केवळ राज्य कलाकारांपुरता मर्यादित नाही. जर्मनीच्या अति-उजव्या AFD पक्षासारख्या राजकीय गटांनी देखील प्रचारासाठी AI प्रतिमा मॉडेल वापरल्याचे दिसून आले आहे. डोनाल्ड ट्रम्प यांच्यासारख्या व्यक्तींनी देखील AI-व्युत्पन्न सामग्रीचा वापर केला आहे, दोन्ही एक ग्राहक म्हणून आणि विरोधाभासाने, अस्सल माहितीला AI-व्युत्पन्न बनावट म्हणून लेबल करून. हे तंत्र, प्रति-प्रचाराचे एक रूप म्हणून ओळखले जाते, सर्व ऑनलाइन माहितीमध्ये अविश्वास निर्माण करते, संभाव्यत: व्यक्तींना तथ्यात्मक अचूकतेकडे दुर्लक्ष करून, केवळ विश्वासू व्यक्तींवर अवलंबून राहण्यास प्रवृत्त करते.
अगदी AI मॉडेल्सची रचना देखील राज्याच्या अजेंड्यांद्वारे प्रभावित होऊ शकते. उदाहरणार्थ, चिनी AI मॉडेल्स सेन्सॉरशिप आणि प्रोपगंडाने भरलेले असल्याचे आढळले आहे, जे चिनी सरकारची राजकीय प्राथमिकता दर्शवतात.
डीप डाईव्ह: खोट्या कथांची विशिष्ट उदाहरणे
NewsGuard अहवालात प्रावदा नेटवर्कद्वारे प्रसारित केलेल्या प्रत्येक खोट्या कथेचा तपशील दिलेला नाही, परंतु चुकीच्या कथा वापरण्याची पद्धत खालील गोष्टींसाठी बनवलेल्या चुकीच्या माहितीचा प्रसार करण्याचे एक नमुना दर्शवते:
- पाश्चिमात्य संस्थांना कमकुवत करणे: कथा NATO ला आक्रमक किंवा अस्थिर म्हणून चुकीच्या पद्धतीने दर्शवू शकतात किंवा पाश्चिमात्य नेत्यांशी संबंधित घोटाळे तयार करू शकतात.
- रशियन समर्थक भावनांना प्रोत्साहन देणे: कथा रशियाच्या लष्करी यशांना अतिशयोक्तीपूर्णपणे दर्शवू शकतात, मानवाधिकार उल्लंघनांना कमी लेखू शकतात किंवा जागतिक स्तरावर त्याच्या कृतींचे समर्थन करू शकतात.
- कलह आणि फूट पाडणे: सामग्रीचा उद्देश पाश्चिमात्य देशांमधील विद्यमान सामाजिक आणि राजकीय तणाव वाढवणे, फूट पाडणाऱ्या समस्यांना वाढवणे आणि ध्रुवीकरणाला प्रोत्साहन देणे असू शकते.
- विशिष्ट घटनांभोवतीची वास्तविकता विकृत करणे: निवडणुका, संघर्ष किंवा आंतरराष्ट्रीय घटनांसारख्या घटनांबद्दल खोटी माहिती पसरवली जाऊ शकते, ज्यामुळे रशियन समर्थक स्पष्टीकरणाला अनुकूलता मिळेल.
सातत्यपूर्ण धागा म्हणजे विशिष्ट भू-राजकीय अजेंडा पूर्ण करण्यासाठी माहितीची फेरफार करणे. AI चा वापर या कथांची पोहोच आणि संभाव्य प्रभाव वाढवतो, ज्यामुळे त्यांना शोधणे आणि त्यांचा सामना करणे अधिक कठीण होते.
दीर्घकालीन परिणाम
या AI-चालित दुष्प्रचाराचे परिणाम दूरगामी आहेत. माहितीच्या स्त्रोतांवरील विश्वासाची झीज, जनमतावर फेरफार करण्याची शक्यता आणि लोकशाही प्रक्रियांचे अस्थिर होणे या सर्व गंभीर चिंता आहेत. जसजसे AI प्रणाली आपल्या दैनंदिन जीवनात अधिकाधिक एकत्रित होत जातात, तसतसे सत्य आणि असत्य यामधील फरक ओळखण्याची क्षमता अधिक महत्त्वाची होत जाते.
‘LLM ग्रूमिंग’ तंत्र माहिती युद्धाच्या क्षेत्रात एक महत्त्वपूर्ण वाढ दर्शवते. हे AI प्रणालींची फेरफार होण्याची शक्यता आणि या उदयोन्मुख धोक्याविरूद्ध मजबूत संरक्षणाची आवश्यकता अधोरेखित करते. आव्हान केवळ दुष्प्रचाराचे स्त्रोत ओळखणे आणि अवरोधित करणे इतकेच नाही, तर AI मॉडेल्सना प्रभावाच्या या सूक्ष्म परंतु व्यापक स्वरूपांपासून वाचवण्यासाठी धोरणे विकसित करणे देखील आहे. यासाठी बहुआयामी दृष्टिकोन आवश्यक आहे, ज्यामध्ये हे समाविष्ट आहे:
- वर्धित AI साक्षरता: AI-व्युत्पन्न दुष्प्रचाराच्या संभाव्यतेबद्दल लोकांना शिक्षित करणे आणि गंभीर विचार कौशल्यांना प्रोत्साहन देणे.
- सुधारित AI शोध साधने: AI-व्युत्पन्न सामग्री आणि दुष्प्रचार ओळखण्यासाठी आणि ध्वजांकित करण्यासाठी अधिक अत्याधुनिक पद्धती विकसित करणे.
- मजबूत AI प्रशिक्षण डेटा: AI प्रशिक्षण डेटाची अखंडता आणि विविधता सुनिश्चित करण्यासाठी उपाय लागू करणे, ज्यामुळे ते फेरफार करण्यासाठी अधिक प्रतिरोधक होईल.
- आंतरराष्ट्रीय सहकार्य: या जागतिक आव्हानाला सामोरे जाण्यासाठी सरकार, तंत्रज्ञान कंपन्या आणि संशोधक यांच्यात सहयोग वाढवणे.
- वाढलेली पारदर्शकता: AI विकासकांनी वापरलेला प्रशिक्षण डेटा आणि त्यांच्या मॉडेल्समध्ये असलेल्या संभाव्य पूर्वाग्रहांबद्दल पारदर्शक असले पाहिजे.
- अल्गोरिदमिक जबाबदारी: AI विकासकांना त्यांच्या प्रणालींच्या आउटपुटसाठी जबाबदार धरणे, विशेषत: जेव्हा ते आउटपुट दुष्प्रचार पसरवण्यासाठी वापरले जातात.
AI-चालित दुष्प्रचाराविरूद्धची लढाई एक जटिल आणि विकसित होणारी लढाई आहे. माहितीची अखंडता जपण्यासाठी आणि माहितीपूर्ण निर्णय घेण्याच्या पायाचे संरक्षण करण्यासाठी व्यक्ती, संस्था आणि सरकारांकडून एकत्रित प्रयत्न करणे आवश्यक आहे. प्रावदा नेटवर्कचे क्रियाकलाप यात गुंतलेल्या धोक्यांची आणि या वाढत्या धोक्याला सामोरे जाण्याच्या तातडीची एक कठोर आठवण करून देतात. माहितीपूर्ण सार्वजनिक चर्चांचे भविष्य आणि संभाव्यत: लोकशाही समाजांची स्थिरता, या नवीन प्रकारच्या हाताळणीचा यशस्वीपणे सामना करण्याच्या आपल्या क्षमतेवर अवलंबून असू शकते. आव्हान केवळ तांत्रिक नाही; ते सामाजिक देखील आहे, ज्यासाठी डिजिटल युगात सत्य, अचूकता आणि गंभीर विचारांसाठी नूतनीकरण केलेल्या वचनबद्धतेची आवश्यकता आहे.