ரஷ்ய பிரச்சார வலையமைப்பு AI சாட்பாட்களை தவறான தகவல்களுடன் ஆயுதமாக்குகிறது
செய்தி மற்றும் தகவல் வலைத்தளங்களின் நம்பகத்தன்மையை மதிப்பிடும் சேவையான நியூஸ்கார்ட், சமீபத்தில் மாஸ்கோவில் இருந்து உருவான ஒரு அதிநவீன தவறான தகவல் பிரச்சாரத்தை வெளிப்படுத்தியது. ‘ப்ரவ்தா’ (ரஷ்ய மொழியில் ‘உண்மை’) என்றழைக்கப்படும் இந்த நடவடிக்கை, ரஷ்ய பிரச்சாரத்தை மேற்கத்திய செயற்கை நுண்ணறிவு (AI) அமைப்புகளில் முறையாக செலுத்துகிறது. முன்னணி AI சாட்பாட்கள் கையாளுதலுக்கு ஆளாகின்றன, பெரும்பாலும் இந்த நெட்வொர்க்கால் உருவாக்கப்பட்ட தவறான கதைகளை உள்ளடக்கி பரப்புகின்றன என்பதை கண்டுபிடிப்புகள் வெளிப்படுத்துகின்றன.
‘LLM Grooming’ இன் இயக்கவியல்
ப்ரவ்தா நெட்வொர்க் சுமார் 150 போலி செய்தி தளங்களின் பரந்த வலை மூலம் செயல்படுகிறது. இருப்பினும், இந்த தளங்கள் மனித நுகர்வுக்காக வடிவமைக்கப்படவில்லை. குறைந்தபட்ச போக்குவரத்துடன் - பெரும்பாலான பக்கங்கள் மாதத்திற்கு 1,000 க்கும் குறைவான பார்வையாளர்களைப் பெறுகின்றன - அவற்றின் முதன்மை நோக்கம் AI அமைப்புகளுக்கு உள்ளடக்கத்தை வழங்குவதாகும். இந்த மூலோபாயம் தவறான தகவலுக்கான ஒரு புதிய அணுகுமுறையைக் குறிக்கிறது, இது மனித வாசகர்களை நேரடியாக குறிவைக்கும் பாரம்பரிய முறைகளுக்கு அப்பால் நகர்கிறது.
இந்த தந்திரோபாயம் ‘LLM grooming‘ என்று அழைக்கப்படுகிறது, இது AI பயிற்சி தரவை வேண்டுமென்றே கையாளுவதை விவரிக்கும் ஒரு சொல். தேடுபொறிகளுக்கு (SEO) அதிக அளவில் உகந்ததாக்கப்பட்ட உள்ளடக்கத்தை பெருமளவில் வெளியிடுவதன் மூலம் நெட்வொர்க் இதை அடைகிறது. பிரச்சாரம் AI மாதிரிகளால் உடனடியாக உட்கொள்ளப்பட்டு மறுபகிர்வு செய்யப்படுவதை இது உறுதிசெய்கிறது, அவற்றின் வெளியீடுகளை பாதிக்கிறது மற்றும் பொது கருத்தை வடிவமைக்கக்கூடும்.
மாஸ்கோவில் வசிக்கும் அமெரிக்கரும், ரஷ்ய தவறான தகவல் பிரச்சாரங்களை ஆதரிப்பதாக நியூஸ்கார்ட் அடையாளம் கண்டவருமான ஜான் மார்க் டௌகன், உள்ளூர் மாநாட்டில் அடிப்படை கொள்கையை விளக்கினார்: “இந்த தகவல் எவ்வளவு வேறுபட்டதாக இருக்கிறதோ, அவ்வளவு அதிகமாக அது பயிற்சியையும் எதிர்கால AI ஐயும் பாதிக்கிறது.” இந்த அறிக்கை செயல்பாட்டின் நயவஞ்சக தன்மையை எடுத்துக்காட்டுகிறது, AI அமைப்புகள் கட்டமைக்கப்படும் அடித்தள தரவை நுட்பமாக சிதைப்பதை நோக்கமாகக் கொண்டுள்ளது.
செயல்பாட்டின் அளவு மற்றும் நோக்கம்
ப்ரவ்தா நெட்வொர்க்கின் செயல்பாடுகளின் அளவு திகைக்க வைக்கிறது. 2024 ஆம் ஆண்டில் மட்டும், இந்த தளங்கள் 49 நாடுகளில் சுமார் 3.6 மில்லியன் கட்டுரைகளை வெளியிட்டுள்ளன. NATO.News-Pravda.com, Trump.News-Pravda.com மற்றும் Macron.News-Pravda.com உள்ளிட்ட முறையான செய்தி ஆதாரங்களைப் பிரதிபலிக்கும் வகையில் டொமைன் பெயர்கள் மூலோபாய ரீதியாக தேர்ந்தெடுக்கப்படுகின்றன. இந்த பிரதிபலிப்பு ஒரு ஏமாற்று அடுக்கைச் சேர்க்கிறது, இது சாதாரண பார்வையாளர்கள் உண்மையான மற்றும் புனையப்பட்ட உள்ளடக்கத்தை வேறுபடுத்துவதை மிகவும் கடினமாக்குகிறது.
உள்ளடக்கம் பரந்த அளவிலான தலைப்புகளை உள்ளடக்கியது, ஆனால் தொடர்ந்து ரஷ்ய சார்பு கதைகளை ஊக்குவிக்கிறது மற்றும் மேற்கத்திய கண்ணோட்டங்களை குறைமதிப்பிற்கு உட்படுத்துகிறது. நெட்வொர்க் குறைந்தது ஏப்ரல் 2022 முதல் செயலில் உள்ளது, மேலும் நியூஸ்கார்டின் பகுப்பாய்வு அந்த நேரத்திற்கும் பிப்ரவரி 2025 க்கும் இடையில் ப்ரவ்தா நெட்வொர்க்கால் விநியோகிக்கப்பட்ட 15 சரிபார்க்கக்கூடிய தவறான கதைகளில் கவனம் செலுத்தியது.
AI சாட்பாட்களின் பாதிப்பு
ப்ரவ்தா நெட்வொர்க்கின் தவறான தகவலுக்கு அவற்றின் பாதிப்பை மதிப்பிடுவதற்கு பல முக்கிய AI சாட்பாட்களை சோதிப்பதை நியூஸ்கார்டின் விசாரணை உள்ளடக்கியது. சோதிக்கப்பட்ட அமைப்புகள் பின்வருமாறு:
- OpenAI’s ChatGPT-4o
- You.com’s Smart Assistant
- xAI’s Grok
- Inflection’s Pi
- Mistral’s le Chat
- Microsoft’s Copilot
- Meta AI
- Anthropic’s Claude
- Google’s Gemini
- Perplexity
முடிவுகள் கவலைக்குரியவை. AI சாட்பாட்கள் ப்ரவ்தா நெட்வொர்க்கிலிருந்து 33.5% வழக்குகளில் தவறான கதைகளை ஏற்றுக்கொண்டன. 48.2% நிகழ்வுகளில் ரஷ்ய உள்ளடக்கத்தை தவறான தகவல் என்று அமைப்புகள் சரியாக அடையாளம் கண்டாலும், அவை சில சமயங்களில் தவறாக வழிநடத்தும் ஆதாரங்களை மேற்கோள் காட்டின, இது தேவையற்ற நம்பகத்தன்மையை அளிக்கக்கூடும். மீதமுள்ள 18.2% பதில்கள் முடிவில்லாதவை, AI-உருவாக்கிய உள்ளடக்கத்தின் யுகத்தில் உண்மையிலிருந்து பொய்யை வேறுபடுத்துவதில் உள்ள சவால்களை மேலும் எடுத்துக்காட்டுகிறது.
AI-உந்துதல் தவறான தகவலை எதிர்கொள்வதில் உள்ள சவால்
இந்த வகையான கையாளுதலை எதிர்த்துப் போராடுவது ஒரு குறிப்பிடத்தக்க சவாலாக உள்ளது. அறியப்பட்ட தவறான தகவல் வலைத்தளங்களைத் தடுக்கும் பாரம்பரிய முறைகள் பயனற்றவை என்பதை நிரூபிக்கின்றன. அதிகாரிகள் ப்ரவ்தா டொமைன்களைத் தடுக்கும்போது, புதியவை விரைவாக வெளிவருகின்றன, இது நெட்வொர்க்கின் சுறுசுறுப்பு மற்றும் பின்னடைவை நிரூபிக்கிறது.
மேலும், தவறான தகவல் ஒரே நேரத்தில் பல சேனல்கள் வழியாக பாய்கிறது, பெரும்பாலும் வெவ்வேறு நெட்வொர்க் தளங்கள் ஒருவருக்கொருவர் உள்ளடக்கத்தை மீண்டும் உருவாக்குகின்றன. இது ஒன்றோடொன்று இணைக்கப்பட்ட ஆதாரங்களின் சிக்கலான வலையை உருவாக்குகிறது, பிரச்சாரத்தை அதன் மூலத்தில் தனிமைப்படுத்தி நடுநிலையாக்குவது கடினம். வலைத்தளங்களைத் தடுப்பது பரந்த, ஒருங்கிணைந்த பிரச்சாரத்திற்கு எதிராக மட்டுப்படுத்தப்பட்ட பாதுகாப்பை வழங்குகிறது.
பரந்த சூழல்: அரசு ஆதரவு AI கையாளுதல்
ப்ரவ்தா நெட்வொர்க்கின் செயல்பாடுகள் தனிமைப்படுத்தப்பட்ட சம்பவங்கள் அல்ல. தவறான தகவல் நோக்கங்களுக்காக AI ஐப் பயன்படுத்துவதற்கான அரசு ஆதரவு முயற்சிகளின் பரந்த வடிவத்துடன் அவை ஒத்துப்போகின்றன. ரஷ்யா, சீனா, ஈரான் மற்றும் இஸ்ரேலைச் சேர்ந்த அரசு ஆதரவு நடிகர்கள் ஏற்கனவே பிரச்சார பிரச்சாரங்களுக்கு AI அமைப்புகளைப் பயன்படுத்த முயற்சித்ததாக சமீபத்திய OpenAI ஆய்வு வெளிப்படுத்தியது. இந்த செயல்பாடுகள் பெரும்பாலும் AI-உருவாக்கிய உள்ளடக்கத்தை பாரம்பரிய, கைமுறையாக உருவாக்கப்பட்ட பொருட்களுடன் இணைத்து, உண்மையான மற்றும் கையாளப்பட்ட தகவல்களுக்கு இடையிலான கோடுகளை மங்கலாக்குகின்றன.
அரசியல் கையாளுதலில் AI இன் பயன்பாடு அரசு நடிகர்களுக்கு மட்டும் அல்ல. ஜேர்மனியின் தீவிர வலதுசாரி AFD கட்சி போன்ற அரசியல் குழுக்கள் பிரச்சார நோக்கங்களுக்காக AI பட மாதிரிகளைப் பயன்படுத்துவதையும் அவதானிக்க முடிந்தது. டொனால்ட் டிரம்ப் போன்ற நபர்கள் கூட AI-உருவாக்கிய உள்ளடக்கத்துடன் ஈடுபட்டுள்ளனர், ஒரு நுகர்வோராகவும், முரண்பாடாக, உண்மையான தகவலை AI-உருவாக்கிய போலிகள் என்று பெயரிடுவதன் மூலமும். எதிர்-பிரச்சாரத்தின் ஒரு வடிவமாக அடையாளம் காணப்பட்ட இந்த தந்திரோபாயம், அனைத்து ஆன்லைன் தகவல்களிலும் அவநம்பிக்கையை விதைக்கிறது, தனிநபர்கள் உண்மையான துல்லியத்தைப் பொருட்படுத்தாமல் நம்பகமான நபர்களை மட்டுமே நம்புவதற்கு வழிவகுக்கும்.
AI மாதிரிகளின் வடிவமைப்பைக் கூட மாநில நிகழ்ச்சி நிரல்களால் பாதிக்கலாம். உதாரணமாக, சீன AI மாதிரிகள், சீன அரசாங்கத்தின் அரசியல் முன்னுரிமைகளைப் பிரதிபலிக்கும் வகையில், தணிக்கை மற்றும் பிரச்சாரத்துடன் முன்பே ஏற்றப்பட்டதாகக் கண்டறியப்பட்டுள்ளது.
ஆழமான பார்வை: தவறான கதைகளின் குறிப்பிட்ட எடுத்துக்காட்டுகள்
நியூஸ்கார்ட் அறிக்கை ப்ரவ்தா நெட்வொர்க்கால் பரப்பப்பட்ட ஒவ்வொரு தவறான கதையையும் விவரிக்கவில்லை என்றாலும், சரிபார்க்கக்கூடிய தவறான கதைகளைப் பயன்படுத்தும் முறை பின்வருவனவற்றைச் செய்ய வடிவமைக்கப்பட்ட தவறான தகவல்களைப் பரப்புவதற்கான ஒரு வடிவத்தை பரிந்துரைக்கிறது:
- மேற்கத்திய நிறுவனங்களை குறைமதிப்பிற்கு உட்படுத்துதல்: கதைகள் நேட்டோவை ஆக்கிரமிப்பு அல்லது நிலையற்றதாக தவறாக சித்தரிக்கலாம் அல்லது மேற்கத்திய தலைவர்கள் சம்பந்தப்பட்ட ஊழல்களை புனையலாம்.
- ரஷ்ய சார்பு உணர்வை ஊக்குவித்தல்: கதைகள் ரஷ்யாவின் இராணுவ வெற்றிகளை மிகைப்படுத்தலாம், அதன் மனித உரிமை மீறல்களைக் குறைக்கலாம் அல்லது உலக அரங்கில் அதன் நடவடிக்கைகளை நியாயப்படுத்தலாம்.
- பிளவு மற்றும் பிரிவினையை விதைத்தல்: உள்ளடக்கம் மேற்கத்திய நாடுகளுக்குள் இருக்கும் சமூக மற்றும் அரசியல் பதட்டங்களை அதிகரிக்கவும், பிளவுபடுத்தும் பிரச்சினைகளை பெருக்கவும் மற்றும் துருவப்படுத்தலை ஊக்குவிக்கவும் நோக்கமாக இருக்கலாம்.
- குறிப்பிட்ட நிகழ்வுகளைச் சுற்றியுள்ள யதார்த்தத்தை சிதைத்தல்: தேர்தல்கள், மோதல்கள் அல்லது சர்வதேச சம்பவங்கள் போன்ற நிகழ்வுகளைப் பற்றிய தவறான தகவல்கள் பரப்பப்படலாம், கதையை ரஷ்ய சார்பு விளக்கத்திற்கு சாதகமாக திருப்பலாம்.
சீரான நூல் ஒரு குறிப்பிட்ட புவிசார் அரசியல் நிகழ்ச்சி நிரலுக்கு சேவை செய்வதற்காக தகவல்களை கையாளுவதாகும். AI இன் பயன்பாடு இந்த கதைகளின் வரம்பு மற்றும் சாத்தியமான தாக்கத்தை அதிகரிக்கிறது, அவற்றை கண்டறிந்து எதிர்ப்பது கடினம்.
நீண்ட கால தாக்கங்கள்
இந்த AI-உந்துதல் தவறான தகவலின் தாக்கங்கள் தொலைநோக்குடையவை. தகவல் ஆதாரங்கள் மீதான நம்பிக்கையின் அரிப்பு, பொது கருத்தை கையாளுவதற்கான சாத்தியம் மற்றும் ஜனநாயக செயல்முறைகளின் ஸ்திரமின்மை ஆகியவை அனைத்தும் தீவிர கவலைகள். AI அமைப்புகள் பெருகிய முறையில் நமது அன்றாட வாழ்க்கையில் ஒருங்கிணைக்கப்படுவதால், உண்மை மற்றும் பொய்க்கு இடையில் வேறுபடுத்தும் திறன் மிகவும் முக்கியமானதாகிறது.
‘LLM grooming’ நுட்பம் தகவல் போர் நிலப்பரப்பில் ஒரு குறிப்பிடத்தக்க அதிகரிப்பைக் குறிக்கிறது. இது AI அமைப்புகளின் கையாளுதலுக்கான பாதிப்பை எடுத்துக்காட்டுகிறது மற்றும் இந்த வளர்ந்து வரும் அச்சுறுத்தலுக்கு எதிராக வலுவான பாதுகாப்புகளின் அவசியத்தை எடுத்துக்காட்டுகிறது. சவால் தவறான தகவல் ஆதாரங்களை அடையாளம் கண்டு தடுப்பது மட்டுமல்லாமல், AI மாதிரிகளை இந்த நுட்பமான ஆனால் பரவலான செல்வாக்கு வடிவங்களுக்கு எதிராக தடுப்பூசி போடுவதற்கான உத்திகளை உருவாக்குவதிலும் உள்ளது. இதற்கு ஒரு பன்முக அணுகுமுறை தேவைப்படுகிறது, இதில் பின்வருவன அடங்கும்:
- மேம்படுத்தப்பட்ட AI கல்வியறிவு: AI-உருவாக்கிய தவறான தகவலுக்கான சாத்தியக்கூறுகள் குறித்து பொதுமக்களுக்குக் கற்பித்தல் மற்றும் விமர்சன சிந்தனை திறன்களை ஊக்குவித்தல்.
- மேம்படுத்தப்பட்ட AI கண்டறிதல் கருவிகள்: AI-உருவாக்கிய உள்ளடக்கம் மற்றும் தவறான தகவலை அடையாளம் கண்டு கொடியிடுவதற்கான மிகவும் மேம்பட்ட முறைகளை உருவாக்குதல்.
- வலுப்படுத்தப்பட்ட AI பயிற்சி தரவு: AI பயிற்சி தரவின் ஒருமைப்பாடு மற்றும் பன்முகத்தன்மையை உறுதி செய்வதற்கான நடவடிக்கைகளை செயல்படுத்துதல், கையாளுதலுக்கு அதிக எதிர்ப்பை உருவாக்குதல்.
- சர்வதேச ஒத்துழைப்பு: இந்த உலகளாவிய சவாலை எதிர்கொள்ள அரசாங்கங்கள், தொழில்நுட்ப நிறுவனங்கள் மற்றும் ஆராய்ச்சியாளர்களுக்கு இடையே ஒத்துழைப்பை வளர்ப்பது.
- அதிகரித்த வெளிப்படைத்தன்மை: AI டெவலப்பர்கள் பயன்படுத்தப்படும் பயிற்சி தரவு மற்றும் அவற்றின் மாதிரிகளுக்குள் இருக்கக்கூடிய சாத்தியமான சார்புகள் குறித்து வெளிப்படையாக இருக்க வேண்டும்.
- அல்காரித பொறுப்புக்கூறல்: AI டெவலப்பர்களை அவர்களின் அமைப்புகளின் வெளியீடுகளுக்கு பொறுப்பாக்குதல், குறிப்பாக அந்த வெளியீடுகள் தவறான தகவலைப் பரப்புவதற்குப் பயன்படுத்தப்படும்போது.
AI-உந்துதல் தவறான தகவலுக்கு எதிரான போர் ஒரு சிக்கலான மற்றும் உருவாகி வரும் ஒன்றாகும். தகவலின் ஒருமைப்பாட்டைப் பாதுகாப்பதற்கும், தகவலறிந்த முடிவெடுப்பதற்கான அடித்தளங்களைப் பாதுகாப்பதற்கும் தனிநபர்கள், நிறுவனங்கள் மற்றும் அரசாங்கங்களிடமிருந்து ஒரு ஒருங்கிணைந்த முயற்சி தேவைப்படுகிறது. ப்ரவ்தா நெட்வொர்க்கின் செயல்பாடுகள் சம்பந்தப்பட்ட பங்குகள் மற்றும் இந்த வளர்ந்து வரும் அச்சுறுத்தலை நிவர்த்தி செய்வதற்கான அவசரத்தை ஒரு கடுமையான நினைவூட்டலாக செயல்படுகின்றன. தகவலறிந்த பொது சொற்பொழிவின் எதிர்காலம் மற்றும் ஜனநாயக சமூகங்களின் ஸ்திரத்தன்மை ஆகியவை இந்த புதிய வகையான கையாளுதலை வெற்றிகரமாக எதிர்கொள்ளும் நமது திறனைப் பொறுத்தது. சவால் தொழில்நுட்ப ரீதியானது மட்டுமல்ல; இது சமூக ரீதியானது, டிஜிட்டல் யுகத்தில் உண்மை, துல்லியம் மற்றும் விமர்சன சிந்தனைக்கு ஒரு புதுப்பிக்கப்பட்ட அர்ப்பணிப்பு தேவைப்படுகிறது.