ரஷ்ய பிரச்சார நெட்வொர்க் AI சாட்பாட்களை தவறான தகவலுடன் ஆயுதமாக்குகிறது

ரஷ்ய பிரச்சார வலையமைப்பு AI சாட்பாட்களை தவறான தகவல்களுடன் ஆயுதமாக்குகிறது

செய்தி மற்றும் தகவல் வலைத்தளங்களின் நம்பகத்தன்மையை மதிப்பிடும் சேவையான நியூஸ்கார்ட், சமீபத்தில் மாஸ்கோவில் இருந்து உருவான ஒரு அதிநவீன தவறான தகவல் பிரச்சாரத்தை வெளிப்படுத்தியது. ‘ப்ரவ்தா’ (ரஷ்ய மொழியில் ‘உண்மை’) என்றழைக்கப்படும் இந்த நடவடிக்கை, ரஷ்ய பிரச்சாரத்தை மேற்கத்திய செயற்கை நுண்ணறிவு (AI) அமைப்புகளில் முறையாக செலுத்துகிறது. முன்னணி AI சாட்பாட்கள் கையாளுதலுக்கு ஆளாகின்றன, பெரும்பாலும் இந்த நெட்வொர்க்கால் உருவாக்கப்பட்ட தவறான கதைகளை உள்ளடக்கி பரப்புகின்றன என்பதை கண்டுபிடிப்புகள் வெளிப்படுத்துகின்றன.

‘LLM Grooming’ இன் இயக்கவியல்

ப்ரவ்தா நெட்வொர்க் சுமார் 150 போலி செய்தி தளங்களின் பரந்த வலை மூலம் செயல்படுகிறது. இருப்பினும், இந்த தளங்கள் மனித நுகர்வுக்காக வடிவமைக்கப்படவில்லை. குறைந்தபட்ச போக்குவரத்துடன் - பெரும்பாலான பக்கங்கள் மாதத்திற்கு 1,000 க்கும் குறைவான பார்வையாளர்களைப் பெறுகின்றன - அவற்றின் முதன்மை நோக்கம் AI அமைப்புகளுக்கு உள்ளடக்கத்தை வழங்குவதாகும். இந்த மூலோபாயம் தவறான தகவலுக்கான ஒரு புதிய அணுகுமுறையைக் குறிக்கிறது, இது மனித வாசகர்களை நேரடியாக குறிவைக்கும் பாரம்பரிய முறைகளுக்கு அப்பால் நகர்கிறது.

இந்த தந்திரோபாயம் ‘LLM grooming‘ என்று அழைக்கப்படுகிறது, இது AI பயிற்சி தரவை வேண்டுமென்றே கையாளுவதை விவரிக்கும் ஒரு சொல். தேடுபொறிகளுக்கு (SEO) அதிக அளவில் உகந்ததாக்கப்பட்ட உள்ளடக்கத்தை பெருமளவில் வெளியிடுவதன் மூலம் நெட்வொர்க் இதை அடைகிறது. பிரச்சாரம் AI மாதிரிகளால் உடனடியாக உட்கொள்ளப்பட்டு மறுபகிர்வு செய்யப்படுவதை இது உறுதிசெய்கிறது, அவற்றின் வெளியீடுகளை பாதிக்கிறது மற்றும் பொது கருத்தை வடிவமைக்கக்கூடும்.

மாஸ்கோவில் வசிக்கும் அமெரிக்கரும், ரஷ்ய தவறான தகவல் பிரச்சாரங்களை ஆதரிப்பதாக நியூஸ்கார்ட் அடையாளம் கண்டவருமான ஜான் மார்க் டௌகன், உள்ளூர் மாநாட்டில் அடிப்படை கொள்கையை விளக்கினார்: “இந்த தகவல் எவ்வளவு வேறுபட்டதாக இருக்கிறதோ, அவ்வளவு அதிகமாக அது பயிற்சியையும் எதிர்கால AI ஐயும் பாதிக்கிறது.” இந்த அறிக்கை செயல்பாட்டின் நயவஞ்சக தன்மையை எடுத்துக்காட்டுகிறது, AI அமைப்புகள் கட்டமைக்கப்படும் அடித்தள தரவை நுட்பமாக சிதைப்பதை நோக்கமாகக் கொண்டுள்ளது.

செயல்பாட்டின் அளவு மற்றும் நோக்கம்

ப்ரவ்தா நெட்வொர்க்கின் செயல்பாடுகளின் அளவு திகைக்க வைக்கிறது. 2024 ஆம் ஆண்டில் மட்டும், இந்த தளங்கள் 49 நாடுகளில் சுமார் 3.6 மில்லியன் கட்டுரைகளை வெளியிட்டுள்ளன. NATO.News-Pravda.com, Trump.News-Pravda.com மற்றும் Macron.News-Pravda.com உள்ளிட்ட முறையான செய்தி ஆதாரங்களைப் பிரதிபலிக்கும் வகையில் டொமைன் பெயர்கள் மூலோபாய ரீதியாக தேர்ந்தெடுக்கப்படுகின்றன. இந்த பிரதிபலிப்பு ஒரு ஏமாற்று அடுக்கைச் சேர்க்கிறது, இது சாதாரண பார்வையாளர்கள் உண்மையான மற்றும் புனையப்பட்ட உள்ளடக்கத்தை வேறுபடுத்துவதை மிகவும் கடினமாக்குகிறது.

உள்ளடக்கம் பரந்த அளவிலான தலைப்புகளை உள்ளடக்கியது, ஆனால் தொடர்ந்து ரஷ்ய சார்பு கதைகளை ஊக்குவிக்கிறது மற்றும் மேற்கத்திய கண்ணோட்டங்களை குறைமதிப்பிற்கு உட்படுத்துகிறது. நெட்வொர்க் குறைந்தது ஏப்ரல் 2022 முதல் செயலில் உள்ளது, மேலும் நியூஸ்கார்டின் பகுப்பாய்வு அந்த நேரத்திற்கும் பிப்ரவரி 2025 க்கும் இடையில் ப்ரவ்தா நெட்வொர்க்கால் விநியோகிக்கப்பட்ட 15 சரிபார்க்கக்கூடிய தவறான கதைகளில் கவனம் செலுத்தியது.

AI சாட்பாட்களின் பாதிப்பு

ப்ரவ்தா நெட்வொர்க்கின் தவறான தகவலுக்கு அவற்றின் பாதிப்பை மதிப்பிடுவதற்கு பல முக்கிய AI சாட்பாட்களை சோதிப்பதை நியூஸ்கார்டின் விசாரணை உள்ளடக்கியது. சோதிக்கப்பட்ட அமைப்புகள் பின்வருமாறு:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity

முடிவுகள் கவலைக்குரியவை. AI சாட்பாட்கள் ப்ரவ்தா நெட்வொர்க்கிலிருந்து 33.5% வழக்குகளில் தவறான கதைகளை ஏற்றுக்கொண்டன. 48.2% நிகழ்வுகளில் ரஷ்ய உள்ளடக்கத்தை தவறான தகவல் என்று அமைப்புகள் சரியாக அடையாளம் கண்டாலும், அவை சில சமயங்களில் தவறாக வழிநடத்தும் ஆதாரங்களை மேற்கோள் காட்டின, இது தேவையற்ற நம்பகத்தன்மையை அளிக்கக்கூடும். மீதமுள்ள 18.2% பதில்கள் முடிவில்லாதவை, AI-உருவாக்கிய உள்ளடக்கத்தின் யுகத்தில் உண்மையிலிருந்து பொய்யை வேறுபடுத்துவதில் உள்ள சவால்களை மேலும் எடுத்துக்காட்டுகிறது.

AI-உந்துதல் தவறான தகவலை எதிர்கொள்வதில் உள்ள சவால்

இந்த வகையான கையாளுதலை எதிர்த்துப் போராடுவது ஒரு குறிப்பிடத்தக்க சவாலாக உள்ளது. அறியப்பட்ட தவறான தகவல் வலைத்தளங்களைத் தடுக்கும் பாரம்பரிய முறைகள் பயனற்றவை என்பதை நிரூபிக்கின்றன. அதிகாரிகள் ப்ரவ்தா டொமைன்களைத் தடுக்கும்போது, புதியவை விரைவாக வெளிவருகின்றன, இது நெட்வொர்க்கின் சுறுசுறுப்பு மற்றும் பின்னடைவை நிரூபிக்கிறது.

மேலும், தவறான தகவல் ஒரே நேரத்தில் பல சேனல்கள் வழியாக பாய்கிறது, பெரும்பாலும் வெவ்வேறு நெட்வொர்க் தளங்கள் ஒருவருக்கொருவர் உள்ளடக்கத்தை மீண்டும் உருவாக்குகின்றன. இது ஒன்றோடொன்று இணைக்கப்பட்ட ஆதாரங்களின் சிக்கலான வலையை உருவாக்குகிறது, பிரச்சாரத்தை அதன் மூலத்தில் தனிமைப்படுத்தி நடுநிலையாக்குவது கடினம். வலைத்தளங்களைத் தடுப்பது பரந்த, ஒருங்கிணைந்த பிரச்சாரத்திற்கு எதிராக மட்டுப்படுத்தப்பட்ட பாதுகாப்பை வழங்குகிறது.

பரந்த சூழல்: அரசு ஆதரவு AI கையாளுதல்

ப்ரவ்தா நெட்வொர்க்கின் செயல்பாடுகள் தனிமைப்படுத்தப்பட்ட சம்பவங்கள் அல்ல. தவறான தகவல் நோக்கங்களுக்காக AI ஐப் பயன்படுத்துவதற்கான அரசு ஆதரவு முயற்சிகளின் பரந்த வடிவத்துடன் அவை ஒத்துப்போகின்றன. ரஷ்யா, சீனா, ஈரான் மற்றும் இஸ்ரேலைச் சேர்ந்த அரசு ஆதரவு நடிகர்கள் ஏற்கனவே பிரச்சார பிரச்சாரங்களுக்கு AI அமைப்புகளைப் பயன்படுத்த முயற்சித்ததாக சமீபத்திய OpenAI ஆய்வு வெளிப்படுத்தியது. இந்த செயல்பாடுகள் பெரும்பாலும் AI-உருவாக்கிய உள்ளடக்கத்தை பாரம்பரிய, கைமுறையாக உருவாக்கப்பட்ட பொருட்களுடன் இணைத்து, உண்மையான மற்றும் கையாளப்பட்ட தகவல்களுக்கு இடையிலான கோடுகளை மங்கலாக்குகின்றன.

அரசியல் கையாளுதலில் AI இன் பயன்பாடு அரசு நடிகர்களுக்கு மட்டும் அல்ல. ஜேர்மனியின் தீவிர வலதுசாரி AFD கட்சி போன்ற அரசியல் குழுக்கள் பிரச்சார நோக்கங்களுக்காக AI பட மாதிரிகளைப் பயன்படுத்துவதையும் அவதானிக்க முடிந்தது. டொனால்ட் டிரம்ப் போன்ற நபர்கள் கூட AI-உருவாக்கிய உள்ளடக்கத்துடன் ஈடுபட்டுள்ளனர், ஒரு நுகர்வோராகவும், முரண்பாடாக, உண்மையான தகவலை AI-உருவாக்கிய போலிகள் என்று பெயரிடுவதன் மூலமும். எதிர்-பிரச்சாரத்தின் ஒரு வடிவமாக அடையாளம் காணப்பட்ட இந்த தந்திரோபாயம், அனைத்து ஆன்லைன் தகவல்களிலும் அவநம்பிக்கையை விதைக்கிறது, தனிநபர்கள் உண்மையான துல்லியத்தைப் பொருட்படுத்தாமல் நம்பகமான நபர்களை மட்டுமே நம்புவதற்கு வழிவகுக்கும்.

AI மாதிரிகளின் வடிவமைப்பைக் கூட மாநில நிகழ்ச்சி நிரல்களால் பாதிக்கலாம். உதாரணமாக, சீன AI மாதிரிகள், சீன அரசாங்கத்தின் அரசியல் முன்னுரிமைகளைப் பிரதிபலிக்கும் வகையில், தணிக்கை மற்றும் பிரச்சாரத்துடன் முன்பே ஏற்றப்பட்டதாகக் கண்டறியப்பட்டுள்ளது.

ஆழமான பார்வை: தவறான கதைகளின் குறிப்பிட்ட எடுத்துக்காட்டுகள்

நியூஸ்கார்ட் அறிக்கை ப்ரவ்தா நெட்வொர்க்கால் பரப்பப்பட்ட ஒவ்வொரு தவறான கதையையும் விவரிக்கவில்லை என்றாலும், சரிபார்க்கக்கூடிய தவறான கதைகளைப் பயன்படுத்தும் முறை பின்வருவனவற்றைச் செய்ய வடிவமைக்கப்பட்ட தவறான தகவல்களைப் பரப்புவதற்கான ஒரு வடிவத்தை பரிந்துரைக்கிறது:

  1. மேற்கத்திய நிறுவனங்களை குறைமதிப்பிற்கு உட்படுத்துதல்: கதைகள் நேட்டோவை ஆக்கிரமிப்பு அல்லது நிலையற்றதாக தவறாக சித்தரிக்கலாம் அல்லது மேற்கத்திய தலைவர்கள் சம்பந்தப்பட்ட ஊழல்களை புனையலாம்.
  2. ரஷ்ய சார்பு உணர்வை ஊக்குவித்தல்: கதைகள் ரஷ்யாவின் இராணுவ வெற்றிகளை மிகைப்படுத்தலாம், அதன் மனித உரிமை மீறல்களைக் குறைக்கலாம் அல்லது உலக அரங்கில் அதன் நடவடிக்கைகளை நியாயப்படுத்தலாம்.
  3. பிளவு மற்றும் பிரிவினையை விதைத்தல்: உள்ளடக்கம் மேற்கத்திய நாடுகளுக்குள் இருக்கும் சமூக மற்றும் அரசியல் பதட்டங்களை அதிகரிக்கவும், பிளவுபடுத்தும் பிரச்சினைகளை பெருக்கவும் மற்றும் துருவப்படுத்தலை ஊக்குவிக்கவும் நோக்கமாக இருக்கலாம்.
  4. குறிப்பிட்ட நிகழ்வுகளைச் சுற்றியுள்ள யதார்த்தத்தை சிதைத்தல்: தேர்தல்கள், மோதல்கள் அல்லது சர்வதேச சம்பவங்கள் போன்ற நிகழ்வுகளைப் பற்றிய தவறான தகவல்கள் பரப்பப்படலாம், கதையை ரஷ்ய சார்பு விளக்கத்திற்கு சாதகமாக திருப்பலாம்.

சீரான நூல் ஒரு குறிப்பிட்ட புவிசார் அரசியல் நிகழ்ச்சி நிரலுக்கு சேவை செய்வதற்காக தகவல்களை கையாளுவதாகும். AI இன் பயன்பாடு இந்த கதைகளின் வரம்பு மற்றும் சாத்தியமான தாக்கத்தை அதிகரிக்கிறது, அவற்றை கண்டறிந்து எதிர்ப்பது கடினம்.

நீண்ட கால தாக்கங்கள்

இந்த AI-உந்துதல் தவறான தகவலின் தாக்கங்கள் தொலைநோக்குடையவை. தகவல் ஆதாரங்கள் மீதான நம்பிக்கையின் அரிப்பு, பொது கருத்தை கையாளுவதற்கான சாத்தியம் மற்றும் ஜனநாயக செயல்முறைகளின் ஸ்திரமின்மை ஆகியவை அனைத்தும் தீவிர கவலைகள். AI அமைப்புகள் பெருகிய முறையில் நமது அன்றாட வாழ்க்கையில் ஒருங்கிணைக்கப்படுவதால், உண்மை மற்றும் பொய்க்கு இடையில் வேறுபடுத்தும் திறன் மிகவும் முக்கியமானதாகிறது.

‘LLM grooming’ நுட்பம் தகவல் போர் நிலப்பரப்பில் ஒரு குறிப்பிடத்தக்க அதிகரிப்பைக் குறிக்கிறது. இது AI அமைப்புகளின் கையாளுதலுக்கான பாதிப்பை எடுத்துக்காட்டுகிறது மற்றும் இந்த வளர்ந்து வரும் அச்சுறுத்தலுக்கு எதிராக வலுவான பாதுகாப்புகளின் அவசியத்தை எடுத்துக்காட்டுகிறது. சவால் தவறான தகவல் ஆதாரங்களை அடையாளம் கண்டு தடுப்பது மட்டுமல்லாமல், AI மாதிரிகளை இந்த நுட்பமான ஆனால் பரவலான செல்வாக்கு வடிவங்களுக்கு எதிராக தடுப்பூசி போடுவதற்கான உத்திகளை உருவாக்குவதிலும் உள்ளது. இதற்கு ஒரு பன்முக அணுகுமுறை தேவைப்படுகிறது, இதில் பின்வருவன அடங்கும்:

  • மேம்படுத்தப்பட்ட AI கல்வியறிவு: AI-உருவாக்கிய தவறான தகவலுக்கான சாத்தியக்கூறுகள் குறித்து பொதுமக்களுக்குக் கற்பித்தல் மற்றும் விமர்சன சிந்தனை திறன்களை ஊக்குவித்தல்.
  • மேம்படுத்தப்பட்ட AI கண்டறிதல் கருவிகள்: AI-உருவாக்கிய உள்ளடக்கம் மற்றும் தவறான தகவலை அடையாளம் கண்டு கொடியிடுவதற்கான மிகவும் மேம்பட்ட முறைகளை உருவாக்குதல்.
  • வலுப்படுத்தப்பட்ட AI பயிற்சி தரவு: AI பயிற்சி தரவின் ஒருமைப்பாடு மற்றும் பன்முகத்தன்மையை உறுதி செய்வதற்கான நடவடிக்கைகளை செயல்படுத்துதல், கையாளுதலுக்கு அதிக எதிர்ப்பை உருவாக்குதல்.
  • சர்வதேச ஒத்துழைப்பு: இந்த உலகளாவிய சவாலை எதிர்கொள்ள அரசாங்கங்கள், தொழில்நுட்ப நிறுவனங்கள் மற்றும் ஆராய்ச்சியாளர்களுக்கு இடையே ஒத்துழைப்பை வளர்ப்பது.
  • அதிகரித்த வெளிப்படைத்தன்மை: AI டெவலப்பர்கள் பயன்படுத்தப்படும் பயிற்சி தரவு மற்றும் அவற்றின் மாதிரிகளுக்குள் இருக்கக்கூடிய சாத்தியமான சார்புகள் குறித்து வெளிப்படையாக இருக்க வேண்டும்.
  • அல்காரித பொறுப்புக்கூறல்: AI டெவலப்பர்களை அவர்களின் அமைப்புகளின் வெளியீடுகளுக்கு பொறுப்பாக்குதல், குறிப்பாக அந்த வெளியீடுகள் தவறான தகவலைப் பரப்புவதற்குப் பயன்படுத்தப்படும்போது.

AI-உந்துதல் தவறான தகவலுக்கு எதிரான போர் ஒரு சிக்கலான மற்றும் உருவாகி வரும் ஒன்றாகும். தகவலின் ஒருமைப்பாட்டைப் பாதுகாப்பதற்கும், தகவலறிந்த முடிவெடுப்பதற்கான அடித்தளங்களைப் பாதுகாப்பதற்கும் தனிநபர்கள், நிறுவனங்கள் மற்றும் அரசாங்கங்களிடமிருந்து ஒரு ஒருங்கிணைந்த முயற்சி தேவைப்படுகிறது. ப்ரவ்தா நெட்வொர்க்கின் செயல்பாடுகள் சம்பந்தப்பட்ட பங்குகள் மற்றும் இந்த வளர்ந்து வரும் அச்சுறுத்தலை நிவர்த்தி செய்வதற்கான அவசரத்தை ஒரு கடுமையான நினைவூட்டலாக செயல்படுகின்றன. தகவலறிந்த பொது சொற்பொழிவின் எதிர்காலம் மற்றும் ஜனநாயக சமூகங்களின் ஸ்திரத்தன்மை ஆகியவை இந்த புதிய வகையான கையாளுதலை வெற்றிகரமாக எதிர்கொள்ளும் நமது திறனைப் பொறுத்தது. சவால் தொழில்நுட்ப ரீதியானது மட்டுமல்ல; இது சமூக ரீதியானது, டிஜிட்டல் யுகத்தில் உண்மை, துல்லியம் மற்றும் விமர்சன சிந்தனைக்கு ஒரு புதுப்பிக்கப்பட்ட அர்ப்பணிப்பு தேவைப்படுகிறது.