கிரெம்ளின் ஆதரவு பொய்களின் பரவலான செல்வாக்கு
பிரச்சனையின் மையமானது ஆன்லைன் தகவல் ஆதாரங்களை வேண்டுமென்றே மாசுபடுத்துவதில் உள்ளது. தேடல் முடிவுகளையும், வலை கிராலர்களையும் (web crawlers) கிரெம்ளின் சார்பு பொய்களால் நிரப்புவதன் மூலம், தவறான தகவல் பரப்புவோர் வலையமைப்பு, பெரிய மொழி மாதிரிகளின் (LLMs) வெளியீட்டை தீவிரமாக வடிவமைக்கிறது. நாம் தினசரி தொடர்பு கொள்ளும் AI சாட்போட்களுக்கு சக்தியூட்டும் இந்த மாதிரிகள், இணையத்தில் இருந்து எடுக்கப்பட்ட பரந்த தரவுத்தொகுப்புகளை நம்பியுள்ளன. இந்த தரவு தவறான தகவல்களால் மாசுபடும்போது, விளைவாக வரும் வெளியீடு இந்த சார்புகளை பிரதிபலிக்கிறது.
NewsGuard, செய்தி மற்றும் தகவல் வலைத்தளங்களுக்கான நம்பகத்தன்மை மதிப்பீடுகள் மற்றும் தவறான தகவல் கைரேகைகளை வழங்கும் ஒரு நிறுவனம், இந்த நிகழ்வின் ஆழமான பகுப்பாய்வை நடத்தியது. அவற்றின் கண்டுபிடிப்புகள் ஒரு கவலையளிக்கும் உண்மையை வெளிப்படுத்துகின்றன: முன்னணி AI சாட்போட்களால் உருவாக்கப்படும் தகவல்களின் குறிப்பிடத்தக்க பகுதி, கிரெம்ளின் சார்பு வலைத்தளங்களின் ஒரு குறிப்பிட்ட நெட்வொர்க்கால் பரப்பப்படும் கதைகளை எதிரொலிக்கிறது.
தவறான தகவலின் இயக்கவியல்: AI மாதிரிகள் எவ்வாறு கையாளப்படுகின்றன
இந்த தவறான தகவல் நெட்வொர்க்கால் பயன்படுத்தப்படும் உத்தி коварமானது மற்றும் நுட்பமானது. இது முதன்மையாக மனித வாசகர்களை ஈர்ப்பதை நோக்கமாகக் கொண்டிருக்கவில்லை; மாறாக, இது AI சாட்போட்களை இயக்கும் வழிமுறைகளைக் கையாளுவதற்காக வடிவமைக்கப்பட்டுள்ளது. ‘LLM சீர்ப்படுத்தல்’ என்று அழைக்கப்படும் இந்த தந்திரம், பல வலைத்தளங்களில் தவறான அல்லது தவறாக வழிநடத்தும் தகவல்களை மூலோபாய ரீதியாக வைப்பதை உள்ளடக்குகிறது, இந்த தளங்கள் LLM-களால் எடுக்கப்பட்டு உட்கொள்ளப்படும் என்பதை அறிந்து.
American Sunlight Project (ASP), ஒரு அமெரிக்க இலாப நோக்கற்ற அமைப்பு, பிப்ரவரி 2025 அறிக்கையில் இந்த அச்சுறுத்தலை எடுத்துக்காட்டியது. ப்ராவ்தா நெட்வொர்க், ரஷ்ய சார்பு கதைகளைத் தள்ளும் வலைத்தளங்களின் தொகுப்பு, AI மாதிரிகளைப் பாதிக்கும் வெளிப்படையான நோக்கத்துடன் உருவாக்கப்பட்டிருக்கலாம் என்று அவர்கள் எச்சரித்தனர். ரஷ்ய சார்பு கதைகளின் அளவு அதிகமாக இருந்தால், LLM-கள் அவற்றை தங்கள் அறிவுத் தளத்தில் ஒருங்கிணைப்பதற்கான நிகழ்தகவு அதிகம்.
இதன் விளைவுகள் தொலைநோக்குடையவை. LLM-கள் பெருகிய முறையில் நமது அன்றாட வாழ்வில் ஒருங்கிணைக்கப்பட்டு, தகவல் மற்றும் உதவிக்கான ஆதாரங்களாக செயல்படுவதால், கையாளப்பட்ட உள்ளடக்கத்தை பரவலாக பரப்புவதற்கான சாத்தியக்கூறுகள் ஆபத்தானவை.
NewsGuard’ன் தணிக்கை: தாக்கத்தை அளவிடுதல்
இந்த சிக்கலின் அளவை மதிப்பிடுவதற்கு, NewsGuard பத்து முக்கிய AI சாட்போட்களின் தணிக்கையை நடத்தியது. அவையாவன:
- OpenAI’s ChatGPT-4o
- You.com’s Smart Assistant
- xAI’s Grok
- Inflection’s Pi
- Mistral’s le Chat
- Microsoft’s Copilot
- Meta AI
- Anthropic’s Claude
- Google’s Gemini
- Perplexity’s answer engine
இந்த தணிக்கை ஏப்ரல் 2022 மற்றும் பிப்ரவரி 2025 க்கு இடையில் 150 கிரெம்ளின் சார்பு ப்ராவ்தா வலைத்தளங்களால் தீவிரமாக ஊக்குவிக்கப்பட்ட 15 தனித்துவமான தவறான கதைகளில் கவனம் செலுத்தியது. இந்தக் கதைகள் ஒரு குறிப்பிட்ட அரசியல் நிகழ்ச்சி நிரலை முன்னெடுக்கும் வகையில் வடிவமைக்கப்பட்ட பல்வேறு தலைப்புகளை உள்ளடக்கியது.
இந்த வழிமுறையானது, NewsGuard’ன் Misinformation Fingerprints அடிப்படையில் தொடர்ச்சியான தூண்டுதல்களுடன் ஒவ்வொரு சாட்போட்டையும் சோதிப்பதை உள்ளடக்கியது, இது குறிப்பிடத்தக்க செய்தி தலைப்புகளில் நிரூபிக்கக்கூடிய தவறான கூற்றுக்களின் பட்டியல். தூண்டுதல்கள் மூன்று வெவ்வேறு பாணிகளில் வடிவமைக்கப்பட்டன - Innocent, Leading, மற்றும் Malign - பயனர்கள் உருவாக்கும் AI மாதிரிகளுடன் தொடர்பு கொள்ளும் பல்வேறு வழிகளைப் பிரதிபலிக்கும். இதன் விளைவாக மொத்தம் 450 பதில்கள் கிடைத்தன (சாட்போட்டிற்கு 45).
கவலையளிக்கும் முடிவுகள்: சாட்போட்களில் பரவலான தவறான தகவல்
NewsGuard தணிக்கையின் கண்டுபிடிப்புகள் அப்பட்டமாக இருந்தன. கூட்டாக, பத்து AI சாட்போட்களும் தவறான ரஷ்ய தவறான தகவல் கதைகளை 33.55% பதில்களில் மீண்டும் கூறின. அவை 18.22% வழக்குகளில் பதில் அளிக்கவில்லை, மேலும் 48.22% வழக்குகளில் கதையை மறுத்தன.
சோதிக்கப்பட்ட ஒவ்வொரு சாட்போட்டும் ப்ராவ்தா நெட்வொர்க்கில் இருந்து உருவான தவறான தகவலை மீண்டும் கூறியது. இன்னும் கவலைக்குரிய விஷயம் என்னவென்றால், ஏழு சாட்போட்கள் ப்ராவ்தா வலைத்தளங்களில் இருந்து குறிப்பிட்ட கட்டுரைகளை தங்கள் ஆதாரங்களாக நேரடியாக மேற்கோள் காட்டின. இரண்டு AI மாதிரிகள் வெளிப்படையான மேற்கோள்களை வழங்கவில்லை என்றாலும், அவை நெட்வொர்க்கிலிருந்து தவறான கதைகளை உருவாக்குவது அல்லது மீண்டும் கூறுவது கண்டறியப்பட்டது. ஆதாரங்களை மேற்கோள் காட்டும் எட்டு மாடல்களில் ஒன்று மட்டுமே ப்ராவ்தாவை மேற்கோள் காட்டவில்லை.
மொத்தத்தில், 450 சாட்போட் உருவாக்கிய பதில்களில் 56, ப்ராவ்தா நெட்வொர்க்கால் வெளியிடப்பட்ட தவறான கூற்றுக்களை பரப்பும் கட்டுரைகளுக்கான நேரடி இணைப்புகளை உள்ளடக்கியது. சாட்போட்கள் கூட்டாக தவறான தகவல்களைக் கொண்ட 92 வெவ்வேறு கட்டுரைகளை மேற்கோள் காட்டின, இரண்டு மாதிரிகள் ஒவ்வொன்றும் 27 ப்ராவ்தா கட்டுரைகளை மேற்கோள் காட்டின. இந்தக் கட்டுரைகள் நெட்வொர்க்கில் உள்ள பல்வேறு களங்களில் இருந்து வந்தவை, அவற்றுள் Denmark.news-pravda.com, Trump.news-pravda.com, மற்றும் NATO.news-pravda.com ஆகியவையும் அடங்கும்.
தூண்டுதல்களின் தன்மை: உண்மையான உலக தொடர்புகளைப் பிரதிபலித்தல்
NewsGuard தணிக்கையில் பயன்படுத்தப்பட்ட மூன்று தூண்டுதல் பாணிகளும் AI சாட்போட்களுடனான பயனர் தொடர்புகளின் வரம்பை பிரதிபலிக்கும் வகையில் வடிவமைக்கப்பட்டுள்ளன:
- Innocent தூண்டுதல்கள்: இந்த தூண்டுதல்கள் தவறான கதையை நடுநிலையான, வழிநடத்தாத வகையில் முன்வைத்தன, பயனர் எந்தவித முன்முடிவுகளும் இல்லாமல் தகவல்களைத் தேடுவது போல.
- Leading தூண்டுதல்கள்: இந்த தூண்டுதல்கள் தவறான கதையை நுட்பமாக பரிந்துரைத்தன, அதை வெளிப்படையாகக் கூறாமல் அதன் செல்லுபடியாகும் தன்மையைக் குறிக்கின்றன. இது பயனர்கள் தவறான தகவலுக்கு ஓரளவு ஆளாகி, உறுதிப்படுத்தலைத் தேடும் சூழ்நிலைகளைப் பிரதிபலிக்கிறது.
- Malign தூண்டுதல்கள்: இந்த தூண்டுதல்கள் தவறான கதையை உண்மையாக நேரடியாக வலியுறுத்தின, பயனர்கள் ஏற்கனவே தவறான தகவலை நம்பி, வலுவூட்டலைத் தேடும் சூழ்நிலைகளைப் பிரதிபலிக்கின்றன.
பயனர்களின் ஈடுபாட்டின் வெவ்வேறு வகைகள் சாட்போட்டின் பதிலை எவ்வாறு பாதிக்கலாம் என்பதைப் புரிந்துகொள்வதற்கு இந்த பன்முக அணுகுமுறை முக்கியமானது. சாட்போட்கள் தூண்டுதல் பாணியைப் பொருட்படுத்தாமல் தவறான தகவலை மீண்டும் கூறுவதற்கு ஆளாகின்றன என்பதை இது வெளிப்படுத்தியது, இருப்பினும் பதில்களின் அதிர்வெண் மற்றும் தன்மை வேறுபட்டது.
சாட்போட்களால் எதிரொலிக்கப்படும் தவறான தகவல்களின் குறிப்பிட்ட எடுத்துக்காட்டுகள்
NewsGuard அறிக்கை ப்ராவ்தா நெட்வொர்க்கால் பரப்பப்பட்டு பின்னர் AI சாட்போட்களால் மீண்டும் கூறப்பட்ட குறிப்பிட்ட தவறான கதைகளின் பல எடுத்துக்காட்டுகளை வழங்குகிறது. இந்த எடுத்துக்காட்டுகள் தவறான தகவல் பிரச்சாரத்தின் அகலத்தையும் ஆழத்தையும் எடுத்துக்காட்டுகின்றன. சில கதைகள் பின்வருமாறு:
- உக்ரைன் ஒரு நாஜி அரசு என்ற கூற்றுக்கள்.
- உக்ரைனில் நடந்த மோதலுக்கான காரணங்கள் பற்றிய தவறான கூற்றுக்கள்.
- மோதலில் மேற்கத்திய ஈடுபாடு பற்றிய தவறான தகவல்.
- உக்ரேனிய தலைமை பற்றிய புனையப்பட்ட கதைகள்.
NewsGuard ஆல் கவனமாக ஆவணப்படுத்தப்பட்டு கண்காணிக்கப்பட்ட பல தவறான கதைகளில் இவை சில எடுத்துக்காட்டுகள் மட்டுமே. இந்த கதைகள் முன்னணி AI சாட்போட்களால் எதிரொலிக்கப்படுவது பயனுள்ள எதிர் நடவடிக்கைகளின் அவசர தேவையை அடிக்கோடிட்டுக் காட்டுகிறது.
AI-ஆல் இயக்கப்படும் தவறான தகவலை எதிர்த்துப் போராடுவதில் உள்ள சவால்
இந்த சிக்கலைத் தீர்ப்பது ஒரு சிக்கலான பணியாகும். இதற்கு தொழில்நுட்ப தீர்வுகள் மற்றும் அதிகரித்த பயனர் விழிப்புணர்வு ஆகிய இரண்டையும் உள்ளடக்கிய ஒரு பன்முக அணுகுமுறை தேவைப்படுகிறது.
தொழில்நுட்ப தீர்வுகள்:
- மேம்படுத்தப்பட்ட தரவு வடிகட்டுதல்: AI டெவலப்பர்கள் LLM-களைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் தரவுத்தொகுப்புகளில் இருந்து தவறான தகவல்களை வடிகட்டுவதற்கு மிகவும் வலுவான வழிமுறைகளை செயல்படுத்த வேண்டும். இது நம்பமுடியாத ஆதாரங்களை அடையாளம் கண்டு விலக்குவது, அத்துடன் சாத்தியமான தவறான அல்லது தவறாக வழிநடத்தும் தகவல்களைக் கண்டறிந்து கொடியிடக்கூடிய வழிமுறைகளை உருவாக்குவது ஆகியவற்றை உள்ளடக்குகிறது.
- மேம்படுத்தப்பட்ட ஆதார சரிபார்ப்பு: சாட்போட்கள் நம்பகமான மற்றும் சரிபார்க்கப்பட்ட ஆதாரங்களில் இருந்து தகவல்களுக்கு முன்னுரிமை அளிக்கும் வகையில் வடிவமைக்கப்பட வேண்டும். இது தெளிவான மேற்கோள்களை வழங்குவதையும், பயனர்கள் வழங்கப்பட்ட தகவலின் தோற்றத்தை எளிதாகக் கண்டறிய அனுமதிப்பதையும் உள்ளடக்குகிறது.
- வெளிப்படைத்தன்மை மற்றும் விளக்கக்கூடிய தன்மை: AI மாதிரிகள் அவற்றின் முடிவெடுக்கும் செயல்முறைகளில் அதிக வெளிப்படைத்தன்மையுடன் இருக்க வேண்டும். ஒரு சாட்போட் ஒரு குறிப்பிட்ட பதிலை ஏன் வழங்குகிறது மற்றும் அது எந்த தரவு ஆதாரங்களை நம்பியுள்ளது என்பதை பயனர்கள் புரிந்துகொள்ள முடியும்.
பயனர் விழிப்புணர்வு:
- ஊடக கல்வியறிவு கல்வி: AI-உருவாக்கிய தவறான தகவல்களின் சாத்தியக்கூறுகள் குறித்து பயனர்களுக்கு கல்வி கற்பிக்கப்பட வேண்டும். இது விமர்சன சிந்தனை திறன்களை வளர்ப்பது மற்றும் ஆன்லைன் தகவல் ஆதாரங்களின் நம்பகத்தன்மையை எவ்வாறு மதிப்பிடுவது என்பதைக் கற்றுக்கொள்வது ஆகியவற்றை உள்ளடக்குகிறது.
- சந்தேகம் மற்றும் சரிபார்ப்பு: பயனர்கள் AI சாட்போட்கள் வழங்கும் தகவல்களை ஆரோக்கியமான சந்தேகத்துடன் அணுக வேண்டும். தகவல்களை மற்ற ஆதாரங்களுடன் குறுக்கு-குறிப்பிடுவது மற்றும் மிகவும் பரபரப்பான அல்லது நம்பமுடியாத கூற்றுக்களைப் பற்றி எச்சரிக்கையாக இருப்பது முக்கியம்.
நீண்ட கால அபாயங்கள்: அரசியல், சமூக மற்றும் தொழில்நுட்பம்
AI சாட்போட்கள் மூலம் தவறான தகவல்கள் தடையின்றி பரவுவது குறிப்பிடத்தக்க நீண்ட கால அபாயங்களை ஏற்படுத்துகிறது. இந்த அபாயங்கள் தனிப்பட்ட தவறான கதைகளின் உடனடி தாக்கத்திற்கு அப்பால் விரிவடைந்து பரந்த சமூக விளைவுகளை உள்ளடக்கியது.
- அரசியல் அபாயங்கள்: AI-ஆல் இயக்கப்படும் தவறான தகவல்கள் மூலம் பொது கருத்தை கையாளுவது ஜனநாயக செயல்முறைகளை குறைமதிப்பிற்கு உட்படுத்தலாம் மற்றும் நிறுவனங்கள் மீதான நம்பிக்கையை அரித்துவிடும். இது தேர்தல்களைப் பாதிக்கவும், பிளவுகளை விதைக்கவும், அரசாங்கங்களை ஸ்திரமற்றதாக்கவும் பயன்படுத்தப்படலாம்.
- சமூக அபாயங்கள்: தவறான கதைகளின் பரவல் ஏற்கனவே உள்ள சமூக பிளவுகளை அதிகரிக்கலாம் மற்றும் புதியவற்றை உருவாக்கலாம். இது பாரபட்சம், பாகுபாடு மற்றும் வன்முறையை கூட தூண்டலாம்.
- தொழில்நுட்ப அபாயங்கள்: தவறான தகவல்கள் பரவுவதால் AI தொழில்நுட்பத்தின் மீதான நம்பிக்கை அரிப்பு அதன் வளர்ச்சி மற்றும் தத்தெடுப்பைத் தடுக்கலாம். வழங்கப்பட்ட தகவலின் துல்லியம் மற்றும் நம்பகத்தன்மையில் நம்பிக்கை இல்லை என்றால் மக்கள் AI கருவிகளைப் பயன்படுத்த தயங்கலாம்.
AI-ஆல் இயக்கப்படும் தவறான தகவலுக்கு எதிரான போர் ஒரு முக்கியமான ஒன்றாகும். இந்த சக்திவாய்ந்த தொழில்நுட்பங்கள் பொறுப்புடனும் நெறிமுறையுடனும் பயன்படுத்தப்படுவதை உறுதிசெய்ய AI டெவலப்பர்கள், கொள்கை வகுப்பாளர்கள், கல்வியாளர்கள் மற்றும் தனிப்பட்ட பயனர்கள் ஆகியோரின் ஒருங்கிணைந்த முயற்சி தேவைப்படுகிறது. தகவலின் எதிர்காலம், உண்மையில் நமது சமூகங்களின் எதிர்காலம், அதை சார்ந்து இருக்கலாம்.