தகவல் சரிபார்ப்பில் AI-ன் எழுச்சி
செயற்கை நுண்ணறிவின் (AI) வளர்ச்சியானது, தகவல்களை எளிதாக அணுகுவதற்கான பல கருவிகளை உருவாக்கியுள்ளது. இருப்பினும், இந்த தொழில்நுட்ப முன்னேற்றம் புதிய சவால்களையும் அறிமுகப்படுத்தியுள்ளது, குறிப்பாக தவறான தகவல்களின் துறையில். Elon Musk-ன் சமூக ஊடக தளமான X-ல், ஒரு கவலைக்குரிய போக்கு வெளிப்பட்டுள்ளது: பயனர்கள் Musk-ன் AI bot ஆன Grok-ஐ உண்மை சரிபார்ப்பு நோக்கங்களுக்காக அதிகளவில் நாடுகின்றனர். இந்த வளர்ச்சி மனித உண்மை சரிபார்ப்பு சமூகத்தில் எச்சரிக்கை அலையை ஏற்படுத்தியுள்ளது, தவறான அல்லது தவறாக வழிநடத்தும் தகவல்கள் பரவலாக பரவுவதற்கான சாத்தியக்கூறுகள் குறித்த அச்சங்களை எழுப்புகிறது.
சமூக ஊடக தளங்களில் AI-ஐ ஒருங்கிணைப்பது புதிதல்ல. X பயனர்கள் xAI-ன் Grok உடன் தொடர்பு கொள்ள அனுமதிக்கும் X-ன் நடவடிக்கை, சில வழிகளில், ஒரு போக்கைப் பின்பற்றுகிறது. இது Perplexity-ன் அணுகுமுறையைப் பிரதிபலிக்கிறது, இது X-ல் தானியங்கி கணக்கை இயக்கி இதேபோன்ற அனுபவத்தை வழங்குகிறது.
xAI, Grok-ன் தானியங்கி இருப்பை X-ல் நிறுவிய பிறகு, பயனர்கள் அதன் திறன்களை விரைவாக ஆராயத் தொடங்கினர், கேள்விகளைக் கேட்டு பதில்களைத் தேடினர். இந்தியா போன்ற பகுதிகளில், ஒரு குறிப்பாக சிக்கலான முறை வெளிப்பட்டது: தனிநபர்கள் Grok-ஐ கருத்துகளையும் கேள்விகளையும் சரிபார்க்க பயன்படுத்தத் தொடங்கினர், அவற்றில் பல குறிப்பிட்ட அரசியல் சித்தாந்தங்களை இலக்காகக் கொண்டவை.
மனித உண்மை சரிபார்ப்பாளர்களின் கவலைகள்
Grok மற்றும் அதுபோன்ற எந்த AI உதவியாளரையும் உண்மை சரிபார்ப்புக்கு நம்பியிருப்பது தீவிர கவலைக்குரிய விஷயமாகும். இந்த AI போட்களின் இயல்பே அவை உண்மையான துல்லியத்தைப் பொருட்படுத்தாமல் நம்பத்தகுந்த பதில்களை உருவாக்கும் திறன் கொண்டவை. இது ஒரு கோட்பாட்டு ரீதியான கவலை அல்ல; Grok போலி செய்திகளையும் தவறான தகவல்களையும் பரப்பியதற்கான ஆவணப்படுத்தப்பட்ட வரலாறு உள்ளது.
ஒரு குறிப்பிடத்தக்க நிகழ்வு ஏற்பட்டது, அங்கு பல மாநில செயலாளர்கள் Grok-ல் முக்கியமான மாற்றங்களைச் செய்யுமாறு Musk-ஐ வலியுறுத்தினர். இந்த அவசர கோரிக்கை, AI உதவியாளரால் உருவாக்கப்பட்ட தவறான தகவல்கள் சமூக வலைப்பின்னல்களில் வெளிவந்ததைத் தொடர்ந்து, தேர்தல்களுக்கு முன்னதாக எச்சரிக்கை மணிகளை எழுப்பியது.
இதில் Grok மட்டும் தனியாக இல்லை. OpenAI-ன் ChatGPT மற்றும் Google-ன் Gemini உள்ளிட்ட பிற முக்கிய சாட்போட்களும் தேர்தல்கள் தொடர்பான தவறான தகவல்களை உருவாக்குவது கண்டறியப்பட்டது. தவறான தகவல் ஆராய்ச்சியாளர்கள் 2023-ல் ChatGPT போன்ற AI சாட்போட்கள் தவறான கதைகளைக் கொண்ட நம்பத்தகுந்த உரைகளை உருவாக்க எளிதில் பயன்படுத்தப்படலாம் என்பதை வெளிப்படுத்தி, தவறாகப் பயன்படுத்துவதற்கான சாத்தியக்கூறுகளை மேலும் அடிக்கோடிட்டுக் காட்டினர்.
நம்பகத்தன்மையின் மாயை
Poynter-ல் உள்ள International Fact-Checking Network (IFCN)-ன் இயக்குனர் Angie Holan, முக்கிய பிரச்சினையை வெளிப்படுத்தினார், “Grok போன்ற AI உதவியாளர்கள், அவர்கள் இயல்பான மொழியைப் பயன்படுத்துவதில் மிகவும் சிறந்தவர்கள் மற்றும் ஒரு மனிதன் சொன்னது போல் ஒலிக்கும் பதிலை அளிக்கிறார்கள். அந்த வகையில், AI தயாரிப்புகள் இயல்பான தன்மை மற்றும் நம்பகமான பதில்கள் மீது உரிமை கோருகின்றன, அவை மிகவும் தவறாக இருந்தாலும் கூட. அதுதான் இங்கு ஆபத்தாக இருக்கும்.”
Holan எடுத்துக்காட்டுவது போல், ஆபத்து நம்பகத்தன்மையின் ஏமாற்றும் தோற்றத்தில் உள்ளது. AI-ன் மனித மொழியைப் பிரதிபலிக்கும் திறன், அடிப்படைத் தகவல் குறைபாடுடையதாகவோ அல்லது முற்றிலும் புனையப்பட்டதாகவோ இருந்தாலும், நம்பகத்தன்மையின் மாயையை உருவாக்குகிறது.
அடிப்படை வேறுபாடு: AI vs. மனித உண்மை சரிபார்ப்பாளர்கள்
AI உதவியாளர்களுக்கும் மனித உண்மை சரிபார்ப்பாளர்களுக்கும் இடையிலான வேறுபாடு அப்பட்டமானது. மனித உண்மை சரிபார்ப்பாளர்கள் பல, நம்பகமான ஆதாரங்களை அடிப்படையாகக் கொண்டு தகவல்களை கவனமாக சரிபார்க்கிறார்கள். அவர்கள் வெளிப்படைத்தன்மையுடன் செயல்படுகிறார்கள், தங்கள் பெயர்களையும் நிறுவன இணைப்புகளையும் தங்கள் கண்டுபிடிப்புகளுடன் இணைக்கிறார்கள், இதன் மூலம் பொறுப்புக்கூறலை உறுதிசெய்து நம்பகத்தன்மையை வலுப்படுத்துகிறார்கள்.
இந்தியாவின் இலாப நோக்கற்ற உண்மை சரிபார்ப்பு இணையதளமான Alt News-ன் இணை நிறுவனர் Pratik Sinha, Grok-ன் பதில்கள் தற்போது நம்பத்தகுந்ததாக தோன்றினாலும், அதன் துல்லியம் அடிப்படையில் அது பெறும் தரவுகளால் வரையறுக்கப்பட்டுள்ளது என்று சுட்டிக்காட்டினார். “அதற்கு என்ன தரவு வழங்கப்படுகிறது என்பதை யார் தீர்மானிக்கப் போகிறார்கள், அங்குதான் அரசாங்கத்தின் தலையீடு போன்றவை படத்தில் வரும்,” என்று அவர் குறிப்பிட்டார், தரவு மூல வெளிப்படைத்தன்மையின் முக்கியமான சிக்கலை எடுத்துக்காட்டுகிறார்.
வெளிப்படைத்தன்மை இல்லாமை, Sinha வலியுறுத்தினார், சாத்தியமான தீங்குகளுக்கு ஒரு வளர்ப்பு இடமாகும். “வெளிப்படைத்தன்மை இல்லாத எதுவும் தீங்கு விளைவிக்கும், ஏனெனில் வெளிப்படைத்தன்மை இல்லாத எதையும் எந்த வகையிலும் வடிவமைக்க முடியும்.”
Grok-ன் சொந்த ஒப்புதல்: தவறாகப் பயன்படுத்துவதற்கான சாத்தியக்கூறு
ஒரு முரண்பாடான திருப்பத்தில், X-ல் உள்ள Grok-ன் கணக்கு, அதன் வெளியிடப்பட்ட பதில்களில் ஒன்றில், அது “தவறான தகவல்களைப் பரப்புவதற்கும் தனியுரிமையை மீறுவதற்கும் தவறாகப் பயன்படுத்தப்படலாம்” என்று ஒப்புக்கொண்டது.
இந்த ஒப்புதல் இருந்தபோதிலும், தானியங்கி கணக்கு அதன் பதில்களைப் பெறும் பயனர்களுக்கு எந்த மறுப்புக்களையும் வழங்கத் தவறுகிறது. இந்த புறக்கணிப்பு பயனர்களை தவறாக வழிநடத்தக்கூடியதாக ஆக்குகிறது, குறிப்பாக AI பதிலை “மாயத்தோற்றம்” செய்த சந்தர்ப்பங்களில், AI துறையில் நன்கு ஆவணப்படுத்தப்பட்ட நிகழ்வு, அங்கு அமைப்பு தவறான அல்லது அர்த்தமற்ற தகவல்களை உருவாக்குகிறது.
Digital Futures Lab-ன் ஆராய்ச்சி கூட்டாளியான Anushka Jain, இந்த விஷயத்தை விரிவாகக் கூறினார், “இது ஒரு பதிலை வழங்க தகவல்களை உருவாக்கலாம்.” தகவல்களை உருவாக்கும் இந்த போக்கு, உண்மை சரிபார்ப்பு சூழலில் AI-ன் உள்ளார்ந்த வரம்புகளை அடிக்கோடிட்டுக் காட்டுகிறது.
பயிற்சி தரவு சிக்கல்
Grok-ன் பயிற்சி தரவு பற்றிய கேள்வியிலிருந்து மேலும் ஒரு சிக்கலான அடுக்கு எழுகிறது. Grok X-ல் உள்ள இடுகைகளை பயிற்சிப் பொருளாக எந்த அளவிற்குப் பயன்படுத்துகிறது மற்றும் அத்தகைய இடுகைகளை உண்மை சரிபார்ப்பு செய்ய பயன்படுத்தப்படும் தரக் கட்டுப்பாட்டு நடவடிக்கைகள், ஏதேனும் இருந்தால், பற்றிய நிச்சயமற்ற தன்மை உள்ளது. முன்பு செயல்படுத்தப்பட்ட ஒரு மாற்றம் Grok-க்கு X பயனர் தரவுக்கான இயல்புநிலை அணுகலை வழங்குவதாகத் தோன்றியது, AI தளத்தில் இருக்கும் தவறான தகவல்களை உறிஞ்சி பரப்புவதற்கான சாத்தியக்கூறுகள் குறித்த கவலைகளை எழுப்புகிறது.
AI-உருவாக்கிய தகவலின் பொது vs. தனிப்பட்ட நுகர்வு
Grok போன்ற AI உதவியாளர்களின் சமூக ஊடக தளங்களில் பொதுவான தன்மை குறித்து மற்றொரு குறிப்பிடத்தக்க கவலை உள்ளது. ChatGPT போன்ற சாட்போட்களுடனான தொடர்புகளைப் போலல்லாமல், பொதுவாக ஒரு தனிப்பட்ட அமைப்பில் நிகழும், Grok-ன் பதில்கள் பகிரங்கமாக வழங்கப்படுகின்றன.
இந்த பொதுவான பரவல், ஒரு பயனர் AI வழங்கிய தகவல் தவறாக இருக்கலாம் என்பதை அறிந்திருந்தாலும், தளத்தில் உள்ள பிற பயனர்கள் அதை உண்மையாக ஏற்றுக்கொள்ளக்கூடிய ஒரு சூழ்நிலையை உருவாக்குகிறது. இது கடுமையான சமூக விளைவுகளுக்கு வழிவகுக்கும்.
வரலாற்று முன்னுதாரணங்கள் உள்ளன. உதாரணமாக, இந்தியாவில், WhatsApp மூலம் பரப்பப்பட்ட தவறான தகவல்களால் தூண்டப்பட்ட கும்பல் கொலைகளின் சோகமான சம்பவங்கள் நடந்தன. இந்த நிகழ்வுகள், Generative AI-ன் பரவலான கிடைப்புக்கு முந்தையவை என்றாலும், சரிபார்க்கப்படாத தவறான தகவலின் உண்மையான உலக ஆபத்துகளைப் பற்றிய ஒரு கடுமையான நினைவூட்டலாக செயல்படுகின்றன. GenAI-ன் வருகை, நம்பமுடியாத அளவிற்கு யதார்த்தமாகத் தோன்றும் செயற்கை உள்ளடக்கத்தை உருவாக்கும் திறனுடன், இந்த அபாயங்களை மட்டுமே அதிகரித்துள்ளது.
AI-ன் பிழை விகிதம்
IFCN-ன் Holan எச்சரித்தார், “இந்த Grok பதில்களில் பலவற்றைப் பார்த்தால், அவற்றில் பெரும்பாலானவை சரியானவை என்று நீங்கள் கூறுவீர்கள், அது அவ்வாறு இருக்கலாம், ஆனால் சில தவறாக இருக்கும். எத்தனை? இது ஒரு சிறிய பின்னம் அல்ல. சில ஆராய்ச்சி ஆய்வுகள் AI மாதிரிகள் 20% பிழை விகிதங்களுக்கு உட்பட்டவை என்பதைக் காட்டுகின்றன… அது தவறாகப் போகும்போது, அது உண்மையான உலக விளைவுகளுடன் மிகவும் தவறாகப் போகலாம்.”
Holan எடுத்துக்காட்டிய 20% பிழை விகிதம் ஒரு கணிசமான எண்ணிக்கை. இது உண்மையான துல்லியம் தேவைப்படும் சூழ்நிலைகளில் AI-ன் உள்ளார்ந்த நம்பகத்தன்மையை அடிக்கோடிட்டுக் காட்டுகிறது. மேலும், அவர் வலியுறுத்துவது போல், இந்த பிழைகளின் விளைவுகள் ஆழமானதாக இருக்கலாம், டிஜிட்டல் மண்டலத்திற்கு அப்பால் நீட்டிக்கப்படலாம்.
AI: ஒரு கருவி, மனித தீர்ப்புக்கு மாற்றாக இல்லை
xAI உள்ளிட்ட AI நிறுவனங்கள், மனிதனைப் போன்ற தகவல்தொடர்புகளை அடைவதற்கு தங்கள் மாதிரிகளைத் தொடர்ந்து செம்மைப்படுத்தினாலும், அடிப்படை உண்மை அப்படியே உள்ளது: AI மனித தீர்ப்பை மாற்ற முடியாது, மாற்றவும் கூடாது, குறிப்பாக உண்மை சரிபார்ப்பின் முக்கியமான களத்தில்.
மனித உண்மை சரிபார்ப்பாளர்களை நம்பியிருப்பதைக் குறைப்பதற்கான வழிகளை ஆராய தொழில்நுட்ப நிறுவனங்களிடையே உள்ள போக்கு கவலைக்குரிய விஷயமாகும். X மற்றும் Meta போன்ற தளங்கள் “Community Notes” போன்ற முயற்சிகளால் எடுத்துக்காட்டப்பட்ட, கூட்டமாக உண்மை சரிபார்ப்பு என்ற கருத்தை ஏற்றுக்கொண்டன. இந்த மாற்றங்கள், சில நன்மைகளை வழங்கினாலும், கடுமையான உண்மை சரிபார்ப்பு தரநிலைகளின் சாத்தியமான அரிப்பு பற்றிய கேள்விகளையும் எழுப்புகின்றன.
மனித உண்மை சரிபார்ப்புக்கு ஒரு ஊசல் திரும்புமா?
Alt News-ன் Sinha ஒரு நம்பிக்கையான கருத்தை வெளிப்படுத்தினார், மக்கள் இறுதியில் இயந்திரங்களின் வெளியீடுகளுக்கும் மனித உண்மை சரிபார்ப்பாளர்களின் வேலைக்கும் உள்ள வித்தியாசத்தை வேறுபடுத்தி அறிய கற்றுக்கொள்வார்கள், இறுதியில் பிந்தையவற்றின் துல்லியம் மற்றும் நம்பகத்தன்மையை மதிப்பிடுவார்கள் என்று பரிந்துரைத்தார்.
“ஊசல் இறுதியில் அதிக உண்மை சரிபார்ப்பை நோக்கி திரும்புவதை நாம் காணப்போகிறோம்,” என்று IFCN-ன் Holan கணித்தார்.
இருப்பினும், இடைக்காலத்தில், AI-உருவாக்கிய தகவல்களின் விரைவான பரவல் காரணமாக உண்மை சரிபார்ப்பாளர்கள் அதிக பணிச்சுமையை எதிர்கொள்ள நேரிடும் என்று அவர் எச்சரித்தார். தவறான தகவல்களின் அலையை திறம்பட எதிர்கொள்வது சவாலாக இருக்கும், பொதுமக்கள் உண்மையால் தகவலறிந்தவர்களாக இருப்பதை உறுதிசெய்து, நம்பத்தகுந்த மாயைகளால் அல்ல.
முக்கிய கேள்வி: உண்மையை பற்றி கவலைப்படுகிறீர்களா?
விஷயத்தின் மையத்தில் ஒரு அடிப்படைக் கேள்வி உள்ளது: “உண்மையில் எது உண்மை என்பதைப் பற்றி நீங்கள் உண்மையிலேயே கவலைப்படுகிறீர்களா? அல்லது உண்மையில் உண்மையாக இல்லாமல், உண்மையாக ஒலிக்கும் மற்றும் உண்மையாக உணரும் ஒன்றின் மேற்பூச்சைத் தேடுகிறீர்களா? ஏனென்றால் AI உதவி உங்களுக்கு அதையே வழங்கும்,” என்று Holan கூறினார்.
தகவல் பரவலில் AI-ன் எழுச்சியால் முன்வைக்கப்பட்ட முக்கியமான இக்கட்டான நிலையை இந்தக் கேள்வி உள்ளடக்கியது. ஒரு சமூகமாக, உண்மைகளை சரிபார்க்கும் கடினமான செயல்முறையை விட வசதி மற்றும் உண்மையின் தோற்றத்திற்கு முன்னுரிமை அளிக்க நாம் தயாரா? இந்தக் கேள்விக்கான பதில் இறுதியில் தகவலின் எதிர்காலத்தை வடிவமைக்கும், நாம் தயாரிக்கப்பட்ட யதார்த்தங்களின் உலகத்திற்கு அடிபணிவோமா அல்லது உண்மை மற்றும் துல்லியத்தின் கொள்கைகளை நிலைநிறுத்துவோமா என்பதை தீர்மானிக்கும்.