AI உண்மைச் சரிபார்ப்பில் பிழைகள்

AI சாட்பாட் உண்மைச் சரிபார்ப்பின் எழுச்சி

இந்தியாவிற்கும் பாகிஸ்தானுக்கும் இடையிலான குறுகிய மோதலின் போது, தவறான தகவல் அதிகரித்தது, மேலும் சமூக ஊடக பயனர்கள் சரிபார்ப்புக்காக AI சாட்பாட்களை நம்பத் தொடங்கினர். இருப்பினும், இந்த சாட்பாட்கள் இன்னும் தவறான தகவல்களை வழங்கின, அவை உண்மைச் சரிபார்ப்பு கருவிகளாக நம்பகமற்ற தன்மையைக் காட்டுகின்றன. பெரிய தொழில்நுட்ப தளங்கள் கைமுறையாகச் சரிபார்க்கும் ஊழியர்களின் எண்ணிக்கையை தொடர்ந்து குறைத்து வருவதால், பயனர்கள் நம்பகமான தகவலுக்காக xAI இன் Grok, OpenAI இன் ChatGPT மற்றும் Google இன் Gemini போன்ற AI மூலம் இயக்கப்படும் சாட்பாட்களை அதிகளவில் நம்பியுள்ளனர்.

Elon Musk இன் X தளத்தில் (முன்னர் Twitter), "@Grok, இது உண்மையா?" என்பது பயனர்களிடையே ஒரு பொதுவான கேள்வியாக மாறியுள்ளது. Grok என்பது X இயங்குதளத்தில் உள்ளமைக்கப்பட்ட AI உதவியாளர், இது சமூக ஊடகங்களில் உடனடி மறுப்பைத் தேடும் பயனர்களின் போக்குக்கு முற்றுப்புள்ளி வைக்கிறது. இருப்பினும், இந்த AI சாட்பாட்களின் பதில்கள் பெரும்பாலும் தவறான தகவல்களால் நிரம்பியுள்ளன.

Grok சமீபத்தில் தீவிர வலதுசாரி சதி கோட்பாடான "வெள்ளை இனப்படுகொலை" பொருத்தமற்ற விசாரணைகளில் நுழைத்ததால் கவனத்தை ஈர்த்தது. சூடானின் கார்டூம் விமான நிலையத்திலிருந்து எடுக்கப்பட்ட பழைய வீடியோ கிளிப்பை, இந்தியா-பாக் மோதலின் போது பாகிஸ்தானின் நூர் கான் விமானப்படை தளம் மீது ஏவுகணை தாக்குதல் நடத்தப்பட்டதாக Grok தவறாக அடையாளம் காட்டியது. மேலும், நேபாளத்தில் தீப்பிடித்து எரிந்த ஒரு கட்டிடம், "பாகிஸ்தானின் தாக்குதலுக்கு இந்தியாவில் இருந்து இராணுவ பதில்" என்று தவறாக அடையாளம் காணப்பட்டது.

AI உண்மைச் சரிபார்ப்பின் வரம்புகள்

தகவல் கண்காணிப்பு அமைப்பான NewsGuard இன் ஆராய்ச்சியாளர் McKenzie Sadeghi AFP இடம் கூறுகையில், "X மற்றும் பிற பெரிய தொழில்நுட்ப நிறுவனங்கள் கைமுறையாக உண்மைச் சரிபார்க்கும் ஊழியர்களிடம் முதலீடு செய்வதை குறைத்துவிட்டதால், மக்கள் Grok ஐ உண்மைச் சரிபார்ப்பாளராக நம்ப தொடங்கியுள்ளனர்." மேலும் அவர் எச்சரித்தார்: "எங்கள் ஆராய்ச்சி மீண்டும் மீண்டும் AI சாட்பாட்கள் நம்பகமான செய்தி மற்றும் தகவல்களின் ஆதாரமாக இல்லை, குறிப்பாக முக்கிய செய்திகளில்.”

Grok உட்பட 10 முன்னணி சாட்பாட்கள் ரஷ்யாவின் தவறான பிரச்சார கதைகள் மற்றும் சமீபத்திய ஆஸ்திரேலிய தேர்தல் தொடர்பான தவறான அல்லது தவறாக வழிநடத்தும் கூற்றுக்கள் உள்ளிட்ட தவறான தகவல்களை எளிதாக திரும்பத் திரும்பச் சொல்கின்றன என்று NewsGuard இன் ஆராய்ச்சி கண்டறிந்துள்ளது. கொலம்பியா பல்கலைக்கழகத்தின் டிஜிட்டல் இதழியல் மையமான Tow Center சமீபத்தில் எட்டு AI தேடல் கருவிகள் குறித்து ஒரு ஆய்வை மேற்கொண்டது, சாட்பாட்கள் "அவர்களால் துல்லியமாக பதிலளிக்க முடியாத கேள்விகளுக்கு பதிலளிக்க மறுப்பதில் பொதுவாக திறமையானவை அல்ல, ஆனால் தவறான அல்லது ஊகமான பதில்களை அளிக்கின்றன.”

உருகுவேயில் உள்ள AFP இன் உண்மைச் சரிபார்த்து குழு Gemini யிடம் AI ஆல் உருவாக்கப்பட்ட ஒரு பெண்ணின் படம் பற்றி கேட்டபோது, Gemini அந்தப் படம் உண்மையானது என்று உறுதிப்படுத்தியது மட்டுமல்லாமல், அந்த பெண்ணின் அடையாளம் மற்றும் படம் எங்கு எடுக்கப்பட்டது என்பது பற்றிய விவரங்களையும் பொய்யாகக் கூறியது.

அமேசான் நதியில் ராட்சத மலைப்பாம்பு நீந்துவதாகக் கூறப்படும் சமீபத்திய வீடியோ ஒன்றை Grok "உண்மையானது" என்று அடையாளப்படுத்தியது மட்டுமின்றி, அதன் பொய்யான கூற்றை ஆதரிக்க நம்பத்தகுந்த அறிவியல் பயணத்தையும் மேற்கோள் காட்டியது. உண்மையில், அந்த வீடியோ AI மூலம் உருவாக்கப்பட்டது, மேலும் லத்தீன் அமெரிக்காவில் உள்ள AFP இன் உண்மைச் சரிபார்ப்பு குழு பயனர்கள் பலர் அந்த வீடியோ உண்மையானது என்பதற்கு Grok இன் மதிப்பீட்டை ஆதாரமாக மேற்கோள் காட்டியதாக அறிக்கை வெளியிட்டுள்ளது.

AI உண்மைச் சரிபார்ப்பு பற்றிய கவலைகள்

வழக்கமான தேடுபொறிகளை விட்டுவிட்டு அதிகமான ஆன்லைன் பயனர்கள் தகவல் சேகரிப்பு மற்றும் சரிபார்ப்புக்கு AI சாட்பாட்களை நோக்கி நகர்வதாக ஆய்வுகள் காட்டுவதால் இந்த கண்டுபிடிப்புகள் கவலையை தூண்டுகின்றன. இதற்கிடையில், Meta இந்த ஆண்டு தொடக்கத்தில் அமெரிக்காவில் மூன்றாம் தரப்பு உண்மைச் சரிபார்ப்பு திட்டத்தை முடிவுக்குக் கொண்டு வருவதாக அறிவித்தது, அதற்கு பதிலாக X இயங்குதளத்தால் ஊக்குவிக்கப்பட்ட "சமூகக் குறிப்புகள்" என்ற ஒரு முறையைப் பயன்படுத்தி உண்மைச் சரிபார்க்கும் பணியை சாதாரண பயனர்களிடம் ஒப்படைக்கிறது. இருப்பினும், தவறான தகவல்களை எதிர்த்துப் போராடுவதில் "சமூகக் குறிப்புகள்" எவ்வளவு பயனுள்ளதாக இருக்கும் என்பதை ஆராய்ச்சியாளர்கள் மீண்டும் மீண்டும் கேள்வி எழுப்பியுள்ளனர்.

கைமுறையாக உண்மைச் சரிபார்ப்பது நீண்ட காலமாக அரசியல் பிளவு காலநிலை மண்டலத்தில் வெடிக்கும் புள்ளியாக இருந்து வருகிறது, குறிப்பாக அமெரிக்காவில் பழமைவாதிகள் அது பேச்சு சுதந்திரத்தை ஒடுக்குவதாகவும் வலதுசாரி உள்ளடக்கத்தை தணிக்கை செய்வதாகவும் குற்றம் சாட்டுகின்றனர், ஆனால் தொழில்முறை உண்மைச் சரிபார்ப்பாளர்கள் இந்த கூற்றை கடுமையாக மறுக்கின்றனர்.

AFP தற்போது ஆசியா, லத்தீன் அமெரிக்கா மற்றும் ஐரோப்பிய ஒன்றியம் உட்பட 26 மொழிகளில் Facebook இன் உண்மைச் சரிபார்ப்பு திட்டத்துடன் இணைந்து செயல்படுகிறது.

AI சாட்பாட்களின் தரம் மற்றும் துல்லியம் அவை பயிற்றுவிக்கப்பட்ட மற்றும் நிரலாக்கப்பட்ட விதத்தைப் பொறுத்து மாறுபடலாம், இது அவற்றின் வெளியீடு அரசியல் ரீதியாக பாதிக்கப்படலாம் அல்லது கட்டுப்படுத்தப்படலாம் என்ற கவலையை எழுப்புகிறது.

தென்னாப்பிரிக்க "வெள்ளை இனப்படுகொலை"யை மேற்கோள் காட்டி கோரிக்கையற்ற இடுகைகளை உருவாக்கியதற்காக Musk இன் xAI சமீபத்தில் Grok ஐ "அங்கீகரிக்கப்படாத மாற்றத்தை" காரணம் காட்டியது. AI நிபுணர் David Caswell Grok இன் கணினி தூண்டுதல்களை யார் மாற்றியிருக்கலாம் என்று கேட்டபோது, அந்த சாட்பாட் Musk ஐ "மிகவும் சாத்தியமான" குற்றவாளியாக பட்டியலிட்டது.

Musk தென்னாப்பிரிக்காவில் பிறந்த பில்லியனர் மற்றும் அமெரிக்க ஜனாதிபதி Donald Trump இன் ஆதரவாளர். தென்னாப்பிரிக்க தலைவர்கள் "வெள்ளையினத்தை இனப்படுகொலை செய்ய பகிரங்கமாக தள்ளுகிறார்கள்" என்று அவர் முன்பு ஆதாரம் இல்லாத கூற்றுகளை பரப்பியுள்ளார்.

சர்வதேச உண்மைச் சரிபார்ப்பு வலையமைப்பின் இயக்குனர் Angie Holan AFP இடம் கூறுகையில், "மனித குறியீட்டாளர்கள் அதன் அறிவுறுத்தல்களை குறிப்பாக மாற்றிய பிறகு, AI உதவியாளர்கள் முடிவுகளைத் தவறாகக் கூறலாம் அல்லது ஒருதலைப்பட்சமான பதில்களை வழங்கலாம் என்பதை நாங்கள் பார்த்திருக்கிறோம்.” மேலும் அவர் கூறினார், "முன் அங்கீகரிக்கப்பட்ட பதில்களை வழங்க அறிவுறுத்தல்களைப் பெற்றபின், Grok மிகவும் உணர்திறன் வாய்ந்த കാര്യங்கள் குறித்த கோரிக்கைகளை எவ்வாறு கையாள்கிறது என்பது குறித்து நான் குறிப்பாக கவலைப்படுகிறேன்.”

தகவல் களத்தில் AI சாட்பாட்டுகளால் ஏற்படும் ஆபத்துகள்

AI சாட்பாட்கள் தகவல் வழங்குவதில் அதிகளவில் பயன்படுத்தப்படுவது மிகவும் தீவிரமான கவலைகளை ஏற்படுத்துகிறது, அது தவறாக வழிநடத்தும் மற்றும் கையாளுதல் விளைவுகளை உள்ளடக்கியது. இந்த தொழில்நுட்பங்கள் தகவல்களை விரைவாக அணுகுவதிலும் ஆராய்ச்சியை எளிதாக்குவதிலும் நன்மைகளை கொண்டிருந்தாலும், அவற்றின் உள்ளார்ந்த வரம்புகள் மற்றும் பாரபட்சங்கள் தவறான தகவல்கள் அல்லது பிரச்சாரத்தை வேண்டுமென்றே அல்லது வேண்டுமென்றே பரப்பக்கூடும்.

AI சாட்பாட்டுகளின் உள்ளார்ந்த வரம்புகள்

AI சாட்பாட்கள் அதிகப்படியான உரை தரவை பகுப்பாய்வு செய்வதன் மூலம் கற்றுக்கொள்கின்றன, ஆனால் அவற்றிற்கு மனிதர்களைப் போல விமர்சன சிந்தனை திறன் இல்லை. அதாவது தரவுகளிலிருந்து வடிவங்களை எடுத்து நியாயமான பதில்களை உருவாக்க சாத்தியமுள்ளது, ஆனாலும் அடிப்படையான அர்த்தம் அல்லது சூழலை உண்மையில் புரிந்து கொள்ள முடியாது. இந்த அறிவு பற்றாக்குறை துல்லியமற்ற, முழுமையற்ற அல்லது தவறாக வழிநடத்தும் தகவல்களுக்கு வழிவகுக்கும்.

மேலும், AI சாட்பாட்டுகளின் பயிற்சி தரவு பாரபட்சமாகக் கொண்டிருக்க சாத்தியமுள்ளது, மேலும் அதே போன்ற பாரபட்சங்கள் உருவாகும் பதில்களில் பிரதிபலிக்கப்படுகிறது. உதாரணமாக, பயிற்சி தரவு ஒரு குறிப்பிட்ட ஆதாரத்திலிருந்தோ அல்லது பார்வையிலிருந்தோ எடுக்கப்பட்டால், சாட்பாட்கள் அந்த மூலம் அல்லது பார்வைக்கு ஏதேனும் ஒரு விருப்பத்தை காட்டக்கூடும், இதனால் ஒரு சார்பு தகவலை பரப்பலாம்.

AI சாட்பாட்கள் கொண்டு வரும் ஆபத்துகள்

AI சாட்பாட்களை தகவலுக்காக நம்பி இருக்கும் மக்களின் எண்ணிக்கை அதிகமாகிறது, எனவே தவறான தகவல்களும் விரைவாகப் பரவ வாய்ப்புள்ளது. சாட்பாட்கள் துல்லியமற்ற அல்லது தவறாக வழிநடத்தும் தகவல்களை உருவாக்கினால், பயனர்கள் அதை அறியாமல் ஏற்றுக்கொண்டு பரப்பக்கூடும், இதனால் தவறான நம்பிக்கைகள் பரவத் தொடங்கும்.

மேலும், பிரச்சாரத்தை பரப்பவும் அல்லது மக்கள் கருத்தை திருப்பும் தீய நோக்கங்களுக்காகவும் AI சாட்பாட்கள் பயன்படுத்தப்படலாம். பயிற்சி தரவை வேண்டுமென்றே வடிவமைப்பதன் அல்லது வழிமுறைகளை சரிசெய்வதன் மூலம் தீய செயல்களை செய்பவர்கள் ஒரு குறிப்பிட்ட வகையான பதில்களை உருவாக்கும் சாட்பாட்களை கையாள முடியும், இதனால் பயனர்களின் நம்பிக்கைகளையும் நடத்தைகளையும் பாதிக்கிறது.

ஆபத்தை குறைப்பது எப்படி

AI சாட்பாட்களுடன் தொடர்புடைய ஆபத்தை குறைக்க சில நடவடிக்கைகள் எடுக்கப்பட வேண்டும். முதலில், AI சாட்பாட்களுக்கான பயிற்சி தரவு முடிந்தவரை முழுமையாகவும் பாரபட்சமற்றதாகவும் இருப்பதை உறுதிப்படுத்த டெவலப்பர்கள் முயற்சிக்க வேண்டும். இது பாரபட்சங்களின் பாதிப்பைக் குறைக்க பல்வேறு மூலங்களிலிருந்து மற்றும் பார்வையிலிருந்து பல்வேறு தரவு மாதிரிகளை உள்ளடக்கியிருக்க வேண்டும்.
இரண்டாவதாக, AI சாட்பாட்கள் எந்தத் துல்லியமற்ற அல்லது பாரபட்சமான எண்ணங்களையும் கண்டறிந்து சரிசெய்ய கடுமையான சோதனைகள் மற்றும் மதிப்பீடுகளுக்கு உட்படுத்தப்பட வேண்டும். இது சாட்பாட்கள் உருவாக்கும் பதில்களை மனிதன் சரிபார்ப்பது மற்றும் அவற்றின் துல்லியம் மற்றும் நேர்மையை மதிப்பிடுவதற்கு பல்வேறு அளவீடுகளைப் பயன்படுத்த வேண்டும்.
மூன்றாவதாக, பயனர்கள் எப்போதும் சாட்பாட்கள் வழங்கும் தகவல்கள் மீது விமர்சன சிந்தனையுடன் இருக்க வேண்டும். பயனர்கள் எப்பொழுதும் பல்வேறு இடங்களில் இருந்து தகவல்களை ஒப்பிட்டு சாட்பாட்களில் இருக்கக்கூடிய பாரபட்சங்களை கவனத்தில் கொள்ள வேண்டும்.

தொழில்நுட்ப தளங்கள் மற்றும் சமூகத்தின் பங்கு

AI சாட்பாட்கள் உருவாக்கும் உள்ளடக்கத்தை சீராக்குவதிலும் கண்காணிப்பதிலும் தொழில்நுட்ப தளங்கள் மற்றும் சமூகம் முக்கிய பங்கு வகிக்கின்றன. தளங்கள் தவறான தகவல் அல்லது பிரச்சாரத்தை அடையாளம் கண்டு நீக்குவதற்கான கொள்கைகளை செயல்படுத்த முடியும் மற்றும் சாட்பாட்கள் உருவாக்கும் பதில்களிலுள்ள துல்லியத்தை உறுதிப்படுத்த உண்மைச் சரிபார்ப்பு அமைப்புகளுடன் இணைந்து செயல்பட முடியும். மேலும், AI சாட்பாட்களின் வரம்புகள் மற்றும் பாரபட்சங்கள் குறித்த விவாதங்களை ஊக்குவிப்பதன் மூலம் பயனர்களின் விழிப்புணர்வை மேம்படுத்த சமூகம் உதவக்கூடும், மேலும் அதன் மூலம் பயனர்களை விமர்சனச் சிந்தனை கொள்ள ஊக்குவிக்க முடியும்.

முடிவுரை

AI சாட்பாட்கள் ஒரு பயனுள்ள கருவியாக இருந்தாலும், அவற்றின் உள்ளார்ந்த வரம்புகளையும் ஆபத்துகளையும் புரிந்துகொள்வது மிகவும் முக்கியம். இந்த தொழில்நுட்பங்கள் பொறுப்புடன் பயன்படுத்தப்படுவதை உறுதிசெய்யவும் தவறான தகவல் மற்றும் கையாளுதல்கள் பரவுவதைக் குறைக்கவும் டெவலப்பர்கள், ஒழுங்குமுறை அமைப்புகள், கொள்கை வகுப்பாளர்கள் மற்றும் பயனர்கள் எப்போதும் விழிப்புடன் இருக்க வேண்டும். தேவையான நடவடிக்கைகளை எடுப்பதன் மூலம் AI சாட்பாட்களின் நன்மைகளை அதிகரிக்கவும் அவற்றின் உள்ளார்ந்த தீங்கு விளைவிக்கும் ஆற்றலைக் குறைக்கவும் முடியும்.