AI சாட்போட்கள்: பொய் தகவல் ஆதாரம்?

மோதல்களின் போது AI உண்மை சரிபார்ப்பின் குறைபாடுகள்

இந்தியாவுக்கும் பாகிஸ்தானுக்கும் இடையே நான்கு நாட்கள் நடந்த மோதலில், சமூக ஊடக பயனர்கள் சரிபார்ப்புக்காக AI சாட்போட்களை பயன்படுத்தினர். ஆனால், அவர்கள் அதிக தவறான தகவல்களை சந்தித்தனர். இது, உண்மை சரிபார்ப்பு கருவிகளாக சாட்போட்களின் நம்பகத்தன்மையை எடுத்துக்காட்டுகிறது. தொழில்நுட்ப தளங்கள் மனித உண்மை சரிபார்ப்பாளர்களின் எண்ணிக்கையை படிப்படியாகக் குறைத்து வருவதால், நம்பகமான தகவல்களுக்காக xAI-ன் Grok, OpenAI-ன் ChatGPT மற்றும் Google-ன் Gemini போன்ற செயற்கை நுண்ணறிவு சாட்போட்களை பயனர்கள் பெருகிய முறையில் நம்பியுள்ளனர். ஆனால், இந்த AI சாட்போட்கள் வழங்கும் பதில்கள் பெரும்பாலும் தவறான தகவல்களால் நிரம்பி இருப்பது கண்டறியப்பட்டுள்ளது.

எலான் மஸ்கின் X (முன்னர் ட்விட்டர்) தளத்தில், “@Grok, இது உண்மையா?” என்ற கேள்வி ஒரு பொதுவான முறையாகிவிட்டது. க்ரோக் இந்தத் தளத்தில் செயற்கை நுண்ணறிவு உதவியாளரைக் கொண்டுள்ளது, இது சமூக ஊடகங்களில் உடனடி மறுப்புகளைப் பெற மக்கள் அதிகளவில் விரும்புகின்றனர் என்பதை பிரதிபலிக்கிறது. இருப்பினும், AI சாட்போட்களால் வழங்கப்பட்ட பதில்கள் பெரும்பாலும் தவறான தகவல்களால் நிரம்பி உள்ளன.

AI சாட்போட்கள் தவறான தகவல்களைப் பரப்பும் உதாரணங்கள்

Grok தற்போது புதிய ஆய்வுக்கு உட்பட்டு வருகிறது. அது தொடர்பில்லாத கேள்விகளில் தீவிர வலதுசாரி சதி கோட்பாடான “வெள்ளை இனப்படுகொலையை” செருகுவதாக செய்திகள் வந்துள்ளன. இந்திய-பாகிஸ்தான் மோதலின் போது பாகிஸ்தானின் நூர் கான் விமானப்படை தளத்தை ஏவுகணை தாக்கியதாகச் சொல்லி, சூடானின் கார்டூம் விமான நிலையத்தின் பழைய வீடியோ கிளிப்பை தவறாக அடையாளம் காட்டியது. மேலும், நேபாளத்தில் ஒரு கட்டிடத்தில் ஏற்பட்ட தீ விபத்து தொடர்பான வீடியோவை, “ஒருவேளை” பாகிஸ்தான் இந்தியாவின் தாக்குதலுக்கு பதிலடி கொடுப்பதாக தவறாக அடையாளம் காட்டியது.

அண்மையில், அமேசான் நதியில் எடுக்கப்பட்டதாகக் கூறப்படும் ஒரு பெரிய மலைப்பாம்பு வீடியோவை Grok “உண்மை” என்று முத்திரை குத்தியது. மேலும், அதன் பொய்யான கூற்றை ஆதரிக்க நம்பகமான அறிவியல் பயணத்தையும் மேற்கோள் காட்டியது. உண்மையில், அந்த வீடியோ செயற்கை நுண்ணறிவால் உருவாக்கப்பட்டது. லத்தீன் அமெரிக்காவின் AFP உண்மை சரிபார்ப்பாளர்கள், பல பயனர்கள் அந்த கிளிப் உண்மையானது என்பதற்கான ஆதாரமாக Grok-ன் மதிப்பீட்டை மேற்கோள் காட்டியுள்ளனர் என்று குறிப்பிட்டனர்.

உண்மை சரிபார்ப்பாளர்களுக்கு முதலீடு குறைப்பு

X மற்றும் பிற முக்கிய தொழில்நுட்ப நிறுவனங்கள் மனித உண்மை சரிபார்ப்பாளர்களுக்கு செய்யும் முதலீட்டைக் குறைத்துவிட்டதால், மக்கள் Grok- ஐ உண்மை சரிபார்ப்பாளராக நம்பியுள்ளனர். செய்தி கண்காணிப்பு அமைப்பான NewsGuard-ன் ஆராய்ச்சியாளர் மெக்கென்சி சாட்ஜி இவ்வாறு எச்சரிக்கிறார், “செயற்கை நுண்ணறிவு சாட்போட்கள் செய்தி மற்றும் தகவல்களின் நம்பகமான ஆதாரமாக இருக்க முடியாது என்று எங்கள் ஆராய்ச்சி பலமுறை கண்டறிந்துள்ளது, குறிப்பாக அவசர செய்திகளைப் பொறுத்தவரை.”

NewsGuard-ன் ஆய்வில், ரஷ்யாவின் தவறான தகவல் கதைகள் மற்றும் ஆஸ்திரேலியாவின் சமீபத்திய தேர்தல்கள் தொடர்பான தவறான அல்லது தவறாக வழிநடத்தும் கூற்றுகள் உட்பட, 10 முன்னணி சாட்போட்கள் தவறான தகவல்களை எளிதில் திரும்பத் திரும்பச் சொல்வது தெரியவந்துள்ளது. கொலம்பியா பல்கலைக்கழகத்தின் டிஜிட்டல் இதழியல் டவ் மையம் சமீபத்தில் எட்டு AI தேடல் கருவிகள் குறித்து நடத்திய ஆய்வில், சாட்போட்கள் “அவற்றால் துல்லியமாக பதிலளிக்க முடியாத கேள்விகளுக்குப் பதிலளிப்பதில் பொதுவாக மோசமானவை, தவறான அல்லது ஊகமான பதில்களை வழங்குகின்றன” என்று கண்டறியப்பட்டுள்ளது.

தவறான படங்கள் மற்றும் உற்பத்தி விவரங்களை உறுதிப்படுத்துவதில் AI-ன் போராட்டம்

உருகுவேயில் உள்ள AFP-ன் உண்மை சரிபார்ப்பாளர்கள் ஜெமினியிடம் AI உருவாக்கிய பெண்ணின் படம் குறித்து கேட்டபோது, அது அந்தப் படம் உண்மையானது என்று உறுதிப்படுத்தியது மட்டுமல்லாமல், அவளுடைய அடையாளம் மற்றும் படம் எடுக்கப்பட்டிருக்கக்கூடிய இடத்தைப் பற்றிய விவரங்களையும் பொய்யாகக் கூறியது.

பாரம்பரிய தேடுபொறிகளை விட்டுவிட்டு, தகவல்களைப் பெறவும் சரிபார்க்கவும் அதிகமான ஆன்லைன் பயனர்கள் AI சாட்போட்களுக்கு மாறுவதாக ஆய்வுகள் காட்டுவதால், இதுபோன்ற கண்டுபிடிப்புகள் கவலையை ஏற்படுத்துகின்றன.

உண்மை சரிபார்ப்பு முறைகளில் மெட்டாவின் மாற்றம்

இந்த ஆண்டு தொடக்கத்தில், மெட்டா அமெரிக்காவில் மூன்றாம் தரப்பு உண்மை சரிபார்ப்பு திட்டத்தை முடிவுக்கு கொண்டுவருவதாகவும் மற்றும் தவறான தகவல்களை மறுக்கும் பணியை சாதாரண பயனர்களிடம் ஒப்படைக்கப் போவதாகவும் அறிவித்தது. இதற்கு “சமூகக் குறிப்புகள்” என்று பெயரிடப்பட்டது, இந்த முறையை X ஊக்குவித்தது. இருப்பினும், தவறான தகவல்களை எதிர்த்துப் போராடுவதில் “சமூகக் குறிப்புகளின்” செயல்திறனை ஆராய்ச்சியாளர்கள் பலமுறை கேள்வி எழுப்பியுள்ளனர்.

மனித உண்மை சரிபார்ப்பின் சவால்கள் மற்றும் சர்ச்சைகள்

மனித உண்மை சரிபார்ப்பு நீண்ட காலமாக துருவமுனைப்பட்ட அரசியல் காலநிலையில் ஒரு சர்ச்சைக்குரிய விஷயமாக இருந்து வருகிறது. குறிப்பாக அமெரிக்காவில், பழமைவாத ஆதரவாளர்கள் இது பேச்சு சுதந்திரத்தை அடக்குவதாகவும் வலதுசாரி உள்ளடக்கத்தை தணிக்கை செய்வதாகவும் வாதிடுகின்றனர். தொழில்முறை உண்மை சரிபார்ப்பாளர்கள் இதை கடுமையாக எதிர்க்கின்றனர். AFP தற்போது ஆசியா, லத்தீன் அமெரிக்கா மற்றும் ஐரோப்பிய ஒன்றியம் உட்பட 26 மொழிகளில் பேஸ்புக்கின் உண்மை சரிபார்ப்பு திட்டத்துடன் இணைந்து செயல்படுகிறது.

அரசியல் செல்வாக்கு மற்றும் AI சாட்போட்கள்

AI சாட்போட்களின் தரம் மற்றும் துல்லியம் அவற்றின் பயிற்சி மற்றும் நிரலாக்கத்தைப் பொறுத்து மாறுபடும். அவற்றின் வெளியீடுகள் அரசியல் செல்வாக்கிற்கு அல்லது கட்டுப்பாட்டிற்கு உட்படுத்தப்படலாம் என்ற கவலைகளை இது எழுப்புகிறது. சமீபத்தில், மஸ்கின் xAI, தென்னாப்பிரிக்காவில் “வெள்ளை இனப்படுகொலை” குறித்த வேண்டாத குறிப்புகளைக் குரோக் உருவாக்கியதற்கு “அங்கீகரிக்கப்படாத மாற்றங்களை” காரணம் கூறியது. AI நிபுணர் டேவிட் காஸ்வெல் குரோக்கின் கணினி தூண்டுதல்களை யார் மாற்றியிருக்கலாம் என்று கேட்டதற்கு, எலான் மஸ்க் “மிகவும் சாத்தியமான” குற்றவாளி என்று சாட்போட் பதிலளித்தது.

மஸ்க் தென்னாப்பிரிக்காவில் பிறந்த பில்லியனரும், டொனால்ட் டிரம்ப் ஜனாதிபதியின் ஆதரவாளரும் ஆவார். தென்னாப்பிரிக்காவின் தலைவர்கள் “வெள்ளையினப்படுகொலையை வெளிப்படையாக ஊக்குவிக்கிறார்கள்” என்று இதற்கு முன்பு எந்த ஆதாரமும் இல்லாத கூற்றுகளை அவர் பரப்பியுள்ளார்.

முக்கியமான விஷயங்களை கையாள்வதில் உள்ள கவலைகள்

சர்வதேச உண்மை சரிபார்ப்பு வலையமைப்பின் இயக்குனர் ஆங்கி ஹோலன் கூறுகிறார், “மனித குறியீட்டாளர்கள் அறிவுறுத்தல்களை வேண்டுமென்றே மாற்றியமைத்த பிறகு, AI உதவியாளர்கள் முடிவுகளை பொய்யாக உருவாக்கலாம் அல்லது பாரபட்சமான பதில்களை வழங்கலாம் என்பதை நாங்கள் பார்த்திருக்கிறோம். முன்கூட்டியே அங்கீகரிக்கப்பட்ட பதில்களை வழங்க அறிவுறுத்தல்களைப் பெற்ற பிறகு, க்ரோக் மிகவும் முக்கியமான விஷயங்களை உள்ளடக்கிய கோரிக்கைகளை எவ்வாறு கையாள்கிறது என்பது குறித்து நான் குறிப்பாக கவலைப்படுகிறேன்.”

AI துல்லியத்தை உறுதி செய்வதன் முக்கியத்துவம்

AI சாட்போட்களின் அதிகரித்து வரும் புகழ் தகவல் பரவலுக்கு குறிப்பிடத்தக்க சவால்களை முன்வைக்கிறது. அவை தகவல்களைப் பெறுவதற்கான வேகமான மற்றும் வசதியான வழியை வழங்கும் போது, அவை பிழைகள் மற்றும் தவறான தகவல்களைப் பரப்புவதற்கு எளிதில் பாதிக்கப்படுகின்றன. பயனர்கள் உண்மை சரிபார்ப்புக்காக இந்த கருவிகளை அதிகளவில் நம்புவதால், அவற்றின் துல்லியம் மற்றும் நம்பகத்தன்மையை உறுதி செய்வது மிகவும் முக்கியமானது.

தொழில்நுட்ப நிறுவனங்கள், உண்மை சரிபார்ப்பு அமைப்புகள் மற்றும் ஆராய்ச்சியாளர்கள் AI சாட்போட்களின் தரம் மற்றும் நம்பகத்தன்மையை மேம்படுத்த கூட்டாக பணியாற்ற வேண்டும். இதில் கடுமையான பயிற்சி நெறிமுறைகளை செயல்படுத்துவது, AI மூலம் உருவாக்கப்பட்ட தகவல்களை சரிபார்க்க மனித உண்மை சரிபார்ப்பாளர்களை பயன்படுத்துவது மற்றும் தவறான தகவல்களை கண்டறிந்து அகற்றுவதற்கான வழிமுறைகளை உருவாக்குவது ஆகியவை அடங்கும்.

எதிர்காலத்தை நோக்கி

AI தொழில்நுட்பம் தொடர்ந்து வளர்ச்சியடைந்து வருவதால், தகவல்களைப் பெறுவதிலும் பயன்படுத்துவதிலும் AI சாட்போட்கள் தொடர்ந்து முக்கியப் பங்கு வகிக்கும். இருப்பினும், இந்த கருவிகளை விமர்சன ரீதியாக அணுகுவதும் அவற்றின் வரம்புகளைப் பற்றி அறிந்திருப்பதும் முக்கியம். AI சாட்போட்களின் துல்லியம் மற்றும் நம்பகத்தன்மையை உறுதிப்படுத்த நடவடிக்கை எடுப்பதன் மூலம், தவறான தகவல்களைப் பரப்புவதோடு தொடர்புடைய அபாயங்களைத் தணிக்கும் அதே வேளையில் அவற்றின் திறனைப் பயன்படுத்திக் கொள்ளலாம்.

AI கருவிகளில் உள்ள பாரபட்சம்

AI கருவிகளில் பாரபட்சம் இருக்கலாம். இது அவை பயிற்சி பெறும் தரவுகளில் அல்லது அவை நிரலாக்கப்படும் முறையில் இருக்கலாம். இந்த பாரபட்சம் மோசமான அல்லது தவறாக வழிநடத்தும் முடிவுகளை ஏற்படுத்தலாம். இதற்கு உதாரணமாக க்ரோக், தொடர்பில்லாத கேள்விகளில் தீவிர வலதுசாரி பயங்கரவாதக் கொள்கையான “வெள்ளை இனப்படுகொலையை” செருகியது. AI அமைப்புகள் தீங்கு விளைவிக்கும் கொள்கைகளை பரப்பலாம் என்பதை இது காட்டுகிறது.

AI கருவிகளில் ஏற்படும் பாரபட்சத்துக்கு பல்வேறு காரணிகள் காரணமாக இருக்கலாம். அவை:

  • பயிற்சித் தரவுகளில் பாரபட்சம்: AI அமைப்புகள் பயிற்சித் தரவுத் தொகுப்புகள் மூலம் கற்றுக்கொள்கின்றன. இந்த தரவுத் தொகுப்புகளில் பாரபட்சங்கள் இருந்தால், அந்த பாரபட்சங்களையும் AI அமைப்பு கற்றுக் கொள்ளும். உதாரணமாக, AI அமைப்பு ஆண்களைப் பற்றி அதிகமாக எழுதப்பட்ட கட்டுரைகளைப் பயன்படுத்தி பயிற்சி பெற்றால், அது பெண்களிடம் பாரபட்சத்தைக் காட்டலாம்.

  • அல்горитம்களில் பாரபட்சம்: AI கணினிகளை உருவாக்கப் பயன்படுத்தப்படும் வழிமுறைகளிலும் பாரபட்சம் இருக்கலாம். உதாரணமாக, சில குழுக்களின் பதில்களுக்கு முன்னுரிமை அளிக்கும் வகையில் ஒரு நிரல் வடிவமைக்கப்பட்டிருந்தால், அது பிற குழுக்களைப் பாரபட்சமாக நடத்தலாம்.

  • மனிதனால் உருவாக்கப்பட்ட பாரபட்சம்: AI அமைப்பு பாரபட்சமற்ற தரவைப் பயன்படுத்தி பயிற்சி பெற்றாலும், மனித குறுக்கீடு பாரபட்சத்தை ஏற்படுத்தலாம். உதாரணமாக, ஒரு குறிப்பிட்ட கேள்விக்கு பதிலளிக்கும்போது முன்கூட்டியே அங்கீகரிக்கப்பட்ட பதில்களை வழங்க ஒரு மனித நிரலாளர் அறிவுறுத்தப்பட்டால், அது பாரபட்சத்தை உருவாக்கலாம்.

AI கருவிகளில் உள்ள பாரபட்சத்தை கையாள்வது மிகவும் முக்கியமானது, ஏனெனில்:

  • நியாயம்: AI அமைப்பில் பாரபட்சம் இருந்தால், அது சில குழுக்களுக்கு அநியாயம் செய்யக்கூடும். உதாரணமாக, ஆட்சேர்ப்பு செய்ய AI அமைப்பு பயன்படுத்தப்பட்டால், அது ஓரங்கட்டப்பட்ட குழுக்களிடம் பாரபட்சம் காட்டலாம்.

  • துல்லியம்: AI அமைப்பில் பாரபட்சம் இருந்தால், அதைச் சரியாகத் தகவல்களை வழங்க முடியாது. உதாரணமாக, AI அமைப்பு மருத்துவ ஆலோசனை வழங்கப் பயன்படுத்தப்பட்டால், அது தவறான அல்லது குழப்பமான ஆலோசனையை வழங்கலாம்.

  • நம்பிக்கை: AI அமைப்பு நியாயமானது மற்றும் துல்லியமானது என்று மக்கள் நம்பவில்லை என்றால், அவர்கள் அதை பயன்படுத்த வாய்ப்பில்லை.

AI கருவிகளில் உள்ள பாரபட்சத்தை கையாளுவதற்கு பன்முக அணுகுமுறை தேவைப்படுகிறது. இதில்:

  • பாரபட்சமற்ற சரியான தகவலைச் சேகரித்தல்: AI அமைப்பைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் தரவுத் தொகுப்புகள் பாரபட்சமற்றவையாக இருக்க வேண்டும். தரவுகளில் உள்ள பாரபட்சம் இருப்பது, கண்டுபிடிப்பது மற்றும் அகற்றுவது கடினமாக இருக்கலாம் என்பதால் இதற்கு நிறைய முயற்சிகள் தேவைப்படலாம்.

  • பாரபட்சமற்ற வழிமுறைகளை உருவாக்குதல்: AI அமைப்புகளை உருவாக்கப் பயன்படும் வழிமுறைகள் பாரபட்சமற்றவையாக இருக்க வேண்டும். பாரபட்சம் குறைவாக உள்ள நிரல்களை உருவாக்குவதற்கு புதிய இயந்திர கற்றல் முறைகளைப் பயன்படுத்த வேண்டியிருக்கலாம்.

  • மனித உதவி: AI அமைப்புகளில் உள்ள பாரபட்சத்தை சரி செய்ய மனித உதவி பயன்படுத்தப்படலாம். உதாரணமாக, மனித வல்லுநர்கள் AI அமைப்பு தயாரித்த பதில்களைப் பற்றி மறுஆய்வுசெய்து ஏதேனும் பாரபட்சங்கள் இருந்தால் அதைக் சரிசெய்யலாம்.

  • வெளிப்படைத்தன்மை: AI அமைப்பின் பயனர்கள் கணினியில் பாரபட்சம் இருக்கலாம் என்பதை அறிவது மிகவும் முக்கியம். AI அமைப்பு பயிற்சி பெற்ற தகவல்களையும், அதை உருவாக்கப் பயன்படும் வழிமுறைகளையும் பற்றிய தகவல்களை வழங்குவதன் மூலம் இதைச் செய்யலாம்.

AI கருவிகளில் பாரபட்சம் குறித்த பிரச்சினையைச் சரிசெய்வது என்பது ஒரு தொடர்ச்சியான சவால் தான். ஆனால் இந்தக் கருவிகள் பாரபட்சமற்று, துல்லியமாக, நம்பகமாக இருப்பதை உறுதிப்படுத்துவது அவசியம்.

AI உண்மை சோதனை செய்யும் கருவிகளின் வரம்புகள்

AI உண்மை சரிபார்ப்புக் கருவிகள் தவறான தகவல்களை அறிந்துகொள்வதில் முன்னேற்றம் அடைந்திருந்தாலும், அவற்றின் திறன்கள் மற்றும் செயல்திறனில் இன்னும் வரம்புகள் உள்ளன. இந்த வரம்புகள் பல்வேறு காரணிகளில் இருந்து வருகின்றன:

  • சூழலைப் புரிந்துகொள்ள இயலாமை: ஒரு கருத்தின் துல்லியமான உண்மை சரிபார்ப்புக்கு முக்கியமான சிக்கலான சூழ்நிலைகளையும், நுணுக்கமான விஷயங்களையும் AI அமைப்புகள் புரிந்துகொள்வதில் சிரமப்படுகின்றன. உதாரணமாக, AI அமைப்பு ஒரு நையாண்டி அறிக்கையை உண்மையான அறிக்கையிலிருந்து வேறுபடுத்திப் பார்க்கத் தவறிவிடும்.

  • தவறான தகவல்களைக் கண்டறிதல்: உண்மையை திரித்துச் சொல்லுவது போன்ற நுணுக்கமான தவறான தகவல்களை AI அமைப்பு கண்டுபிடிப்பது கடினம்.

  • சரியாகப் புலமை இல்லாமல் இருப்பது: சில விஷயங்களைப் பற்றித் துல்லியமாகத் உண்மை சரிபார்க்கத் தேவையான புலமைச் சார்ந்த அறிவு AI அமைப்புகளுக்கு போதுமானதாக இல்லை. உதாரணமாக, ஆரோக்கியம் சம்பந்தப்பட்ட உண்மை சரிபார்ப்புகளைச் செய்வதற்கு மருத்துவ வல்லுனர்கள் தேவை.

  • தகவல்களைத் தவறாகப் பயன்படுத்துவது: தவறான தகவல்களை பரப்புபவர்கள் உண்மை சரிபார்ப்பு முறைகளை ஏமாற்றுவதற்காகப் புதிய வழிகளை எப்போது கண்டுபிடித்துக்கொண்டே இருக்கிறார்கள். இந்தச் புதிய உத்திகளை AI சரிபார்க்கும் முறைகள் கண்டறிவதற்கு, அவற்றை எப்போதும் மேம்படுத்த வேண்டும்.

  • மொழித் தடைகள்: வெவ்வேறு மொழிகளில் இருக்கும் தவறான தகவல்களைச் செயலாக்கும் வகையில் AI உண்மை சரிபார்ப்புக் கருவிகள் திறம்பட செயல்படாமல் போகலாம். வெவ்வேறு மொழிகளில் உள்ள நுணுக்கங்களை மொழிபெயர்ப்பதும், புரிந்துகொள்வதும் கடினம். இதற்குச் சிறப்பு மொழி அறிவு தேவை.

  • தவறான அறிக்கைகள்: AI உண்மை சரிபார்ப்பு அமைப்புகள் தவறுகளைச் செய்து, சரியானத் தகவல்களையும் தவறானவை என்று முத்திரை குத்தலாம். தவறான அறிக்கைகள் ஒருவரின் புகழுக்குக் களங்கம் விளைவிக்கும்.

செயற்கை நுண்ணறிவு உண்மை சரிபார்ப்பின் வரம்புகளைத் தணிக்க, மனித வல்லுநர்களின் நிபுணத்துவத்தை செயற்கை நுண்ணறிவு கருவிகளுடன் இணைப்பது அவசியம். தானியங்கி அமைப்புகளால் பிரதிபலிக்க முடியாத சூழல், புலமைச் சார்ந்த அறிவு மற்றும் விமர்சன சிந்தனையை மனித உண்மை சரிபார்ப்பாளர்கள் வழங்க முடியும். கூடுதலாக, வெளிப்படைத்தன்மை மற்றும் தொடர்ச்சியான மேம்பாடு ஆகியவை செயற்கை நுண்ணறிவு உண்மை சரிபார்ப்பு அமைப்புகளின் செயல்திறன் மற்றும் நம்பகத்தன்மையை உறுதி செய்வதற்கு இன்றியமையாதவை.

அபாயங்களைக் குறைப்பதற்கும் AI உண்மைச் சரிபார்ப்பை மேம்படுத்துவதற்கும் ஒரு சில உத்திகள்

AI உண்மைச் சரிபார்ப்பின் அபாயங்களைக் குறைப்பதற்கும் அதன் துல்லியம் மற்றும் நம்பகத்தன்மையை அதிகரிப்பதற்கும் தொழில்நுட்ப மேம்பாடுகள், மனித மேற்பார்வை மற்றும் நெறிமுறைச் சிந்தனைகள் அடங்கிய பல வழிமுறைகளில் அணுகுமுறை தேவைப்படுகிறது. சில முக்கியமான உத்திகள் இங்கே:

  • பயிற்சி தரவை மேம்படுத்துங்கள்: பல்வேறு மற்றும் விரிவான ஆதாரங்களின் அடிப்படையில், பயிற்சி தரவை மேம்படுத்துங்கள். தரவு பாரபட்சமற்றதாகவும், தேதி வரை உள்ளதாகவும் பார்த்துக்கொள்ளுங்கள். பரந்த அளவிலான தலைப்புகள் மற்றும் கண்ணோட்டங்களையும் கவனியுங்கள்.

  • மனித வல்லுநர்களைப் பயன்படுத்திக் கொள்ளுங்கள்: உண்மை சரிபார்ப்பு செயல்முறைகளில் மனிதர்களை ஈடுபடுத்துங்கள். இதன் மூலம் AI வழங்கும் குறைபாடுகளை தவிர்க்கலாம்.

  • ஒரு கலப்பின அணுகுமுறையை உருவாக்குதல்: மனித மேற்பார்வையுடன் AI தொழில்நுட்பத்தை இணைக்கும் கலப்பின அணுகுமுறைகளை உருவாக்கவும். AI அமைப்பை பயன்படுத்தித் தவறான இன்பர்மேஷன்களைக் கண்டறியலாம். மனிதர்களால் உருவாக்கப்பட்ட தகவல்களையும் சரிபார்க்கலாம்.

  • வெளிப்படையான செயல்முறைகளைச் செயல்படுத்துங்கள்: வெளிப்படையான உண்மைச் சரிபார்ப்பு செயல்முறைகள் மற்றும் முறைகளை நிறுவுங்கள், பயனர்கள் முடிவுகள் எவ்வாறு எடுக்கப்படுகின்றன என்பதைப் புரிந்துகொள்ளவும் மற்றும் துல்லியத்தை மதிப்பிடவும் அனுமதிக்கிறது. தரவு மூலங்கள், வழிமுறைகள் மற்றும் மனித ஈடுபாடு பற்றிய தகவல்களை வழங்கவும்.

  • ஊடக கல்வியறிவு மேம்படுத்துங்கள்: ஊடக கல்வியறிவை மேம்படுத்துங்கள். செய்திகளை எவ்வாறு பிரித்து அறிந்து உண்மையைக் கண்டறிவது என்பது குறித்து கல்வி புகட்டுங்கள்.

  • தொழில் ஒத்துழைப்பை ஊக்குவித்தல்: தொழில்நுட்ப நிறுவனங்கள், உண்மைச் சரிபார்ப்பு நிறுவனங்கள், ஆராய்ச்சியாளர்கள் மற்றும் கொள்கை வகுப்பாளர்கள் ஆகியோரின் ஒத்துழைப்பை ஊக்குவிக்கவும், அறிவு, சிறந்த நடைமுறைகள் மற்றும் வளங்களைப் பகிர்ந்து கொள்ளுங்கள். AI உண்மைச் சரிபார்ப்பில் உள்ள சவால்களைச் சமாளிக்க ஒருமித்த கருத்துடன் செயல்படலாம்.

  • மொழித் தடைகளைத் தீர்த்தல்: பல்வேறு மொழிகளில் உள்ள தவறான தகவல்களைச் திறம்பட கையாளக்கூடிய AI உண்மைச் சரிபார்ப்புக் கருவிகளை உருவாக்கவும். மொழிபெயர்ப்பில் முதலீடு செய்யுங்கள்.

  • தொடர்ச்சியான மதிப்பீடு மற்றும் மேம்பாடு: AI உண்மைச் சரிபார்ப்பு அமைப்புகளின் செயல்பாட்டைத் தொடர்ந்து மதிப்பிடுங்கள், மேம்படுத்த வேண்டிய பகுதிகளை அடையாளம் கண்டு வழிமுறைகளை மேம்படுத்துங்கள். துல்லியம் மற்றும் நம்பகத்தன்மையை உறுதிப்படுத்த வழக்கமான தணிக்கைகள் மற்றும் சோதனைகளை நடத்தவும்.

  • நன்னெறிக் வழிகாட்டுதல்களை உருவாக்குங்கள்: AI உண்மைச் சரிபார்ப்பின் வளர்ச்சி மற்றும் பயன்பாட்டிற்கான நன்னெறி வழிகாட்டுதல்களை நிறுவுங்கள், பாரபட்சம், வெளிப்படைத்தன்மை, பொறுப்புக்கூறல் மற்றும் மனித உரிமைகளை மதித்தல் போன்ற கவலைகளை நிவர்த்தி செய்யுங்கள். AI உண்மைச் சரிபார்ப்பு அமைப்புகள் நியாயமான, பக்கச்சார்பற்ற மற்றும் பொறுப்பான முறையில் பயன்படுத்தப்படுவதை உறுதிசெய்யவும்.

இந்த உத்திகளை செயல்படுத்துவதன் மூலம், AI உண்மைச் சரிபார்ப்பின் தரம் மற்றும் நம்பிக்கையை மேம்படுத்தலாம், அதன் ஆபத்துக்களைக் குறைக்கலாம், மேலும் தவறான தகவல்களை எதிர்த்துப் போராடுவதற்கான திறனை அதிகரிக்கலாம்.

தகவலறிவு மற்றும் விமர்சன சிந்தனையின் பங்கு

அதிகப்படியான ஆன்லைன் தகவல்களையும், செயற்கை நுண்ணறிவு சாட்போட்கள் தவறான தகவல்களைப் பரப்புவதற்கான சாத்தியத்தையும் கருத்தில் கொண்டு பார்த்தால், தகவலறிவு மற்றும் விமர்சன சிந்தனையை வளர்ப்பது மிகவும் முக்கியமானது. தகவலறிவு தனிநபர்கள் தகவல்களை அணுகவும், மதிப்பீடு செய்யவும் மற்றும் திறம்பட பயன்படுத்தவும் உதவுகிறது. விமர்சன சிந்தனை திறன் தனிநபர்கள் பகுப்பாய்வு செய்யவும், விளக்கவும் மற்றும் தகவலறிந்த தீர்ப்புகளை வழங்கவும் உதவுகிறது.
தகவலறிவு மற்றும் விமர்சன சிந்தனையின் அத்தியாவசிய திறன்கள் இங்கே:

  • நம்பகமான ஆதாரங்களை அடையாளம் காணுதல்: தகவலின் நம்பகத்தன்மை, நம்பகத்தன்மை மற்றும் பக்கச்சார்புகளை மதிப்பிடுங்கள். நிபுணத்துவம், வெளிப்படையான கொள்கைகள் மற்றும் சான்றுகளால் ஆதரிக்கப்படும் ஆதாரங்களைத் தேடுங்கள்.

  • தகவலைச் சரிபார்த்தல்: பல நம்பகமான ஆதாரங்களைப் பயன்படுத்தி தகவலைச் சரிபார்த்து உறுதிப்படுத்தவும். ஆதாரமற்ற கூற்றுகள், சதி கோட்பாடுகள் மற்றும் பரபரப்பான தலைப்புகளைப் பற்றி எச்சரிக்கையாக இருங்கள்.

  • பாரபட்சங்களை அடையாளம் காணுதல்: எல்லா தகவல்களிலும் பாரபட்சம் இருக்கலாம் என்பதை அறிந்து கொள்ளுங்கள். ஒரு தகவல் ஆதாரத்தின் ஆசிரியர் அல்லது அமைப்பின் சார்பு, நிகழ்ச்சி நிரல் அல்லது அரசியல் சார்புகளை மதிப்பிடுங்கள்.

  • வாதங்களை ஆராய்தல்: ஒரு தகவல் மூலம் வழங்கப்படும் ஆதாரங்களையும் காரணங்களையும் மதிப்பிடுங்கள். தர்க்கரீதியான தவறுகள், தகவல்களைத் தேர்ந்தெடுத்து அறிக்கையிடுதல் மற்றும் உணர்ச்சிகளைத் தூண்டும் விஷயங்களை கவனியுங்கள்.

  • மாறுபட்ட கண்ணோட்டங்களைக் கருத்தில் கொள்ளுதல்: ஒரு பிரச்சினைக்கு வெவ்வேறு கண்ணோட்டங்களையும் கருத்துகளையும் தேடுங்கள். மாறுபட்ட கருத்துக்களைக் கொண்டவர்களுடன் கலந்துரையாடுங்கள் மற்றும் வெவ்வேறு வாதங்களைக் கருத்தில் கொள்ளுதல்.

  • திறந்த மனதுடன் இருத்தல்: புதிய தகவல்கள் அல்லது சான்றுகளுக்கு உங்கள் சொந்தக் கருத்துக்களை மாற்ற நீங்கள் தயாராக இருங்கள். ஏற்கனவே இருக்கும் நம்பிக்கைகளை உறுதிப்படுத்த முயற்சி செய்வதைத் தவிர்க்கவும்.

தகவலறிவு மற்றும் விமர்சன சிந்தனையை மேம்படுத்துவதை பல்வேறு முயற்சிகள் மூலம் அடையலாம், அதாவது:

  • கல்வித் திட்டங்கள்: பள்ளிகள், கல்லூரிகள் மற்றும் சமூக அமைப்புகளில் தகவலறிவு மற்றும் விமர்சன சிந்தனை திறன்களைக் கற்றுக்கொடுக்கும் கல்வித் திட்டங்களை நடத்துங்கள்.

  • ஊடக கல்வியறிவு பிரச்சாரங்கள்: விழிப்புணர்வை அதிகரிக்கவும் விமர்சன சிந்தனையை ஊக்குவிக்கவும் பொது சேவை அறிவிப்புகள், ஆன்லைன் ஆதாரங்கள் மற்றும் ஊடக கல்வியறிவு பட்டறைகளை மூலம் செய்திகளை எவ்வாறு ஆராய்வது என்பது குறித்து பிரச்சாரம் செய்யுங்கள்.

  • ஆசிரியர் பயிற்சி: தகவலறிவு மற்றும் விமர்சன சிந்தனை திறன்களை எவ்வாறு கற்பிப்பது என்பது குறித்து ஆசிரியர்களுக்கு பயிற்சி அளித்தல்.

  • பெற்றோரின் ஈடுபாடு: குழந்தைகளின் ஊடக நுகர்வு பழக்கவழக்கங்களில் பெற்றோர்கள் ஈடுபடுவதை ஊக்குவிக்கவும், ஆன்லைன் தகவல்களின் துல்லியம் மற்றும் நம்பகத்தன்மை குறித்து அவர்களுடன் பேசவும்.

தகவலறிவையும், விமர்சன சிந்தனையையும் வளர்ப்பதன் மூலம், தகவல்கள் நிறைந்த டிஜிட்டல் உலகில் நன்கு தகவலறிந்த முடிவுகளை எடுக்கவும், தவறான தகவல்களை தவிர்க்கவும், மேலும் தீவிரமாகப் பங்கேற்கும் குடிமக்களாக மாறவும் தனிநபர்களுக்கு அதிகாரம் அளிக்கலாம்.