AI தேடல் உங்களிடம் பொய் சொல்கிறது, மேலும் மோசமாகிறது

துல்லியத்தின் மாயை

தேடுபொறிகளின் அடிப்படை வாக்குறுதி பயனர்களை நம்பகமான ஆதாரங்களுடன் இணைப்பதாகும். இப்போது, அந்த வாக்குறுதி அரிக்கப்படுகிறது. AI-ஆற்றல் கொண்ட தேடல் கருவிகள் பெருகிய முறையில் வேகத்திற்கு முன்னுரிமை அளிக்கின்றன, சரிபார்க்கக்கூடிய ஆதாரங்களின் அத்தியாவசிய ஆதரவு இல்லாத பதில்களை தோன்றுகிறது. நாம் காண்பது என்னவென்றால், பயனர்களை நம்பகமான தகவல்களுக்கு வழிநடத்தும் ஒரு அமைப்பிலிருந்து, பதில்களை உருவாக்கும் ஒரு அமைப்பிற்கு மாறுவது, பெரும்பாலும் அவற்றின் உண்மைத்தன்மைக்கு சிறிதும் மதிப்பளிக்காமல்.

இது அவ்வப்போது ஏற்படும் பிழைகள் மட்டுமல்ல. இது ஒரு முறையான பிரச்சனை. கொலம்பியா ஜர்னலிசம் ரிவியூ (CJR) ஆய்வில், AI தேடுபொறிகள் தவறுகளைச் செய்வது மட்டுமல்ல; அவை சரிபார்க்கக்கூடிய ஆதாரங்களிலிருந்து விவாகரத்து செய்யப்பட்ட ஒரு யதார்த்தத்தை தீவிரமாக உருவாக்குகின்றன. அவை இணையம் முழுவதிலும் உள்ள உள்ளடக்கத்தை துடைக்கின்றன, ஆனால் பயனர்களை அசல் ஆதாரங்களுக்கு—தகவல்களைத் தயாரித்து வெளியிடும் வலைத்தளங்களுக்கு—அவை உடனடி, பெரும்பாலும் புனையப்பட்ட பதில்களை வழங்குகின்றன.

போக்குவரத்து வடிகால் மற்றும் பாண்டம் மேற்கோள்கள்

இந்த அணுகுமுறையின் விளைவுகள் தொலைநோக்குடையவை. உடனடி தாக்கம் தகவல் அசல் ஆதாரங்களுக்கு போக்குவரத்தில் குறிப்பிடத்தக்க குறைப்பு ஆகும். வலைத்தளங்கள், செய்தி நிறுவனங்கள் மற்றும் உள்ளடக்கத்தை உருவாக்குவதில் நேரத்தையும் வளங்களையும் முதலீடு செய்யும் ஆராய்ச்சியாளர்கள் தங்களைத் தாங்களே கடந்து செல்வதைக் காண்கிறார்கள். பயனர்கள் தங்கள் பதில்களை நேரடியாக AI இலிருந்து பெறுகிறார்கள், தகவலை உருவாக்கிய தளங்களைப் பார்வையிட வேண்டிய அவசியமில்லை.

ஒரு தனி ஆய்வு இந்த ஆபத்தான போக்கை உறுதிப்படுத்துகிறது, AI-உருவாக்கிய தேடல் முடிவுகள் மற்றும் சாட்போட்களிலிருந்து கிளிக்-த்ரூ விகிதங்கள் Google போன்ற பாரம்பரிய தேடுபொறிகளை விட கணிசமாகக் குறைவாக இருப்பதைக் கண்டறிந்துள்ளது. இதன் பொருள் ஆன்லைன் உள்ளடக்கத்தின் உயிர்நாடி—பார்வையாளர்களைச் சென்றடையும் திறன்—மெதுவாக மூச்சுத் திணறடிக்கப்படுகிறது.

ஆனால் பிரச்சனை இன்னும் ஆழமாக செல்கிறது. இந்த AI கருவிகள் ஆதாரங்களுக்கு கடன் கொடுக்கத் தவறுவது மட்டுமல்ல; அவை பெரும்பாலும் பாண்டம் மேற்கோள்களை உருவாக்குகின்றன. அவை இல்லாத வலைப்பக்கங்களுக்கான இணைப்புகளை உருவாக்குகின்றன அல்லது உடைந்த அல்லது பொருத்தமற்ற URLகளுக்கு. இது ஒரு மாணவர் ஒரு ஆராய்ச்சிக் கட்டுரையை எழுதி, தங்கள் கூற்றுக்களை ஆதரிக்க ஆதாரங்களைக் கண்டுபிடிப்பது போன்றது. இது வெறுமனே மோசமானது அல்ல; இது அறிவுசார் நேர்மையின் அடிப்படை மீறல்.

மோசடியில் ஒரு ஆழமான டைவ்

CJR ஆய்வு பல முன்னணி AI தேடல் மாதிரிகளின் செயல்திறனை கவனமாக ஆய்வு செய்தது. கண்டுபிடிப்புகள் மிகவும் கவலைக்குரியவை. AI தேடல் நிலப்பரப்பில் இரண்டு முக்கிய வீரர்களான Google’s Gemini மற்றும் xAI’s Grok 3 ஆல் உருவாக்கப்பட்ட பாதிக்கும் மேற்பட்ட மேற்கோள்கள் புனையப்பட்ட அல்லது அணுக முடியாத வலைப்பக்கங்களுக்கு வழிவகுத்தன. இது ஒரு சிறிய குறைபாடு அல்ல; இது ஒரு முறையான தோல்வி.

மேலும் பிரச்சனை மேற்கோள்களுக்கு அப்பால் நீண்டுள்ளது. பொதுவாக, சாட்போட்கள் 60% க்கும் மேற்பட்ட நிகழ்வுகளில் தவறான தகவல்களை வழங்குவதாகக் கண்டறியப்பட்டது. மதிப்பீடு செய்யப்பட்ட மாதிரிகளில், Grok 3 மோசமான குற்றவாளியாக இருந்தது, அதன் பதில்களில் அதிர்ச்சியூட்டும் 94% தவறுகள் உள்ளன. ஜெமினி, சற்று சிறப்பாக செயல்பட்டாலும், ஒவ்வொரு பத்து முயற்சிகளிலும் ஒருமுறை மட்டுமே முழுமையான சரியான பதிலை வழங்க முடிந்தது. சோதிக்கப்பட்ட மாதிரிகளில் மிகவும் துல்லியமானதாக வெளிப்பட்ட Perplexity கூட, 37% நேரம் தவறான பதில்களைத் திருப்பியளித்தது.

இந்த எண்கள் வெறும் புள்ளிவிவரங்கள் அல்ல; அவை தகவலின் நம்பகத்தன்மையில் ஒரு அடிப்படை முறிவைக் குறிக்கின்றன. டிஜிட்டல் உலகின் சிக்கல்களை வழிநடத்த உதவும் வகையில் வடிவமைக்கப்பட்ட கருவிகள் உண்மையில் நம்மை தவறாக வழிநடத்துகின்றன என்று அவை கூறுகின்றன.

விதிகளைப் புறக்கணித்தல்: ரோபோ விலக்கு நெறிமுறை

ஆய்வின் ஆசிரியர்கள் இந்த AI-உந்துதல் மோசடியின் மற்றொரு சிக்கலான அம்சத்தை வெளிப்படுத்தினர். பல AI மாதிரிகள் ரோபோ விலக்கு நெறிமுறையை வேண்டுமென்றே புறக்கணிப்பதாகத் தோன்றியது. இந்த நெறிமுறை ஒரு நிலையான, பரவலாக ஏற்றுக்கொள்ளப்பட்ட பொறிமுறையாகும், இது வலைத்தளங்கள் தங்கள் தளத்தின் எந்தப் பகுதிகளை தானியங்கி போட்கள் அணுகலாம் மற்றும் துடைக்கலாம் என்பதைக் கட்டுப்படுத்த அனுமதிக்கிறது. வலைத்தளங்கள் தங்கள் உள்ளடக்கத்தைப் பாதுகாப்பதற்கும் அது எவ்வாறு பயன்படுத்தப்படுகிறது என்பதை நிர்வகிப்பதற்கும் இது ஒரு வழியாகும்.

AI தேடுபொறிகள் இந்த நெறிமுறையைப் புறக்கணிக்கின்றன என்பது தீவிரமான நெறிமுறை கேள்விகளை எழுப்புகிறது. இது உள்ளடக்கத்தை உருவாக்குபவர்களின் உரிமைகளை புறக்கணிப்பதையும், அனுமதியின்றி ஆன்லைன் தகவலைப் பயன்படுத்த விருப்பத்தையும் குறிக்கிறது. இந்த நடத்தை வலையின் அடித்தளங்களை குறைமதிப்பிற்கு உட்படுத்துகிறது, இது தகவலுக்கான அணுகல் மற்றும் அறிவுசார் சொத்துரிமை பாதுகாப்பு ஆகியவற்றுக்கு இடையேயான ஒரு நுட்பமான சமநிலையை நம்பியுள்ளது.

கடந்த கால எச்சரிக்கைகளின் எதிரொலிகள்

CJR ஆய்வின் கண்டுபிடிப்புகள் தனிமைப்படுத்தப்பட்டவை அல்ல. அவை நவம்பர் 2024 இல் வெளியிடப்பட்ட ஒரு முந்தைய ஆய்வோடு ஒத்திருக்கின்றன, இது ChatGPT இன் தேடல் திறன்களில் கவனம் செலுத்தியது. அந்த முந்தைய விசாரணையானது நம்பிக்கையான ஆனால் தவறான பதில்கள், தவறாக வழிநடத்தும் மேற்கோள்கள் மற்றும் நம்பமுடியாத தகவல் மீட்டெடுப்பு ஆகியவற்றின் நிலையான வடிவத்தை வெளிப்படுத்தியது. வேறு வார்த்தைகளில் கூறுவதானால், CJR ஆல் அடையாளம் காணப்பட்ட சிக்கல்கள் புதியவை அல்ல; அவை நிலையானவை மற்றும் முறையானவை.

நம்பிக்கை மற்றும் முகமையின் அரிப்பு

துறையில் உள்ள வல்லுநர்கள் ஜெனரேட்டிவ் AI இன் ஆபத்துகள் குறித்து எச்சரிக்கை விடுத்து வருகின்றனர். சிராக் ஷா மற்றும் எமிலி எம். பெண்டர் போன்ற விமர்சகர்கள், AI தேடுபொறிகள் பயனர் முகமையை அரித்து, தகவல் அணுகலில் சார்புகளைப் பெருக்குகின்றன, மேலும் பயனர்கள் கேள்வியின்றி ஏற்றுக்கொள்ளக்கூடிய தவறான அல்லது நச்சு பதில்களை அடிக்கடி முன்வைக்கின்றன என்று கவலைகளை எழுப்பியுள்ளனர்.

முக்கிய பிரச்சனை என்னவென்றால், இந்த AI மாதிரிகள் தவறாக இருந்தாலும் கூட, அதிகாரப்பூர்வமாக ஒலிக்கும் வகையில் வடிவமைக்கப்பட்டுள்ளன. அவை பரந்த தரவுத்தொகுப்புகள் மற்றும் குறியீடுகளில் பயிற்சி பெற்றவை, மேலும் அவை மனித மொழியைப் பிரதிபலிக்கும் பதில்களை உருவாக்கும் திறன் கொண்டவை. ஆனால் இந்த சரளமானது ஏமாற்றும். அடிப்படைத் தகவல் குறைபாடுடையது, புனையப்பட்டது அல்லது தவறானது என்ற உண்மையை அது மறைக்க முடியும்.

தவறான தகவலின் இயக்கவியல்

CJR ஆய்வில் 1,600 வினவல்களின் விரிவான பகுப்பாய்வு அடங்கும், இது வெவ்வேறு ஜெனரேட்டிவ் AI தேடல் மாதிரிகள் தகவல்களை எவ்வாறு மீட்டெடுத்தன என்பதை ஒப்பிடுவதற்காக வடிவமைக்கப்பட்டுள்ளது. ஆராய்ச்சியாளர்கள் தலைப்புச் செய்திகள், வெளியீட்டாளர்கள், வெளியீட்டு தேதிகள் மற்றும் URLகள் போன்ற முக்கிய கூறுகளில் கவனம் செலுத்தினர். ChatGPT Search, Microsoft CoPilot, DeepSeek Search, Perplexity (மற்றும் அதன் Pro பதிப்பு), xAI’s Grok-2 மற்றும் Grok-3 Search, மற்றும் Google Gemini உள்ளிட்ட பல மாதிரிகளை அவர்கள் சோதித்தனர்.

சோதனை முறைமை கடுமையாக இருந்தது. ஆராய்ச்சியாளர்கள் 20 வெவ்வேறு வெளியீட்டாளர்களிடமிருந்து பெறப்பட்ட பத்து சீரற்ற முறையில் தேர்ந்தெடுக்கப்பட்ட கட்டுரைகளிலிருந்து நேரடி பகுதிகளைப் பயன்படுத்தினர். இந்த அணுகுமுறை வினவல்கள் உண்மையான உள்ளடக்கத்தை அடிப்படையாகக் கொண்டவை என்பதையும், மாதிரிகள் அந்த உள்ளடக்கத்தை துல்லியமாக மீட்டெடுக்கும் மற்றும் பிரதிநிதித்துவப்படுத்தும் திறனில் மதிப்பீடு செய்யப்படுவதையும் உறுதி செய்தது.

முன்னர் விவரிக்கப்பட்ட முடிவுகள், AI-உந்துதல் தேடலின் நிலையைப் பற்றிய ஒரு மோசமான படத்தை வரைகின்றன. பெருகிய முறையில் தகவலுக்கான நமது முதன்மை நுழைவாயில்களாக மாறிவரும் கருவிகள் நிரூபிக்கக்கூடிய வகையில் நம்பமுடியாதவை, புனையலுக்கு ஆளாகின்றன, மேலும் அவை நம்பியிருக்கும் ஆதாரங்களை அடிக்கடி அவமதிக்கின்றன.

தகவலின் எதிர்காலத்திற்கான தாக்கங்கள்

இந்த பரவலான தவறான தகவலின் தாக்கங்கள் ஆழமானவை. தகவலைக் கண்டறிய நாம் பயன்படுத்தும் கருவிகளை நம்மால் நம்ப முடியாவிட்டால், எப்படி தகவலறிந்த முடிவுகளை எடுக்க முடியும்? அர்த்தமுள்ள விவாதத்தில் நாம் எப்படி ஈடுபட முடியும்? அதிகாரத்தை நாம் எப்படி பொறுப்பாக்க முடியும்?

AI-ஆற்றல் கொண்ட தேடலின் எழுச்சி, அதன் உள்ளார்ந்த குறைபாடுகள் மற்றும் சார்புகளுடன், நமது தகவல் சுற்றுச்சூழல் அமைப்பின் கட்டமைப்பிற்கு ஒரு குறிப்பிடத்தக்க அச்சுறுத்தலை முன்வைக்கிறது. இது செய்தி நிறுவனங்கள், ஆராய்ச்சியாளர்கள் மற்றும் பிற உள்ளடக்க உருவாக்குநர்களின் நம்பகத்தன்மையை குறைமதிப்பிற்கு உட்படுத்துகிறது. இது நிறுவனங்கள் மீதான பொது நம்பிக்கையை அரித்துவிடுகிறது. மேலும் இது தவறான தகவல்களைப் பரப்பவும், பொது கருத்தை கையாளவும் முயற்சிப்பவர்களுக்கு அதிகாரம் அளிக்கிறது.

நமக்கு முன்னால் உள்ள சவால் AI தேடுபொறிகளின் துல்லியத்தை மேம்படுத்துவது மட்டுமல்ல. டிஜிட்டல் யுகத்தில் தகவலுக்கான தேடலை நாம் அணுகும் விதத்தை அடிப்படையாக மறுபரிசீலனை செய்ய வேண்டும். வெளிப்படைத்தன்மை, பொறுப்புக்கூறல் மற்றும் தகவல் ஆதாரங்களுக்கு மரியாதை ஆகியவற்றுக்கு நாம் முன்னுரிமை அளிக்க வேண்டும். ஆன்லைனில் தாங்கள் சந்திக்கும் தகவல்களை விமர்சன ரீதியாக மதிப்பிடுவதற்கு பயனர்களுக்கு அதிகாரம் அளிக்கும் கருவிகளையும் உத்திகளையும் நாம் உருவாக்க வேண்டும். மேலும் நாம் சந்தேகம் மற்றும் விமர்சன சிந்தனையின் கலாச்சாரத்தை வளர்க்க வேண்டும், அங்கு நாம் வெறுமனே தகவல்களைப் பெறுபவர்களாக இல்லாமல், உண்மையைத் தேடுவதில் தீவிரமாக பங்கேற்பவர்களாக இருக்க வேண்டும். தகவலறிந்த உரையாடலின் எதிர்காலம், ஒருவேளை ஜனநாயகம் கூட அதைச் சார்ந்துள்ளது.


AI-ஆற்றல் கொண்ட தேடலில் தவறான தகவல்களின் நெருக்கடி ஒரு தொழில்நுட்ப பிரச்சனை மட்டுமல்ல; இது ஒரு சமூகப் பிரச்சனை. இதற்கு பொறியாளர்கள் மற்றும் டெவலப்பர்கள் மட்டுமல்லாமல், பத்திரிகையாளர்கள், கல்வியாளர்கள், கொள்கை வகுப்பாளர்கள் மற்றும் பொதுமக்கள் என அனைவரையும் உள்ளடக்கிய பன்முகப் பதில் தேவை. தவறான தகவல்களைப் பரப்புபவர்களுக்கு அல்லாமல், தகவலறிந்த குடிமக்களின் தேவைகளைப் பூர்த்தி செய்யும் ஒரு நம்பகமான, வெளிப்படையான தகவல் சுற்றுச்சூழல் அமைப்பை உருவாக்க நாம் கூட்டாக பணியாற்ற வேண்டும்.


தற்போதைய பாதை நிலையானது அல்ல. AI தேடல் துல்லியம் மற்றும் உண்மையை விட வேகம் மற்றும் வசதிக்கு தொடர்ந்து முன்னுரிமை அளித்தால், தவறான தகவல் உச்சத்தில் இருக்கும் ஒரு உலகத்தை உருவாக்கும் அபாயம் உள்ளது, அங்கு புறநிலை யதார்த்தம் என்ற கருத்து பெருகிய முறையில் மழுப்பலாகிவிடும். இதை நடக்க அனுமதிப்பது மிகவும் ஆபத்தானது.