உற்பத்தி AI தேடல் கருவிகளின் தற்போதைய தலைமுறையில் ஒரு குறிப்பிடத்தக்க குறைபாடு இருப்பதை சமீபத்திய ஆய்வு வெளிப்படுத்தியுள்ளது: அவை பெரும்பாலும் செய்தி கட்டுரைகளுக்கு துல்லியமான மேற்கோள்களை வழங்கத் தவறிவிடுகின்றன. இந்த வரம்பு, இந்த வேகமாக வளர்ந்து வரும் தொழில்நுட்பங்களின் எல்லைகளைப் பற்றிய ஒரு முக்கியமான நினைவூட்டலாக செயல்படுகிறது, குறிப்பாக சமூக ஊடக தளங்கள் பெருகிய முறையில் அவற்றை பயனர் அனுபவங்களில் ஒருங்கிணைத்து வருகின்றன.
தவறான மேற்கோள்களின் சிக்கல்
டிஜிட்டல் ஜர்னலிசத்திற்கான டோ மையம் இந்த ஆய்வை நடத்தியது, அதன் கண்டுபிடிப்புகள் கவலைக்குரியவை. பெரும்பாலான முக்கிய AI தேடுபொறிகள் செய்தி கட்டுரைகளை சரியாக மேற்கோள் காட்டுவதில் சிரமப்படுவதாக ஆராய்ச்சி சுட்டிக்காட்டுகிறது. கருவிகள் அடிக்கடி குறிப்பு இணைப்புகளை உருவாக்குகின்றன அல்லது ஒரு மூலத்தைப் பற்றி வினவப்படும்போது பதிலளிக்க முடியாமல் போகின்றன.
பல்வேறு AI சாட்போட்களின் செயல்திறனை ஒரு விளக்கப்படத்தில் ஆய்வு காட்சிப்படுத்தியது, இது தொடர்புடைய மேற்கோள்களை வழங்குவதில் நம்பகத்தன்மை இல்லாததைக் வெளிப்படுத்தியது. குறிப்பாக, xAI’யின் Grok சாட்போட், எலோன் மஸ்க் ‘மிகவும் உண்மையுள்ள’ AI என்று விளம்பரப்படுத்திய, இது சம்பந்தமாக குறைந்த துல்லியமான அல்லது நம்பகமான ஆதாரங்களில் ஒன்றாகும்.
அறிக்கை கூறியது:
“ஒட்டுமொத்தமாக, சாட்போட்கள் 60% க்கும் மேற்பட்ட வினவல்களுக்கு தவறான பதில்களை வழங்கின. வெவ்வேறு தளங்களில், தவறான தன்மையின் அளவு மாறுபட்டது, Perplexity 37% வினவல்களுக்கு தவறாக பதிலளித்தது, அதே நேரத்தில் Grok அதிக பிழை விகிதத்தைக் கொண்டிருந்தது, 94% வினவல்களுக்கு தவறாக பதிலளித்தது.”
இது வெவ்வேறு AI கருவிகளின் துல்லிய நிலைகளில் குறிப்பிடத்தக்க வேறுபாட்டை எடுத்துக்காட்டுகிறது, சில மற்றவற்றை விட கணிசமாக மோசமாக செயல்படுகின்றன.
கட்டுப்படுத்தப்பட்ட உள்ளடக்கத்தை அணுகுதல்
AI கருவிகள் AI ஸ்கிராப்பிங்கைத் தடுக்க நடவடிக்கைகளை செயல்படுத்திய மூலங்களிலிருந்து தகவல்களை அணுகும் மற்றும் வழங்கும் திறன் தொடர்பானது அறிக்கையால் வெளிப்படுத்தப்பட்ட மற்றொரு கவலைக்குரிய அம்சம்.
அறிக்கை குறிப்பிட்டது:
“சில சமயங்களில், சாட்போட்கள் தங்கள் உள்ளடக்கத்தை அணுக அனுமதித்த வெளியீட்டாளர்களின் வினவல்களுக்கு தவறாக பதிலளித்தன அல்லது பதிலளிக்க மறுத்துவிட்டன. மறுபுறம், அவர்கள் சில சமயங்களில் வெளியீட்டாளர்களைப் பற்றிய வினவல்களுக்கு சரியாக பதிலளித்தனர், யாருடைய உள்ளடக்கத்தை அவர்கள் அணுகியிருக்கக்கூடாது.”
பதிப்புரிமை பெற்ற உள்ளடக்கத்தை அணுகுவதைத் தடுக்க வடிவமைக்கப்பட்ட robots.txt கட்டளைகளை சில AI வழங்குநர்கள் மதிக்காமல் இருக்கலாம் என்று இந்த அவதானிப்பு கூறுகிறது. இது இந்த கட்டுப்பாடுகளை மீறும் AI கருவிகளின் நெறிமுறை மற்றும் சட்டரீதியான தாக்கங்கள் பற்றிய கேள்விகளை எழுப்புகிறது.
ஆராய்ச்சிக்காக AI மீதான வளர்ந்து வரும் சார்பு
முக்கிய பிரச்சனை என்னவென்றால், AI கருவிகள் தேடுபொறிகளாக, குறிப்பாக இளைய பயனர்களிடையே அதிகரித்து வரும் சார்பு உள்ளது. பலர் இப்போது ChatGPT ஐ தங்கள் முதன்மை ஆராய்ச்சி கருவியாகக் கொண்டு வளர்கிறார்கள். முக்கிய தலைப்புகளில் பயனர்களுக்கு துல்லியமான தகவல்களையும் நம்பகத்தன்மையையும் வழங்குவதில் AI கருவிகளின் நிரூபிக்கப்பட்ட நம்பகத்தன்மையைக் கருத்தில் கொண்டு இந்த போக்கு ஆபத்தானது.
AI-உருவாக்கிய பதில்கள் எப்போதும் மதிப்புமிக்கவை அல்ல அல்லது பயன்படுத்தக்கூடியவை அல்ல என்பதை ஆராய்ச்சி கண்டுபிடிப்புகள் ஒரு கடுமையான நினைவூட்டலாக செயல்படுகின்றன. உண்மையான ஆபத்து என்னவென்றால், இந்த கருவிகளை உண்மையான ஆராய்ச்சிக்கு மாற்றாகவும், அறிவுக்கு குறுக்குவழிகளாகவும் ஊக்குவிப்பதாகும். குறிப்பாக இளைய பயனர்களுக்கு, இது குறைவான தகவலறிந்த, குறைவான திறன் கொண்ட மற்றும் சாத்தியமான குறைபாடுள்ள அமைப்புகளை அதிகமாக நம்பியிருக்கும் ஒரு தலைமுறைக்கு வழிவகுக்கும்.
AI ஒரு கருவி, தீர்வு அல்ல
மார்க் கியூபன், ஒரு பிரபலமான தொழிலதிபர், SXSW இல் ஒரு அமர்வின் போது இந்த சவாலை திறம்பட சுருக்கமாகக் கூறினார். அவர் வலியுறுத்தினார்:
“AI ஒருபோதும் பதில் இல்லை. AI என்பது கருவி. உங்களிடம் என்ன திறன்கள் இருந்தாலும், அவற்றை பெருக்க AI ஐப் பயன்படுத்தலாம்.”
AI கருவிகள் நன்மைகளை வழங்க முடியும் மற்றும் செயல்திறனை மேம்படுத்துவதற்கான அவற்றின் திறனுக்காக ஆராயப்பட வேண்டும் என்றாலும், அவை தனித்தனி தீர்வுகள் அல்ல என்பதை கியூபனின் பார்வை அடிக்கோடிட்டுக் காட்டுகிறது.
AI வீடியோ உள்ளடக்கத்தை உருவாக்க முடியும், ஆனால் ஒரு கட்டாய கதையை உருவாக்கும் திறன் இல்லை, இது மிக முக்கியமான உறுப்பு. இதேபோல், AI பயன்பாட்டு உருவாக்கத்திற்கு உதவும் குறியீட்டை உருவாக்க முடியும், ஆனால் அது உண்மையான பயன்பாட்டை உருவாக்க முடியாது.
இந்த வரம்புகள் விமர்சன சிந்தனை மற்றும் மனித நிபுணத்துவத்தின் தவிர்க்க முடியாத பங்கை எடுத்துக்காட்டுகின்றன. AI வெளியீடுகள் சந்தேகத்திற்கு இடமின்றி பல்வேறு பணிகளில் உதவக்கூடும், ஆனால் அவை மனித புத்தி கூர்மை மற்றும் திறமைக்கான அடிப்படை தேவையை மாற்ற முடியாது.
விமர்சன மதிப்பீடு மற்றும் திறன் மேம்பாட்டின் தேவை
இந்த ஆராய்ச்சியின் பின்னணியில் குறிப்பாக கவலை என்னவென்றால், AI கருவிகள் திட்டவட்டமான பதில்களை வழங்க முடியும் என்று இளைஞர்கள் நம்ப வைக்கப்படுகிறார்கள். இருப்பினும், இந்த ஆய்வு, பல ஆராய்ச்சி முயற்சிகளுடன், AI இதில் குறிப்பாக திறமையானது அல்ல என்பதை தொடர்ந்து நிரூபிக்கிறது.
பாரம்பரிய ஆராய்ச்சி முறைகளுக்கு மாற்றாக AI ஐ ஊக்குவிப்பதற்குப் பதிலாக, இந்த அமைப்புகள் தங்கள் இருக்கும் திறன்களை எவ்வாறு அதிகரிக்க முடியும் என்பதைப் பற்றி தனிநபர்களுக்குக் கற்பிப்பதில் கவனம் செலுத்த வேண்டும். AI ஐ திறம்பட பயன்படுத்த, பயனர்கள் முதலில் வலுவான ஆராய்ச்சி மற்றும் பகுப்பாய்வு திறன்களையும், தொடர்புடைய துறைகளில் நிபுணத்துவத்தையும் கொண்டிருக்க வேண்டும்.
தாக்கங்கள் பற்றிய ஆழமான பார்வை
இந்த ஆராய்ச்சியின் தாக்கங்கள் தவறான மேற்கோள்களின் உடனடி கவலைக்கு அப்பால் நீட்டிக்கப்படுகின்றன. இது உலகத்தைப் பற்றிய நமது புரிதலை வடிவமைப்பதில் AI இன் பங்கு மற்றும் தவறான தகவல்கள் வேகமாக பரவுவதற்கான சாத்தியக்கூறுகள் பற்றிய பரந்த கேள்விகளை எழுப்புகிறது.
1. தகவல் ஆதாரங்கள் மீதான நம்பிக்கையின் அரிப்பு:
AI கருவிகள் தொடர்ந்து தவறான அல்லது புனையப்பட்ட மேற்கோள்களை வழங்கும்போது, அது ஒட்டுமொத்த தகவல் சுற்றுச்சூழல் அமைப்பின் மீதான நம்பிக்கையை அரித்துவிடும். பயனர்கள் எல்லா ஆதாரங்களையும் பற்றி பெருகிய முறையில் சந்தேகம் கொள்ளலாம், இது நம்பகமான மற்றும் நம்பமுடியாத தகவல்களுக்கு இடையில் வேறுபடுத்துவதை கடினமாக்குகிறது.
2. கல்வி மற்றும் கற்றலில் தாக்கம்:
ஆராய்ச்சிக்காக AI கருவிகளை நம்பியிருப்பது, குறிப்பாக இளைய பயனர்களிடையே, கல்வி மற்றும் கற்றலில் தீங்கு விளைவிக்கும். மாணவர்கள் பாடங்களைப் பற்றிய மேலோட்டமான புரிதலை வளர்த்துக் கொள்ளலாம், தகவல்களை திறம்பட மதிப்பிடுவதற்கு தேவையான விமர்சன சிந்தனை திறன்கள் இல்லாமல் இருக்கலாம்.
3. AI டெவலப்பர்களின் நெறிமுறை பொறுப்புகள்:
இந்த ஆய்வின் கண்டுபிடிப்புகள் AI டெவலப்பர்களின் நெறிமுறை பொறுப்புகளை எடுத்துக்காட்டுகின்றன. அவர்கள் தங்கள் அமைப்புகளில் துல்லியம் மற்றும் வெளிப்படைத்தன்மைக்கு முன்னுரிமை அளிக்க வேண்டும் மற்றும் AI கருவிகள் தவறான தகவல்களைப் பரப்புவதற்கு அல்லது தகவல் ஆதாரங்களின் ஒருமைப்பாட்டைக் குறைமதிப்பிற்கு உட்படுத்துவதற்குப் பயன்படுத்தப்படாமல் இருப்பதை உறுதி செய்ய வேண்டும்.
4. ஊடக கல்வியறிவு மற்றும் விமர்சன சிந்தனையின் தேவை:
AI-உருவாக்கிய உள்ளடக்கம் ஆதிக்கம் செலுத்தும் யுகத்தில், ஊடக கல்வியறிவு மற்றும் விமர்சன சிந்தனை திறன்கள் முன்னெப்போதையும் விட முக்கியம். தனிநபர்கள் தகவல்களை விமர்சன ரீதியாக மதிப்பிடுவதற்கும், சார்புகளை அடையாளம் காண்பதற்கும், நம்பகமான மற்றும் நம்பமுடியாத ஆதாரங்களை வேறுபடுத்துவதற்கும் தயாராக இருக்க வேண்டும்.
5. ஆராய்ச்சி மற்றும் தகவல் மீட்டெடுப்பில் AI இன் எதிர்காலம்:
ஆராய்ச்சி மற்றும் தகவல் மீட்டெடுப்புக்கான AI கருவிகளின் தொடர்ச்சியான வளர்ச்சி மற்றும் சுத்திகரிப்புக்கான தேவையை ஆராய்ச்சி அடிக்கோடிட்டுக் காட்டுகிறது. AI இந்த துறைகளில் புரட்சியை ஏற்படுத்தும் ஆற்றலைக் கொண்டிருந்தாலும், தற்போதைய வரம்புகளை நிவர்த்தி செய்வதும், இந்த கருவிகள் பொறுப்புடனும் நெறிமுறையுடனும் பயன்படுத்தப்படுவதை உறுதி செய்வதும் முக்கியம்.
குறிப்பிட்ட கவலைகளை விரிவுபடுத்துதல்
ஆராய்ச்சியால் எழுப்பப்பட்ட சில குறிப்பிட்ட கவலைகளை மேலும் ஆராய்வோம்:
A. ‘மாயத்தோற்றம்’ பிரச்சனை:
AI சாட்போட்கள் ‘மாயத்தோற்றம்’ அல்லது முற்றிலும் புனையப்பட்ட தகவல்களை உருவாக்கும் போக்கிற்கு பெயர் பெற்றவை. இது குறிப்பாக மேற்கோள்களின் பின்னணியில் சிக்கலானது, அங்கு துல்லியம் மிக முக்கியமானது. AI கருவிகள் பெரும்பாலும் குறிப்பு இணைப்புகளை உருவாக்குகின்றன என்ற ஆய்வின் கண்டுபிடிப்பு இந்த சிக்கலின் தீவிரத்தை எடுத்துக்காட்டுகிறது.
B. சார்பு பிரச்சனை:
AI மாதிரிகள் பரந்த தரவுத்தொகுப்புகளில் பயிற்சி அளிக்கப்படுகின்றன, அவை சமூக பாரபட்சங்கள் அல்லது ஒருதலைப்பட்சமான கண்ணோட்டங்களை பிரதிபலிக்கும் சார்புகளைக் கொண்டிருக்கலாம். இந்த சார்புகள் AI இன் பதில்களில் வெளிப்படலாம், இது தவறான அல்லது தவறாக வழிநடத்தும் தகவல்களுக்கு வழிவகுக்கும். AI கருவிகள் உணர்திறன் அல்லது சர்ச்சைக்குரிய தலைப்புகளை ஆராய பயன்படுத்தப்படும்போது இது குறிப்பாக கவலைக்குரியது.
C. வெளிப்படைத்தன்மை பிரச்சனை:
பல AI மாதிரிகளின் உள் செயல்பாடுகள் பெரும்பாலும் ஒளிபுகாவாக இருக்கின்றன, அவை எவ்வாறு முடிவுகளை எடுக்கின்றன என்பதைப் புரிந்துகொள்வது கடினம். இந்த வெளிப்படைத்தன்மை இல்லாதது அமைப்பில் உள்ள பிழைகள் அல்லது சார்புகளை அடையாளம் கண்டு சரிசெய்வதை சவாலாக்குகிறது.
D. பதிப்புரிமை பிரச்சனை:
சில AI கருவிகள் அவற்றைத் தடுத்த ஆதாரங்களிலிருந்து உள்ளடக்கத்தை அணுகுகின்றன என்ற ஆய்வின் கண்டுபிடிப்பு தீவிர பதிப்புரிமை கவலைகளை எழுப்புகிறது. AI டெவலப்பர்கள் அறிவுசார் சொத்துரிமைகளை மதிக்க வேண்டும் மற்றும் அவர்களின் கருவிகள் பதிப்புரிமையை மீறுவதற்கு பயன்படுத்தப்படாமல் இருப்பதை உறுதி செய்ய வேண்டும்.
முன்னோக்கி செல்லும் பாதை: பொறுப்பான AI மேம்பாடு மற்றும் கல்வி
முன்னோக்கி செல்லும் பாதைக்கு இரட்டை அணுகுமுறை தேவைப்படுகிறது: பொறுப்பான AI மேம்பாடு மற்றும் விரிவான கல்வி.
1. பொறுப்பான AI மேம்பாடு:
AI டெவலப்பர்கள் தங்கள் அமைப்புகளின் வடிவமைப்பு மற்றும் செயல்படுத்தலில் துல்லியம், வெளிப்படைத்தன்மை மற்றும் நெறிமுறை பரிசீலனைகளுக்கு முன்னுரிமை அளிக்க வேண்டும். இதில் அடங்குபவை:
- மேற்கோள் துல்லியத்தை மேம்படுத்துதல்: AI கருவிகள் துல்லியமான மற்றும் சரிபார்க்கக்கூடிய மேற்கோள்களை வழங்குவதை உறுதி செய்வதற்கான நுட்பங்களை உருவாக்குதல்.
- சார்புகளை நிவர்த்தி செய்தல்: AI மாதிரிகளில் சார்புகளைத் தணிப்பதற்கும், அவை நியாயமான மற்றும் சமநிலையான தகவல்களை வழங்குவதற்கும் முறைகளை செயல்படுத்துதல்.
- வெளிப்படைத்தன்மையை மேம்படுத்துதல்: AI மாதிரிகளை மேலும் வெளிப்படையானதாகவும் விளக்கக்கூடியதாகவும் மாற்றுதல், பயனர்கள் தங்கள் முடிவுகளை எவ்வாறு எடுக்கிறார்கள் என்பதைப் புரிந்துகொள்ள அனுமதிக்கிறது.
- பதிப்புரிமையை மதித்தல்: AI கருவிகள் அறிவுசார் சொத்துரிமைகளை மதிப்பதையும், அனுமதியின்றி பதிப்புரிமை பெற்ற பொருட்களை அணுகவோ பயன்படுத்தவோ கூடாது என்பதையும் உறுதி செய்தல்.
2. விரிவான கல்வி:
தனிநபர்கள், குறிப்பாக இளைஞர்கள், AI கருவிகளின் திறன்கள் மற்றும் வரம்புகள் குறித்து கல்வி கற்க வேண்டும். இதில் அடங்குபவை:
- ஊடக கல்வியறிவை ஊக்குவித்தல்: விமர்சன சிந்தனை திறன்களையும் பல்வேறு மூலங்களிலிருந்து தகவல்களை மதிப்பிடும் திறனையும் கற்பித்தல்.
- ஆராய்ச்சி திறன்களை வலியுறுத்துதல்: பாரம்பரிய ஆராய்ச்சி முறைகளின் முக்கியத்துவத்தையும் தகவல்களை சுயாதீனமாக சரிபார்க்கும் திறனையும் வலுப்படுத்துதல்.
- AI இன் வரம்புகளைப் புரிந்துகொள்வது: AI தவறான அல்லது ஒருதலைப்பட்சமான தகவல்களை உருவாக்கும் சாத்தியக்கூறுகள் குறித்து பயனர்களுக்குக் கற்பித்தல்.
- பொறுப்பான பயன்பாட்டை ஊக்குவித்தல்: AI கருவிகளின் பொறுப்பான மற்றும் நெறிமுறை பயன்பாட்டை ஊக்குவித்தல்.
பொறுப்பான AI மேம்பாட்டை விரிவான கல்வியுடன் இணைப்பதன் மூலம், AI இன் அபாயங்களைக் குறைக்கும் அதே வேளையில் அதன் திறனைப் பயன்படுத்தலாம். தவறான தகவல் மற்றும் குழப்பத்தின் ஆதாரமாக இல்லாமல், AI கற்றல் மற்றும் கண்டுபிடிப்புக்கான ஒரு மதிப்புமிக்க கருவியாக செயல்படும் ஒரு எதிர்காலத்தை உருவாக்குவதே குறிக்கோள். இந்த ஆய்வின் கண்டுபிடிப்புகள் முன்னால் உள்ள வேலையின் ஒரு முக்கியமான நினைவூட்டலை வழங்குகின்றன. உண்மையிலேயே தகவலறிந்த மற்றும் AI-எழுத்தறிவுள்ள சமூகத்தை நோக்கிய பயணம் தொடர்ச்சியான விழிப்புணர்வு, விமர்சன மதிப்பீடு மற்றும் பொறுப்பான கண்டுபிடிப்புக்கான அர்ப்பணிப்பு ஆகியவற்றைக் கோருகிறது.
தவறான மேற்கோள்களின் சிக்கல்
டிஜிட்டல் ஜர்னலிசத்திற்கான டோ மையம் இந்த ஆய்வை நடத்தியது, அதன் கண்டுபிடிப்புகள் கவலைக்குரியவை. பெரும்பாலான முக்கிய AI தேடுபொறிகள் செய்தி கட்டுரைகளை சரியாக மேற்கோள் காட்டுவதில் சிரமப்படுவதாக ஆராய்ச்சி சுட்டிக்காட்டுகிறது. கருவிகள் அடிக்கடி குறிப்பு இணைப்புகளை உருவாக்குகின்றன அல்லது ஒரு மூலத்தைப் பற்றி வினவப்படும்போது பதிலளிக்க முடியாமல் போகின்றன.
பல்வேறு AI சாட்போட்களின் செயல்திறனை ஒரு விளக்கப்படத்தில் ஆய்வு காட்சிப்படுத்தியது, இது தொடர்புடைய மேற்கோள்களை வழங்குவதில் நம்பகத்தன்மை இல்லாததைக் வெளிப்படுத்தியது. குறிப்பாக, xAI’யின் Grok சாட்போட், எலோன் மஸ்க் ‘மிகவும் உண்மையுள்ள’ AI என்று விளம்பரப்படுத்திய, இது சம்பந்தமாக குறைந்த துல்லியமான அல்லது நம்பகமான ஆதாரங்களில் ஒன்றாகும்.
அறிக்கை கூறியது:
“ஒட்டுமொத்தமாக, சாட்போட்கள் 60% க்கும் மேற்பட்ட வினவல்களுக்கு தவறான பதில்களை வழங்கின. வெவ்வேறு தளங்களில், தவறான தன்மையின் அளவு மாறுபட்டது, Perplexity 37% வினவல்களுக்கு தவறாக பதிலளித்தது, அதே நேரத்தில் Grok அதிக பிழை விகிதத்தைக் கொண்டிருந்தது, 94% வினவல்களுக்கு தவறாக பதிலளித்தது.”
இது வெவ்வேறு AI கருவிகளின் துல்லிய நிலைகளில் குறிப்பிடத்தக்க வேறுபாட்டை எடுத்துக்காட்டுகிறது, சில மற்றவற்றை விட கணிசமாக மோசமாக செயல்படுகின்றன.
கட்டுப்படுத்தப்பட்ட உள்ளடக்கத்தை அணுகுதல்
AI கருவிகள் AI ஸ்கிராப்பிங்கைத் தடுக்க நடவடிக்கைகளை செயல்படுத்திய மூலங்களிலிருந்து தகவல்களை அணுகும் மற்றும் வழங்கும் திறன் தொடர்பானது அறிக்கையால் வெளிப்படுத்தப்பட்ட மற்றொரு கவலைக்குரிய அம்சம்.
அறிக்கை குறிப்பிட்டது:
“சில சமயங்களில், சாட்போட்கள் தங்கள் உள்ளடக்கத்தை அணுக அனுமதித்த வெளியீட்டாளர்களின் வினவல்களுக்கு தவறாக பதிலளித்தன அல்லது பதிலளிக்க மறுத்துவிட்டன. மறுபுறம், அவர்கள் சில சமயங்களில் வெளியீட்டாளர்களைப் பற்றிய வினவல்களுக்கு சரியாக பதிலளித்தனர், யாருடைய உள்ளடக்கத்தை அவர்கள் அணுகியிருக்கக்கூடாது.”
பதிப்புரிமை பெற்ற உள்ளடக்கத்தை அணுகுவதைத் தடுக்க வடிவமைக்கப்பட்ட robots.txt கட்டளைகளை சில AI வழங்குநர்கள் மதிக்காமல் இருக்கலாம் என்று இந்த அவதானிப்பு கூறுகிறது. இது இந்த கட்டுப்பாடுகளை மீறும் AI கருவிகளின் நெறிமுறை மற்றும் சட்டரீதியான தாக்கங்கள் பற்றிய கேள்விகளை எழுப்புகிறது.
ஆராய்ச்சிக்காக AI மீதான வளர்ந்து வரும் சார்பு
முக்கிய பிரச்சனை என்னவென்றால், AI கருவிகள் தேடுபொறிகளாக, குறிப்பாக இளைய பயனர்களிடையே அதிகரித்து வரும் சார்பு உள்ளது. பலர் இப்போது ChatGPT ஐ தங்கள் முதன்மை ஆராய்ச்சி கருவியாகக் கொண்டு வளர்கிறார்கள். முக்கிய தலைப்புகளில் பயனர்களுக்கு துல்லியமான தகவல்களையும் நம்பகத்தன்மையையும் வழங்குவதில் AI கருவிகளின் நிரூபிக்கப்பட்ட நம்பகத்தன்மையைக் கருத்தில் கொண்டு இந்த போக்கு ஆபத்தானது.
AI-உருவாக்கிய பதில்கள் எப்போதும் மதிப்புமிக்கவை அல்ல அல்லது பயன்படுத்தக்கூடியவை அல்ல என்பதை ஆராய்ச்சி கண்டுபிடிப்புகள் ஒரு கடுமையான நினைவூட்டலாக செயல்படுகின்றன. உண்மையான ஆபத்து என்னவென்றால், இந்த கருவிகளை உண்மையான ஆராய்ச்சிக்கு மாற்றாகவும், அறிவுக்கு குறுக்குவழிகளாகவும் ஊக்குவிப்பதாகும். குறிப்பாக இளைய பயனர்களுக்கு, இது குறைவான தகவலறிந்த, குறைவான திறன் கொண்ட மற்றும் சாத்தியமான குறைபாடுள்ள அமைப்புகளை அதிகமாக நம்பியிருக்கும் ஒரு தலைமுறைக்கு வழிவகுக்கும்.
AI ஒரு கருவி, தீர்வு அல்ல
மார்க் கியூபன், ஒரு பிரபலமான தொழிலதிபர், SXSW இல் ஒரு அமர்வின் போது இந்த சவாலை திறம்பட சுருக்கமாகக் கூறினார். அவர் வலியுறுத்தினார்:
“AI ஒருபோதும் பதில் இல்லை. AI என்பது கருவி. உங்களிடம் என்ன திறன்கள் இருந்தாலும், அவற்றை பெருக்க AI ஐப் பயன்படுத்தலாம்.”
AI கருவிகள் நன்மைகளை வழங்க முடியும் மற்றும் செயல்திறனை மேம்படுத்துவதற்கான அவற்றின் திறனுக்காக ஆராயப்பட வேண்டும் என்றாலும், அவை தனித்தனி தீர்வுகள் அல்ல என்பதை கியூபனின் பார்வை அடிக்கோடிட்டுக் காட்டுகிறது.
AI வீடியோ உள்ளடக்கத்தை உருவாக்க முடியும், ஆனால் ஒரு கட்டாய கதையை உருவாக்கும் திறன் இல்லை, இது மிக முக்கியமான உறுப்பு. இதேபோல், AI பயன்பாட்டு உருவாக்கத்திற்கு உதவும் குறியீட்டை உருவாக்க முடியும், ஆனால் அது உண்மையான பயன்பாட்டை உருவாக்க முடியாது.
இந்த வரம்புகள் விமர்சன சிந்தனை மற்றும் மனித நிபுணத்துவத்தின் தவிர்க்க முடியாத பங்கை எடுத்துக்காட்டுகின்றன. AI வெளியீடுகள் சந்தேகத்திற்கு இடமின்றி பல்வேறு பணிகளில் உதவக்கூடும், ஆனால் அவை மனித புத்தி கூர்மை மற்றும் திறமைக்கான அடிப்படை தேவையை மாற்ற முடியாது.
விமர்சன மதிப்பீடு மற்றும் திறன் மேம்பாட்டின் தேவை
இந்த ஆராய்ச்சியின் பின்னணியில் குறிப்பாக கவலை என்னவென்றால், AI கருவிகள் திட்டவட்டமான பதில்களை வழங்க முடியும் என்று இளைஞர்கள் நம்ப வைக்கப்படுகிறார்கள். இருப்பினும், இந்த ஆய்வு, பல ஆராய்ச்சி முயற்சிகளுடன், AI இதில் குறிப்பாக திறமையானது அல்ல என்பதை தொடர்ந்து நிரூபிக்கிறது.
பாரம்பரிய ஆராய்ச்சி முறைகளுக்கு மாற்றாக AI ஐ ஊக்குவிப்பதற்குப் பதிலாக, இந்த அமைப்புகள் தங்கள் இருக்கும் திறன்களை எவ்வாறு அதிகரிக்க முடியும் என்பதைப் பற்றி தனிநபர்களுக்குக் கற்பிப்பதில் கவனம் செலுத்த வேண்டும். AI ஐ திறம்பட பயன்படுத்த, பயனர்கள் முதலில் வலுவான ஆராய்ச்சி மற்றும் பகுப்பாய்வு திறன்களையும், தொடர்புடைய துறைகளில் நிபுணத்துவத்தையும் கொண்டிருக்க வேண்டும்.
தாக்கங்கள் பற்றிய ஆழமான பார்வை
இந்த ஆராய்ச்சியின் தாக்கங்கள் தவறான மேற்கோள்களின் உடனடி கவலைக்கு அப்பால் நீட்டிக்கப்படுகின்றன. இது உலகத்தைப் பற்றிய நமது புரிதலை வடிவமைப்பதில் AI இன் பங்கு மற்றும் தவறான தகவல்கள் வேகமாக பரவுவதற்கான சாத்தியக்கூறுகள் பற்றிய பரந்த கேள்விகளை எழுப்புகிறது.
1. தகவல் ஆதாரங்கள் மீதான நம்பிக்கையின் அரிப்பு:
AI கருவிகள் தொடர்ந்து தவறான அல்லது புனையப்பட்ட மேற்கோள்களை வழங்கும்போது, அது ஒட்டுமொத்த தகவல் சுற்றுச்சூழல் அமைப்பின் மீதான நம்பிக்கையை அரித்துவிடும். பயனர்கள் எல்லா ஆதாரங்களையும் பற்றி பெருகிய முறையில் சந்தேகம் கொள்ளலாம், இது நம்பகமான மற்றும் நம்பமுடியாத தகவல்களுக்கு இடையில் வேறுபடுத்துவதை கடினமாக்குகிறது.
2. கல்வி மற்றும் கற்றலில் தாக்கம்:
ஆராய்ச்சிக்காக AI கருவிகளை நம்பியிருப்பது, குறிப்பாக இளைய பயனர்களிடையே, கல்வி மற்றும் கற்றலில் தீங்கு விளைவிக்கும். மாணவர்கள் பாடங்களைப் பற்றிய மேலோட்டமான புரிதலை வளர்த்துக் கொள்ளலாம், தகவல்களை திறம்பட மதிப்பிடுவதற்கு தேவையான விமர்சன சிந்தனை திறன்கள் இல்லாமல் இருக்கலாம்.
3. AI டெவலப்பர்களின் நெறிமுறை பொறுப்புகள்:
இந்த ஆய்வின் கண்டுபிடிப்புகள் AI டெவலப்பர்களின் நெறிமுறை பொறுப்புகளை எடுத்துக்காட்டுகின்றன. அவர்கள் தங்கள் அமைப்புகளில் துல்லியம் மற்றும் வெளிப்படைத்தன்மைக்கு முன்னுரிமை அளிக்க வேண்டும் மற்றும் AI கருவிகள் தவறான தகவல்களைப் பரப்புவதற்கு அல்லது தகவல் ஆதாரங்களின் ஒருமைப்பாட்டைக் குறைமதிப்பிற்கு உட்படுத்துவதற்குப் பயன்படுத்தப்படாமல் இருப்பதை உறுதி செய்ய வேண்டும்.
4. ஊடக கல்வியறிவு மற்றும் விமர்சன சிந்தனையின் தேவை:
AI-உருவாக்கிய உள்ளடக்கம் ஆதிக்கம் செலுத்தும் யுகத்தில், ஊடக கல்வியறிவு மற்றும் விமர்சன சிந்தனை திறன்கள் முன்னெப்போதையும் விட முக்கியம். தனிநபர்கள் தகவல்களை விமர்சன ரீதியாக மதிப்பிடுவதற்கும், சார்புகளை அடையாளம் காண்பதற்கும், நம்பகமான மற்றும் நம்பமுடியாத ஆதாரங்களை வேறுபடுத்துவதற்கும் தயாராக இருக்க வேண்டும்.
5. ஆராய்ச்சி மற்றும் தகவல் மீட்டெடுப்பில் AI இன் எதிர்காலம்:
ஆராய்ச்சி மற்றும் தகவல் மீட்டெடுப்புக்கான AI கருவிகளின் தொடர்ச்சியான வளர்ச்சி மற்றும் சுத்திகரிப்புக்கான தேவையை ஆராய்ச்சி அடிக்கோடிட்டுக் காட்டுகிறது. AI இந்த துறைகளில் புரட்சியை ஏற்படுத்தும் ஆற்றலைக் கொண்டிருந்தாலும், தற்போதைய வரம்புகளை நிவர்த்தி செய்வதும், இந்த கருவிகள் பொறுப்புடனும் நெறிமுறையுடனும் பயன்படுத்தப்படுவதை உறுதி செய்வதும் முக்கியம்.
குறிப்பிட்ட கவலைகளை விரிவுபடுத்துதல்
ஆராய்ச்சியால் எழுப்பப்பட்ட சில குறிப்பிட்ட கவலைகளை மேலும் ஆராய்வோம்:
A. ‘மாயத்தோற்றம்’ பிரச்சனை:
AI சாட்போட்கள் ‘மாயத்தோற்றம்’ அல்லது முற்றிலும் புனையப்பட்ட தகவல்களை உருவாக்கும் போக்கிற்கு பெயர் பெற்றவை. இது குறிப்பாக மேற்கோள்களின் பின்னணியில் சிக்கலானது, அங்கு துல்லியம் மிக முக்கியமானது. AI கருவிகள் பெரும்பாலும் குறிப்பு இணைப்புகளை உருவாக்குகின்றன என்ற ஆய்வின் கண்டுபிடிப்பு இந்த சிக்கலின் தீவிரத்தை எடுத்துக்காட்டுகிறது.
B. சார்பு பிரச்சனை:
AI மாதிரிகள் பரந்த தரவுத்தொகுப்புகளில் பயிற்சி அளிக்கப்படுகின்றன, அவை சமூக பாரபட்சங்கள் அல்லது ஒருதலைப்பட்சமான கண்ணோட்டங்களை பிரதிபலிக்கும் சார்புகளைக் கொண்டிருக்கலாம். இந்த சார்புகள் AI இன் பதில்களில் வெளிப்படலாம், இது தவறான அல்லது தவறாக வழிநடத்தும் தகவல்களுக்கு வழிவகுக்கும். AI கருவிகள் உணர்திறன் அல்லது சர்ச்சைக்குரிய தலைப்புகளை ஆராய பயன்படுத்தப்படும்போது இது குறிப்பாக கவலைக்குரியது.
C. வெளிப்படைத்தன்மை பிரச்சனை:
பல AI மாதிரிகளின் உள் செயல்பாடுகள் பெரும்பாலும் ஒளிபுகாவாக இருக்கின்றன, அவை எவ்வாறு முடிவுகளை எடுக்கின்றன என்பதைப் புரிந்துகொள்வது கடினம். இந்த வெளிப்படைத்தன்மை இல்லாதது அமைப்பில் உள்ள பிழைகள் அல்லது சார்புகளை அடையாளம் கண்டு சரிசெய்வதை சவாலாக்குகிறது.
D. பதிப்புரிமை பிரச்சனை:
சில AI கருவிகள் அவற்றைத் தடுத்த ஆதாரங்களிலிருந்து உள்ளடக்கத்தை அணுகுகின்றன என்ற ஆய்வின் கண்டுபிடிப்பு தீவிர பதிப்புரிமை கவலைகளை எழுப்புகிறது. AI டெவலப்பர்கள் அறிவுசார் சொத்துரிமைகளை மதிக்க வேண்டும் மற்றும் அவர்களின் கருவிகள் பதிப்புரிமையை மீறுவதற்கு பயன்படுத்தப்படாமல் இருப்பதை உறுதி செய்ய வேண்டும்.
முன்னோக்கி செல்லும் பாதை: பொறுப்பான AI மேம்பாடு மற்றும் கல்வி
முன்னோக்கி செல்லும் பாதைக்கு இரட்டை அணுகுமுறை தேவைப்படுகிறது: பொறுப்பான AI மேம்பாடு மற்றும் விரிவான கல்வி.
1. பொறுப்பான AI மேம்பாடு:
AI டெவலப்பர்கள் தங்கள் அமைப்புகளின் வடிவமைப்பு மற்றும் செயல்படுத்தலில் துல்லியம், வெளிப்படைத்தன்மை மற்றும் நெறிமுறை பரிசீலனைகளுக்கு முன்னுரிமை அளிக்க வேண்டும். இதில் அடங்குபவை:
- மேற்கோள் துல்லியத்தை மேம்படுத்துதல்: AI கருவிகள் துல்லியமான மற்றும் சரிபார்க்கக்கூடிய மேற்கோள்களை வழங்குவதை உறுதி செய்வதற்கான நுட்பங்களை உருவாக்குதல்.
- சார்புகளை நிவர்த்தி செய்தல்: AI மாதிரிகளில் சார்புகளைத் தணிப்பதற்கும், அவை நியாயமான மற்றும் சமநிலையான தகவல்களை வழங்குவதற்கும் முறைகளை செயல்படுத்துதல்.
- வெளிப்படைத்தன்மையை மேம்படுத்துதல்: AI மாதிரிகளை மேலும் வெளிப்படையானதாகவும் விளக்கக்கூடியதாகவும் மாற்றுதல், பயனர்கள் தங்கள் முடிவுகளை எவ்வாறு எடுக்கிறார்கள் என்பதைப் புரிந்துகொள்ள அனுமதிக்கிறது.
- பதிப்புரிமையை மதித்தல்: AI கருவிகள் அறிவுசார் சொத்துரிமைகளை மதிப்பதையும், அனுமதியின்றி பதிப்புரிமை பெற்ற பொருட்களை அணுகவோ பயன்படுத்தவோ கூடாது என்பதையும் உறுதி செய்தல்.
2. விரிவான கல்வி:
தனிநபர்கள், குறிப்பாக இளைஞர்கள், AI கருவிகளின் திறன்கள் மற்றும் வரம்புகள் குறித்து கல்வி கற்க வேண்டும். இதில் அடங்குபவை:
- ஊடக கல்வியறிவை ஊக்குவித்தல்: விமர்சன சிந்தனை திறன்களையும் பல்வேறு மூலங்களிலிருந்து தகவல்களை மதிப்பிடும் திறனையும் கற்பித்தல்.
- ஆராய்ச்சி திறன்களை வலியுறுத்துதல்: பாரம்பரிய ஆராய்ச்சி முறைகளின் முக்கியத்துவத்தையும் தகவல்களை சுயாதீனமாக சரிபார்க்கும் திறனையும் வலுப்படுத்துதல்.
- AI இன் வரம்புகளைப் புரிந்துகொள்வது: AI தவறான அல்லது ஒருதலைப்பட்சமான தகவல்களை உருவாக்கும் சாத்தியக்கூறுகள் குறித்து பயனர்களுக்குக் கற்பித்தல்.
- பொறுப்பான பயன்பாட்டை ஊக்குவித்தல்: AI கருவிகளின் பொறுப்பான மற்றும் நெறிமுறை பயன்பாட்டை ஊக்குவித்தல்.
பொறுப்பான AI மேம்பாட்டை விரிவான கல்வியுடன் இணைப்பதன் மூலம், AI இன் அபாயங்களைக் குறைக்கும் அதே வேளையில் அதன் திறனைப் பயன்படுத்தலாம். தவறான தகவல் மற்றும் குழப்பத்தின் ஆதாரமாக இல்லாமல், AI கற்றல் மற்றும் கண்டுபிடிப்புக்கான ஒரு மதிப்புமிக்க கருவியாக செயல்படும் ஒரு எதிர்காலத்தை உருவாக்குவதே குறிக்கோள். இந்த ஆய்வின் கண்டுபிடிப்புகள் முன்னால் உள்ள வேலையின் ஒரு முக்கியமான நினைவூட்டலை வழங்குகின்றன. உண்மையிலேயே தகவலறிந்த மற்றும் AI-எழுத்தறிவுள்ள சமூகத்தை நோக்கிய பயணம் தொடர்ச்சியான விழிப்புணர்வு, விமர்சன மதிப்பீடு மற்றும் பொறுப்பான கண்டுபிடிப்புக்கான அர்ப்பணிப்பு ஆகியவற்றைக் கோருகிறது.