சமீபத்திய ஆய்வுகள் செயற்கை நுண்ணறிவின் (AI) ஒரு கவர்ச்சிகரமான ஆனால் கவலைக்குரிய அம்சத்தை வெளிச்சத்துக்கு கொண்டு வந்துள்ளன: மனித முடிவெடுப்பதில் காணப்படுவது போன்ற பகுத்தறிவற்ற போக்குகளுக்கு அதன் எளிதில் பாதிக்கப்படக்கூடிய தன்மை. இந்த வெளிப்பாடு, AI ஒரு புறநிலை மற்றும் பாரபட்சமற்ற கருவி என்ற வழக்கமான கருத்துக்கு சவால் விடுகிறது, பல்வேறு பயன்பாடுகளில் அதன் நடைமுறை பயன்பாட்டை மறு மதிப்பீடு செய்ய தூண்டுகிறது.
ஒரு அற்புதமான ஆய்வு, ஒரு முக்கிய AI அமைப்பான ChatGPT இன் நடத்தையை மனித உளவியலில் பரவலாக இருக்கும் அறிவாற்றல் சார்புகளின் ஸ்பெக்ட்ரம் முழுவதும் உன்னிப்பாக ஆய்வு செய்தது. உற்பத்தி & சேவை செயல்பாட்டு மேலாண்மை என்ற புகழ்பெற்ற இதழில் வெளியிடப்பட்ட கண்டுபிடிப்புகள், ChatGPT மதிப்பிடப்பட்ட காட்சிகளில் கிட்டத்தட்ட பாதியளவில் பல பகுத்தறிவற்ற முடிவெடுக்கும் முறைகளை வெளிப்படுத்தியது. இந்த முறைகளில் சூடான கை தவறு, அடிப்படை விகித புறக்கணிப்பு மற்றும் மூழ்கிய விலை தவறு போன்ற நன்கு ஆவணப்படுத்தப்பட்ட சார்புகள் அடங்கும், இது முக்கியமான முடிவெடுக்கும் சூழல்களில் AI இன் நம்பகத்தன்மை மற்றும் பொருத்தம் குறித்து குறிப்பிடத்தக்க கவலைகளை எழுப்புகிறது.
AI இல் மனிதனைப் போன்ற குறைபாடுகளை வெளிப்படுத்துதல்
கனடா மற்றும் ஆஸ்திரேலியாவை உள்ளடக்கிய ஐந்து புகழ்பெற்ற கல்வி நிறுவனங்களைச் சேர்ந்த நிபுணர்களின் கூட்டமைப்பு நடத்திய இந்த ஆராய்ச்சி, ChatGPT க்கு சக்தியளிக்கும் அடிப்படை பெரிய மொழி மாதிரிகளான (LLM) OpenAI இன் GPT-3.5 மற்றும் GPT-4 இன் செயல்திறனை கடுமையாக மதிப்பீடு செய்தது. இந்த ஆய்வின் விரிவான பகுப்பாய்வு, இந்த LLM கள் அவற்றின் நியாயப்படுத்தும் செயல்முறைகளில் “அற்புதமான நிலைத்தன்மையை” வெளிப்படுத்திய போதிலும், அவை மனிதனைப் போன்ற குறைபாடுகள் மற்றும் சார்புகளுக்கு நோய் எதிர்ப்பு சக்தி கொண்டவை அல்ல என்பதை வெளிப்படுத்தியது.
AI அமைப்புகளுக்குள் இருக்கும் இந்த உள்ளார்ந்த நிலைத்தன்மை நன்மைகள் மற்றும் தீமைகள் இரண்டையும் கொண்டுள்ளது என்று ஆசிரியர்கள் சாதுர்யமாக எடுத்துரைத்தனர். நிலைத்தன்மை தெளிவான, சூத்திர அடிப்படையிலான தீர்வுகளுடன் பணிகளை நெறிப்படுத்த முடியும் என்றாலும், இது அகநிலை அல்லது விருப்பம் சார்ந்த முடிவுகளுக்குப் பயன்படுத்தும்போது சாத்தியமான அபாயங்களை ஏற்படுத்துகிறது. இத்தகைய சூழ்நிலைகளில், AI மூலம் மனித சார்புகளின் பிரதிபலிப்பு தவறான விளைவுகள் மற்றும் சாய்ந்த முடிவுகளுக்கு வழிவகுக்கும்.
இந்த ஆய்வின் முன்னணி ஆசிரியரும், புகழ்பெற்ற ஐவி பிசினஸ் பள்ளியில் செயல்பாட்டு மேலாண்மை உதவி பேராசிரியருமான யாங் சென், AI கருவிகளின் பொருத்தமான பயன்பாடுகளை வேறுபடுத்துவதன் முக்கியத்துவத்தை அடிக்கோடிட்டுக் காட்டினார். AI துல்லியமான கணக்கீடுகள் மற்றும் தர்க்கரீதியான பகுத்தறிவு தேவைப்படும் பணிகளில் சிறந்து விளங்குகிறது என்று அவர் எச்சரித்தார், ஆனால் அகநிலை முடிவெடுக்கும் செயல்முறைகளில் அதன் பயன்பாடு கவனமாக கருத்தில் கொள்ளுதல் மற்றும் விழிப்புணர்வு கண்காணிப்பு தேவைப்படுகிறது.
AI இல் மனித சார்புகளை உருவகப்படுத்துதல்
AI அமைப்புகளுக்குள் மனித சார்புகள் இருப்பதை ஆராய்வதற்காக, ஆராய்ச்சியாளர்கள் இடர் வெறுப்பு, அதிக நம்பிக்கை மற்றும் எண்டோவ்மென்ட் விளைவு உள்ளிட்ட பொதுவாக அறியப்பட்ட மனித சார்புகளை பிரதிபலிக்கும் தொடர்ச்சியான சோதனைகளை வடிவமைத்தனர். அவர்கள் இந்த சார்புகளைத் தூண்டுவதற்காக வடிவமைக்கப்பட்ட தூண்டுதல்களுடன் ChatGPT ஐ வழங்கினர் மற்றும் மனிதர்களைப் போலவே AI யும் அதே அறிவாற்றல் பொறிகளில் விழுமா என்பதைத் தீர்மானிக்க AI இன் பதில்களை உன்னிப்பாக ஆய்வு செய்தனர்.
அறிவியலாளர்கள் பாரம்பரிய உளவியல் சோதனைகளிலிருந்து மாற்றியமைக்கப்பட்ட அனுமான கேள்விகளை LLM களுக்கு முன்வைத்தனர். இந்த கேள்விகள் சரக்கு மேலாண்மை மற்றும் சப்ளையர் பேச்சுவார்த்தைகள் போன்ற பகுதிகளில் நிஜ உலக வணிக பயன்பாடுகளின் பின்னணியில் வடிவமைக்கப்பட்டன. AI மனித சார்புகளை பின்பற்றுமா மற்றும் இந்த சார்புகளுக்கு அதன் பாதிப்பு வெவ்வேறு வணிக களங்களில் நீடிக்குமா என்பதை கண்டறிவதே குறிக்கோளாக இருந்தது.
வெளிப்படையான கணித தீர்வுகளைக் கொண்ட சிக்கல்களைத் தீர்ப்பதில் GPT-4 அதன் முன்னோடி GPT-3.5 ஐ விட சிறப்பாக செயல்பட்டது என்று முடிவுகள் வெளிப்படுத்தின. நிகழ்தகவு கணக்கீடுகள் மற்றும் தர்க்கரீதியான பகுத்தறிவு தேவைப்படும் காட்சிகளில் GPT-4 குறைவான பிழைகளை வெளிப்படுத்தியது. இருப்பினும், ஒரு ஆதாயத்தைப் பெறுவதற்கு ஆபத்தான விருப்பத்தைத் தொடர வேண்டுமா என்று தீர்மானிப்பது போன்ற அகநிலை உருவகப்படுத்துதல்களில், சாட்போட் அடிக்கடி மனிதர்களால் காட்டப்படும் பகுத்தறிவற்ற விருப்பங்களை பிரதிபலித்தது.
உறுதிக்கான AI இன் விருப்பம்
குறிப்பாக, “GPT-4 மனிதர்களை விட உறுதியை அதிகமாக விரும்புகிறது” என்பதை ஆய்வு வெளிப்படுத்தியது. தெளிவற்ற பணிகளை எதிர்கொள்ளும் போது பாதுகாப்பான மற்றும் கணிக்கக்கூடிய விளைவுகளை AI விரும்புவதற்கான போக்கை இந்த கவனிப்பு அடிக்கோடிட்டுக் காட்டுகிறது. உறுதிக்கான சாய்வு சில சூழ்நிலைகளில் சாதகமாக இருக்கலாம், ஆனால் இது புதுமையான தீர்வுகளை ஆராய்வதற்கும் அல்லது எதிர்பாராத சூழ்நிலைகளுக்கு ஏற்ப AI இன் திறனையும் கட்டுப்படுத்தலாம்.
கேள்விகள் சுருக்கமான உளவியல் சிக்கல்களாகவோ அல்லது செயல்பாட்டு வணிக செயல்முறைகளாகவோ வழங்கப்பட்டாலும், சாட்போட்களின் நடத்தைகள் குறிப்பிடத்தக்க வகையில் நிலையானதாக இருந்தன. இந்த நிலைத்தன்மை அவதானிக்கப்பட்ட சார்புகள் மனப்பாடம் செய்யப்பட்ட எடுத்துக்காட்டுகளின் விளைவாக மட்டுமல்ல, AI அமைப்புகள் எப்படி நியாயப்படுத்துகின்றன மற்றும் தகவல்களை செயலாக்குகின்றன என்பதன் உள்ளார்ந்த அம்சம் என்பதைக் குறிக்கிறது. AI வெளிப்படுத்தும் சார்புகள் அதன் நியாயப்படுத்தும் வழிமுறைகளுக்குள் உட்பொதிக்கப்பட்டுள்ளன என்று ஆய்வு முடிவு செய்தது.
இந்த ஆய்வின் மிகவும் அதிர்ச்சியூட்டும் வெளிப்பாடுகளில் ஒன்று, GPT-4 எப்போதாவது மனிதனைப் போன்ற பிழைகளை அதிகமாக்கிய விதம். உறுதிப்படுத்தல் சார்பு பணிகளில், GPT-4 தொடர்ந்து சார்பு பதில்களை வழங்கியது. மேலும், இது GPT 3.5 ஐ விட சூடான கை தவறுக்கான ஒரு உச்சரிக்கப்படும் சாய்வைக் காட்டியது, இது சீரற்ற தன்மையில் வடிவங்களைப் பற்றிய வலுவான போக்கைக் குறிக்கிறது.
சார்பு தவிர்ப்பு நிகழ்வுகள்
சமீபத்தில், ChatGPT அடிப்படை விகித புறக்கணிப்பு மற்றும் மூழ்கிய செலவு தவறு உள்ளிட்ட சில பொதுவான மனித சார்புகளைத் தவிர்க்கும் திறனைக் காட்டியது. அடிப்படை விகித புறக்கணிப்பு என்பது தனிநபர்கள் நிகழ்வு சார்ந்த அல்லது கேஸ் சார்ந்த தகவல்களுக்கு ஆதரவாக புள்ளியியல் உண்மைகளை புறக்கணிக்கும்போது ஏற்படுகிறது. மூழ்கிய செலவு தவறு என்பது ஏற்கனவே ஏற்பட்ட செலவுகளால் முடிவெடுப்பது தவறாக பாதிக்கப்படும்போது எழுகிறது, இதனால் பகுத்தறிவு தீர்ப்பு மறைக்கப்படுகிறது.
ChatGPT இன் மனிதனைப் போன்ற சார்புகள் அது வெளிப்படும் பயிற்சி தரவுகளிலிருந்து எழுகின்றன என்று ஆசிரியர்கள் கருதுகின்றனர், இது மனிதர்கள் வெளிப்படுத்தும் அறிவாற்றல் சார்புகள் மற்றும் ஹீயூரிஸ்டிக்ஸ் ஆகியவற்றை உள்ளடக்கியது. இந்த போக்குகள் நன்றாக ட்யூன் செய்யும் செயல்பாட்டின் போது மேலும் வலுப்படுத்தப்படுகின்றன, குறிப்பாக மனித பின்னூட்டம் பகுத்தறிவுள்ளவர்களை விட நம்பகமான பதில்களுக்கு முன்னுரிமை அளிக்கும்போது. தெளிவற்ற பணிகளை எதிர்கொள்ளும் போது, AI நேரடி தர்க்கத்தை மட்டுமே நம்புவதை விட மனித நியாயப்படுத்தும் முறைகளை நோக்கி ஈர்க்கப்படுகிறது.
AI இன் சார்புகளை வழிநடத்துதல்
AI இன் சார்புகளுடன் தொடர்புடைய அபாயங்களைக் குறைக்க, ஆராய்ச்சியாளர்கள் அதன் பயன்பாட்டிற்கு ஒரு நியாயமான அணுகுமுறையை பரிந்துரைக்கின்றனர். ஒரு கால்குலேட்டரைப் போன்ற துல்லியம் மற்றும் பாரபட்சமற்ற கணக்கீடுகள் தேவைப்படும் பணிகள் போன்ற அதன் பலம் இருக்கும் பகுதிகளில் AI பயன்படுத்தப்பட வேண்டும் என்று அவர்கள் பரிந்துரைக்கின்றனர். இருப்பினும், விளைவு அகநிலை அல்லது மூலோபாய உள்ளீடுகளைப் பொறுத்தது என்றால், மனித மேற்பார்வை மிக முக்கியமானது.
"துல்லியமான, பாரபட்சமற்ற முடிவை ஆதரிக்க நீங்கள் விரும்பினால், ஒரு கால்குலேட்டரை நீங்கள் ஏற்கனவே நம்பும் பகுதிகளில் GPT ஐப் பயன்படுத்தவும்" என்று சென் வலியுறுத்துகிறார். நுணுக்கமான தீர்ப்பு மற்றும் மூலோபாய சிந்தனை தேவைப்படும் சூழல்களில் AI பயன்படுத்தப்படும்போது, பயனரின் தூண்டுதல்களை சரிசெய்வது போன்ற மனித தலையீடு அவசியம் என்று அவர் மேலும் கூறுகிறார்.
கனடாவின் மெக்மாஸ்டர் பல்கலைக்கழகத்தில் மனிதவள மற்றும் மேலாண்மை இணை பேராசிரியரும், இந்த ஆய்வின் இணை ஆசிரியருமான மீனா ஆண்டியப்பன், முக்கியமான முடிவுகளை எடுக்கும் ஊழியராக AI ஐ நடத்துவதை ஆதரிக்கிறார். AI பொறுப்புடனும் திறம்படவும் பயன்படுத்தப்படுவதை உறுதி செய்வதற்காக மேற்பார்வை மற்றும் நெறிமுறை வழிகாட்டுதல்கள் தேவை என்பதை அவர் வலியுறுத்துகிறார். அத்தகைய வழிகாட்டுதலை வழங்கத் தவறினால், முடிவெடுக்கும் செயல்முறைகளில் விரும்பிய முன்னேற்றத்திற்குப் பதிலாக, தவறான சிந்தனையை தானியக்கமாக்குவதற்கு வழிவகுக்கும்.
தாக்கங்கள் மற்றும் கருத்தில் கொள்ள வேண்டியவை
இந்த ஆய்வின் கண்டுபிடிப்புகள் பல்வேறு துறைகளில் AI அமைப்புகளின் வளர்ச்சிக்கும் பயன்படுத்தப்படுவதற்கும் ஆழமான தாக்கங்களை ஏற்படுத்துகின்றன. AI மனிதனைப் போன்ற சார்புகளுக்கு ஆளாகக்கூடியது என்பது ஒரு குறிப்பிட்ட பணிக்கான அதன் பொருத்தத்தை கவனமாக மதிப்பீடு செய்வதற்கும், சாத்தியமான அபாயங்களைக் குறைப்பதற்கான பாதுகாப்புகளை செயல்படுத்துவதற்கும் முக்கியத்துவத்தை அடிக்கோடிட்டுக் காட்டுகிறது.
முடிவெடுப்பதற்கு AI ஐ நம்பும் நிறுவனங்கள் சார்புக்கான சாத்தியம் குறித்து அறிந்திருக்க வேண்டும் மற்றும் அதை நிவர்த்தி செய்ய நடவடிக்கை எடுக்க வேண்டும். இது சார்புகளைக் குறைக்க கூடுதல் பயிற்சி தரவை வழங்குவது, சார்புக்கு குறைவாக ஆளாகும் வழிமுறைகளைப் பயன்படுத்துவது அல்லது AI முடிவுகள் நியாயமானதாகவும் துல்லியமாகவும் இருப்பதை உறுதி செய்வதற்காக மனித மேற்பார்வையை செயல்படுத்துவது ஆகியவை அடங்கும்.
AI சார்புகளின் காரணங்கள் மற்றும் விளைவுகளைப் பற்றி மேலும் ஆராய்ச்சி செய்ய வேண்டியதன் அவசியத்தையும் இந்த ஆய்வு எடுத்துக்காட்டுகிறது. AI அமைப்புகள் எவ்வாறு சார்புகளை உருவாக்குகின்றன என்பதைப் பற்றி நன்கு புரிந்துகொள்வதன் மூலம், அவை முதலில் ஏற்படாமல் தடுக்க உத்திகளை உருவாக்க முடியும்.
பொறுப்பான AI செயல்படுத்தலுக்கான பரிந்துரைகள்
AI அமைப்புகளின் பொறுப்பான மற்றும் பயனுள்ள செயல்பாட்டை உறுதி செய்ய, பின்வரும் பரிந்துரைகளை கருத்தில் கொள்ள வேண்டும்:
- பயன்படுத்துவதற்கு முன் சாத்தியமான சார்புகளுக்கான AI அமைப்புகளை முழுமையாக மதிப்பீடு செய்யுங்கள். சார்புக்கு ஆளாகும் பகுதிகளை அடையாளம் காண பல்வேறு தரவுத்தொகுப்புகள் மற்றும் காட்சிகளில் AI அமைப்பைச் சோதிப்பது இதில் அடங்கும்.
- சார்புகளைக் குறைக்க கூடுதல் பயிற்சி தரவை வழங்கவும். பயிற்சி தரவு எவ்வளவு பன்முகத்தன்மை மற்றும் பிரதிநிதித்துவமாக இருக்கிறதோ, அவ்வளவு குறைவான AI அமைப்பு சார்புகளை உருவாக்க வாய்ப்புள்ளது.
- சார்புக்கு குறைவாக ஆளாகும் வழிமுறைகளைப் பயன்படுத்தவும். சில வழிமுறைகள் மற்றவற்றை விட சார்புக்கு மிகவும் எளிதில் பாதிக்கப்படுகின்றன. ஒரு குறிப்பிட்ட பணிக்கு ஒரு வழிமுறையைத் தேர்ந்தெடுக்கும்போது, அது சார்புக்கான சாத்தியத்தைக் கருத்தில் கொள்வது முக்கியம்.
- AI முடிவுகள் நியாயமானதாகவும் துல்லியமாகவும் இருப்பதை உறுதி செய்வதற்காக மனித மேற்பார்வையை செயல்படுத்தவும். மனித மேற்பார்வை AI முடிவுகளில் ஏதேனும் சார்புகளை அடையாளம் கண்டு சரிசெய்ய உதவும்.
- AI பயன்பாட்டிற்கான தெளிவான நெறிமுறை வழிகாட்டுதல்களை நிறுவவும். இந்த வழிகாட்டுதல்கள் நியாயம், பொறுப்பு மற்றும் வெளிப்படைத்தன்மை போன்ற சிக்கல்களை நிவர்த்தி செய்ய வேண்டும்.
இந்த பரிந்துரைகளைப் பின்பற்றுவதன் மூலம், நிறுவனங்கள் AI அமைப்புகள் நன்மை பயக்கும் மற்றும் பொறுப்பான முறையில் பயன்படுத்தப்படுவதை உறுதி செய்ய முடியும். இந்த ஆராய்ச்சியில் இருந்து பெறப்பட்ட நுண்ணறிவு AI மகத்தான வாக்குறுதியைக் கொண்டிருந்தாலும், அதன் செயல்பாட்டை எச்சரிக்கையுடன் மற்றும் நெறிமுறை கொள்கைகளுக்கு அர்ப்பணிப்புடன் அணுகுவது அவசியம் என்பதை ஒரு மதிப்புமிக்க நினைவூட்டலாக செயல்படுகிறது. அப்போதுதான் அதன் சாத்தியமான ஆபத்துகளுக்கு எதிராக பாதுகாப்பாக இருக்கும்போது AI இன் முழு திறனையும் பயன்படுத்த முடியும்.
மனிதனைப் போன்ற விருப்பங்களில் AI இன் சாய்வு
சமீபத்திய ஆய்வு AI அமைப்புகளின் வளர்ந்து வரும் அம்சத்தை வெளிப்படுத்தியுள்ளது - குறிப்பாக ChatGPT - மனிதனைப் போன்ற சார்புகளுக்கு எளிதில் பாதிக்கப்படுகிறது. திறமையான பணியாகக் கருதப்படும் செயற்கை நுண்ணறிவு இப்போது மனிதன் நம்புவதைப் போலவே தர்க்கரீதியான பொறிகளிலும் நுழைகிறது என்று ஆய்வு நிரூபிக்கிறது. கனேடிய மற்றும் ஆஸ்திரேலிய பல்கலைக்கழகங்களின் கூட்டு குழுவால் செய்யப்பட்ட இந்த ஆராய்ச்சி, முக்கியமான முடிவெடுக்கும் செயல்பாடுகளுக்கான அதன் பொருத்தத்தை கேள்விக்குள்ளாக்குகிறது.
சரியான பகுத்தறிவு மற்றும் துல்லியமான முடிவெடுக்கும் திறனுக்காக பெரும்பாலும் பாராட்டப்படும் AI, இடர் தவிர்ப்பு மற்றும் அதிக நம்பிக்கை போன்ற மனித சார்புகளைக் காட்டுகிறது. ஆராய்ச்சியாளர்கள் OpenAI இன் GPT-3.5 மற்றும் GPT-4 பெரிய மொழி மாதிரிகளின் நடத்தையை உன்னிப்பாக ஆய்வு செய்தனர், அவை நன்கு ஆவணப்படுத்தப்பட்ட மனித அறிவாற்றல் சார்புகளின் ஸ்பெக்ட்ரம் முழுவதும் ChatGPT க்கு சக்தியளிக்கின்றன. செயற்கை நுண்ணறிவின் தர்க்கரீதியான முடிவுகளை எடுக்கும் திறனில் இது கவலைகளை ஏற்படுத்துகிறது.
ஆய்வின் முக்கிய கண்டுபிடிப்புகளில் ஒன்று, ChatGPT மதிப்பீடு செய்யப்பட்ட காட்சிகளில் கிட்டத்தட்ட பாதி பகுத்தறிவற்ற முடிவெடுக்கும் முறைகளை வெளிப்படுத்தியது. சூடான கை தவறு, அடிப்படை விகித புறக்கணிப்பு மற்றும் மூழ்கிய விலை தவறு போன்ற இந்த முறைகள் மனித முடிவு எடுப்பதில் காணப்படும் தவறுகளை பிரதிபலிக்கின்றன. AI அமைப்புகளின் இயல்பான நிலைத்தன்மையைப் புரிந்துகொள்வது முக்கியம். இந்த நிலைத்தன்மை ஒரு தெளிவான தீர்வு இருந்தால் நன்மை பயக்கும், ஆனால் அகநிலை முடிவுகளுடன் சிக்கல்களைக் கூட ஏற்படுத்தக்கூடும். AI மனிதனின் சார்புக்கு வழிவகுக்கும் போது, அது மோசமான விளைவுகளுக்கு வழிவகுக்கும்.
ஐவி பிசினஸ் பள்ளியில் செயல்பாட்டு மேலாண்மை உதவி பேராசிரியரான ஆய்வின் முன்னணி ஆசிரியரான யாங் சென், AI கருவிகளைப் பயன்படுத்துவதற்கான சிறந்த இடங்களைப் புரிந்துகொள்வதன் முக்கியத்துவத்தை வலியுறுத்துகிறார். AI கணக்கீடுகள் மற்றும் தர்க்கத்தில் அற்புதமாகச் செயல்படுகிறது, ஆனால் எந்தவொரு அகநிலை நடவடிக்கையும் செய்யும்போது கவனமாக இருக்க வேண்டும்.
AI இல் உள்ள மனித சார்புகளைப் படிக்கும் ஒரு புதிய வழி
ஆராய்ச்சியாளர்கள் AI அமைப்புகளுக்குள் இருக்கும் மனித சார்புகளை ஆராய புதிய வழிகளைக் கண்டறிந்துள்ளனர். நன்கு அறியப்பட்ட மனித சார்புகளைப் பிரதிபலிக்கும் தொடர்ச்சியான சோதனைகளை அவர்கள் வடிவமைத்தனர், இதன் மூலம் சார்புகளைத் தூண்டுவதற்கு ChatGPT ஐத் தூண்டியது. விஞ்ஞானிகள் சூடான கையைச் சார்பு, அதிகப்படியான நம்பிக்கை அல்லது சாய்வின் விளைவு போன்ற சார்புகளைத் தூண்டும் வகையில் தூண்டுதல்களை வழங்கினர். இதன் விளைவாக AI மனிதர்களைப் போலவே அதே அறிவாற்றல் பொறிகளில் விழுமா என்பதை சோதிக்க சாத்தியமானது.
பாரம்பரிய உளவியல் சோதனைகளிலிருந்து பெறப்பட்ட மாதிரி கேள்விகளை பெரிய மொழி மாதிரிகளுக்குள் ஊற்றுகிறார்கள். சப்ளையர் பேச்சுவார்த்தைகள் மற்றும் சரக்கு மேலாண்மை போன்ற முக்கிய வணிகத்தின் சில பகுதிகளில் அவர்கள் இந்த கேள்விகளை உருவாக்கினர். மனித சார்புகளை AI பின்பற்றுமா என்பது முக்கிய கேள்வியாகும், வணிகத்தில் உள்ள மற்றவர்களிடம் இருந்து அவற்றைப் பெறுகிறதா.
GPT-4 வெளிப்படையான கணித சிக்கல்களைத் தீர்ப்பதில் GPT-3.5 ஐ மிஞ்சியது என்று முடிவுகள் காட்டுகின்றன. சாத்தியக்கூறு அடிப்படையிலான கணக்கீடுகள் மற்றும் நியாயமான காரணத்தைப் பற்றி விவாதிக்கும் போது GPT-4 குறைவான பிழைகளை வெளிப்படுத்தியது. அவர்கள் ஒரு குறிப்பிட்ட ஆதாயத்தை அடைய வேண்டுமா என்பதைப் பற்றி முடிவு எடுக்கும்போது, மனிதனின் பகுத்தறிவற்ற பதிலைப் பிரதிபலிக்கும் மனிதனைப் போன்ற உருவகப்படுத்துதல்களில் சாட்போட் தவறு செய்தது.
ஆய்வு முக்கியமாக உறுதிக்கான வலுவான விருப்பத்தை வெளிப்படுத்தியது, GPT-4 ஐ ஒரு பாதுகாப்பு பக்கமாகச் சித்தரித்தது, மேலும் தெளிவான பணிகளைச் செய்யும் போது முன்னறிவிப்பை வலியுறுத்தியது. இது சில நிகழ்வுகளுக்கு உதவும், அது புதிய தீர்வுகளை ஆராயும் போது அல்லது நிகழ்வுகளை எதிர்கொள்ளும் போது அதை கட்டுப்படுத்தலாம்.
எடுத்துக்காட்டாக, சாட்போட்களின் நடத்தை நிலைத்தன்மையுடன் இருந்தது. மேலும் இது ஒரு மாதிரி மற்றும் நினைவகம் காரணமாக இல்லை, ஆனால் தகவல் எவ்வாறு நியாயப்படுத்தப்படுகிறது மற்றும் கட்டமைக்கப்படுகிறது என்பதற்கு காரணமாகும். முடிவு என்பது AI இல் உள்ளார்ந்த பக்கச்சார்பு ஒரு பகுத்தறிவு வழிமுறை.
ஜிபிடி -4 எப்போதாவது மனிதனால் தயாரிக்கப்பட்ட பிழையை விரிவாக்கியது என்பது ஆராய்ச்சியாளர்களை ஆச்சரியப்படுத்தியது. உறுதிப்படுத்தும் சார்பு பணிகளில், GPT-4 சார்புடைய பதில் வழங்கியது. முடிவில், ஹாட் ஹேண்ட் ஃபாலஸி GPT 3.5 ஐ விட ஜிபிடி -4 க்கு அதிகமாக இருந்தது, மேலும் இது சீரற்ற தன்மையில் வடிவங்களைப் பற்றிய வலுவான உணர்வைக் குறிக்கிறது.
பக்கச்சார்புகளை AI தவிர்ப்பதற்கான வாய்ப்பு
ChatGPT மனிதனுக்கு பொதுவாக இருக்கும் சில பக்கச்சார்புகளைத் தவிர்க்கலாம். இதில் அடிப்படை-விகித புறக்கணிப்பு மற்றும் மூழ்கிய செலவு தவறு ஆகியவை அடங்கும். அடிப்படை விகித புறக்கணிப்பு என்பது யாராவது விசித்திரமான மற்றும் குறிப்பிட்ட எண்ணங்களுக்கு ஆதரவாக உண்மையான புள்ளிவிவரங்களை புறக்கணிக்கும் போது நிகழ்கிறது. ஏற்கெனவே கையாண்ட செலவுகளால் முடிவெடுக்கும்போது அது சரியான கருத்தை மறைக்கும்போது மூழ்கிய செலவு தவறு வருகிறது.
ஆசிரியர்கள் ChatGPT மூலம் மனிதனைப் போன்ற பக்கச்சார்புகள் அதற்குக் கிடைக்கும் பயிற்சித் தரவில் இருந்து ஏற்படுகின்றன, இது மனிதர்கள் பயன்படுத்தும் அறிவாற்றல் பக்கச்சார்புகளையும் யூரிஸ்டிகளையும் கொண்டுள்ளது. இந்த போக்குகள் செயல்முறையை நன்றாக மாற்றியமைப்பதன் மூலம் வலுப்படுத்தப்படுகின்றன, எனவே மனித பின்னூட்டம் பகுத்தறிவுக்கு பதிலாக நல்ல பதிலுக்கு ஒரு சிறப்பு இடத்தை அளிக்கிறது. அந்த நேரத்தில் AI மனிதனைப் பின்பற்றுவதுதான் பகுத்தறிவு காரணமாக இருக்கும்.
AI பக்கச்சார்புகளின் அபாயங்களைக் குறைக்க, AI ஐச் சிறப்பாகப் பயன்படுத்த வேண்டும் என்று ஆராய்ச்சியாளர்கள் பரிந்துரைக்கின்றனர். உதாரணமாக கால்குலேட்டரைப் போன்ற பகுப்பாய்வுகள் மற்றும் பக்கச்சார்பற்ற கணக்கீடுகளைப் பயன்படுத்த இது சிறந்ததாக இருக்கலாம். இருப்பினும், முக்கிய விஷயம் என்னவென்றால், ஒருவர் அகநிலை உள்ளீடுகளைச் செய்யும்போது மனிதர்களுடன் நெருக்கமாக வேலை செய்ய வேண்டும்.
சரியான முடிவை நீங்கள் விரும்பினால், GPT ஐப் பயன்படுத்தவும், ஏனெனில் நீங்கள் ஒரு கால்குலேட்டரை நம்புவீர்கள் என்று சென் சொல்கிறார். நீங்கள் மிகவும் மோசமான தீர்ப்பு மற்றும் யூகத்தின் வழிகளைப் பயன்படுத்தும்போது, பக்கச்சார்புகளைத் தீர்க்கும் பயனரின் தூண்டுதல்களை மாற்றுவது போன்ற மனிதன் தலையிடுவது சிறந்தது.
கனடாவில் உள்ள மெக்மாஸ்டர் பல்கலைக்கழகத்தின் மனிதவள மற்றும் மேலாண்மை இணைப் பேராசிரியரான மீனா ஆண்டியப்பன், AI ஐ முக்கியமான விருப்பங்களை உருவாக்கும் தொழிலாளியாகப் பார்க்க வேண்டும் என்று கூறுகிறார். செயற்கை நுண்ணறிவு எவ்வாறு நன்றாக வேலை செய்கிறது என்பதை உறுதிப்படுத்த வழிகாட்டுதலும் நெறிமுறையும் அவசியமாகும். வழிகாட்டுதலின்மை மோசமான யோசனைகளை தானியக்கமாக்குவதற்கு வழிவகுக்கும் மற்றும் அதனுடன் முடிவெடுக்கும் திறன் முன்னேறும்.
முக்கியத்துவம் மற்றும் கவலைகள்
இந்த கண்டுபிடிப்புகள் நிறைய துறைகளில் AI அமைப்புகளைப் பயன்படுத்துவதை பாதிக்கிறது. AI மனிதனைப் போன்ற பக்கச்சார்புக்கு இரையாகிறது என்பதைப் புரிந்துகொள்வது, அது ஒரு சில பணிக்கு தகுதியானதா என்பதைக் கவனமாகப் பார்க்க வேண்டியதும், சாத்தியமான ஆபத்தைத் தவிர்க்கப் பாதுகாப்புகளைப் பயன்படுத்துவதும் எவ்வளவு முக்கியம் என்பதை அடிக்கோடிட்டுக் காட்டுகிறது.
முடிவெடுக்கும் போது AI ஐப் பயன்படுத்தும் நிறுவனங்கள் அந்த பக்கச்சார்புகள் மற்றும் நடவடிக்கைகளைப் பற்றி அறிந்திருக்க வேண்டும். AI முடிவுகள் போதுமானதாகவும் துல்லியமாகவும் இருப்பதை உறுதிப்படுத்த கூடுதலாக பயிற்சி தரவை வழங்குவது, பக்கச்சார்புக்குக் குறைவாக இரையாகும் வழிமுறைகளைப் பயன்படுத்துவது அல்லது மனிதன் மேற்பார்வையிடுவது ஆகியவை இதில் அடங்கும்.
AI ஐ உருவாக்கச் செய்து அதை எவ்வாறு பாதிக்கும் என்பதைக் கண்டுபிடிப்பதற்கான கூடுதல் தேவைக்கு இந்த ஆய்வு ஒளிர்கிறது. AI அமைப்புகள் எவ்வாறு பக்கச்சார்பை உருவாக்குகின்றன என்பதை சிறப்பாகப் புரிந்துகொள்வதன் மூலம் அதிலிருந்து அதை நிறுத்துவதற்கான ஒரு திட்டத்தை உருவாக்க முடியும்.
கவனமான AI செயல்பாடுகளுக்கான பரிந்துரைகள்
AI சரியாகச் செயல்படுத்தப்படுவதை உறுதிப்படுத்த நிறுவனங்கள் எதையும் கவனமாகச் செய்ய வேண்டும்:
- உங்களிடம் ஏதேனும் பக்கச்சார்பு இருக்கிறதா என்பதை அறிய AI ஐப் பயன்படுத்தும் முன் அமைப்புகளை கவனமாகப் பாருங்கள். ஏதேனும் சிக்கல்கள் இருக்கும் பகுதிகளை அறியத் தரவு மற்றும் அமைப்புகளின் உதவியுடன் AI அமைப்பு சரியாகச் சோதிக்கப்படுவதை உறுதிசெய்யவும்.
- குறைவான பக்கச்சார்பைப் பெற கூடுதல் பயிற்சித் தரவைச் சேர்க்கவும். நீங்கள் பயிற்சித் தரவை எவ்வளவு அதிகமாகப் பெறுகிறீர்களோ, அந்த பக்கச்சார்புகளைப் உருவாக்க AI அமைப்புகள் அவ்வளவு குறைவு.
- பக்கச்சார்புடன் குறைவாகச் செயல்படும் வழிமுறைகளைப் பயன்படுத்தவும். வேறு சில வழிமுறைகள் சில பக்கச்சார்புக்கு மோசமானவை. ஒரு வழிமுறையைத் தேர்ந்தெடுக்கும்போது அது முக்கியமானது.
- AI எடுக்கும் முடிவுகள் நல்லதா இல்லையா என்பதை உறுதிப்படுத்த ஒரு நபர் அதை மேற்பார்வையிடுகிறார் என்பதை உறுதிப்படுத்திக் கொள்ளுங்கள். இந்த நபர் எந்தவொரு பக்கச்சார்பையும் சரிசெய்ய உதவலாம்.
- AI ஐப் பயன்படுத்துவதற்கான ஒரு தெளிவான நெறிமுறை வழிகாட்டுதலைப் பெறுங்கள். வழிகாட்டுதல்கள் பொறுப்பு, நியாயம் மற்றும் நீங்கள் செய்யும் காரியங்களைப் பற்றி வெளிப்படையாக இருக்க வேண்டும்.
இந்த பரிந்துரைகளை அமைப்பதன் மூலம், AI பாதுகாப்பாக இருப்பதை உறுதிசெய்யலாம் மற்றும் நிறுவனத்திற்கு நன்மை பயக்கும். AI நிறைய தரும் என்று இந்த அறிக்கை காட்டுகிறது. மேலும் நெறிமுறைக்கு முக்கியத்துவம் அளிப்பது அதை முழுமையாகப் பயன்படுத்தலாம்.