AI-யின் உரையாடல் திறன்: மனிதனை மிஞ்சிவிட்டதா?

மனிதர்களைப் போல சிந்திக்கக்கூடிய அல்லது குறைந்தபட்சம் உரையாடக்கூடிய இயந்திரங்களை உருவாக்கும் தேடல், செயற்கை நுண்ணறிவுத் துறையில் நீண்டகால லட்சியமாக இருந்து வருகிறது. பல தசாப்தங்களாக, விவாதத்திற்குரியதாக இருந்தாலும், 20 ஆம் நூற்றாண்டின் நடுப்பகுதியில் புத்திசாலித்தனமான கணிதவியலாளர் Alan Turing என்பவரால் உருவாக்கப்பட்ட Turing Test பெரும்பாலும் அளவுகோலாக இருந்து வருகிறது. இதன் அடிப்படை எளிமையானது ஆனால் ஆழமானது: ஒரு இயந்திரம் ஒரு மனித விசாரணையாளருடன் உரையாடும்போது, நீதிபதி அதை மற்றொரு மனிதரிடமிருந்து நம்பகத்தன்மையுடன் வேறுபடுத்தி அறிய முடியாத அளவுக்கு நம்பத்தகுந்ததாக இருக்க முடியுமா? சமீபத்திய முன்னேற்றங்கள், மிகவும் அதிநவீன பெரிய மொழி மாதிரிகள் (LLMs) சில, இந்த புதிரான மைல்கல்லை எட்டியிருக்கலாம் அல்லது ஒருவேளை தாண்டியிருக்கலாம் என்று கூறுகின்றன, இது நுண்ணறிவு, போலச்செய்தல் மற்றும் AI-யின் எதிர்காலப் பாதை ஆகியவற்றின் தன்மை பற்றிய புதுப்பிக்கப்பட்ட விவாதத்தைத் தூண்டுகிறது.

களத்தை அமைத்தல்: உரையாடல் சவால்களின் புதிய சுற்று

University of California San Diego-விலிருந்து வெளிவந்த ஒரு ஆய்வு இந்தக் கேள்வியை மீண்டும் கூர்மையாக மையத்திற்குக் கொண்டு வந்துள்ளது. ஆராய்ச்சியாளர்கள் Cameron R. Jones மற்றும் Benjamin K. Bergen ஆகியோர் அதிநவீன AI அமைப்புகளின் உரையாடல் திறனை மதிப்பிடுவதற்கு Turing Test-ன் சமகாலப் பதிப்பை வடிவமைத்தனர். அவர்களின் பரிசோதனையில், மனித பங்கேற்பாளர்கள் OpenAI-யின் மிகவும் மதிக்கப்படும் GPT-4.5 மற்றும் Meta-வின் வலிமைமிக்க LLaMa-3.1-405B உள்ளிட்ட பல AI மாதிரிகளுக்கு எதிராக நிறுத்தப்பட்டனர். அமைப்பில், ஒரு மனித நீதிபதி ஒரே நேரத்தில் ஐந்து நிமிட உரை அடிப்படையிலான உரையாடல்களில் ஈடுபட்டார் - ஒன்று மறைக்கப்பட்ட மனித பங்கேற்பாளருடன் மற்றொன்று மறைக்கப்பட்ட AI மாதிரியுடன். இந்தச் சுருக்கமான தொடர்புகளைத் தொடர்ந்து, நீதிபதியின் பணி நேரடியானது: எந்த உரையாடல் பங்குதாரர் இயந்திரம், எது மனிதன் என்பதைக் கண்டறிவது.

முடிவுகள், குறிப்பாக ஒரு குறிப்பிட்ட ஆளுமையை (persona) ஏற்றுக்கொள்ளும்படி தூண்டப்பட்ட மாதிரிகளுக்கு, குறிப்பிடத்தக்கவையாக இருந்தன.

  • GPT-4.5-ன் செயல்திறன்: ஒரு மனிதனைப் போல நடந்துகொள்ள அறிவுறுத்தப்பட்டபோது, GPT-4.5 நீதிபதிகளை வியக்கத்தக்க வகையில் 73% நேரம் ஏமாற்றியதாகக் கூறப்படுகிறது. இந்த எண்ணிக்கை முக்கியமானது, ஏனெனில் உரையாடலில் ஈடுபட்ட உண்மையான மனித பங்கேற்பாளரை விட AI-ஐ மனிதனாக அடையாளம் காண நீதிபதிகள் அதிக வாய்ப்புள்ளது என்பதைக் குறிக்கிறது.
  • LLaMa-3.1-405B-ன் வெளிப்பாடு: Meta-வின் பெரிய மாதிரி, LLaMa-3.1-405B (இங்கு 405B அதன் திறன்களை வடிவமைக்கும் பரந்த அளவுருக்களின் எண்ணிக்கையைக் குறிக்கிறது), அதே ‘persona’ நிபந்தனையின் கீழ் நம்பகத்தன்மையுடன் செயல்பட்டது. இது 56% நேரம் மனிதனாக அடையாளம் காணப்பட்டது. GPT-4.5-ன் மதிப்பெண்ணை விட குறைவாக இருந்தாலும், இந்த முடிவு இன்னும் அதை முக்கியமான 50% வாசலுக்கு மேல் வைக்கிறது, இது சோதனையில் தேர்ச்சி பெற்றதற்கான அறிகுறியாகக் கருதப்படுகிறது, அதன் பதில்கள் புள்ளிவிவர ரீதியாக மனித பங்கேற்பாளர்களின் பதில்களிலிருந்து வேறுபடுத்துவது கடினம் என்று கூறுகிறது.
  • அடிப்படை ஒப்பீடுகள்: சூழலை வழங்கவும், நீதிபதிகள் வெறுமனே தோராயமாக யூகிக்கவில்லை என்பதை உறுதிப்படுத்தவும், ஆராய்ச்சியாளர்கள் அடிப்படை மாதிரிகளைச் சேர்த்தனர். MIT-யில் Joseph Weizenbaum என்பவரால் 1960 களில் வடிவமைக்கப்பட்ட ஒரு பிரபலமான ஆரம்பகால chatbot ஆன ELIZA, ஒரு கட்டுப்பாடாக சேர்க்கப்பட்டது. ஆச்சரியப்படத்தக்க வகையில், அதன் செயல்திறன் அதன் உருவாக்கத்திலிருந்து AI-யில் ஏற்பட்ட பரந்த முன்னேற்றங்களைப் பிரதிபலித்தது, வெறும் 23% ‘மனிதன்’ மதிப்பீட்டை மட்டுமே பெற்றது. சுவாரஸ்யமாக, 2024 இல் வெளியிடப்பட்ட OpenAI-யின் மிகச் சமீபத்திய மாதிரியான GPT-4o, இந்த குறிப்பிட்ட சோதனை அமைப்பில் இதேபோன்ற அடிப்படை மட்டத்தில் செயல்பட்டது, 21% நேரம் மட்டுமே மனிதனாக மதிப்பிடப்பட்டது. இது குறிப்பிட்ட உள்ளமைவுகள், பயிற்சி அல்லது ஒருவேளை தூண்டுதல் உத்தி ஆகியவை மனிதனைப் போன்ற உரையாடல் செயல்திறனை அடைவதில் முக்கிய பங்கு வகிக்கின்றன என்பதை எடுத்துக்காட்டுகிறது.

ஆய்வின் முறை, இந்த மூன்று-தரப்பு அமைப்பைப் (நீதிபதி, மறைக்கப்பட்ட மனிதன், மறைக்கப்பட்ட AI) பயன்படுத்துவது, AI-ஐ Turing அளவுகோலுக்கு எதிராக மதிப்பிடுவதற்கான சில முந்தைய முயற்சிகளுடன் ஒப்பிடும்போது அதன் கடுமைக்காகக் குறிப்பிடப்படுகிறது. இது உரையாடல் வேறுபடுத்த முடியாத தன்மையை மதிப்பிடுவதற்கு மிகவும் சவாலான மற்றும் யதார்த்தமான சூழ்நிலையை உருவாக்குவதை நோக்கமாகக் கொண்டுள்ளது.

ஆள்மாறாட்டத்தின் சக்தி: AI ஒரு நடிகராக

இந்த குறிப்பிட்ட ஆய்வில் GPT-4.5 மற்றும் LLaMa-3.1-405B ஆகியவற்றின் வெற்றி விகிதங்களை பாதித்த ஒரு முக்கியமான காரணி, குறிப்பிட்ட ‘persona’ தூண்டுதல்களின் பயன்பாடு ஆகும். ஆராய்ச்சியாளர்கள் மனிதனைப் போன்ற பாத்திரம் அல்லது தொனியை ஏற்றுக்கொள்ள அறிவுறுத்தல்களுடன் மற்றும் இல்லாமல் மாதிரிகளைச் சோதித்தனர். persona தூண்டுதல் பயன்படுத்தப்பட்டபோது செயல்திறனில் ஏற்பட்ட குறிப்பிடத்தக்க உயர்வு, நவீன LLM-களின் ஒரு முக்கிய அம்சத்தை அடிக்கோடிட்டுக் காட்டுகிறது: அறிவுறுத்தல்களின் அடிப்படையில் அவற்றின் வெளியீட்டை மாற்றியமைக்கும் அவற்றின் குறிப்பிடத்தக்க திறன்.

ஒரு AI-க்கு ‘ஒரு ஆளுமையை ஏற்றுக்கொள்வது’ என்றால் என்ன? இதன் பொருள் மாதிரி அதன் இவற்றை சரிசெய்கிறது:

  1. தொனி மற்றும் நடை: சாதாரண மொழியைப் பின்பற்றுதல், பேச்சுவழக்குகளைப் பயன்படுத்துதல், அல்லது தயக்கம் அல்லது பிரதிபலிப்பைப் போலச் செய்தல்.
  2. உள்ளடக்கக் கவனம்: தனிப்பட்ட அனுபவங்களைக் குறிப்பிடுவது (புனையப்பட்டதாக இருந்தாலும்), கருத்துக்களை வெளிப்படுத்துவது, அல்லது ஏற்றுக்கொள்ளப்பட்ட பாத்திரத்திற்குப் பொருத்தமான சிறிய பேச்சில் ஈடுபடுவது.
  3. தொடர்பு முறை: முற்றிலும் தகவல் மீட்டெடுப்பு அமைப்பு போலல்லாமல், அதிக ஊடாடும் விதத்தில் பதிலளிப்பது.

இந்தத் திறன் இந்த மாதிரிகள் பயிற்சி செய்யப்படும் விதத்திலிருந்து நேரடியாக உருவாகிறது. LLM-கள் இணையம் மற்றும் டிஜிட்டல் மயமாக்கப்பட்ட இலக்கியம் முழுவதும் மனிதர்களால் உருவாக்கப்பட்ட உரை மற்றும் குறியீட்டைக் கொண்ட பிரம்மாண்டமான தரவுத்தொகுப்புகளிலிருந்து வடிவங்கள், பாணிகள் மற்றும் தகவல்களைக் கற்றுக்கொள்கின்றன. ஒரு குறிப்பிட்ட வகை நபரைப் போல செயல்படத் தூண்டப்படும்போது, மாதிரி அதன் பயிற்சித் தரவில் உள்ள மனித உரையாடலின் பரந்த எடுத்துக்காட்டுகளிலிருந்து அந்த ஆளுமையுடன் ஒத்துப்போகும் விதத்தில் ஈர்க்கிறது. இது உண்மையான ஆளுமையைப் பற்றியது அல்ல, மாறாக அதிநவீன வடிவப் பொருத்தம் மற்றும் உருவாக்கம் பற்றியது.

இது, புதுமை சிந்தனைக் குழுவான NostaLab-ன் நிறுவனர் John Nosta போன்ற பார்வையாளர்களால் வெளிப்படுத்தப்பட்ட யோசனைக்கு வழிவகுக்கிறது, ஒருவேளை நாம் காண்பது மனித அர்த்தத்தில் செயற்கை நுண்ணறிவு அல்ல, மாறாக மிகவும் மேம்பட்ட செயற்கை பச்சாதாபம் - அல்லது குறைந்தபட்சம், அதன் நம்பத்தகுந்த உருவகப்படுத்துதல். AI பச்சாதாபத்தை உணரவில்லை, ஆனால் அதை வெளிப்படுத்துவதோடு தொடர்புடைய மொழியியல் வடிவங்களைக் கற்றுக்கொண்டது. வெற்றி என்பது நடத்தை ரீதியான போலச்செய்தலைப் பொறுத்தது, குறிப்பாக சோதனையில் பயன்படுத்தப்பட்ட ஐந்து நிமிட உரையாடல்கள் போன்ற குறுகிய தொடர்புகளின் போது, மனிதனைப் போல எதிரொலிக்கும் ஒரு திறமையுடன் பதில்களை வடிவமைக்கிறது.

ஆராய்ச்சியாளர்களே இந்தத் தழுவலை முன்னிலைப்படுத்தினர்: ‘LLM-கள் வெவ்வேறு சூழ்நிலைகளுக்கு ஏற்ப தங்கள் நடத்தையை மாற்றியமைக்கத் தூண்டப்படும் எளிமைதான் அவற்றை மிகவும் நெகிழ்வானதாக ஆக்குகிறது: மேலும் மனிதனாகக் கடந்து செல்லக்கூடியதாகத் தோன்றுகிறது.’ இந்த நெகிழ்வுத்தன்மை ஒரு இருமுனைக் கத்தி, குறிப்பிடத்தக்க உரையாடல் சரளத்தை செயல்படுத்துகிறது, அதே நேரத்தில் நம்பகத்தன்மை மற்றும் கையாளுதலுக்கான சாத்தியக்கூறுகள் பற்றிய கேள்விகளையும் எழுப்புகிறது.

ஒரு மைல்கல் சாதனையா அல்லது குறைபாடுள்ள அளவீடா? Turing Test-ஐ மறுமதிப்பீடு செய்தல்

AI ‘Turing Test-ல் தேர்ச்சி பெற்றது’ என்று தலைப்புச் செய்திகள் முழங்கினாலும், இந்தச் சாதனையின் முக்கியத்துவம் கவனமாகப் பரிசீலிக்கப்பட வேண்டும். ஒரு சுருக்கமான உரை அரட்டையில் பெரும்பான்மையான நீதிபதிகளை நம்ப வைப்பது உண்மையிலேயே மனித நிலை நுண்ணறிவுக்குச் சமமானதா? ஆய்வு ஆசிரியர்கள் உட்பட பெரும்பாலான வல்லுநர்கள் இல்லை என்று வாதிடுவார்கள்.

இணைய அளவிலான தரவுகளில் பயிற்சி பெற்ற LLM-களின் வருகைக்கு நீண்ட காலத்திற்கு முன்பே உருவாக்கப்பட்ட Turing Test, முதன்மையாக உரையாடல் செயல்திறனை அளவிடுகிறது, போன்ற ஆழமான அறிவாற்றல் திறன்களை அல்ல:

  • புரிதல்: AI உண்மையிலேயே உரையாடலின் நுணுக்கங்களையும் தாக்கங்களையும் புரிந்துகொள்கிறதா, அல்லது அது புள்ளிவிவர ரீதியாக மிகவும் சாத்தியமான அடுத்த வார்த்தைகளை வெறுமனே கணிக்கிறதா?
  • உணர்வுநிலை: விழிப்புணர்வு மற்றும் சிந்தனையின் அகநிலை அனுபவம் மனிதர்களின் (மற்றும் பிற உயிரியல் உயிரினங்களின்) களத்தில் உறுதியாக உள்ளது. தற்போதைய AI மாதிரிகள் அதைக் கொண்டிருப்பதற்கான எந்த ஆதாரத்தையும் காட்டவில்லை.
  • பகுத்தறிவு: AI குறிப்பிட்ட களங்களில் தர்க்கரீதியான படிகளைச் செய்ய முடியும் என்றாலும், பொது நோக்கத்திற்கான பகுத்தறிவு, பொது அறிவு மற்றும் புதிய சூழ்நிலைகளில் காரணத்தையும் விளைவையும் புரிந்துகொள்வதற்கான அதன் திறன் மனிதர்களுடன் ஒப்பிடும்போது இன்னும் குறைவாகவே உள்ளது.
  • நோக்கம்: AI பதில்கள் வழிமுறைகள் மற்றும் தரவுகளின் அடிப்படையில் உருவாக்கப்படுகின்றன; அவற்றின் தகவல்தொடர்புகளை இயக்கும் உண்மையான நம்பிக்கைகள், ஆசைகள் அல்லது நோக்கங்கள் அவற்றுக்கு இல்லை.

எனவே, Turing Test-ல் அதிக மதிப்பெண் பெறுவது, ஒரு AI போலச்செய்தல் விளையாட்டை விதிவிலக்காக நன்றாக விளையாட முடியும் என்பதைக் காட்டுகிறது, குறிப்பாக குறிப்பிட்ட தூண்டுதல்களால் வழிநடத்தப்படும்போது. இது மனித உரையாடல் முறைகளுடன் நெருக்கமாக ஒத்துப்போகும் உரையை உருவாக்கக் கற்றுக்கொண்டது. தொழில்நுட்பக் கல்வி நிறுவனமான Waye-ன் நிறுவனர் Sinead Bovell இதைப் பற்றி சிந்தித்தார், ‘எந்தவொரு நபரும் படிக்கவோ பார்க்கவோ முடியாத அளவுக்கு அதிகமான மனிதத் தரவுகளில்’ பயிற்சி பெற்ற AI இறுதியில் ‘மனிதனைப் போல ஒலிப்பதில்’ சிறந்து விளங்குவது உண்மையிலேயே ஆச்சரியமானதா என்று கேள்வி எழுப்பினார்.

இது ஒரு அடிப்படைக் கேள்வியை எழுப்புகிறது: 21 ஆம் நூற்றாண்டில் AI முன்னேற்றத்திற்கு Turing Test இன்னும் பொருத்தமான அல்லது போதுமான அளவுகோலாக உள்ளதா? உரையாடல் மூலம் ஏமாற்றுவதில் அதன் கவனம் மிகவும் குறுகியது மற்றும் தவறாக வழிநடத்தக்கூடியது என்று சிலர் வாதிடுகின்றனர். சிக்கலைத் தீர்ப்பது, படைப்பாற்றல், நெறிமுறை தீர்ப்பு அல்லது முற்றிலும் புதிய உடல் அல்லது கருத்தியல் சூழல்களுக்கு ஏற்ப மாற்றியமைத்தல் போன்ற உண்மையான நுண்ணறிவுடன் நாம் அடிக்கடி தொடர்புபடுத்தும் திறன்களை இது போதுமான அளவு மதிப்பிடவில்லை.

வரலாற்றுச் சூழலும் பொருத்தமானது. AI Turing Test-ல் தேர்ச்சி பெற்றதாகக் கூறப்படுவது இதற்கு முன்பும் வெளிவந்துள்ளது. 2014 ஆம் ஆண்டில், 13 வயது உக்ரேனிய சிறுவனை உருவகப்படுத்த வடிவமைக்கப்பட்ட ‘Eugene Goostman’ என்ற chatbot, இதேபோன்ற சோதனை நிகழ்வின் போது 33% நீதிபதிகளை நம்ப வைத்ததாகக் கூறப்படுகிறது. இது அந்த நேரத்தில் சிலரால் பாராட்டப்பட்டாலும், 33% வெற்றி விகிதம் பொதுவாகக் குறிப்பிடப்படும் 50% வாசலுக்குக் குறைவாக இருந்தது மற்றும் இலக்கணப் பிழைகள் அல்லது அறிவு இடைவெளிகளை மன்னிக்கக்கூடிய ஒரு ஆளுமையைப் (ஆங்கிலம் அல்லாத தாய்மொழியாகக் கொண்ட பதின்ம வயதினர்) பயன்படுத்தி அடையப்பட்டது. சமீபத்திய முடிவுகளுடன் ஒப்பிடும்போது, 50%-ஐத் தாண்டி, மேலும் அதிநவீன மாதிரிகளுடன் 73%-ஐ எட்டியது, உரையாடல் AI-யில் முன்னேற்றம் மறுக்க முடியாதது, ஆனால் சோதனையின் வரம்புகள் பொருத்தமானதாகவே இருக்கின்றன.

இயந்திரத்தின் உள்ளே எட்டிப்பார்த்தல்: உரையாடல் திறனுக்கான காரணிகள்

GPT-4.5 போன்ற மாதிரிகளின் ஈர்க்கக்கூடிய செயல்திறன் தற்செயலானது அல்ல; இது AI வளர்ச்சியில், குறிப்பாக பெரிய மொழி மாதிரிகளின் களத்தில், இடைவிடாத புதுமை மற்றும் செம்மைப்படுத்தலின் விளைவாகும். மனிதனைப் போன்ற உரையை உருவாக்கும் அவற்றின் திறனுக்கு பல காரணிகள் பங்களிக்கின்றன:

  1. மிகப்பெரிய தரவுத்தொகுப்புகள்: நவீன LLM-கள் உண்மையிலேயே திகைப்பூட்டும் அளவிலான உரை மற்றும் குறியீட்டில் பயிற்சி அளிக்கப்படுகின்றன. இந்த பரந்த வெளிப்பாடு சிக்கலான இலக்கண கட்டமைப்புகள், மாறுபட்ட சொற்களஞ்சியங்கள், நடை நுணுக்கங்கள், உண்மைத் தகவல்கள் (எப்போதும் துல்லியமாக இல்லாவிட்டாலும்), மற்றும் பொதுவான உரையாடல் வரிசைகளைக் கற்றுக்கொள்ள அனுமதிக்கிறது.
  2. அதிநவீன கட்டமைப்புகள்: பெரும்பாலும் Transformer கட்டமைப்பை அடிப்படையாகக் கொண்ட அடிப்படைத் தொழில்நுட்பம், ‘attention’ போன்ற வழிமுறைகளைப் பயன்படுத்துகிறது, இது ஒரு வெளியீட்டை உருவாக்கும்போது உள்ளீட்டுத் தூண்டுதலில் உள்ள வெவ்வேறு சொற்களின் முக்கியத்துவத்தை எடைபோட மாதிரியை அனுமதிக்கிறது. இது உரையின் நீண்ட பகுதிகளிலும் சூழலையும் ஒத்திசைவையும் பராமரிக்க உதவுகிறது.
  3. மேம்பட்ட பயிற்சி நுட்பங்கள்: Reinforcement Learning from Human Feedback (RLHF) போன்ற நுட்பங்கள் மாதிரிகளைச் செம்மைப்படுத்தப் பயன்படுத்தப்படுகின்றன. மனிதர்கள் வெவ்வேறு AI பதில்களை மதிப்பிடுகிறார்கள், மேலும் பயனுள்ள, பாதிப்பில்லாத மற்றும் உண்மையுள்ள - மற்றும் பெரும்பாலும், அதிக மனித-ஒலிக்கும் வெளியீடுகளை உருவாக்குவதை நோக்கி மாதிரியை வழிநடத்துகிறார்கள்.
  4. அளவுரு அளவு: LLaMa-3.1-405B போன்ற மாதிரிகள், நூற்றுக்கணக்கான பில்லியன் அளவுருக்களுடன், பயிற்சியின் போது கற்றுக்கொண்ட தகவல்களைச் சேமிக்கவும் செயலாக்கவும் அதிக திறனைக் கொண்டுள்ளன, இது மிகவும் சிக்கலான மற்றும் நுணுக்கமான உரை உருவாக்கத்தை செயல்படுத்துகிறது.
  5. சூழல் தக்கவைப்பு: புதிய மாதிரிகள் உரையாடலின் முந்தைய பகுதிகளை ‘நினைவில்’ கொள்ளும் மேம்பட்ட திறன்களை வெளிப்படுத்துகின்றன, இது மிகவும் சீரான மற்றும் பொருத்தமான தொடர்புகளுக்கு வழிவகுக்கிறது, இது மனித உரையாடலின் முக்கிய அம்சமாகும்.
  6. பல்வகை மாதிரி அடித்தளங்கள்: உரையைத் தாண்டிய திறன்களை (படத்தைப் புரிந்துகொள்வது போன்றவை) உள்ளடக்கிய GPT-4 போன்ற முன்னோடிகளின் மீது கட்டமைப்பது, சோதனைத் தொடர்பு முற்றிலும் உரை அடிப்படையிலானதாக இருந்தாலும், புதிய மாதிரிகளுக்கு சாத்தியமான பணக்கார உள் பிரதிநிதித்துவத்தை அளிக்கிறது.

OpenAI GPT-4.5-ஐ முன்னோட்டமிட்டபோது, CEO Sam Altman குறிப்பிட்டார், ‘இது எனக்கு ஒரு சிந்தனைமிக்க நபருடன் பேசுவது போல் உணரும் முதல் மாதிரி.’ அகநிலையாக இருந்தாலும், இந்த உணர்வு இந்த தொழில்நுட்ப முன்னேற்றங்கள் செயல்படுத்திய உரையாடல் திறனில் ஏற்பட்ட தரமான பாய்ச்சலைப் பிரதிபலிக்கிறது. persona தூண்டுதல் பின்னர் ஒரு சக்திவாய்ந்த நெம்புகோலாக செயல்படுகிறது, கற்றுக்கொண்ட தரவுகளிலிருந்து வரையப்பட்ட ஒரு குறிப்பிட்ட மனித உரையாடல் பாணியைப் பின்பற்றுவதை நோக்கி இந்த திறன்களை இயக்குகிறது.

நிஜத்தில் சிற்றலைகள்: சமூக மற்றும் பொருளாதாரக் கருத்தாய்வுகள்

AI உண்மையான நுண்ணறிவுக்குச் சமமாக இல்லாவிட்டாலும், மனித உரையாடலை நம்பத்தகுந்த வகையில் பின்பற்ற முடியும் என்பதற்கான செயல்விளக்கம், கல்விச் சோதனைகளுக்கு அப்பாற்பட்ட குறிப்பிடத்தக்க நிஜ உலக தாக்கங்களைக் கொண்டுள்ளது. Sinead Bovell குறிப்பிட்டது போல, இந்த முன்னேற்றங்கள் ‘பெரிய பொருளாதார மற்றும் சமூக தாக்கங்களை’க் கொண்டுள்ளன.

  • வேலை சந்தை சீர்குலைவு: தகவல்தொடர்புகளை பெரிதும் நம்பியிருக்கும் துறைகள் AI ஒருங்கிணைப்பு மற்றும் சாத்தியமான இடப்பெயர்ச்சிக்கான முக்கிய வேட்பாளர்களாகும். வாடிக்கையாளர் சேவைப் பாத்திரங்கள், உள்ளடக்க உருவாக்கம் (கட்டுரைகள் எழுதுதல், சந்தைப்படுத்தல் நகல்), மொழிபெயர்ப்பு சேவைகள், மற்றும் பயிற்சி அல்லது தனிப்பட்ட உதவியின் சில அம்சங்கள் கூட அதிநவீன chatbots மற்றும் AI முகவர்களால் பெருகிய முறையில் கையாளப்படலாம். தரவு பகுப்பாய்வு, விற்பனை ஆதரவு அல்லது சுகாதார மேலாண்மை போன்ற பகுதிகளில் பணிப்பாய்வுகளை தன்னாட்சி முறையில் செய்ய வடிவமைக்கப்பட்ட அமைப்புகளான ‘Agentic AI’-க்கான சமீபத்திய உந்துதல், இந்த முகவர்கள் மனிதனைப் போன்ற சரளத்துடன் தொடர்பு கொள்ள முடிந்தால் மேலும் உத்வேகம் பெறுகிறது.
  • மனித உறவுகள் மற்றும் நம்பிக்கை: AI பச்சாதாபம் மற்றும் ஆளுமையைப் பின்பற்றுவதில் அதிக திறமை பெறும்போது, அது மனித தொடர்பு இயக்கவியலை மாற்றக்கூடும். மக்கள் AI தோழர்களுடன் உணர்ச்சி ரீதியான பிணைப்புகளை உருவாக்குவார்களா? மனிதனுக்கும் AI-க்கும் இடையில் வேறுபடுத்துவது கடினமாகும்போது ஆன்லைன் தொடர்புகளில் நம்பகத்தன்மையை எவ்வாறு உறுதிப்படுத்துவது? மோசடிகள், தவறான தகவல்களைப் பரப்புதல் அல்லது கருத்துக்களைக் கையாளுதல் போன்ற ஏமாற்றுதலுக்கான சாத்தியம் கணிசமாக வளர்கிறது.
  • ‘ஆழமான போலிகளின்’ எழுச்சி (‘Deeper Fakes’): FAU-வில் உள்ள Center for the Future Mind-ன் ஸ்தாபக இயக்குநர் Susan Schneider, ‘ஆழமான போலிகள்’ மற்றும் ‘chatbot சைபர் போர்கள்’ சம்பந்தப்பட்ட சாத்தியமான ‘பேரழிவு’ சூழ்நிலையை முன்னறிவித்து, பாதையைப் பற்றிய கவலைகளை வெளிப்படுத்தினார். AI தனிநபர்களை உரையில் நம்பத்தகுந்த வகையில் பின்பற்ற முடிந்தால், தீங்கிழைக்கும் ஆள்மாறாட்டத்திற்கான சாத்தியம் வியத்தகு முறையில் அதிகரிக்கிறது.
  • நெறிமுறை சீரமைப்பு: Schneider சீரமைப்பின் முக்கியமான சிக்கலையும் முன்னிலைப்படுத்தினார்: AI அமைப்புகள் மனித மதிப்புகளின்படி செயல்படுவதை உறுதி செய்தல். மனித உரையாடலைச் சரியாகப் பின்பற்றக்கூடிய ஆனால் நெறிமுறை திசைகாட்டி இல்லாத அல்லது பயிற்சியின் போது கற்றுக்கொண்ட பக்கச்சார்பான தரவுகளில் செயல்படும் ஒரு AI, தீங்கு விளைவிக்கும் ஸ்டீரியோடைப்களை நிலைநிறுத்தலாம் அல்லது நெறிமுறையற்ற பரிந்துரைகளைச் செய்யலாம், இவை அனைத்தும் முற்றிலும் நியாயமானதாகத் தோன்றும். இந்த மாதிரிகள் ‘சரியாக சீரமைக்கப்படாமல்’ சோதனையில் தேர்ச்சி பெற்றன என்பது பல ஆராய்ச்சியாளர்களுக்கு கவலையளிக்கும் ஒரு விஷயமாகும்.

உரையாடல் ரீதியாக மனிதனாக ‘கடந்து செல்லும்’ திறன் ஒரு தொழில்நுட்ப ஆர்வம் மட்டுமல்ல; இது நாம் எவ்வாறு வேலை செய்கிறோம், தொடர்பு கொள்கிறோம், நம்புகிறோம், மேலும் பெருகிய முறையில் டிஜிட்டல் உலகில் ஒருவருக்கொருவர் தொடர்பு கொள்கிறோம் என்பதோடு நேரடியாக குறுக்கிடுகிறது.

எதிர்காலத்தை வரைபடமாக்குதல்: போலச்செய்தலைத் தாண்டி உண்மையான திறனை நோக்கி

GPT-4.5 மற்றும் LLaMa-3.1 சம்பந்தப்பட்ட சமீபத்திய Turing Test முடிவுகள் AI வளர்ச்சியின் வரலாற்றில் குறிப்பிடத்தக்க மைல்கற்களாக இருந்தாலும், அவை முதன்மையாக இயற்கை மொழி உருவாக்கம் மற்றும் போலச்செய்தலில் ஏற்பட்ட பிரமிக்க வைக்கும் முன்னேற்றத்தை முன்னிலைப்படுத்துகின்றன. பல நிபுணர்களிடையே உள்ள ஒருமித்த கருத்து என்னவென்றால், கவனம் இப்போது உரையாடல் போலச்செய்தலில் சிறந்து விளங்குவதை விட, உண்மையான புரிதல், பகுத்தறிவு மற்றும் நெறிமுறை நடத்தை ஆகியவற்றை வெளிப்படுத்தும் AI-ஐ உருவாக்குவதை நோக்கி நகர வேண்டும்.

இது பாரம்பரிய Turing Test-ஐத் தாண்டி புதிய அளவுகோல்கள் மற்றும் மதிப்பீட்டு முறைகளை நோக்கி நகர வேண்டியதை அவசியமாக்குகிறது. இவை எப்படி இருக்கும்?

  • புதிய சூழ்நிலைகளில் சிக்கலான சிக்கலைத் தீர்ப்பதில் கவனம் செலுத்தும் சோதனைகள்.
  • வலுவான பொது அறிவு பகுத்தறிவின் மதிப்பீடுகள்.
  • தெளிவற்ற சூழ்நிலைகளில் நெறிமுறை முடிவெடுப்பதன் மதிப்பீடுகள்.
  • ஏற்கனவே உள்ள வடிவங்களின் மறுசீரமைப்பு மட்டுமல்ல, படைப்பாற்றல் மற்றும் அசல் சிந்தனையின் அளவீடுகள்.
  • நீண்ட கால திட்டமிடல் மற்றும் மூலோபாய சிந்தனை தேவைப்படும் சோதனைகள்.

துறையில் உள்ள பலருக்கு இறுதி இலக்கு நம்பத்தகுந்த உரையாடல்களை உருவாக்குவது மட்டுமல்ல, நிஜ உலகப் பிரச்சினைகளைத் தீர்க்கவும் மனித திறன்களை அதிகரிக்கவும் நம்பகமான, நம்பகமான கருவிகளாகச் செயல்படக்கூடிய AI-ஐ உருவாக்குவதாகும். அசல் அறிக்கையில் உள்ள முடிவு எண்ணங்கள் பரிந்துரைத்தபடி, AI-யின் எதிர்காலம் அதன் நடைமுறைப் பயன்பாட்டில் - விஞ்ஞான கண்டுபிடிப்புகளுக்கு உதவுதல், சுகாதாரத்தை மேம்படுத்துதல், சிக்கலான அமைப்புகளை நிர்வகித்தல் - அதன் நம்பத்தகுந்த அரட்டை அடிக்கும் திறனில் மட்டும் இல்லை.

Artificial General Intelligence (AGI)-ஐ நோக்கிய பயணம், அடையக்கூடியதாக இருந்தால், நீண்ட மற்றும் சிக்கலானது. Turing Test-ல் தேர்ச்சி பெறுவது போன்ற மைல்கற்கள் வழியில் குறிப்பிடத்தக்க குறிப்பான்களாகும், இது தற்போதைய நுட்பங்களின் சக்தியை நிரூபிக்கிறது. இருப்பினும், அவை நமது தற்போதைய அளவீடுகளின் வரம்புகள் மற்றும் இந்த சக்திவாய்ந்த தொழில்நுட்பங்கள் தொடர்ந்து உருவாகும்போது நாம் கவனிக்க வேண்டிய ஆழ்ந்த நெறிமுறை மற்றும் சமூக கேள்விகளின் முக்கியமான நினைவூட்டல்களாகவும் செயல்படுகின்றன. போலச்செய்தல் விளையாட்டில் புதிய சாம்பியன்கள் இருக்கலாம், ஆனால் உண்மையிலேயே புத்திசாலித்தனமான, நன்மை பயக்கும் மற்றும் சீரமைக்கப்பட்ட AI-ஐ உருவாக்கும் சவால் இப்போதுதான் தொடங்கியுள்ளது.