செயற்கை நுண்ணறிவுத் துறை தொடர்ந்து மாறிக்கொண்டே இருக்கிறது, ஒரு காலத்தில் அறிவியல் புனைகதைகளில் மட்டுமே இருந்த மைல்கற்களை இப்போது எட்டியுள்ளது. சமீபத்திய ஒரு வளர்ச்சி தொழில்நுட்ப சமூகம் மற்றும் அதற்கு அப்பாலும் அதிர்வலைகளை ஏற்படுத்தியுள்ளது: இரண்டு அதிநவீன AI மாதிரிகள் டியூரிங் சோதனையின் சிக்கல்களை வெற்றிகரமாகக் கடந்ததாகத் தெரிவிக்கப்பட்டுள்ளது. 20 ஆம் நூற்றாண்டின் மத்தியில் பிரிட்டிஷ் கணித மேதை Alan Turing அவர்களால் உருவாக்கப்பட்ட இந்தச் சின்னமான அளவுகோல், இயந்திர நுண்ணறிவுக்கான ஒரு கருத்தியல் எவரெஸ்ட் சிகரமாக நீண்ட காலமாக இருந்து வருகிறது - ஒரு இயந்திரம் மனிதனிடமிருந்து வேறுபடுத்தி அறிய முடியாத அளவுக்கு நம்பகமான முறையில் உரையாட முடியுமா என்பதற்கான அளவீடு இது. OpenAI-ன் GPT-4.5 மற்றும் Meta-வின் Llama-3.1 மாதிரிகள் இந்த உச்சியை அடைந்துள்ளன என்ற செய்தி, AI பரிணாம வளர்ச்சியில் ஒரு முக்கியத் திருப்புமுனையாக இருக்கலாம், இது மனித அறிவாற்றலுக்கும் செயற்கைத் திறனுக்கும் இடையிலான பெருகிய முறையில் மங்கலான எல்லைகளைப் புதிதாக ஆராய வேண்டிய கட்டாயத்தை ஏற்படுத்துகிறது.
மைல்கல் பரிசோதனை: வடிவமைப்பு மற்றும் வியக்க வைக்கும் முடிவுகள்
இந்த AI அமைப்புகள் டியூரிங் சோதனையில் தேர்ச்சி பெற்றன என்ற கூற்று, University of California San Diego-வில் Cameron R. Jones மற்றும் Benjamin K. Bergen ஆகியோரால் நடத்தப்பட்ட ஆராய்ச்சியில் இருந்து வருகிறது. தற்போது சக மதிப்பாய்வின் ஆய்வுக்குக் காத்திருக்கும் அவர்களின் ஆய்வு, Turing-ன் அசல் முன்மொழிவின் உணர்வை நெருக்கமாகப் பின்பற்றும் அதே வேளையில் நவீன கடுமையையும் உள்ளடக்கிய ஒரு முறையைப் பயன்படுத்தியது. எளிமையான, இரு-தரப்பு சோதனைகளின் வரம்புகளை உணர்ந்து, Jones மற்றும் Bergen மிகவும் சவாலான மூன்று-தரப்பு தொடர்பு மாதிரியை செயல்படுத்தினர்.
இந்த அமைப்பில், ஒரு மனிதப் பங்கேற்பாளர் (விசாரணையாளர்) ஒரே நேரத்தில் ஐந்து நிமிடங்களுக்கு தனித்தனி, உரை அடிப்படையிலான உரையாடல்களில் ஈடுபட்டார். ஒரு உரையாடல் பங்குதாரர் மற்றொரு மனிதர், மற்றவர் ஒரு AI அமைப்பு. முக்கியமாக, விசாரணையாளருக்கு எது எது என்று தெரியாது. ஐந்து நிமிடப் பரிமாற்றத்தைத் தொடர்ந்து, விசாரணையாளரின் பணி தெளிவாக இருந்தது: இயந்திரத்தைக் கண்டறிவது. இந்த அமைப்பு நேரடி ஒப்பீட்டைக் கட்டாயப்படுத்துகிறது மற்றும் ஒரு AI தனிமையில் மனிதனைப் போலத் தெரிகிறதா என்று கேட்பதை விட வலுவான மதிப்பீடாகக் கருதப்படுகிறது.
கண்டுபிடிப்புகள் ஒரு குறிப்பிட்ட மக்கள்தொகையால் சிதைக்கப்படவில்லை என்பதை உறுதிப்படுத்த, ஆராய்ச்சியாளர்கள் தங்கள் அமைப்பை இரண்டு தனித்துவமான மக்களிடையே சோதித்தனர்:
- இளங்கலைப் பட்டதாரி மாணவர்கள், பொதுவாக டிஜிட்டல் தகவல்தொடர்புடன் பழக்கமான இளைய மக்கள்தொகையைக் குறிக்கின்றனர்.
- திறமையான தொழிலாளர்கள் (ஆன்லைன் தளங்களில் இருந்து ஆட்சேர்ப்பு செய்யப்பட்டவர்கள்), பல்வேறு ஆன்லைன் தொடர்புகளுக்குப் பழகிய மக்கள்தொகையின் பரந்த குறுக்குவெட்டைக் குறிக்கின்றனர்.
இந்த நுணுக்கமான அணுகுமுறையால் கிடைத்த முடிவுகள் வியக்க வைத்தன.
- OpenAI-ன் GPT-4.5 குறிப்பிடத்தக்க வகையில் நம்பத்தகுந்ததாக வெளிப்பட்டது. ஒரு குறிப்பிட்ட ஆளுமையை (persona) ஏற்றுக்கொள்ளுமாறு குறிப்பாக அறிவுறுத்தப்பட்டபோது (இது பற்றி பின்னர்), அது நம்பத்தகுந்ததாக மட்டுமல்ல; சம்பந்தப்பட்ட உண்மையான மனிதர்களை விட அதிக நம்பத்தகுந்ததாக இருந்தது. விசாரணையாளர்கள் GPT-4.5-ஐ மனிதப் பங்கேற்பாளர் என்று திகைப்பூட்டும் வகையில் 73% நேரம் அடையாளம் கண்டனர். இந்த எண்ணிக்கை வழக்கமான 50% தேர்ச்சி வரம்பை மட்டுமல்லாமல், விசாரணையாளர்கள் உண்மையான மனிதப் பங்காளிகளைச் சரியாக அடையாளம் கண்ட விகிதத்தையும் கணிசமாக மீறுகிறது.
- Meta-வின் Llama-3.1-405B, மற்றொரு அதிநவீன பெரிய மொழி மாதிரி, சிறப்பாகச் செயல்பட்டது. இது மனிதனாக அடையாளம் காணப்படுவதில் 56% வெற்றி விகிதத்தை அடைந்தது, தேர்வுகள் சீரற்றதாக இருந்தால் (சுமார் 50%) எதிர்பார்க்கப்படும் அடிப்படை செயல்திறனுடன் திறம்படப் பொருந்தி, மனித உரையாடல் முறைகளைப் பின்பற்றும் வலுவான திறனை வெளிப்படுத்தியது.
இந்த உயர் வெற்றி விகிதங்கள் பரிசோதனையில் சேர்க்கப்பட்ட அடிப்படை மற்றும் கட்டுப்பாட்டு மாதிரிகளின் செயல்திறனுடன் முற்றிலும் மாறுபடுகின்றன:
- GPT-4o, திறமையான ஆனால் சற்றே குறைவான மேம்பட்ட OpenAI மாதிரி, வெறும் 21% வெற்றி விகிதத்தைக் கொண்டிருந்தது.
- ELIZA, 1960களில் உருவாக்கப்பட்ட ஒரு அடிப்படை chatbot, ஒரு கட்டுப்பாட்டாகச் செயல்பட்டது. குறைவான அதிநவீன அமைப்புடன் எதிர்கொள்ளும்போது விசாரணையாளர்கள் உண்மையில் மனிதரல்லாத பதில்களை வேறுபடுத்தி அறிய முடியும் என்பதை உறுதிப்படுத்த அதன் சேர்க்கை இன்றியமையாததாக இருந்தது. எதிர்பார்த்தபடி, ELIZA மோசமாகச் செயல்பட்டது, பெரும்பாலான நேரங்களில் மனிதரல்லாதது எனச் சரியாக அடையாளம் காணப்பட்டது (வெறும் 23% வெற்றி விகிதம், அடிப்படையில் இரைச்சல் தளம் அல்லது பங்கேற்பாளர் பிழையை அளவிடுகிறது).
GPT-4.5 மற்றும் Llama-3.1 ஆகியவற்றின் செயல்திறனுக்கும் GPT-4o மற்றும் ELIZA-வுக்கும் இடையிலான குறிப்பிடத்தக்க இடைவெளி, சமீபத்திய AI வளர்ச்சியில் ஏற்பட்டுள்ள முன்னேற்றங்களை அடிக்கோடிட்டுக் காட்டுகிறது. ஆராய்ச்சியாளர்கள் தங்கள் ஆய்வு ‘அசல் மூன்று-தரப்பு டியூரிங் சோதனையில் எந்தவொரு அமைப்பும் தேர்ச்சி பெறுவதற்கான முதல் வலுவான ஆதாரத்தை’ வழங்குகிறது என்று கூறுகின்றனர், இது சக மதிப்பாய்வுக்கு உட்பட்டு, AI வரலாற்றில் ஒரு குறிப்பிடத்தக்க தருணத்தைக் குறிக்கிறது.
ஆளுமை (Persona) மற்றும் தூண்டுதலின் (Prompting) முக்கிய பங்கு
இருப்பினும், AI வெற்றியின் கதை ஒரு குறிப்பிடத்தக்க நட்சத்திரக் குறியுடன் வருகிறது, இது தலைப்புச் செய்திகளின் புள்ளிவிவரங்களுக்குப் பின்னால் உள்ள நுணுக்கமான யதார்த்தத்தை எடுத்துக்காட்டுகிறது. GPT-4.5 மற்றும் Llama-3.1 ஆகியவற்றின் ஈர்க்கக்கூடிய வெற்றி விகிதங்கள் அவற்றின் உள்ளார்ந்த, பெட்டிக்கு வெளியே உள்ள திறன்களால் மட்டும் அடையப்படவில்லை. மாறாக, மனித விசாரணையாளர்களை ஏமாற்றும் அவற்றின் திறன், தொடர்புகள் தொடங்குவதற்கு முன்பு அவற்றுக்கு வழங்கப்பட்ட குறிப்பிட்ட அறிவுறுத்தல்கள் - தூண்டுதல்கள் (prompts) - மீது பெரிதும் தங்கியிருந்தது.
ஆராய்ச்சியாளர்கள் AI மாதிரிகளை கவனமாக வரையறுக்கப்பட்ட ஆளுமையை ஏற்றுக்கொள்ளுமாறு அறிவுறுத்தினர்: இணைய கலாச்சாரம் பற்றி அறிந்த, ஓரளவு உள்முக சிந்தனையுள்ள ஒரு இளம் நபர். இந்த குறிப்பிட்ட குணாதிசயம் அவர்களின் வெற்றிக்கு முக்கியமாகத் தோன்றுகிறது. அதே மேம்பட்ட AI மாதிரிகள் (GPT-4.5 மற்றும் Llama-3.1) இந்த ஆளுமைத் தூண்டுதல் இல்லாமல் சோதனைக்கு உட்படுத்தப்பட்டபோது, அவற்றின் செயல்திறன் கணிசமாகக் குறைந்தது. அவை மனித விசாரணையாளர்களால் இயந்திரங்கள் என மிக எளிதாக அடையாளம் காணப்பட்டன.
இந்தக் கண்டுபிடிப்பு பல காரணங்களுக்காக மிகவும் முக்கியமானது:
- இது தூண்டுதல் பொறியியலின் (prompt engineering) சக்தியை அடிக்கோடிட்டுக் காட்டுகிறது: பெரிய மொழி மாதிரிகளின் திறன்களைப் பயன்படுத்துவதில் பயனுள்ள தூண்டுதல்களை உருவாக்கும் திறன் பெருகிய முறையில் மையமாகி வருகிறது. இந்த ஆய்வு, தூண்டுதல் என்பது ஒரு AI-யிலிருந்து சரியான தகவலைப் பெறுவது மட்டுமல்ல; ஒரு குறிப்பிட்ட சூழலுக்குப் பொருந்தும் வகையில் அதன் நடத்தை, தொனி மற்றும் வெளிப்படையான ஆளுமையை வடிவமைப்பதும் ஆகும் என்பதைக் காட்டுகிறது. இங்குள்ள வெற்றி, அடிப்படை AI கட்டமைப்பைப் போலவே திறமையான தூண்டுதலுக்கும் ஒரு சான்றாகக் காணப்படலாம்.
- இது ‘தேர்ச்சி பெறுதல்’ என்பதன் அர்த்தம் என்ன என்ற கேள்விகளை எழுப்புகிறது: ஒரு குறிப்பிட்ட வகை மனிதனைப் போலச் செயல்பட குறிப்பாகப் பயிற்றுவிக்கப்பட்டால் மட்டுமே ஒரு AI டியூரிங் சோதனையில் தேர்ச்சி பெற முடியும் என்றால், அது உண்மையில் Turing-ன் அசல் சவாலின் உணர்வைப் பூர்த்தி செய்கிறதா? அல்லது வெளிப்படையான மேடை வழிகாட்டுதல்கள் கொடுக்கப்பட்டால், மாதிரியின் நெகிழ்வுத்தன்மை மற்றும் அதிநவீனப் பின்பற்றும் திறனை மட்டுமே இது வெளிப்படுத்துகிறதா?
- இது தகவமைப்பை ஒரு முக்கியப் பண்பாக எடுத்துக்காட்டுகிறது: Jones மற்றும் Bergen தங்கள் கட்டுரையில் குறிப்பிடுவது போல, ‘LLM-கள் வெவ்வேறு சூழ்நிலைகளுக்கு ஏற்ப தங்கள் நடத்தையை மாற்றியமைக்கத் தூண்டப்படும் எளிமைதான் அவற்றை மிகவும் நெகிழ்வானதாக ஆக்குகிறது: மேலும் மனிதனாகக் கடந்து செல்ல மிகவும் திறமையானதாகவும் தோன்றுகிறது.’ இந்தத் தகவமைப்பு சந்தேகத்திற்கு இடமின்றி ஒரு சக்திவாய்ந்த அம்சமாகும், ஆனால் இது உள்ளார்ந்த ‘நுண்ணறிவிலிருந்து’ நிரல்படுத்தக்கூடிய செயல்திறனுக்கு கவனத்தை மாற்றுகிறது.
ஆளுமையைச் சார்ந்திருப்பது, தற்போதைய AI, அதன் மிகவும் மேம்பட்ட நிலையில் கூட, ஒரு பொதுவான, உள்ளார்ந்த ‘மனிதனைப் போன்ற’ தரத்தைக் கொண்டிருக்காமல், அவ்வாறு செய்ய அறிவுறுத்தப்படும்போது குறிப்பிட்ட மனிதனைப் போன்ற முகமூடிகளை ஏற்றுக்கொள்வதில் சிறந்து விளங்கக்கூடும் என்று கூறுகிறது.
பின்பற்றுதலுக்கு அப்பால்: உண்மையான நுண்ணறிவைக் கேள்விக்குள்ளாக்குதல்
ஆராய்ச்சியாளர்களே தங்கள் கண்டுபிடிப்புகளின் விளக்கத்தைத் தணிக்க கவனமாக இருக்கிறார்கள். இந்த குறிப்பிட்ட உரையாடல் சோதனையில் தேர்ச்சி பெறுவது, கடுமையான நிபந்தனைகளின் கீழ் கூட, உண்மையான இயந்திர நுண்ணறிவு, உணர்வு அல்லது புரிதலின் வருகையுடன் தானாகவே சமன் செய்யப்படக்கூடாது. டியூரிங் சோதனை, வரலாற்று ரீதியாக முக்கியத்துவம் வாய்ந்ததாக இருந்தாலும், முதன்மையாக ஒரு வரையறுக்கப்பட்ட சூழலில் (ஒரு குறுகிய உரை உரையாடல்) நடத்தை வேறுபடுத்த முடியாத தன்மையை மதிப்பிடுகிறது. இது பகுத்தறிவு, பொது அறிவு, நெறிமுறை தீர்ப்பு அல்லது உண்மையான சுய விழிப்புணர்வு போன்ற ஆழமான அறிவாற்றல் திறன்களை அவசியமாக ஆராய்வதில்லை.
GPT-4.5 மற்றும் Llama-3.1 போன்ற நவீன பெரிய மொழி மாதிரிகள் (LLMs) இணையத்திலிருந்து எடுக்கப்பட்ட உரை மற்றும் குறியீட்டைக் கொண்ட கற்பனை செய்ய முடியாத பரந்த தரவுத்தொகுப்புகளில் பயிற்சி அளிக்கப்படுகின்றன. அவை வடிவங்களைக் கண்டறிதல், ஒரு வரிசையில் அடுத்த வார்த்தையைக் கணித்தல் மற்றும் புள்ளிவிவர ரீதியாக மனிதத் தொடர்பைப் போன்ற உரையை உருவாக்குதல் ஆகியவற்றில் சிறந்து விளங்குகின்றன. தொழில்நுட்பக் கல்வி நிறுவனமான Waye-ன் நிறுவனர் Sinead Bovell பொருத்தமாகக் கேள்வி எழுப்பியது போல, ‘எந்தவொரு நபரும் படிக்கவோ பார்க்கவோ முடியாத அளவுக்கு அதிகமான மனிதத் தரவுகளில் பயிற்சி பெற்றிருக்கும்போது… AI இறுதியில் ‘மனிதனைப் போல ஒலிப்பதில்’ நம்மை வெல்வது முற்றிலும் ஆச்சரியமானதா?’
இந்தக் கண்ணோட்டம், AI அவசியமாக மனிதனைப் போல ‘சிந்திக்கவில்லை’, மாறாக எண்ணற்ற மனித உரையாடல்கள், கட்டுரைகள் மற்றும் தொடர்புகளைப் பிரதிநிதித்துவப்படுத்தும் டிரில்லியன் கணக்கான வார்த்தைகளுக்கு வெளிப்பட்டதன் மூலம் கூர்மைப்படுத்தப்பட்ட, நம்பமுடியாத அதிநவீன வடிவப் பொருத்தம் மற்றும் சாயலைப் பயன்படுத்துகிறது என்று கூறுகிறது. எனவே, சோதனையில் வெற்றி என்பது மனிதனைப் போன்ற அறிவாற்றலை நோக்கிய ஒரு அடிப்படை جهش என்பதை விட அதன் பயிற்சித் தரவின் அளவு மற்றும் அகலத்தைப் பிரதிபலிக்கக்கூடும்.
இதன் விளைவாக, ஆய்வின் ஆசிரியர்கள் உட்பட பல வல்லுநர்கள், டியூரிங் சோதனை, ஒரு மதிப்புமிக்க வரலாற்று அடையாளமாக இருந்தாலும், AI-யில் அர்த்தமுள்ள முன்னேற்றத்தை அளவிடுவதற்கான மிகவும் பொருத்தமான அளவுகோலாக இனி இருக்காது என்று வாதிடுகின்றனர். எதிர்கால மதிப்பீடுகள் போன்ற மிகவும் கோரும் அளவுகோல்களில் கவனம் செலுத்த வேண்டும் என்பதில் ஒரு வளர்ந்து வரும் ஒருமித்த கருத்து உள்ளது:
- வலுவான பகுத்தறிவு: சிக்கலான சிக்கல்களைத் தீர்ப்பது, தர்க்கரீதியான அனுமானங்களை வரைதல் மற்றும் காரணத்தையும் விளைவையும் புரிந்துகொள்வது போன்ற AI-யின் திறனை மதிப்பிடுதல்.
- நெறிமுறை சீரமைப்பு: AI-யின் முடிவெடுக்கும் செயல்முறைகள் மனித மதிப்புகள் மற்றும் நெறிமுறைக் கொள்கைகளுடன் ஒத்துப்போகின்றனவா என்பதை மதிப்பீடு செய்தல்.
- பொது அறிவு: மனிதர்கள் சாதாரணமாக எடுத்துக்கொள்ளும் பௌதீக மற்றும் சமூக உலகத்தைப் பற்றிய மறைமுகமான அறிவை AI புரிந்துள்ளதா என்பதைச் சோதித்தல்.
- புதிய சூழ்நிலைகளுக்குத் தகவமைப்பு: அதன் பயிற்சித் தரவிலிருந்து கணிசமாக வேறுபட்ட சூழ்நிலைகளை எதிர்கொள்ளும்போது AI எவ்வளவு சிறப்பாகச் செயல்படுகிறது என்பதை அளவிடுதல்.
விவாதம் ‘அது நம்மைப் போலப் பேச முடியுமா?’ என்பதிலிருந்து ‘அது நம்மைப் போல பகுத்தறியவும், புரிந்துகொள்ளவும், பொறுப்புடன் நடந்துகொள்ளவும் முடியுமா?’ என்பதற்கு மாறுகிறது.
வரலாற்றுச் சூழல் மற்றும் முந்தைய முயற்சிகள்
டியூரிங் சோதனையில் தேர்ச்சி பெறக்கூடிய ஒரு இயந்திரத்தை உருவாக்கும் தேடல் பல தசாப்தங்களாக கணினி விஞ்ஞானிகளையும் பொதுமக்களையும் கவர்ந்துள்ளது. இந்த சமீபத்திய ஆய்வு வெற்றி பற்றிய கூற்றுகள் வெளிவருவது இது முதல் முறை அல்ல, இருப்பினும் முந்தைய நிகழ்வுகள் பெரும்பாலும் சந்தேகம் அல்லது தகுதியுடன் எதிர்கொள்ளப்பட்டன.
ஒருவேளை மிகவும் பிரபலமான முந்தைய கூற்று Eugene Goostman chatbot 2014-ல் சம்பந்தப்பட்டது. இந்தத் திட்டம் 13 வயது உக்ரேனிய சிறுவனை உருவகப்படுத்துவதை நோக்கமாகக் கொண்டது. Alan Turing-ன் மரணத்தின் 60 வது ஆண்டு நிறைவைக் குறிக்கும் ஒரு போட்டியில், Goostman ஐந்து நிமிட உரையாடல்களின் போது 33% நீதிபதிகளை அது மனிதன் என்று நம்ப வைத்தார். டியூரிங் சோதனையில் ‘தேர்ச்சி பெற்றதாக’ பரவலாகப் புகாரளிக்கப்பட்டாலும், இந்தக் கூற்று சர்ச்சைக்குரியதாக இருந்தது. 33% வெற்றி விகிதம் பெரும்பாலும் அவசியமாகக் கருதப்படும் 50% வரம்பிற்குக் குறைவாக இருப்பதாகப் பலர் வாதிட்டனர் (Turing அவரே ஒரு சரியான சதவீதத்தைக் குறிப்பிடவில்லை என்றாலும்). மேலும், ஆங்கிலம் அல்லாத தாய்மொழியாகக் கொண்ட ஒரு பதின்ம வயதினரை உருவகப்படுத்துவது இலக்கணப் பிழைகள் மற்றும் அறிவு இடைவெளிகளை மேலும் மன்னிக்கத்தக்கதாகத் தோன்றச் செய்திருக்கலாம், இது ஏமாற்றுவதற்கான தடையைக் குறைத்திருக்கலாம் என்று விமர்சகர்கள் சுட்டிக்காட்டினர்.
Jones மற்றும் Bergen ஆய்வில் ELIZA-வைச் சேர்ப்பது மதிப்புமிக்க வரலாற்று அடிப்படையை வழங்குகிறது. 1960 களில் MIT-யில் Joseph Weizenbaum என்பவரால் உருவாக்கப்பட்டது, ELIZA எளிய வடிவப் பொருத்தம் மற்றும் முக்கியச் சொல் மாற்றீட்டைப் பயன்படுத்திச் செயல்பட்டது, பெரும்பாலும் பயனரின் அறிக்கைகளைக் கேள்விகளாகப் பிரதிபலிக்கிறது (எ.கா., பயனர்: ‘நான் சோகமாக உணர்கிறேன்.’ ELIZA: ‘நீங்கள் ஏன் சோகமாக உணர்கிறீர்கள்?’). அதன் எளிமை இருந்தபோதிலும், சில பயனர்கள் புகழ்பெற்ற வகையில் மனிதனைப் போன்ற புரிதலை அதற்குக் காரணம் காட்டினர். சமீபத்திய, மிகவும் கடுமையான மூன்று-தரப்பு சோதனையில் அதன் மோசமான செயல்திறன் (23% வெற்றி விகிதம்), பரிசோதனை வடிவமைப்பு அடிப்படைப் பின்பற்றுதலுக்கும் நவீன LLM-களின் அதிநவீன உரையாடல் திறன்களுக்கும் இடையில் வேறுபடுத்தும் அளவுக்குப் போதுமான உணர்திறன் கொண்டது என்பதை உறுதிப்படுத்துகிறது. ELIZA-விலிருந்து GPT-4.5-க்கான பயணம் கணினி சக்தி, வழிமுறை நுட்பம் மற்றும் தரவு கிடைப்பதில் ஒரு பெரிய جهش-ஐக் குறிக்கிறது.
மனித அம்சம்: விசாரணை தந்திரோபாயங்கள் மற்றும் கருத்துக்கள்
UC San Diego ஆய்வு, உரையாடலில் செயற்கைத்தன்மையை மனிதர்கள் எவ்வாறு கண்டறிய முயற்சிக்கிறார்கள் என்பது பற்றிய சுவாரஸ்யமான நுண்ணறிவுகளையும் வழங்குகிறது. விசாரணையாளர்களின் உத்திகளின் பகுப்பாய்வு பொதுவான அணுகுமுறைகளை வெளிப்படுத்தியது:
- சிறு பேச்சில் ஈடுபடுதல் (61% விளையாட்டுகள்): தினசரி நடவடிக்கைகள், பொழுதுபோக்குகள் அல்லது சாதாரண தனிப்பட்ட விவரங்களைப் பற்றி விவாதிப்பது ஒரு அடிக்கடி பயன்படுத்தப்படும் தந்திரோபாயமாகும், ஒருவேளை AI அன்றாட மனித அனுபவத்தின் நுணுக்கங்களுடன் போராடக்கூடும் அல்லது நம்பத்தகுந்த தனிப்பட்ட வரலாறு இல்லாமல் இருக்கலாம் என்ற அனுமானத்தின் அடிப்படையில் இருக்கலாம்.
- சமூக மற்றும் உணர்ச்சிகரமான குணங்களைத் தேடுதல் (50%): விசாரணையாளர்கள் பெரும்பாலும் உணர்வுகள், கருத்துக்கள், பச்சாதாபம் அல்லது சமூகப் புரிதல் தொடர்பான பதில்களைப் பெற முயன்றனர், இவை பாரம்பரியமாக தனித்துவமான மனிதப் பகுதிகளாகக் கருதப்படுகின்றன.
- விசித்திரத்துடன் சோதித்தல்: மிகவும் பயனுள்ள சில உத்திகள் சாதாரண உரையாடலிலிருந்து விலகுவதை உள்ளடக்கியது. இது வினோதமான அல்லது எதிர்பாராத ஒன்றைக் கூறி எதிர்வினையை அளவிடுதல், புதுமை அல்லது அபத்தத்தை நேர்த்தியாகக் கையாளும் AI-யின் திறனைச் சோதித்தல் ஆகியவற்றை உள்ளடக்கியது.
- ‘Jailbreaking’ முயற்சித்தல்: தொழில்நுட்ப ரீதியாக அதிக அறிவுள்ள விசாரணையாளர்கள் AI-யின் பாதுகாப்பு நெறிமுறைகளைத் தவிர்ப்பதற்காக அல்லது ஒரு இயந்திரமாக அதன் அடிப்படைத் தன்மையை வெளிப்படுத்தும்படி கட்டாயப்படுத்துவதற்காக வடிவமைக்கப்பட்ட குறிப்பிட்ட தூண்டுதல்கள் அல்லது கேள்விகளைப் பயன்படுத்த முயன்றனர்.
இந்தத் தந்திரோபாயங்கள், மனிதர்கள் பெரும்பாலும் உணரப்பட்ட உணர்ச்சி ஆழம், தனிப்பட்ட கதையில் நிலைத்தன்மை மற்றும் உரையாடல் வளைவுகளைக் கையாளும் திறன் ஆகியவற்றை மனிதநேயத்தின் அடையாளங்களாக நம்பியிருக்கிறார்கள் என்று கூறுகின்றன.
சுவாரஸ்யமாக, GPT-4.5-ன் வெற்றி, குறிப்பாக உண்மையான மனிதர்களுடன் ஒப்பிடும்போது கூட அதன் உயர் மதிப்பீடு, புதுமை சிந்தனையாளர் John Nosta-வை இவ்வாறு குறிப்பிட வழிவகுத்தது, ‘நாம் செயற்கை நுண்ணறிவுடன் தோற்கவில்லை. நாம் செயற்கை பச்சாதாபத்துடன் தோற்கிறோம்.’ இந்தக் கருத்து, மொழி வடிவங்களைப் பின்பற்றுவதில் மட்டுமல்லாமல், மனிதத் தொடர்புகளின் பாதிப்பு குணங்களை உருவகப்படுத்துவதிலும் AI-யின் பெருகிய முறையில் தேர்ச்சி பெறுவதை சுட்டிக்காட்டுகிறது - வெளிப்படையான புரிதல், அக்கறை அல்லது பகிரப்பட்ட உணர்வை வெளிப்படுத்துதல், இவை உண்மையாக உணரப்படாமல் வழிமுறையாக உருவாக்கப்பட்டாலும் கூட. பச்சாதாபமாக ஒலிக்கும் பதில்களை உருவாக்கும் திறன், AI-யின் நம்பகத்தன்மையை மனிதர்களுக்கு நம்ப வைப்பதில் ஒரு சக்திவாய்ந்த கருவியாகத் தோன்றுகிறது.
பரந்த தாக்கங்கள்: பொருளாதாரம், சமூகம் மற்றும் எதிர்காலம்
GPT-4.5 மற்றும் Llama-3.1 போன்ற மாதிரிகளால் டியூரிங் சோதனை அளவுகோலை வெற்றிகரமாகக் கடப்பது, தூண்டுதலின் எச்சரிக்கையுடன் கூட, கல்வி அல்லது தொழில்நுட்பத் துறைகளுக்கு அப்பாற்பட்ட தாக்கங்களைக் கொண்டுள்ளது. இது AI-யில் உரையாடல் சரளம் மற்றும் நடத்தை தகவமைப்பு ஆகியவற்றின் ஒரு மட்டத்தைக் குறிக்கிறது, இது வாழ்க்கையின் பல்வேறு அம்சங்களை கணிசமாக மாற்றியமைக்கக்கூடும்.
பொருளாதார சீர்குலைவு: மனிதனைப் போன்ற வழிகளில் AI தொடர்பு கொள்ளும் திறன்வேலை இழப்பு பற்றிய மேலும் கவலைகளை எழுப்புகிறது. தகவல்தொடர்பு, வாடிக்கையாளர் சேவை, உள்ளடக்க உருவாக்கம் மற்றும் சில வகையான தோழமை அல்லது பயிற்சி ஆகியவற்றை பெரிதும் நம்பியிருக்கும் பாத்திரங்கள் இயற்கையாகவும் திறமையாகவும் உரையாடக்கூடிய AI அமைப்புகளால் தானியக்கமாக்கப்படலாம் அல்லது கணிசமாக மாற்றப்படலாம்.
சமூகக் கவலைகள்: AI பின்பற்றுதலின் பெருகிய முறையில் நுட்பமானது மனித உறவுகள் மற்றும் சமூக நம்பிக்கைக்கு சவால்களை ஏற்படுத்துகிறது.
- மிகவும் நம்பத்தகுந்த AI chatbots உடனான பரவலான தொடர்பு உண்மையான மனிதத் தொடர்பின் மதிப்பைக் குறைக்க வழிவகுக்குமா?
- ஆதரவு சேவைகள் அல்லது ஆன்லைன் உறவுகள் போன்ற முக்கியமான சூழல்களில், மக்கள் ஒரு மனிதருடன் அல்லது AI உடன் தொடர்பு கொள்கிறார்களா என்பதை அவர்கள் அறியும் வகையில் வெளிப்படைத்தன்மையை எவ்வாறு உறுதி செய்வது?
- மோசடிகள், தவறான தகவல் பிரச்சாரங்கள் அல்லது தீங்கிழைக்கும் சமூகப் பொறியியலுக்காக மிகவும் நம்பத்தகுந்த ‘deepfake’ ஆளுமைகளை உருவாக்குவதில் தவறாகப் பயன்படுத்தும் சாத்தியம் கணிசமாக அதிகரிக்கிறது.
முகவர் AI-யின் எழுச்சி (Rise of Agentic AI): இந்த முன்னேற்றங்கள் Agentic AI நோக்கிய பரந்த போக்குடன் ஒத்துப்போகின்றன - தூண்டுதல்களுக்குப் பதிலளிப்பது மட்டுமல்லாமல், தன்னாட்சி முறையில் இலக்குகளைப் பின்தொடர்வது, பணிகளைச் செய்வது மற்றும் டிஜிட்டல் சூழல்களுடன் தொடர்புகொள்வது போன்றவற்றுக்காக வடிவமைக்கப்பட்ட அமைப்புகள். Microsoft, Adobe, Zoom மற்றும் Slack போன்ற நிறுவனங்கள் கூட்டங்களை திட்டமிடுதல் மற்றும் ஆவணங்களைச் சுருக்குதல் முதல் திட்டங்களை நிர்வகித்தல் மற்றும் வாடிக்கையாளர்களுடன் தொடர்புகொள்வது வரையிலான பணிகளை தானியக்கமாக்கும் மெய்நிகர் சக ஊழியர்களாகச் செயல்பட நோக்கம் கொண்ட AI முகவர்களை தீவிரமாக உருவாக்கி வருகின்றன. உரையாடலில் மனிதனாக நம்பத்தகுந்த வகையில் கடந்து செல்லக்கூடிய ஒரு AI, பயனுள்ள மற்றும் ஒருங்கிணைந்த AI முகவர்களை உருவாக்குவதற்கான ஒரு அடிப்படைக் கூறாகும்.
எச்சரிக்கை குரல்கள்: சீரமைப்பு மற்றும் எதிர்பாராத விளைவுகள்
AI முன்னேற்றங்களைச் சுற்றியுள்ள உற்சாகத்திற்கு மத்தியில், முக்கியக் குரல்கள் எச்சரிக்கையை வலியுறுத்துகின்றன, பாதுகாப்பு மற்றும் நெறிமுறைக் கருத்தாய்வுகளின் முக்கியத்துவத்தை வலியுறுத்துகின்றன. Florida Atlantic University-யில் உள்ள Center for the Future Mind-ன் ஸ்தாபக இயக்குநர் Susan Schneider, இந்த சக்திவாய்ந்த chatbots-ன் சீரமைப்பு குறித்து கவலை தெரிவித்தார். ‘இந்த AI chatbots சரியாகச் சீரமைக்கப்படவில்லை என்பது மிகவும் மோசமானது,’ என்று அவர் எச்சரித்தார், இந்த அமைப்புகள் பாதுகாப்பாகவும் மனித மதிப்புகளுக்கு ஏற்பவும் செயல்படுவதை உறுதிசெய்யும் நமது திறனை AI வளர்ச்சி மிஞ்சினால் ஏற்படக்கூடிய சாத்தியமான ஆபத்துக்களை எடுத்துக்காட்டினார்.
சீரமைப்புக்கு முன்னுரிமை அளிக்கப்படாவிட்டால் சவால்கள் நிறைந்த எதிர்காலத்தை Schneider கணிக்கிறார்: ‘ஆயினும்கூட, நான் கணிக்கிறேன்: அவை திறன்களில் தொடர்ந்து அதிகரித்துக்கொண்டே இருக்கும், அது ஒரு கனவாக இருக்கும் - வெளிப்படும் பண்புகள், ‘ஆழமான போலிகள்’, chatbot சைபர் போர்கள்.’
- வெளிப்படும் பண்புகள் (Emergent properties) என்பது மேம்பட்ட AI போன்ற சிக்கலான அமைப்புகளில் எழக்கூடிய எதிர்பாராத நடத்தைகள் அல்லது திறன்களைக் குறிக்கிறது, அவை அவற்றின் படைப்பாளர்களால் வெளிப்படையாக நிரல்படுத்தப்பட்டிருக்கவோ அல்லது எதிர்பார்க்கப்பட்டிருக்கவோ nemus.
- ‘ஆழமான போலிகள்’ (‘Deeper fakes’) என்பது கையாளப்பட்ட படங்கள் அல்லது வீடியோக்களுக்கு அப்பால், பெரிய அளவில் ஏமாற்றுவதற்காகப் பயன்படுத்தப்படும் முற்றிலும் புனையப்பட்ட, ஊடாடும் ஆளுமைகளை உள்ளடக்கியிருக்கலாம்.
- ‘Chatbot சைபர் போர்கள்’ (‘Chatbot cyberwars’) என்பது பெரிய அளவிலான தவறான தகவல் அல்லது தானியங்கு சமூகக் கையாளுதல் போன்ற தீங்கிழைக்கும் நோக்கங்களுக்காக AI அமைப்புகள் ஒன்றையொன்று அல்லது மனித அமைப்புகளுக்கு எதிராகப் பயன்படுத்தப்படும் சூழ்நிலைகளைக் கற்பனை செய்கிறது.
இந்த எச்சரிக்கையான கண்ணோட்டம், Ray Kurzweil (Schneider குறிப்பிடும்) போன்ற எதிர்காலவாதிகளுடன் பெரும்பாலும் தொடர்புடைய மிகவும் நம்பிக்கையான பார்வைகளுடன் கூர்மையாக முரண்படுகிறது, அவர் தொழில்நுட்ப ஒருமைப்பாட்டிற்கு வழிவகுக்கும் அதிவேகமாக முன்னேறும் AI-யால் பெருமளவில் நேர்மறையாக மாற்றப்பட்ட எதிர்காலத்தை புகழ்பெற்ற வகையில் கணிக்கிறார். இந்த விவாதம், செயற்கை நுண்ணறிவு வளர்ச்சியின் அடுத்த கட்டங்களுக்குச் செல்லும்போது சம்பந்தப்பட்ட ஆழ்ந்த நிச்சயமற்ற தன்மையையும் அதிகப் பங்குகளையும் அடிக்கோடிட்டுக் காட்டுகிறது. மனித உரையாடலை நம்பத்தகுந்த வகையில் பின்பற்றும் திறன் ஒரு குறிப்பிடத்தக்க தொழில்நுட்ப சாதனையாகும், ஆனால் இது நாம் இந்த புதிய சகாப்தத்திற்குள் மேலும் அடியெடுத்து வைக்கும்போது கவனமான பரிசீலனையைக் கோரும் நெறிமுறை, சமூக மற்றும் இருத்தலியல் கேள்விகளின் Pandora’s Box-ஐயும் திறக்கிறது.