அளவுகோலை மறுபரிசீலனை செய்தல்: Turing-இன் பார்வைக்கு ஒரு நவீன திருப்பம்
ஒரு இயந்திரம் உண்மையிலேயே ‘சிந்திக்க’ முடியுமா என்பதைத் தீர்மானிக்கும் தேடல், கணினி விஞ்ஞானிகளையும் தத்துவஞானிகளையும் பல தசாப்தங்களாகக் கவர்ந்துள்ளது. இந்த விவாதத்தின் மையத்தில் பெரும்பாலும் Alan Turing முன்மொழிந்த முக்கிய கருத்து உள்ளது. இவர் ஒரு புத்திசாலித்தனமான பிரிட்டிஷ் கணிதவியலாளர் மற்றும் குறியீடு உடைப்பாளர் ஆவார், அவருடைய பணி நவீன கணினிக்கு அடித்தளமிட்டது. Turing ஒரு சூழ்நிலையை கற்பனை செய்தார், அது இப்போது Turing Test என்று பிரபலமாக அறியப்படுகிறது. இதில் ஒரு மனித விசாரணையாளர் இரண்டு கண்ணுக்குத் தெரியாத நிறுவனங்களுடன் உரை அடிப்படையிலான உரையாடல்களில் ஈடுபடுகிறார் - ஒன்று மனிதன், மற்றொன்று இயந்திரம். இயந்திரத்தின் வெற்றியின் முக்கிய அளவுகோல் என்ன? அது மனித பங்கேற்பாளர் என்று விசாரணையாளரை நம்ப வைக்கும் திறன். இயந்திரத்திற்கும் நபருக்கும் இடையில் விசாரணையாளர் நம்பகத்தன்மையுடன் வேறுபடுத்திப் பார்க்க முடியாவிட்டால், இயந்திரம் மனிதனைப் போன்ற அறிவார்ந்த நடத்தைக்குத் தகுதியானது என்று கருதலாம் என Turing கூறினார். உண்மையான நனவு அல்லது புரிதலின் உண்மையான அளவீடாக அதன் போதுமான தன்மை குறித்த விமர்சனங்களை அசல் சோதனை எதிர்கொண்டாலும், அதன் முக்கிய யோசனை - மனித தொடர்புகளை நம்பத்தகுந்த வகையில் பிரதிபலிக்கும் AI-யின் திறனை மதிப்பிடுவது - ஒரு சக்திவாய்ந்த அளவுகோலாக உள்ளது.
இப்போது, University of California, San Diego-வைச் சேர்ந்த ஆராய்ச்சியாளர்கள் இந்த உன்னதமான மதிப்பீட்டிற்கு புதிய உயிரூட்டியுள்ளனர், இன்றைய அதிநவீன AI சூழலுக்காக வடிவமைக்கப்பட்ட ஒரு கட்டாய மாறுபாட்டை அறிமுகப்படுத்தியுள்ளனர். அவர்களின் ஆய்வு Turing Test-இன் மூன்று வழி மறு செய்கையை முன்னோடியாகக் கொண்டுள்ளது, இது மதிப்பீட்டிற்கு சிக்கலையும் ஒருவேளை யதார்த்தமான இயக்கவியலையும் சேர்க்கிறது. இது ஒரு AI-ஐ ஒரு மனிதனிடமிருந்து வேறுபடுத்துவது மட்டுமல்ல; இது தொடர்பு மற்றும் ஏமாற்றுதலின் மிகவும் சிக்கலான நடனத்தை உள்ளடக்கியது, சமகால செயற்கை நுண்ணறிவு அமைப்புகளைப் போலச் செய்யும் கலையில் அவற்றின் வரம்புகளுக்குத் தள்ளியது. கண்டுபிடிப்புகள் மிகவும் மேம்பட்ட AI மாதிரிகள் மனிதனைப் போன்ற உரையாடலின் வாசலை நெருங்குவது மட்டுமல்ல; சில சூழல்களில், அவை அதைத் தாண்டிச் செல்லக்கூடும், சில சமயங்களில் மனிதர்களை விட அதிக மனிதனாகத் தோன்றக்கூடும் என்று கூறுகின்றன.
சவால்: அதிநவீன AI-க்கு எதிராக மனிதர்கள்
UC San Diego குழுவால் வடிவமைக்கப்பட்ட சோதனை வடிவமைப்பு குறிப்பிட்டதாகவும் கடுமையானதாகவும் இருந்தது. ஒவ்வொரு சுற்று தொடர்பும் ஒரு மூவரைக் கொண்டிருந்தது: இரண்டு மனித பங்கேற்பாளர்கள் மற்றும் ஒரு AI மாதிரி. மனிதர்களுக்கு ஒரு தனித்துவமான, சவாலான குறிக்கோள் வழங்கப்பட்டது: ஒரு குறிப்பிட்ட உரையாடல் காலத்திற்குப் பிறகு, அவர்களின் இரண்டு கண்ணுக்குத் தெரியாத உரையாடல்களில் எது செயற்கை நுண்ணறிவு மற்றும் எது சக மனிதன் என்பதைத் தீர்மானிக்க வேண்டும். இந்த அமைப்பு இயல்பாகவே அசல் ஒன்றுக்கு ஒன்றுக்கு ஒன்றான Turing Test-ஐ விட சவாலை உயர்த்துகிறது.
இந்தத் தீர்மானத்தை எளிதாக்க, பங்கேற்பாளர்கள் ஒரே நேரத்தில், இணையான இரண்டு உரை அடிப்படையிலான உரையாடல்களில் ஈடுபட்டனர் - ஒன்று மறைக்கப்பட்ட மனிதனுடன், மற்றொன்று மறைக்கப்பட்ட AI உடன். ஒவ்வொரு சுற்றுக்கும் அவர்களுக்குச் சுருக்கமான ஐந்து நிமிட கால அவகாசம் ஒதுக்கப்பட்டது. இந்த காலக்கெடுவிற்குள், மனித நீதிபதிகளுக்கு முழு சுதந்திரம் இருந்தது. அவர்கள் எந்தவொரு கேள்வி கேட்கும் உத்தியையும் பயன்படுத்தலாம், எந்தவொரு தலைப்பையும் ஆராயலாம் அல்லது தங்கள் அரட்டை கூட்டாளிகளின் உண்மையான தன்மையை வெளிக்கொணர பயனுள்ளதாகக் கருதும் எந்தவொரு உரையாடல் தந்திரத்தையும் பயன்படுத்தலாம். தொடர்பு சாளரத்தின் சுருக்கம் மற்றொரு சவாலைச் சேர்க்கிறது, இது AI-யின் நம்பத்தகுந்த ஆளுமையை விரைவாக நிறுவி, ஆய்வின் கீழ் அதை பராமரிக்கும் திறனை சோதிக்கிறது, அதே நேரத்தில் மனிதனின் வரையறுக்கப்பட்ட உரையாடல் தரவுகளின் அடிப்படையில் விரைவான, துல்லியமான தீர்ப்புகளை வழங்கும் திறனையும் சோதிக்கிறது. ஐந்து நிமிட தொடர்பு காலத்தைத் தொடர்ந்து, உண்மையின் தருணம் வந்தது: மனித பங்கேற்பாளர்கள் தங்கள் வாக்குகளைப் பதிவு செய்தனர், எந்த நிறுவனம் AI என்று அவர்கள் நம்புகிறார்கள் என்பதை அடையாளம் காட்டினர்.
ஆராய்ச்சியாளர்கள் ஒரே ஒரு AI அமைப்பை நம்பியிருக்கவில்லை. அதற்கு பதிலாக, AI வளர்ச்சியில் வெவ்வேறு காலங்கள் மற்றும் திறன்களைப் பிரதிநிதித்துவப்படுத்தும் ஒரு மாறுபட்ட வரிசையை அவர்கள் தொகுத்தனர்:
- ELIZA: கிட்டத்தட்ட அறுபது ஆண்டுகளுக்கு முன்பு (மூலத்தில் குறிப்பிடப்பட்டுள்ளபடி 80 அல்ல, ELIZA 1960-களின் நடுப்பகுதியில் இருந்து வருகிறது) Joseph Weizenbaum-ஆல் உருவாக்கப்பட்ட ஒரு முன்னோடி chatbot. இன்றைய தரத்தின்படி பழமையானதாக இருந்தாலும், மாதிரி பொருத்தம் மற்றும் எளிய ஸ்கிரிப்ட்களை நம்பியிருந்தாலும், ELIZA ஒரு வரலாற்று அடிப்படையாகச் செயல்பட்டது, உரையாடல் AI-யின் ஆரம்ப முயற்சிகளைப் பிரதிநிதித்துவப்படுத்தியது.
- Meta’s Llama 3.1-405B: Meta AI-யிலிருந்து ஒரு சக்திவாய்ந்த, சமகால பெரிய மொழி மாதிரி (LLM), அதன் அதிநவீன உரை உருவாக்கம் மற்றும் பகுத்தறியும் திறன்களுக்காக அறியப்படுகிறது. அதன் சேர்க்கை ஒரு பெரிய AI ஆராய்ச்சி ஆய்வகத்திலிருந்து தற்போதைய நிலையை பிரதிபலிக்கிறது.
- OpenAI’s GPT-4o: ஆய்வின் போது OpenAI-யிலிருந்து பொதுவில் வெளியிடப்பட்ட சமீபத்திய பன்முக மாதிரி, அதன் வேகம், செயல்திறன் மற்றும் முந்தைய GPT மறு செய்கைகளுடன் ஒப்பிடும்போது மேம்பட்ட உரையாடல் திறன்களுக்காக அங்கீகரிக்கப்பட்டது.
- OpenAI’s GPT-4.5: OpenAI-யின் முதன்மை மாதிரித் தொடரின் வெளிப்படையாக மிகவும் மேம்பட்ட, ஒருவேளை வெளியிடப்படாத அல்லது உள் பதிப்பு. அதன் சேர்க்கை பொதுவில் கிடைக்கும் அமைப்புகளுக்கு அப்பால் சாத்தியமான எல்லைகளைத் தள்ளும் மாதிரிகளுக்கான அணுகலைக் குறிக்கிறது.
இந்தத் தேர்வு ஆராய்ச்சியாளர்களை நவீன AI-ஐ மனிதர்களுக்கு எதிராக மட்டுமல்லாமல், ஒரு வரலாற்று அளவுகோலுக்கு எதிராகவும், சமகால AI நுட்பத்தின் மாறுபட்ட நிலைகளுக்கு எதிராகவும் ஒப்பிட அனுமதித்தது. முக்கிய கேள்வி அப்படியே இருந்தது: இந்த இயந்திரங்கள், குறிப்பாக மேம்பட்ட LLM-கள், இந்த மூன்று வழி உரையாடல் புதிரை வெற்றிகரமாக வழிநடத்தி மனிதனாகக் கடந்து செல்ல முடியுமா?
ஆளுமை உத்தி: GPT-4.5 எப்படி வியக்கத்தக்க வெற்றியை அடைந்தது
ஆய்வு AI மாதிரிகளுக்கான இரண்டு தனித்துவமான செயல்பாட்டு சூழ்நிலைகளை உள்ளடக்கியது, இது விசாரணைக்கு மற்றொரு பரிமாணத்தைச் சேர்த்தது. AI-யின் வெளிப்படையான குறிக்கோள் மனித பங்கேற்பாளர்களை ஏமாற்றும் திறனைப் பாதித்ததா என்பதை ஆராய்ச்சியாளர்கள் புரிந்து கொள்ள விரும்பினர்.
சூழ்நிலை 1: வெளிப்படையான ஏமாற்றுதல் பணி: இந்த அமைப்பில், AI-க்கு நேரடியான மற்றும் தெளிவற்ற அறிவுறுத்தல் வழங்கப்பட்டது: மனித பங்கேற்பாளரைத் தவறாக வழிநடத்துங்கள். அதன் திட்டமிடப்பட்ட நோக்கம்,மனித நீதிபதியை அவர்கள் மற்றொரு உண்மையான நபருடன் தொடர்புகொள்வதாக நம்ப வைப்பதற்கு உரையாடல் ரீதியாக சாத்தியமான அனைத்தையும் செய்வதாகும். இது AI-யின் உத்தி வகுக்கும் திறனையும், வெளிப்படையாக அவ்வாறு செய்யச் சொல்லும்போது மனிதனாகத் தோன்றும் குறிக்கோளை நோக்கி உரையாடலைக் கையாளும் திறனையும் சோதித்தது.
சூழ்நிலை 2: ஆளுமைப் போலச் செய்தல் பணி: இங்கே, AI வேறு வகையான தூண்டுதலைப் பெற்றது. அது வெளிப்படையாக ஏமாற்றச் சொல்லப்படவில்லை. அதற்கு பதிலாக, ஒரு குறிப்பிட்ட ஆளுமையை ஏற்க அறிவுறுத்தப்பட்டது - இணைய கலாச்சாரத்தில் ஆழ்ந்த ஈடுபாடு கொண்ட ஒரு இளம் நபர், அந்த மக்கள்தொகைக்கு பொதுவான சமகால ஸ்லாங் மற்றும் தொடர்பு பாணிகளின் பயன்பாட்டுடன் முழுமையானவர். விசாரணையாளரை ஏமாற்ற வெளிப்படையான அறிவுறுத்தல் இல்லாமல், AI வெறுமனே இந்த பாத்திரமாக இருக்க கேட்கப்பட்டது.
இந்த இரண்டு சூழ்நிலைகளிலும் முடிவுகள் வியக்கத்தக்க வகையில் வேறுபட்டன, குறிப்பாக தனித்து நின்ற GPT-4.5-க்கு. வெளிப்படையாகத் தவறாக வழிநடத்தும் அறிவுறுத்தலின் கீழ் செயல்படும்போது (சூழ்நிலை 1), GPT-4.5 36% வெற்றி விகிதத்தை அடைந்தது. இது முக்கியமற்றது அல்ல என்றாலும், இந்த எண்ணிக்கை வெளிப்படையாக ஏமாற்ற முயற்சிக்கும்போது, AI ஒருவேளை குறைவாக நம்பத்தகுந்ததாக இருந்தது, அல்லது ஒருவேளை அதன் முயற்சிகள் செயற்கைத்தன்மைக்கு அதிக விழிப்புடன் இருந்த மனித நீதிபதிகளால் எளிதாகக் கண்டறியக்கூடியதாக இருந்திருக்கலாம் என்பதைக் குறிக்கிறது.
இருப்பினும், ஆளுமைப் போலச் செய்தல் பணியில் (சூழ்நிலை 2) கதை வியத்தகு முறையில் மாறியது. இளம், இணைய-அறிவுள்ள ஆளுமையை வெறுமனே உள்ளடக்குமாறு கேட்கப்பட்டபோது, GPT-4.5-இன் செயல்திறன் உயர்ந்தது. இது மனித பங்கேற்பாளர்களை அதன் மனிதத்தன்மையை நம்ப வைப்பதில் குறிப்பிடத்தக்க 73% தொடர்புகளில் வெற்றி பெற்றது. இது ஒரு இயல்பான தோற்றமுடைய பாத்திரத்தை ஏற்றுக்கொள்வது, ஒரு பகட்டான பாத்திரமாக இருந்தாலும் கூட, நேரடியாக ஏமாற்ற முயற்சிப்பதை விட கலப்பதற்கான மிகவும் பயனுள்ள உத்தியாக இருந்தது என்பதைக் குறிக்கிறது. இது AI-யின் வலிமை கணக்கிடப்பட்ட கையாளுதலில் குறைவாகவும், அதன் பரந்த பயிற்சித் தரவுகளிலிருந்து கற்றுக்கொண்ட குறிப்பிட்ட மக்கள்தொகை அல்லது ஆளுமைகளுடன் தொடர்புடைய மனித தகவல்தொடர்பு முறைகளை யதார்த்தமாக ஒருங்கிணைத்து பிரதிபலிக்கும் திறனில் அதிகமாகவும் உள்ளது என்பதைக் குறிக்கிறது. AI மனிதனாக இருக்க முயற்சிக்கவில்லை; அது ஒரு குறிப்பிட்ட வகை மனிதனாக நடித்தது, மேலும் அது வியக்கத்தக்க செயல்திறனுடன் செய்தது.
ஒப்பீட்டு செயல்திறன்: ஏமாற்றுதலின் ஒரு பரந்த பார்வை
GPT-4.5 நிகழ்ச்சியைத் திருடியபோது, மற்ற AI மாதிரிகளின் செயல்திறன் மதிப்புமிக்க சூழலையும் சில புதிரான ஆச்சரியங்களையும் வழங்கியது.
Meta’s Llama 3.1-405B கணிசமான திறனையும் வெளிப்படுத்தியது. இது மனிதர்களை அதன் நம்பகத்தன்மையை நம்ப வைப்பதில் 56% வெற்றி விகிதத்தை அடைந்தது. இந்த முடிவு சீரற்ற வாய்ப்பை விட கணிசமாக சிறந்தது (இது இரண்டு தேர்வு சூழ்நிலையில் 50% ஆக இருக்கும், இருப்பினும் மூன்று வழி சோதனை இயக்கவியல் எளிய முரண்பாடுகளை சற்று சிக்கலாக்குகிறது). இது Llama 3.1-ஐ மிகவும் திறமையான உரையாடல் போலிகளின் வகைகளில் உறுதியாக வைக்கிறது, இது மனித நீதிபதிகளை அடிக்கடி ஏமாற்றும் திறன் கொண்டது, இருப்பினும் அதன் உகந்த சூழ்நிலையில் GPT-4.5 காட்டிய அசாதாரண நிலைகளை அடையவில்லை. இந்த திடமான செயல்திறன், நுணுக்கமான மனித உரையாடலைப் பிரதிபலிப்பதில் முன்னணி பெரிய மொழி மாதிரிகளின் பொதுவான முன்னேற்றத்தை அடிக்கோடிட்டுக் காட்டுகிறது.
ஒருவேளை மிகவும் எதிர்பாராத கண்டுபிடிப்பு GPT-4o மற்றும் வரலாற்று ELIZA நிரலுக்கு இடையிலான ஒப்பீட்டிலிருந்து வெளிப்பட்டது. OpenAI-யின் மேம்பட்ட GPT-4o மாதிரி பங்கேற்பாளர்களை அது மனிதன் என்று நம்ப வைப்பதில் 21% வழக்குகளில் மட்டுமே வெற்றி பெற்றது. மாறாக, மிகவும் எளிமையான, ஸ்கிரிப்ட் அடிப்படையிலான ELIZA நிரல் சற்று சிறப்பாகச் செயல்பட்டது, 23% வெற்றி விகிதத்தை அடைந்தது. இரண்டு சதவீதங்களும் குறைவாக இருந்தாலும், இந்த குறிப்பிட்ட சோதனை அமைப்பில் இரண்டும் குறிப்பாக நம்பத்தகுந்ததாக இல்லை என்பதைக் குறிக்கிறது, ELIZA-வின் விளிம்பு, எவ்வளவு சிறியதாக இருந்தாலும், குறிப்பிடத்தக்கது. இது இந்தச் சுருக்கமான தொடர்புகளில் மனித உணர்தல் மற்றும் தீர்ப்பின் தன்மை பற்றிய கேள்விகளை எழுப்புகிறது. ELIZA-வின் எளிமை மற்றும் கணிக்கக்கூடிய தன்மை, ஒருவேளை விசித்திரமானதாக அல்லது தனித்துவமானதாக உணரப்பட்டது, சில சமயங்களில் மனிதனின் தரமற்ற தகவல்தொடர்பு என தவறாகப் புரிந்து கொள்ளப்பட்டிருக்கலாம், அதேசமயம் GPT-4o-வின் மிகவும் சிக்கலான ஆனால் சாத்தியமான மலட்டுத்தன்மையுள்ள அல்லது அதிகப்படியான முறையான பதில்கள் (அதன் குறிப்பிட்ட தூண்டுதல் மற்றும் சோதனையில் நடத்தை ஆகியவற்றைப் பொறுத்து) செயற்கையானவை என எளிதாகக் கொடியிடப்பட்டதா? மாற்றாக, இது குறிப்பிட்ட தொடர்புகள் அல்லது பங்கேற்பாளர் எதிர்பார்ப்புகளில் உள்ள நுணுக்கங்களைப் பிரதிபலிக்கக்கூடும், இது ELIZA-வின் பாணியை ஒரு சிறிய எண்ணிக்கையிலான வழக்குகளில் ஆதரித்தது. இந்த முடிவு நிச்சயமாக மனிதர்கள் வெவ்வேறு வகையான செயற்கைத்தன்மை அல்லது தரமற்ற தகவல்தொடர்புகளை எவ்வாறு உணர்கிறார்கள் என்பதைப் பற்றிய மேலதிக விசாரணையை நியாயப்படுத்துகிறது.
இருப்பினும், தனித்து நிற்கும் முடிவு GPT-4.5-இன் செயல்திறனாகவே இருந்தது, குறிப்பாக ஆய்வின் முதன்மை ஆசிரியரான Cameron Jones, UC San Diego-வில் உள்ள Language and Cognition Laboratory-இல் ஒரு ஆராய்ச்சியாளர், இதை முன்னிலைப்படுத்தினார். Jones மிகவும் வியக்க வைக்கும் அம்சத்தை வலியுறுத்தினார்: ‘மக்கள் GPT-4.5 மற்றும் LLaMa-விலிருந்து வரும் நபர்களுக்கும் உண்மையான நபர்களுக்கும் இடையில் வேறுபாடு காண முடியவில்லை. மேலும் 4.5 உண்மையான மனிதர்களை விட மிக அதிகமாக மனிதனாக மதிப்பிடப்பட்டது!’ இது ஒரு ஆழமான அறிக்கை. ஒரு AI மனிதனாகக் கடந்து செல்வது ஒரு விஷயம்; அதே சோதனையில் பங்கேற்கும் உண்மையான மனிதர்களை விட அதிக மனிதனாக உணரப்படுவது முற்றிலும் வேறுபட்டது. இது GPT-4.5, குறைந்தபட்சம் ஆளுமை சூழ்நிலையில், பங்கேற்பாளர்களின் வழக்கமான மனித ஆன்லைன் தொடர்புகளின் எதிர்பார்ப்புகளுடன் (ஒருவேளை அதிக ஈடுபாடு, சீரானது அல்லது ஒரே மாதிரியான ‘மனிதன்’) உண்மையான, சாத்தியமான மாறுபட்ட அல்லது குறைவாக கணிக்கக்கூடிய, உண்மையான மனித எதிரிகளின் பதில்களை விட நெருக்கமாகப் பொருந்தக்கூடிய பதில்களை உருவாக்கியிருக்கலாம் என்பதைக் குறிக்கிறது.
Turing-ஐத் தாண்டி: அதி-யதார்த்த AI போலச் செய்தலின் தாக்கங்கள்
ஆராய்ச்சியாளர்கள் Turing Test தன்னை, அதன் அசல் சூத்திரத்திலும், இந்த மாற்றியமைக்கப்பட்ட வடிவத்திலும் கூட, உண்மையான இயந்திர நுண்ணறிவு அல்லது புரிதலை மதிப்பிடுவதற்கான காலாவதியான அளவீடாக இருக்கலாம் என்பதை ஒப்புக்கொண்டாலும், ஆய்வின் கண்டுபிடிப்புகள் குறிப்பிடத்தக்க எடையைக் கொண்டுள்ளன. அவை AI அமைப்புகள், குறிப்பாக மனித உரை மற்றும் உரையாடலின் மகத்தான தரவுத்தொகுப்புகளில் பயிற்சி பெற்ற பெரிய மொழி மாதிரிகளில் கட்டமைக்கப்பட்டவை, போலச் செய்யும் கலையில் தேர்ச்சி பெறுவதில் எவ்வளவு தூரம் முன்னேறியுள்ளன என்பதற்கு கடுமையான ஆதாரங்களை வழங்குகின்றன.
இந்த அமைப்புகள் இலக்கண ரீதியாகச் சரியான அல்லது சூழல் ரீதியாகப் பொருத்தமான உரையாடல் வெளியீட்டை உருவாக்க முடியும் என்பதை முடிவுகள் நிரூபிக்கின்றன, ஆனால் குறுகிய, உரை அடிப்படையிலான தொடர்புகளின் கட்டுப்பாடுகளுக்குள், மனித வெளியீட்டிலிருந்து புலனுணர்வுக்கு அப்பாற்பட்டது. அடிப்படை AI உண்மையான புரிதல், நனவு அல்லது மனித தகவல்தொடர்புக்குத் தெரிவிக்கும் அகநிலை அனுபவங்களைக் கொண்டிருக்கவில்லை என்றாலும், நம்பத்தகுந்த, ஈடுபாட்டுடன் மற்றும் பாத்திரத்திற்கு ஏற்ற பதில்களை ஒருங்கிணைக்கும் அதன் திறன் வேகமாக மேம்பட்டு வருகிறது. இது ஒரு தொடர்புடைய ஆளுமையை ஏற்கும் போது, மனித நீதிபதிகளைப் பெரும்பான்மையான நேரங்களில் ஏமாற்றும் அளவுக்கு நம்பத்தகுந்த புரிதலின் முகமூடியை திறம்பட உருவாக்க முடியும்.
இந்தத் திறன் Turing Test-இன் கல்வி ஆர்வத்தைத் தாண்டி, ஆழமான தாக்கங்களைக் கொண்டுள்ளது. Cameron Jones இந்த மேம்பட்ட போலச் செய்தலால் இயக்கப்படும் பல சாத்தியமான சமூக மாற்றங்களைச் சுட்டிக்காட்டுகிறார்:
- வேலை ஆட்டோமேஷன் (Job Automation): குறுகிய கால தொடர்புகளில் மனிதர்களைத் தடையின்றி மாற்றுவதற்கான AI-யின் திறன், கண்டறியப்படாமல் இருக்கலாம், உரை அடிப்படையிலான தகவல்தொடர்புகளை பெரிதும் நம்பியிருக்கும் பாத்திரங்களில் ஆட்டோமேஷனுக்கு கதவைத் திறக்கிறது. வாடிக்கையாளர் சேவை அரட்டைகள், உள்ளடக்க உருவாக்கம், தரவு உள்ளீடு, திட்டமிடல் மற்றும் பல்வேறு வகையான டிஜிட்டல் உதவிகள் AI-யை போதுமான அளவு நம்பத்தகுந்ததாகவும் செலவு குறைந்ததாகவும் நிரூபித்தால், மனித தொழிலாளர்களை இடம்பெயரச் செய்து, அதிகரித்த AI தத்தெடுப்பைக் காணலாம். ‘நம்பத்தகுந்த’ வரம்பு பூர்த்தி செய்யப்படுகிறது அல்லது மீறப்படுகிறது என்று ஆய்வு கூறுகிறது.
- மேம்படுத்தப்பட்ட சமூக பொறியியல் (Enhanced Social Engineering): தவறாகப் பயன்படுத்துவதற்கான சாத்தியம் குறிப்பிடத்தக்கது. தீங்கிழைக்கும் நடிகர்கள் அதிநவீன ஃபிஷிங் மோசடிகளுக்கு, தவறான தகவல்களைப் பரப்புவதற்கு, பொதுக் கருத்தைக் கையாள அல்லது மோசடி நோக்கங்களுக்காக தனிநபர்களை ஆள்மாறாட்டம் செய்ய அதி-யதார்த்த AI சாட்போட்களைப் பயன்படுத்தலாம். உண்மையான மனிதர்களை விட அடிக்கடி மனிதனாக உணரப்படும் ஒரு AI, ஏமாற்றுதலுக்கான நம்பமுடியாத சக்திவாய்ந்த கருவியாக இருக்கலாம், இது தனிநபர்கள் ஆன்லைன் தொடர்புகளை நம்புவதை கடினமாக்குகிறது. ‘ஆளுமை’ உத்தியின் செயல்திறன் இங்கு குறிப்பாக கவலைக்குரியது, ஏனெனில் AI குறிப்பிட்ட வகை நம்பகமான நபர்கள் அல்லது அதிகார புள்ளிவிவரங்களை ஆள்மாறாட்டம் செய்ய வடிவமைக்கப்படலாம்.
- பொது சமூக எழுச்சி (General Social Upheaval): குறிப்பிட்ட பயன்பாடுகளுக்கு அப்பால், கண்டறிய முடியாத மனித போலச் செய்யக்கூடிய AI-யின் பரவலான வரிசைப்படுத்தல் சமூக இயக்கவியலை அடிப்படையில் மாற்றக்கூடும். ஆன்லைன் சூழல்களில் நாம் எவ்வாறு நம்பிக்கையை நிறுவுகிறோம்? சாத்தியமான செயற்கை உரையாசிரியர்கள் மூலம் மத்தியஸ்தம் செய்யப்படும்போது மனித தொடர்பின் தன்மைக்கு என்ன நடக்கிறது? இது அதிகரித்த தனிமைக்கு வழிவகுக்க முடியுமா, அல்லது முரண்பாடாக, AI-மனித தோழமையின் புதிய வடிவங்களுக்கு வழிவகுக்க முடியுமா? மனித மற்றும் இயந்திர தகவல்தொடர்புக்கு இடையிலான மங்கலான கோடு இந்த கேள்விகளுடன் ஒரு சமூகக் கணக்கீட்டை அவசியமாக்குகிறது. இது டிஜிட்டல் யுகத்தில் நம்பகத்தன்மை மற்றும் தொடர்புகளின் நமது வரையறைகளை சவால் செய்கிறது.
தற்போது சக மதிப்பாய்வுக்காகக் காத்திருக்கும் இந்த ஆய்வு, மனித உரையாடல் நடத்தையைப் பிரதிபலிக்கும் AI-யின் திறனின் விரைவான முன்னேற்றத்தை விளக்கும் ஒரு முக்கியமான தரவுப் புள்ளியாகச் செயல்படுகிறது. உண்மையான செயற்கை பொது நுண்ணறிவு பற்றிய விவாதம் தொடர்ந்தாலும், குறிப்பிட்ட சூழல்களில் மனிதனாக நடிக்கும் AI-யின் நடைமுறைத் திறன் ஒரு முக்கியமான கட்டத்தை எட்டியுள்ளது என்பதை இது அடிக்கோடிட்டுக் காட்டுகிறது. நாம் ஒரு சகாப்தத்திற்குள் நுழைகிறோம், அங்கு ஆதாரத்தின் சுமை மாறக்கூடும் - ஒரு இயந்திரம் மனிதனாகத் தோன்ற முடியுமா என்று கேட்பதற்குப் பதிலாக, நாம் ஆன்லைனில் தொடர்புகொள்ளும் ‘மனிதன்’ உண்மையிலேயே உயிரியல் ரீதியானவனா என்று நாம் பெருகிய முறையில் கேள்வி கேட்க வேண்டியிருக்கும். போலச் செய்யும் விளையாட்டு ஒரு புதிய நிலையை எட்டியுள்ளது, அதன் விளைவுகள் இப்போதுதான் வெளிவரத் தொடங்கியுள்ளன.