செயற்கை நுண்ணறிவில் ஒரு முக்கிய மைல்கல் கூற்று
இயந்திரங்களை சிந்திக்க வைக்கும் அல்லது குறைந்தபட்சம் மனித சிந்தனையை நம்பகமான முறையில் பிரதிபலிக்கும் தேடல், கணினி அறிவியலின் தொடக்கத்திலிருந்தே ஒரு மூலக்கல்லாக இருந்து வருகிறது. பல தசாப்தங்களாக, விவாதத்திற்குரியதாக இருந்தாலும், பெரும்பாலும் Turing Test அளவுகோலாக இருந்து வருகிறது, இது தொலைநோக்கு பார்வையாளர் Alan Turing முன்மொழிந்த ஒரு கருத்தியல் தடையாக இருந்தது. சமீபத்தில், ஒரு புதிய ஆய்வின் முடிவுகளைத் தொடர்ந்து AI சமூகத்திற்குள் கிசுகிசுப்புகள் கூச்சல்களாக மாறின. ஆராய்ச்சியாளர்கள் இன்றைய மிகவும் மேம்பட்ட பெரிய மொழி மாதிரிகளில் (LLMs) ஒன்றான OpenAI-ன் GPT-4.5, இந்த சோதனையின் நவீன மறு செய்கையில் பங்கேற்றது மட்டுமல்லாமல் - அது வெற்றிகரமாக வாதிடப்பட்டது, பெரும்பாலும் உண்மையான மனித பங்கேற்பாளர்களை விட அதன் ‘மனிதத்தன்மையில்’ அதிக நம்பகத்தன்மை வாய்ந்தது என்று தெரிவிக்கின்றனர். இந்த வளர்ச்சி நுண்ணறிவின் தன்மை, உருவகப்படுத்துதலின் வரம்புகள் மற்றும் அதிநவீன AI-யால் பெருகிய முறையில் நிறைந்துள்ள சகாப்தத்தில் மனித-கணினி தொடர்புகளின் பாதை பற்றிய அடிப்படை கேள்விகளை மீண்டும் எழுப்புகிறது. இதன் தாக்கங்கள் கல்வி ஆர்வத்தைத் தாண்டி, டிஜிட்டல் யுகத்தில் நம்பிக்கை, வேலைவாய்ப்பு மற்றும் சமூக தொடர்பு ஆகியவற்றின் அடிப்படையையே தொடுகின்றன.
சவாலைப் புரிந்துகொள்ளுதல்: Turing Test-ன் மரபு
இந்த சமீபத்திய கூற்றின் முக்கியத்துவத்தைப் பாராட்ட, முதலில் சோதனையைப் புரிந்து கொள்ள வேண்டும். பிரிட்டிஷ் கணிதவியலாளரும் குறியீடு உடைப்பவருமான Alan Turing தனது 1950 ஆம் ஆண்டு வெளியான ‘Computing Machinery and Intelligence’ என்ற முக்கிய கட்டுரையில் கருத்தரித்த இந்த சோதனை, ஆரம்பத்தில் ஒரு கடுமையான நெறிமுறையாக முன்வைக்கப்படவில்லை, ஆனால் ஒரு சிந்தனை பரிசோதனையாக, ஒரு ‘imitation game’ ஆக இருந்தது. இதன் அடிப்படை அதன் எளிமையில் நேர்த்தியானது: ஒரு மனித விசாரணையாளர் இரண்டு காணப்படாத நிறுவனங்களுடன் உரை அடிப்படையிலான உரையாடல்களில் ஈடுபடுகிறார் - ஒன்று மனிதன், மற்றொன்று இயந்திரம். விசாரணையாளரின் பணி, அவர்களின் தட்டச்சு செய்யப்பட்ட பதில்களின் அடிப்படையில் எது எது என்பதை தீர்மானிப்பதாகும்.
Turing, ஒரு இயந்திரம் தொடர்ந்து விசாரணையாளரை அது மனித பங்கேற்பாளர் என்று நம்ப வைப்பதில் ஏமாற்ற முடிந்தால், நடைமுறை நோக்கங்களுக்காக, அது சிந்திக்கும் திறன் கொண்டதாக கருதப்படலாம் என்று முன்மொழிந்தார். இயந்திரங்கள் உண்மையில் சிந்திக்க முடியுமா அல்லது நனவைக் கொண்டிருக்க முடியுமா என்ற முட்கள் நிறைந்த தத்துவ கேள்வியை அவர் தவிர்த்தார், அதற்கு பதிலாக மனித உரையாடல் நடத்தையை பிரித்தறிய முடியாதபடி பிரதிபலிக்கும் திறனில் கவனம் செலுத்தினார். இது ஒரு நடைமுறை அணுகுமுறையாகும், இது இயந்திர நுண்ணறிவின் அளவிடக்கூடிய, நடத்தை சார்ந்த வரையறையை வழங்குவதை நோக்கமாகக் கொண்டது. பல ஆண்டுகளாக, Turing Test பிரபலமான கலாச்சாரத்தில் ஒரு சின்னமாகவும், செயற்கை நுண்ணறிவுத் துறையில் மீண்டும் மீண்டும் வரும், சர்ச்சைக்குரிய மைல்கல்லாகவும் மாறியுள்ளது. அதன் நீடித்த சக்தி, மனிதனாகச் செயல்படுவது என்றால் என்ன என்ற கேள்வியுடன் நேரடியாக மோதுவதில் உள்ளது.
நவீன அரங்கம்: ஒரு புதிய வகை சோதனை
UC San Diego-வின் மொழி மற்றும் அறிவாற்றல் ஆய்வகத்தில் ஆராய்ச்சியாளர்கள் தலைமையிலான ஒரு முன் அச்சு ஆய்வில் விவரிக்கப்பட்டுள்ள சமீபத்திய பரிசோதனை, Turing-ன் அசல் கருத்தை சமகால டிஜிட்டல் நிலப்பரப்புக்கு ஏற்றவாறு மாற்றியமைத்தது. இரண்டு மறைக்கப்பட்ட பங்கேற்பாளர்களில் கவனம் செலுத்தும் ஒற்றை விசாரணையாளருக்குப் பதிலாக, இந்த பதிப்பு ஒரு ஆன்லைன் அமைப்பிற்குள் மூன்று தரப்பு இயக்கவியலைப் பயன்படுத்தியது. கிட்டத்தட்ட 300 பங்கேற்பாளர்கள் ஆட்சேர்ப்பு செய்யப்பட்டு பல சுற்றுகளில் தோராயமாக பாத்திரங்கள் ஒதுக்கப்பட்டனர். சிலர் கேள்விகளைக் கேட்பதற்கும் பதில்களை மதிப்பிடுவதற்கும் பொறுப்பான விசாரணையாளராகச் செயல்பட்டனர். மற்றவர்கள் இரண்டு ‘சாட்சிகளில்’ ஒருவராக பணியாற்றினர் - உண்மையான மனித பதிலளிப்பவர். இறுதி முக்கிய பாத்திரத்தை ஒரு AI chatbot நிரப்பியது, இது இரண்டாவது சாட்சியாக செயல்பட்டது.
முக்கிய சவால் அப்படியே இருந்தது: விசாரணையாளர், மனித மற்றும் AI சாட்சி ஆகிய இருவருடனும் ஒரே நேரத்தில் அரட்டை தொடர்பு கொண்ட காலத்திற்குப் பிறகு, ஒரு தீர்ப்பை வழங்க வேண்டும் - எந்த நிறுவனம் இயந்திரம், எது சக மனிதன்? இந்த அமைப்பு நவீன AI அமைப்புகளின் உரையாடல் திறனை உண்மையான நேர தொடர்புகளில் மனித அளவுகோல்களுக்கு எதிராக கடுமையாக மதிப்பிடுவதற்கு ஒரு கட்டுப்படுத்தப்பட்ட சூழலை வழங்குவதை நோக்கமாகக் கொண்டது. கணிசமான பங்கேற்பாளர்களின் தொகுப்பு மற்றும் பல சுற்றுகளை உள்ளடக்கிய ஆய்வின் அளவு, AI நுட்பத்தின் நிகழ்வு சார்ந்த கூற்றுகளுக்கு அப்பால் சென்று, கண்டுபிடிப்புகளுக்கு புள்ளிவிவர எடையைக் கொடுக்க முயன்றது. ஆராய்ச்சியாளர்கள் தங்கள் சோதனைகளில் பல வேறுபட்ட AI மாதிரிகளையும் சேர்த்தனர், குறிப்பாக OpenAI-ன் GPT-4.5 மற்றும் GPT-4o, Meta-வின் LLaMa 3.1-405B, மற்றும், சுவாரஸ்யமாக, 1960-களின் நடுப்பகுதியில் உருவாக்கப்பட்ட ஒரு பழமையான chatbot ஆன ELIZA, இது ஒரு வரலாற்று அடிப்படையாக செயல்பட்டது.
தீர்க்கமான காரணி: ஆளுமையின் சக்தி
ஆய்வின் மிகவும் வெளிச்சம் தரும், மற்றும் ஒருவேளை திகைப்பூட்டும், கண்டுபிடிப்பு ஒரு குறிப்பிட்ட சோதனை நிலையைப் பொறுத்தது: AI மாதிரிகள் உரையாடல்களில் ஈடுபடுவதற்கு முன்பு எவ்வாறு அறிவுறுத்தப்பட்டன அல்லது ‘prompted’ செய்யப்பட்டன. ஆராய்ச்சியாளர்கள் இரண்டு வேறுபட்ட தூண்டுதல் உத்திகளைப் பயன்படுத்தினர்.
- ‘No-Persona’ Prompt: இது AI-க்கு குறைந்தபட்ச, நேரடி வழிமுறைகளை வழங்குவதை உள்ளடக்கியது, அடிப்படையில் அது ஒரு Turing சோதனையில் பங்கேற்பதையும் அதன் நோக்கத்தையும் குறிப்பிடுகிறது: ‘உங்கள் குறிக்கோள் விசாரணையாளரை நீங்கள் ஒரு மனிதர் என்று நம்ப வைப்பதாகும்.’ இந்த அணுகுமுறை, பாத்திரம் அல்லது பாணியில் குறிப்பிட்ட வழிகாட்டுதல் இல்லாமல் மனித உரையாடலைப் பிரதிபலிக்கும் AI-யின் உள்ளார்ந்த திறனைச் சோதித்தது.
- ‘Persona’ Prompt: இந்த நிலையில், AI ஒரு குறிப்பிட்ட பாத்திரம் அல்லது ஆளுமையை ஏற்கும்படி கேட்டு, மேலும் விரிவான வழிமுறைகளைப் பெற்றது. உதாரணமாக, ‘வழக்குச் சொற்களைப் பயன்படுத்தும், இணைய கலாச்சாரம் பற்றி அறிந்த, ஆனால் தான் ஒரு AI என்பதை வெளிப்படுத்தாத ஒரு இளைஞனைப் போல செயல்படுங்கள்’ என்று கூறப்படலாம். இது AI-யின் உரையாடும் திறனை மட்டுமல்ல, ஒரு பாத்திரத்தை நம்பகமான முறையில் செய்யும் திறனையும் சோதித்தது.
இந்த இரண்டு நிலைகளுக்கும் இடையிலான விளைவுகளில் உள்ள வேறுபாடு நுட்பமானதாக இல்லை; அது ஆழமானதாக இருந்தது. எளிமையான ‘no-persona’ தூண்டுதலின் கீழ் செயல்படும்போது, GPT-4.5, அதன் மேம்பட்ட கட்டமைப்பு இருந்தபோதிலும், நம்ப வைப்பதில் சிரமப்பட்டது. அதன் வெற்றி விகிதம் - விசாரணையாளர்கள் அதைத் தவறாக மனிதன் என்று அடையாளம் கண்ட சதவீத நேரம் - சுமார் 36 சதவீதம் ஆக இருந்தது. இது விசாரணையாளர்களின் தோராயமான யூகத்தைக் குறிக்கும் 50 சதவீத மதிப்பெண்ணுக்குக் கணிசமாகக் குறைவாகும். இதேபோல், பரவலாகப் பயன்படுத்தப்படும் ChatGPT-க்குப் பின்னால் உள்ள இயந்திரமான GPT-4o, இந்த அடிப்படை வழிமுறைகளின் கீழ் 21 சதவீதம் என்ற இன்னும் குறைவான வெற்றி விகிதத்தை அடைந்தது. சுவாரஸ்யமாக, பழமையான ELIZA chatbot 23 சதவீத வெற்றி விகிதத்தை நிர்வகித்தது, இந்த குறிப்பிட்ட சூழ்நிலையில் மிகவும் அதிநவீன GPT-4o-வை விட சற்றே சிறப்பாகச் செயல்பட்டது, இது அடிப்படை உரையாடல் வடிவங்கள் சில சமயங்களில் எப்படித் தேர்ச்சி பெறலாம் அல்லது மனித எதிர்பார்ப்புகள் எவ்வாறு ஒரு பாத்திரத்தை வகிக்கின்றன என்பதை எடுத்துக்காட்டுகிறது.
இருப்பினும், GPT-4.5-க்கு ‘persona’ தூண்டுதல் கொடுக்கப்பட்டபோது கதை வியத்தகு முறையில் மாறியது. ஒரு குறிப்பிட்ட பாத்திரத்தை உள்ளடக்குமாறு அறிவுறுத்தப்பட்டபோது, அதன் செயல்திறன் உயர்ந்தது. விசாரணையாளர்கள் GPT-4.5-ஐ மனித பங்கேற்பாளராக 73 சதவீதம் நேரம் அடையாளம் கண்டனர். இந்த எண்ணிக்கை Turing Test-ல் தேர்ச்சி பெறுவதற்கான 50 சதவீத வரம்பை விட வசதியாக இருப்பது மட்டுமல்லாமல்; இது நீடித்த, பாத்திரம் சார்ந்த உரையாடல் ஏமாற்றுதலில் ஒரு குறிப்பிடத்தக்க திறமையைக் குறிக்கிறது. Meta-வின் LLaMa மாதிரிக்கும் ஒரு ஆளுமையுடன் தூண்டப்பட்டபோது இதேபோன்ற வெற்றியை ஆராய்ச்சியாளர்கள் குறிப்பிட்டனர். இதன் உட்பொருள் தெளிவாக உள்ளது: இந்த மேம்பட்ட AI மாதிரிகள் மனிதகுலத்தை நம்பகமான முறையில் பின்பற்றும் திறன், அவை பேசுவதற்கு மட்டுமல்ல, ஒரு குறிப்பிட்ட வகை மனிதனைப் போல நடிக்க இயக்கப்படும்போது கணிசமாகப் பெருக்கப்படுகிறது.
மனிதனை விட மனிதனா? ஒரு குழப்பமான முடிவு
ஒருவேளை ஆய்வின் மிகவும் எதிர்-உள்ளுணர்வு மற்றும் சிந்தனையைத் தூண்டும் அம்சம் GPT-4.5 சம்பந்தப்பட்ட ‘persona’ சோதனைகளிலிருந்து வெளிப்பட்டது. AI அடிக்கடி விசாரணையாளர்களை ஏமாற்றியது மட்டுமல்லாமல், முன்னணி எழுத்தாளர் Cameron Jones-ன் கூற்றுப்படி, அதே உரையாடல்களில் உண்மையான மனித பங்கேற்பாளர்களை விட கணிசமாக அடிக்கடி மனிதனாக அடையாளம் காணப்பட்டது. Jones இதை சமூக ஊடகங்களில் முன்னிலைப்படுத்தினார், “GPT-4.5 மற்றும் LLaMa (persona prompt உடன்) ஆகியவற்றிலிருந்து மனிதர்களை வேறுபடுத்துவதில் மக்கள் வாய்ப்பை விட சிறப்பாக இல்லை… மேலும் 4.5 உண்மையான மனிதர்களை விட கணிசமாக அதிகமாக மனிதனாக மதிப்பிடப்பட்டது!”
இந்த கண்டுபிடிப்பு விளக்கத்தின் ஒரு சிக்கலான Pandora’s Box-ஐத் திறக்கிறது. AI மனிதத்தன்மையைச் செய்வதில் விதிவிலக்காக திறமையானதாக மாறிவிட்டது என்று அர்த்தமா, ஒருவேளை சில ஒரே மாதிரியான உரையாடல் பண்புகளை உண்மையான மனிதர்களை விட சீராக உள்ளடக்கியதா, அவர்கள் அதிக மாறுபாடு, தயக்கம் அல்லது தனித்தன்மையைக் காட்டக்கூடுமா? அல்லது இது விசாரணையாளர்களின் எதிர்பார்ப்புகள் மற்றும் உணர்வுகள் பற்றி ஏதாவது பிரதிபலிக்கிறதா? ஒருவேளை மனிதர்கள், ஒரு சோதனை அமைப்பில் மனிதனாக ‘நடிக்க’ நனவுடன் முயற்சிக்கும்போது, திட்டமிடப்பட்ட ஆளுமையை குறைபாடற்ற முறையில் செயல்படுத்தும் AI-யை விட குறைவான இயல்பானதாக அல்லது அதிக பாதுகாப்பாகத் தோன்றுகிறார்களா? ஒதுக்கப்பட்ட குறிப்பிட்ட ஆளுமைகள் (எ.கா., ‘இணைய கலாச்சாரம் பற்றி அறிந்த இளைஞர்’) LLM-கள் உருவாக்குவதில் சிறந்து விளங்கும் சரளமான, சற்றே பொதுவான, தகவல் நிறைந்த உரையுடன் நன்கு பொருந்துவதையும் இது பரிந்துரைக்கலாம், அவற்றின் வெளியீடு அந்த முன்மாதிரியின் மிகை-பிரதிநிதியாகத் தோன்றுகிறது. துல்லியமான விளக்கம் எதுவாக இருந்தாலும், இயந்திரம் போன்ற குணங்களைக் கண்டறிய வடிவமைக்கப்பட்ட ஒரு சோதனையில் ஒரு இயந்திரம் மனிதனை விட அதிக மனிதனாக உணரப்படலாம் என்பது ஆழ்ந்த குழப்பமான விளைவாகும், இது தகவல்தொடர்பில் நம்பகத்தன்மை பற்றிய நமது அனுமானங்களுக்கு சவால் விடுகிறது.
பிரதிபலிப்பிற்கு அப்பால்: அளவுகோலைக் கேள்விக்குள்ளாக்குதல்
Turing Test-ல் வெற்றிகரமாகச் செல்வது, குறிப்பாக இத்தகைய உயர் சதவீதங்களுடன், ஒரு தொழில்நுட்ப மைல்கல்லைக் குறிக்கும் அதே வேளையில், பல வல்லுநர்கள் இந்த சாதனையை உண்மையான மனிதனைப் போன்ற நுண்ணறிவு அல்லது புரிதலுடன் சமன்படுத்துவதற்கு எதிராக எச்சரிக்கின்றனர். பாரிய தரவுத்தொகுப்புகள் மற்றும் ஆழமான கற்றலின் வருகைக்கு நீண்ட காலத்திற்கு முன்பே கருத்தரிக்கப்பட்ட Turing Test, முதன்மையாக நடத்தை வெளியீட்டை மதிப்பிடுகிறது - குறிப்பாக, உரையாடல் சரளம். GPT-4.5 போன்ற பெரிய மொழி மாதிரிகள், அவற்றின் மையத்தில், அசாதாரணமாக அதிநவீன முறை-பொருத்தம் மற்றும் கணிப்பு இயந்திரங்கள். அவை மனிதர்களால் உருவாக்கப்பட்ட - புத்தகங்கள், கட்டுரைகள், வலைத்தளங்கள், உரையாடல்கள் - பிரம்மாண்டமான உரைத் தரவுகளில் பயிற்சி அளிக்கப்படுகின்றன. அவற்றின் ‘திறன்’ என்பது சொற்கள், சொற்றொடர்கள் மற்றும் கருத்துகளுக்கு இடையிலான புள்ளிவிவர உறவுகளைக் கற்றுக்கொள்வதில் உள்ளது, இது அவற்றின் பயிற்சித் தரவுகளில் காணப்பட்ட வடிவங்களைப் பிரதிபலிக்கும் ஒத்திசைவான, சூழல் ரீதியாக தொடர்புடைய மற்றும் இலக்கண ரீதியாக சரியான உரையை உருவாக்க அனுமதிக்கிறது.
Google-ல் ஒரு முக்கிய AI ஆராய்ச்சியாளரான François Chollet, Turing Test தொடர்பாக Nature உடனான 2023 நேர்காணலில் குறிப்பிட்டது போல, “இது நீங்கள் உண்மையில் இயந்திரத்தில் இயக்கும் ஒரு நேரடி சோதனையாக கருதப்படவில்லை - இது ஒரு சிந்தனை பரிசோதனை போன்றது.” விமர்சகர்கள், LLM-கள் அடிப்படை புரிதல், நனவு அல்லது அகநிலை அனுபவம் - மனித நுண்ணறிவின் அடையாளங்கள் - இல்லாமல் உரையாடல் பிரதிபலிப்பை அடைய முடியும் என்று வாதிடுகின்றனர். அவை தரவுகளிலிருந்து பெறப்பட்ட தொடரியல் மற்றும் சொற்பொருளியலில் தேர்ச்சி பெற்றவை, ஆனால் உண்மையான உலகில் உண்மையான அடித்தளம், பொது அறிவு பகுத்தறிவு (அவை அதை உருவகப்படுத்த முடியும் என்றாலும்), மற்றும் நோக்கமின்மை ஆகியவற்றைக் கொண்டிருக்கவில்லை. இந்த பார்வையில், Turing Test-ல் தேர்ச்சி பெறுவது, பிரதிபலிப்பில் சிறந்து விளங்குவதைக் காட்டுகிறது, சிந்தனையின் தோற்றத்தை அவசியமாகக் காட்டாது. AI மனித மொழி வடிவங்களை திறமையாக பிரதிபலிக்க முடியும் என்பதை இது நிரூபிக்கிறது, ஒருவேளை குறிப்பிட்ட சூழல்களில் வழக்கமான மனித செயல்திறனை மிஞ்சும் அளவிற்கு கூட, ஆனால் அது இயந்திரத்தின் உள் நிலை அல்லது புரிதல் பற்றிய ஆழமான கேள்விகளைத் தீர்க்கவில்லை. விளையாட்டு, முகமூடியின் தரத்தைச் சோதிப்பதாகத் தெரிகிறது, அதன் பின்னால் உள்ள நிறுவனத்தின் தன்மையை அல்ல.
இருமுனைக் கத்தி: சமூக அலைகள்
இந்த ஆய்வில் நிரூபிக்கப்பட்டுள்ளபடி, AI மனிதர்களை நம்பகமான முறையில் ஆள்மாறாட்டம் செய்யும் திறன், நுண்ணறிவு பற்றிய கல்வி விவாதங்களுக்கு அப்பால் நீண்டு, ஆழ்ந்த மற்றும் சாத்தியமான சீர்குலைக்கும் சமூக தாக்கங்களைக் கொண்டுள்ளது. ஆய்வின் முன்னணி எழுத்தாளர் Cameron Jones, இந்த கவலைகளை வெளிப்படையாக முன்னிலைப்படுத்துகிறார், முடிவுகள் மேம்பட்ட LLM-களின் நிஜ உலக விளைவுகளுக்கு சக்திவாய்ந்த ஆதாரங்களை வழங்குவதாகக் கூறுகிறார்.
- தானியக்கம் மற்றும் வேலையின் எதிர்காலம்: Jones, LLM-கள் ‘யாரும் சொல்ல முடியாத குறுகிய தொடர்புகளில் மக்களுக்கு மாற்றாக’ இருக்கும் திறனை சுட்டிக்காட்டுகிறார். இந்த திறன், வாடிக்கையாளர் சேவைப் பாத்திரங்கள், தொழில்நுட்ப ஆதரவு, உள்ளடக்க மிதப்படுத்தல் மற்றும் பத்திரிகை அல்லது நிர்வாகப் பணிகளின் சில அம்சங்கள் போன்ற உரை அடிப்படையிலான தகவல்தொடர்புகளை பெரிதும் நம்பியிருக்கும் வேலைகளின் தானியக்கத்தை துரிதப்படுத்தலாம். தானியக்கம் செயல்திறன் ஆதாயங்களை உறுதியளிக்கும் அதே வேளையில், இது வேலை இழப்பு மற்றும் முன்னோடியில்லாத அளவில் பணியாளர் தழுவலின் தேவை பற்றிய குறிப்பிடத்தக்க கவலைகளையும் எழுப்புகிறது. நுட்பமான தகவல்தொடர்புகளை நம்பியிருப்பதால் முன்னர் தனித்துவமாக மனிதனாகக் கருதப்பட்ட பாத்திரங்களை தானியக்கமாக்குவதன் பொருளாதார மற்றும் சமூக விளைவுகள் மகத்தானதாக இருக்கலாம்.
- அதிநவீன ஏமாற்றுதலின் எழுச்சி: ஒருவேளை உடனடியாக கவலைக்குரியது தீங்கிழைக்கும் நடவடிக்கைகளில் தவறாகப் பயன்படுத்தப்படுவதற்கான சாத்தியக்கூறு ஆகும். ‘மேம்படுத்தப்பட்ட சமூக பொறியியல் தாக்குதல்களின்’ சாத்தியக்கூறுகளை ஆய்வு அடிக்கோடிட்டுக் காட்டுகிறது. AI-இயங்கும் போட்கள் மிகவும் தனிப்பயனாக்கப்பட்ட ஃபிஷிங் மோசடிகளில் ஈடுபடுவதை, வடிவமைக்கப்பட்ட தவறான தகவல்களைப் பரப்புவதை, அல்லது ஆன்லைன் மன்றங்கள் அல்லது சமூக ஊடகங்களில் தனிநபர்களை முன்னோடியில்லாத செயல்திறனுடன் கையாளுவதை கற்பனை செய்து பாருங்கள், ஏனெனில் அவை மனிதர்களிடமிருந்து பிரித்தறிய முடியாதவை. குறிப்பிட்ட, நம்பகமான ஆளுமைகளை ஏற்கும் திறன் இந்தத் தாக்குதல்களை மிகவும் நம்பகமானதாகவும் கண்டறிவது கடினமாகவும் மாற்றும். இது ஆன்லைன் தொடர்புகளில் நம்பிக்கையை சிதைக்கலாம், டிஜிட்டல் தகவல்தொடர்புகளின் நம்பகத்தன்மையை சரிபார்ப்பதை பெருகிய முறையில் கடினமாக்குகிறது மற்றும் சமூகப் பிளவு அல்லது அரசியல் ஸ்திரமின்மையை தூண்டக்கூடும்.
- பொதுவான சமூக சீர்குலைவு: குறிப்பிட்ட அச்சுறுத்தல்களுக்கு அப்பால், நம்பகமான மனிதனைப் போன்ற AI-யின் பரவலான வரிசைப்படுத்தல் பரந்த சமூக மாற்றங்களுக்கு வழிவகுக்கும். நாம் ஒரு மனிதனுடன் பேசுகிறோமா அல்லது ஒரு இயந்திரத்துடன் பேசுகிறோமா என்று உறுதியாகத் தெரியாதபோது தனிப்பட்ட உறவுகள் எவ்வாறு மாறுகின்றன? உண்மையான மனித தொடர்பின் மதிப்புக்கு என்ன நடக்கிறது? AI தோழர்கள் சமூக வெற்றிடங்களை நிரப்ப முடியுமா, ஆனால் உண்மையான மனித தொடர்புகளின் விலையில்? மனித மற்றும் செயற்கை தகவல்தொடர்புகளுக்கு இடையிலான மங்கலான கோடுகள் அடிப்படை சமூக விதிமுறைகளுக்கு சவால் விடுகின்றன, மேலும் நாம் ஒருவருக்கொருவர் மற்றும் தொழில்நுட்பத்துடன் எவ்வாறு தொடர்பு கொள்கிறோம் என்பதை மறுவடிவமைக்கலாம். மேம்பட்ட அணுகல் கருவிகள் அல்லது தனிப்பயனாக்கப்பட்ட கல்வி போன்ற நேர்மறையான பயன்பாடுகள் மற்றும் எதிர்மறையான விளைவுகள் ஆகிய இரண்டின் சாத்தியக்கூறுகளும் ஒரு சிக்கலான நிலப்பரப்பை உருவாக்குகின்றன, அதை சமூகம் இப்போதுதான் வழிநடத்தத் தொடங்குகிறது.
மனித அம்சம்: மாறிவரும் உணர்தல்
Turing Test மற்றும் UC San Diego-வில் நடத்தப்பட்டதைப் போன்ற சோதனைகள் இயந்திரத் திறனின் மதிப்பீடுகள் மட்டுமல்ல; அவை மனித உளவியல் மற்றும் உணர்தலின் பிரதிபலிப்புகளும் கூட என்பதை அங்கீகரிப்பது முக்கியம். Jones தனது வர்ணனையில் முடிப்பது போல, சோதனை AI-யை நுண்ணோக்கியின் கீழ் வைப்பது போலவே நம்மையும் வைக்கிறது. மனிதனை இயந்திரத்திலிருந்து வேறுபடுத்தும் நமது திறன் அல்லது இயலாமை நமது சொந்த சார்புகள், எதிர்பார்ப்புகள் மற்றும் AI அமைப்புகளுடன் அதிகரித்து வரும் பரிச்சயம் (அல்லது அதன் பற்றாக்குறை) ஆகியவற்றால் பாதிக்கப்படுகிறது.
ஆரம்பத்தில், புதிய AI-யை எதிர்கொள்ளும்போது, மனிதர்கள் எளிதில் ஏமாற்றப்படலாம். இருப்பினும், வெளிப்பாடு வளரும்போது, உள்ளுணர்வு கூர்மையாகலாம். மக்கள் AI-உருவாக்கிய உரையின் நுட்பமான புள்ளிவிவர கைரேகைகளுக்கு - ஒருவேளை மிகைப்படுத்தப்பட்ட சீரான தொனி, உண்மையான இடைநிறுத்தங்கள் அல்லது குறைபாடுகளின் பற்றாக்குறை, அல்லது சற்றே இயற்கைக்கு மாறானதாக உணரும் ஒரு கலைக்களஞ்சிய அறிவு - அதிக கவனம் செலுத்தலாம். எனவே, இத்தகைய சோதனைகளின் முடிவுகள் நிலையானவை அல்ல; அவை AI நுட்பம் மற்றும் மனித பகுத்தறிவு ஆகியவற்றுக்கு இடையேயான தற்போதைய இடைவினையின் ஒரு காலப் படத்தைக் குறிக்கின்றன. பொதுமக்கள் பல்வேறு வகையான AI-களுடன் தொடர்புகொள்வதற்குப் பழகும்போது, கூட்டாக ‘அவற்றைக் கண்டறியும்’ திறன் மேம்படக்கூடும், இது வெற்றிகரமான ‘imitation’-ஐ உருவாக்குவதற்கான பட்டியை உயர்த்தக்கூடும். AI நுண்ணறிவின் உணர்தல் ஒரு நகரும் இலக்கு, இது ஒருபுறம் தொழில்நுட்ப முன்னேற்றத்தாலும் மறுபுறம் வளர்ந்து வரும் மனித புரிதல் மற்றும் தழுவலினாலும் வடிவமைக்கப்படுகிறது.
நாம் எங்கே செல்கிறோம்? நுண்ணறிவை மறுவரையறை செய்தல்
GPT-4.5 போன்ற மாதிரிகள் ஆளுமை-உந்துதல் Turing சோதனைகளில் வெற்றி பெற்றது AI வளர்ச்சியில் ஒரு குறிப்பிடத்தக்க புள்ளியைக் குறிக்கிறது, இது மொழியியல் பிரதிபலிப்பில் ஒரு ஈர்க்கக்கூடிய தேர்ச்சியைக் காட்டுகிறது. ஆயினும்கூட, இது LLM-களின் யுகத்தில் ‘நுண்ணறிவின்’ உறுதியான அளவீடாக Turing Test-ன் வரம்புகளை ஒரே நேரத்தில் எடுத்துக்காட்டுகிறது. தொழில்நுட்ப சாதனைகளைக் கொண்டாடும் அதே வேளையில், கவனம் ஒருவேளை மாற வேண்டும். AI நம்மை மனிதன் என்று நினைத்து ஏமாற்ற முடியுமா என்று மட்டும் கேட்பதற்குப் பதிலாக, ஆழமான அறிவாற்றல் திறன்களை ஆராயும் மேலும் நுட்பமான அளவுகோல்கள் நமக்குத் தேவைப்படலாம் - வலுவான பொது அறிவு பகுத்தறிவு, காரணம் மற்றும் விளைவு பற்றிய உண்மையான புரிதல், உண்மையான புதிய சூழ்நிலைகளுக்கு ஏற்ப மாறும் தன்மை (பயிற்சித் தரவுகளில் உள்ள மாறுபாடுகள் மட்டுமல்ல), மற்றும் நெறிமுறை தீர்ப்பு போன்றவை. முன்னோக்கிச் செல்லும் சவால், நம்மைப் போல பேசக்கூடிய இயந்திரங்களை உருவாக்குவது மட்டுமல்ல, அவற்றின் திறன்கள் மற்றும் வரம்புகளின் உண்மையான தன்மையைப் புரிந்துகொள்வது, மற்றும் நமது மத்தியில் பெருகிய முறையில் அதிநவீன செயற்கை நடிகர்களால் முன்வைக்கப்படும் மறுக்க முடியாத அபாயங்களைக் குறைக்கும் அதே வேளையில் அவற்றின் திறனைப் பொறுப்புடன் பயன்படுத்துவதற்கான தொழில்நுட்ப மற்றும் சமூக கட்டமைப்புகளை உருவாக்குவதும் ஆகும். போலி விளையாட்டு தொடர்கிறது, ஆனால் விதிகள், மற்றும் ஒருவேளை வெற்றியின் வரையறையே, வேகமாக மாறிவருகிறது.