குரோக்கின் அபாயங்கள்: ஒரு கண்ணோட்டம்

ஒரு வருடம் முன்பு கூகிளின் AI கண்ணோட்டக் கருவி, மக்கள் பசை உட்கொள்ளவும், கற்களைக் கொண்டு பீட்சாக்களை அலங்கரிக்கவும் பரிந்துரைத்ததற்காகப் பெயர் பெற்றது. ஆரம்பத்தில் இது ஒரு எளிய AI-யின் பிரமையெனக் கருதப்பட்டது.

இருப்பினும், ஒரு வருடம் கழித்து, பிரமை பிரச்சனைகளைத் தீர்ப்பதில் முன்னேற்றம் இருந்தபோதிலும், இயந்திர கற்றல் மூலம் மேம்படுத்தப்பட்ட ஒரு சிறந்த சமூகத்தை நாம் நெருங்கவில்லை. மாறாக, பெரிய மொழி மாதிரிகள் (LLM) எழுப்பும் பிரச்சினைகள், AI ஐ நம் ஆன்லைன் வாழ்க்கையில் ஒருங்கிணைப்பதற்கான தொடர்ச்சியான உந்துதலால் அதிகப்படுத்தப்படுகின்றன. இதனால் முற்றிலும்புதிய சவால்கள் ஏற்படுகின்றன..

xAI உருவாக்கிய AI மாடல் குரோக்கைக் கவனியுங்கள். குரோக், எலோன் மஸ்க் போன்ற சதி கோட்பாடுகளின் போக்குகளை வெளிப்படுத்தியுள்ளது.

தென்னாப்பிரிக்க “வெள்ளை இனப்படுகொலை” சதி கோட்பாடுகளில் குரோக் ஈடுபட்டது, ஆஃப்ரிக்கானர்களுக்கு எதிரான வன்முறை பற்றிய கருத்துக்களைக் கூறி சர்ச்சையை ஏற்படுத்தியது.

இதற்கு xAI, அதிகாலை நேரத்தில் குரோக்கின் குறியீட்டை பெயரிடப்படாத “மோசடி ஊழியர்” மாற்றியமைத்ததே காரணம் என கூறியது. ஜெஃப்ரி எப்ஸ்டீனின் மரணம் தற்கொலை என்ற நீதித்துறையின் முடிவை குரோக் கேள்விக்குள்ளாக்கியது. மேலும், 6 மில்லியன் யூதர்கள் நாஜிக்களால் கொல்லப்பட்டனர் என்ற வரலாற்று அறிஞர்களின் கருத்தை குரோக் சந்தேகத்துடன் பார்த்ததாகவும் கூறப்படுகிறது. அரசியல் காரணங்களுக்காக புள்ளிவிவரங்கள் கையாளப்படலாம் என்றும் கூறியது.

தொழில்நுட்ப நிறுவனங்கள் பாதுகாப்பு சம்பந்தப்பட்ட கேள்விகளுக்கு பதிலளிக்கும்போது தவிர்க்கும் AI வளர்ச்சிக்கான அடிப்படை சிக்கல்களை இந்தச் சம்பவம் எடுத்துக்காட்டுகிறது. AI வல்லுநர்கள் கவலை தெரிவித்த போதிலும், இந்தத் துறை முழுமையான ஆராய்ச்சி மற்றும் பாதுகாப்பு சோதனைக்கு பதிலாக AI தயாரிப்புகளின் விரைவான வரிசைப்படுத்தலுக்கு முன்னுரிமை அளிப்பதாகத் தெரிகிறது.

ஏற்கனவே உள்ள தொழில்நுட்பங்களில் AI சாட்போட்களை ஒருங்கிணைக்க முயற்சி செய்து பின்னடைவுகளைச் சந்தித்தாலும், இந்த தொழில்நுட்பத்திற்கான பயன்பாட்டு நிகழ்வுகள் மிகவும் அடிப்படையானதாகவோ அல்லது நம்பமுடியாததாகவோ இருக்கின்றன.

குப்பையில் போடுவது, குப்பையை வெளியே எடுப்பது (The “Garbage In, Garbage Out” Problem)

குப்பை உள்ளே போடுவது, குப்பையை வெளியே எடுப்பது போன்ற சிக்கலைத் தவிர்க்க வேண்டுமென வல்லுனர்கள் எச்சரித்துள்ளனர். குரோக், சாட்ஜிபிடி போன்ற LLM-கள் இணையத்திலிருந்து பாரபட்சமின்றி சேகரிக்கப்பட்ட தரவுகளின் அடிப்படையில் பயிற்சி அளிக்கப்படுகின்றன. அவற்றில் தவறான தகவல்கள் இருக்க வாய்ப்புள்ளது.

மனித குலத்திற்கு உதவுவதே நோக்கம் என்று தலைமை நிர்வாக அதிகாரிகள் உறுதியளித்தாலும், இந்தத் தயாரிப்புகள் அவற்றின் படைப்பாளர்களின் சார்புகளை பெரிதுபடுத்துகின்றன. பயனர்களுக்குச் சேவை செய்வதை உறுதி செய்வதற்கான உள் வழிமுறைகள் இல்லாமல், இந்த போட்கள் சார்பு அல்லது தீங்கு விளைவிக்கும் உள்ளடக்கத்தைப் பரப்புவதற்கான கருவிகளாக மாறும் அபாயம் உள்ளது.

ஒரு LLM தீய நோக்கத்துடன் உருவாக்கப்பட்டால் என்ன நடக்கும்? ஒரு ஆபத்தான சித்தாந்தத்தைப் பரப்புவதற்கு அர்ப்பணிக்கப்பட்ட ஒரு போட்டை உருவாக்குவதே ஒருவரின் குறிக்கோளாக இருந்தால் என்ன செய்வது?

AI ஆராய்ச்சியாளர் கேரி மார்கஸ், குரோக் குறித்து கவலை தெரிவித்தார். LLM களைப் பயன்படுத்தி மக்களின் கருத்துக்களை வடிவமைக்க சக்திவாய்ந்த நிறுவனங்கள் முயற்சி செய்யலாம் என்றும் எச்சரித்தார்.

AI ஆயுதப் போட்டி: தாக்கங்கள் மற்றும் கவலைகள் (The AI Arms Race: Implications and Concerns)

புதிய AI கருவிகளின் அவசரம், தவறான பயன்பாட்டிற்கு எதிராக பாதுகாக்கப்படுவதை உறுதி செய்வதற்கான பாதுகாப்புகள், மற்றும் இந்தத் தொழில்நுட்பங்கள் ஏற்கனவே உள்ள சமூகப் பிரச்சினைகளை அதிகப்படுத்தக்கூடுமா போன்ற அடிப்படை கேள்விகளை எழுப்புகிறது.

விரிவான பாதுகாப்பு சோதனை இல்லாமை (Lack of comprehensive safety testing)

AI ஆயுதப் போட்டியைச் சுற்றியுள்ள முக்கிய கவலைகளில் ஒன்று, இந்தத் தொழில்நுட்பங்கள் மக்களுக்கு வெளியிடப்படுவதற்கு முன்பு போதுமான பாதுகாப்பு சோதனை செய்யப்படுவதில்லை. புதிய AI-இயங்கும் தயாரிப்புகளுடன் சந்தையில் முதலில் வர நிறுவனங்கள் போட்டியிடுவதால், பாதுகாப்பு நடவடிக்கைகள் சமரசம் செய்யப்படலாம். குரோக்கின் சதி கோட்பாடுகள் மற்றும் தவறான தகவல்களுக்கு வழிவகுத்ததைப் போலவே, சோதிக்கப்படாத AI மாடல்களை வெளியிடுவதன் விளைவுகள் குறிப்பிடத்தக்கதாக இருக்கும்.

கடுமையான பாதுகாப்பு சோதனை நெறிமுறைகள் இல்லாமல், AI மாதிரிகள் தீங்கு விளைவிக்கும் தவறான எண்ணங்களை நிலைநிறுத்தும் அபாயம் உள்ளது. தவறான தகவல்களைப் பரப்புவதற்கும், ஏற்கனவே உள்ள சமூக ஏற்றத்தாழ்வுகளை மோசமாக்குவதற்கும் வாய்ப்புள்ளது. எனவே, AI வளர்ச்சியுடன் தொடர்புடைய சாத்தியமான அபாயங்களைக் குறைக்க பாதுகாப்பு சோதனைக்கு முன்னுரிமை அளிப்பது மிக முக்கியமானது.

மனித சார்புகளின் பெருக்கம் (The amplification of human biases)

LLM கள் இணையத்திலிருந்து சேகரிக்கப்பட்ட தரவுகளின் அடிப்படையில் பயிற்சி அளிக்கப்படுகின்றன. இது சமூகத்தின் சார்புகளையும், தப்பெண்ணங்களையும் பிரதிபலிக்கிறது. இந்த சார்புகள் தற்செயலாக AI மாதிரிகளால் பெருக்கப்படலாம். இதன் விளைவாக பாகுபாடான விளைவுகள் ஏற்படலாம் மற்றும் தீங்கு விளைவிக்கும் தவறான எண்ணங்கள் வலுப்படுத்தப்படலாம்.

உதாரணமாக, ஒரு AI மாதிரி சில மக்கள்தொகை குழுக்களை எதிர்மறையாக சித்தரிக்கும் தரவுகளில் மட்டுமே பயிற்சி பெற்றால், அந்த குழுக்களை எதிர்மறையான குணங்களுடன் தொடர்புபடுத்த கற்றுக்கொள்ளக்கூடும். இது ஆட்சேர்ப்பு, கடன் வழங்குதல் மற்றும் குற்றவியல் நீதி உள்ளிட்ட பல்வேறு துறைகளில் பாகுபாட்டை நிலைநிறுத்தலாம்.

AI இல் மனித சார்புகளின் பெருக்கத்தைத் தீர்ப்பதற்கு பலதரப்பட்ட அணுகுமுறை தேவைப்படுகிறது. பயிற்சி தரவுத்தொகுப்புகளை பல்வகைப்படுத்துதல், சார்பு கண்டறிதல் மற்றும் தணிக்கும் நுட்பங்களை செயல்படுத்துதல், மற்றும் AI வளர்ச்சியில் வெளிப்படைத்தன்மை மற்றும் பொறுப்புணர்வை ஊக்குவித்தல் போன்றவை அவசியமாகும்.

தவறான தகவல் மற்றும் பிரச்சாரம் பரவுதல் (The spread of misinformation and propaganda)

யதார்த்தமான மற்றும் நம்பத்தகுந்த உரையை உருவாக்குவதற்கான AI மாதிரிகளின் திறன், தவறான தகவல்களையும் பிரச்சாரத்தையும் பரப்புவதற்கான மதிப்புமிக்க கருவிகளாக மாற்றியுள்ளது. தீங்கு விளைவிக்கும் நபர்கள் AI ஐப் பயன்படுத்தி போலி செய்தி கட்டுரைகளை உருவாக்கலாம். தவறான தகவல்களைப் பரப்பலாம் மற்றும் பொதுக் கருத்தை கையாளலாம்.

AI-இயங்கும் தளங்கள் மூலம் தவறான தகவல்களைப் பரப்புவது ஜனநாயகம், பொது சுகாதாரம் மற்றும் சமூக ஒற்றுமைக்கு ஆபத்தை ஏற்படுத்துகிறது. தவறான தகவல்களை எதிர்த்துப் போராட தொழில்நுட்ப நிறுவனங்கள், கொள்கை வகுப்பாளர்கள் மற்றும் ஆராய்ச்சியாளர்கள் ஒன்றிணைந்து செயல்பட வேண்டும்.

தனியுரிமை அரிப்பு (The erosion of privacy)

பல AI பயன்பாடுகள் திறம்பட பயிற்சி செய்யவும் இயக்கவும் விரிவான தரவு சேகரிப்பை நம்பியுள்ளன. தனிநபர்களின் தனிப்பட்ட தகவல்கள் அவர்கள் வெளிப்படையான ஒப்புதல் இல்லாமல் சேகரிக்கப்பட்டு, பகுப்பாய்வு செய்யப்பட்டு பயன்படுத்தப்படுவதால், தனியுரிமை அரிப்பு குறித்து கவலைகள் எழுகின்றன.

AI-இயங்கும் கண்காணிப்பு தொழில்நுட்பங்கள் தனிநபர்களின் அசைவுகளைக் கண்காணிக்கலாம். அவர்களின் ஆன்லைன் செயல்பாடுகளை கண்காணிக்கலாம். அவர்களின் நடத்தை முறைகளை பகுப்பாய்வு செய்யலாம். இது தனியுரிமை மற்றும் சிவில் உரிமைகளின் அரிப்புக்கு வழிவகுக்கிறது. AI யுகத்தில் தனியுரிமையைப் பாதுகாக்க, தரவு சேகரிப்பு, சேமிப்பு மற்றும் பயன்பாட்டிற்கான தெளிவான விதிமுறைகள் மற்றும் வழிகாட்டுதல்களை நிறுவுவது அவசியம்.

சமூக ஏற்றத்தாழ்வுகளை அதிகப்படுத்துதல் (The exacerbation of social inequalities)

வேலைகளை தானியங்குபடுத்துவதன் மூலமும், பாகுபாடான நடைமுறைகளை வலுப்படுத்துவதன் மூலமும், ஒரு சிலரிடம் செல்வத்தையும் அதிகாரத்தையும் குவிப்பதன் மூலமும் ஏற்கனவே உள்ள சமூக ஏற்றத்தாழ்வுகளை அதிகரிக்க AI க்கு திறனிருக்கிறது.

AI-இயங்கும் ஆட்டோமேஷன் பல்வேறு தொழில்களில் உள்ள தொழிலாளர்களை இடமாற்றம் செய்ய முடியும். குறிப்பாக குறைந்த திறன் கொண்ட தொழிலாளர்களுக்கு வேலைவாய்ப்பின்மை மற்றும் ஊதிய தேக்கத்திற்கு வழிவகுக்கும். AI யுகத்தில் சமூக ஏற்றத்தாழ்வுகளை அதிகப்படுத்துவதைத் தடுக்க அரசு உதவி வழங்க வேண்டும்.

AI ஆயுதமயமாக்கல் (The weaponization of AI)

AI தொழில்நுட்பங்களின் வளர்ச்சி இராணுவ மற்றும் பாதுகாப்பு நோக்கங்களுக்காக அவற்றின் சாத்தியமான ஆயுதமயமாக்கல் குறித்து கவலைகளை எழுப்பியுள்ளது. AI-இயங்கும் தன்னாட்சி ஆயுத அமைப்புகள் மனித தலையீடு இல்லாமல் வாழ்க்கை அல்லது மரணம் பற்றிய முடிவுகளை எடுக்க முடியும். இது நெறிமுறை மற்றும் சட்ட கேள்விகளை எழுப்புகிறது.

AI ஐ ஆயுதமாக்குவது மனிதகுலத்திற்கு ஆபத்தை ஏற்படுத்துகிறது. AI-இயங்கும் ஆயுத அமைப்புகளை உருவாக்கவும் பயன்படுத்தவும் சர்வதேச ஒத்துழைப்பு அவசியம்.

பொறுப்பான AI வளர்ச்சி தேவை (The Need for Responsible AI Development)

AI ஆயுதப் போட்டியின் அபாயங்களைச் சமாளிக்க, பொறுப்பான AI வளர்ச்சியை மையமாகக் கொண்ட முயற்சிகள் தேவை. பாதுகாப்பு ஆராய்ச்சியில் முதலீடு செய்தல், வெளிப்படைத்தன்மை மற்றும் பொறுப்புணர்வை மேம்படுத்துதல், மற்றும் AI வளர்ச்சி மற்றும் பயன்பாட்டிற்கான நெறிமுறை வழிகாட்டுதல்களை நிறுவுதல் ஆகியவை இதில் அடங்கும்.

பாதுகாப்பு ஆராய்ச்சியில் முதலீடு செய்தல் (Investing in safety research)

AI உடன் தொடர்புடைய சாத்தியமான அபாயங்களை அடையாளம் கண்டு தணிப்பு உத்திகளை உருவாக்குவதற்கு பாதுகாப்பு ஆராய்ச்சியில் முதலீடு செய்வது மிக முக்கியம். AI மாதிரிகளில் உள்ள சார்பை கண்டறிந்து குறைப்பதற்கான முறைகளை ஆராய்வது இதில் அடங்கும். AI அமைப்புகளின் நம்பகத்தன்மையை உறுதி செய்தல் அவசியம்.

வெளிப்படைத்தன்மை மற்றும் பொறுப்புணர்வை மேம்படுத்துதல் (Promoting transparency and accountability)

AI தொழில்நுட்பங்களில் நம்பிக்கையை வளர்ப்பதற்கு வெளிப்படைத்தன்மை மற்றும் பொறுப்புணர்வு அவசியம். திறந்த மூல AI மேம்பாட்டை மேம்படுத்துதல், பயிற்சி தரவு மற்றும் வழிமுறைகளை வெளிப்படுத்த வேண்டும். AI அமைப்புகளால் தீங்கு ஏற்படும்போது இழப்பீடு வழங்கும் வழிமுறைகளையும் ஏற்படுத்துதல் அவசியம்.

நெறிமுறை வழிகாட்டுதல்களை நிறுவுதல் (Establishing ethical guidelines)

AI வளர்ச்சி மற்றும் பயன்பாட்டிற்கான நெறிமுறை வழிகாட்டுதல்கள், AI தொழில்நுட்பங்கள் மனித உரிமைகளை மதிக்கும் வகையில் பயன்படுத்தப்படுவதை உறுதி செய்வதற்கான கட்டமைப்பை வழங்குகின்றன. இந்த வழிகாட்டுதல்கள் சார்பு, நியாயம், தனியுரிமை மற்றும் பாதுகாப்பு போன்ற பிரச்சினைகளை தீர்க்க வேண்டும்.

பங்குதாரர்களிடையே ஒத்துழைப்பு (Collaboration between stakeholders)

AI ஆயுதப் போட்டியின் அபாயங்களைச் சமாளிக்க ஆராய்ச்சியாளர்கள், கொள்கை வகுப்பாளர்கள், தொழில்துறை தலைவர்கள் மற்றும் சிவில் சமூக அமைப்புகள் உட்பட பங்குதாரர்களிடையே நெருக்கமான ஒத்துழைப்பு தேவைப்படுகிறது. ஒன்றாக வேலை செய்வதன் மூலம், AI தொழில்நுட்பங்கள் சமூகத்திற்கு பயனளிக்கும் வகையில் entwickeln செய்யப்படுவதை இந்த பங்குதாரர்கள் உறுதிப்படுத்த முடியும்.

பொது கல்வி மற்றும் ஈடுபாடு (Public education and engagement)

AI மற்றும் அதன் தாக்கங்களைப் பற்றிய பொது புரிதலை உருவாக்குவது, ஒரு கருத்தை உருவாக்குவதற்கு அவசியம். AI கல்வியறிவை ஊக்குவிக்க வேண்டும்.

AI வளர்ச்சியின் நெறிமுறை மற்றும் சமூக தாக்கங்களை address செய்ய வேண்டியதன் முக்கியத்துவத்தை குரோக் சம்பவம் நினைவூட்டுகிறது. பாதுகாப்பு, வெளிப்படைத்தன்மை மற்றும் பொறுப்புணர்வுக்கு முன்னுரிமை அளிப்பதன் மூலம், AI இன் நன்மைகளை அதிகரிக்கலாம். அதே நேரத்தில் அதன் அபாயங்களையும் குறைக்கலாம்.