அரசாங்க ஊழியர்களை குறைப்பதற்கான முயற்சிகளில் எலான் மஸ்க்கின் குரோக் AI-க்கு பதிலாக மெட்டாவின் பழைய லாமா 2 AI மாதிரி பயன்படுத்தப்பட்டது.
“கிளை சாலை” குறிப்பும் லாமா 2-வின் பங்கும்
வயர்டு நடத்திய ஆய்வின்படி, எலான் மஸ்க்கின் DOGE (அரசாங்க செயல்திறன் துறை) அலுவலகத்தின் இணை நிறுவனங்கள், ஜனவரி பிற்பகுதியில் அரசு ஊழியர்களுக்கு அனுப்பப்பட்ட “கிளை சாலை” மின்னஞ்சலுக்கு வந்த பதில்களை ஆய்வு செய்ய லாமா 2 மாதிரியை பயன்படுத்தியது.
“கிளை சாலை” குறிப்பு, ட்விட்டர் ஊழியர்களுக்கு மஸ்க் அனுப்பிய முந்தையதைப் போலவே இருந்தது. அரசு ஊழியர்களுக்கு ஒரு வாய்ப்பு வழங்கப்பட்டது: அரசாங்கத்தின் திருத்தப்பட்ட அலுவலகத்திற்கு திரும்பும் கொள்கையை ஏற்றுக்கொள்வதன் மூலம் "விசுவாசத்தை" நிரூபிக்கவும் அல்லது ராஜினாமா செய்யவும். அந்த நேரத்தில், DOGE அரசு ஊழியர் தரவைப் செயலாக்க AI பயன்படுத்துவதாக வதந்திகள் பரவின. ஊழியர்களின் பதில்களை ஆராய்ந்து ராஜினாமாக்களின் எண்ணிக்கையை அளவிட லாமா 2 பயன்படுத்தப்பட்டது உறுதிப்படுத்தப்பட்டுள்ளது.
லாமா 2-வின் சர்ச்சை நிறைந்த கடந்த காலம்: ராணுவ பயன்பாடுகள் மற்றும் மெட்டாவின் பதில்
லாமா 2-வின் வரலாறு சர்ச்சைகள் இல்லாமல் இல்லை. நவம்பரில், சீன ஆராய்ச்சியாளர்கள் லாமா 2-ஐ சீன இராணுவத்தால் பயன்படுத்தப்படும் AI மாதிரிக்கான அடிப்படையாக பயன்படுத்தினர். இது ஒரு பின்னடைவை ஏற்படுத்தியது, மெட்டா ஆரம்பத்தில் ஆராய்ச்சியாளர்களின் "அங்கீகரிக்கப்படாத" பயன்பாட்டை கண்டித்தது. இருப்பினும், இராணுவ பயன்பாடுகளை தடை செய்யும் கொள்கைகளை மெட்டா மாற்றியது மற்றும் அமெரிக்க தேசிய பாதுகாப்பு நோக்கங்களுக்காக அதன் AI மாதிரிகளுக்கான அணுகலை விரிவுபடுத்தியது.
அமெரிக்க பாதுகாப்பு மற்றும் தேசிய பாதுகாப்பு பயன்பாடுகளில் ஈடுபட்டுள்ள அரசு நிறுவனங்களுக்கு லாமா-வை அணுகக்கூடியதாக மாற்ற மெட்டா பகிரங்கமாக அறிவித்தது. அசெஞ்சர், அமேசான் வலை சேவைகள், அண்டுரில், பூஸ் ஆலன், டேட்டாபிரிக்ஸ், டெலாய்ட், ஐபிஎம், லீடோஸ், லாக்ஹீட் மார்டின், மைக்ரோசாப்ட், ஆரக்கிள், பலாண்டீர், ஸ்கேல் AI மற்றும் ஸ்னோஃப்ளேக் போன்ற நிறுவனங்களுடன் கூட்டாண்மை அரசாங்க நிறுவனங்களில் லாமா-வை பயன்படுத்த அறிவித்தது.
மெட்டாவின் திறந்த மூல மாதிரிகள் அரசாங்கம் மஸ்கின் நோக்கங்களுக்கு ஆதரவாக அவற்றை எளிதாகப் பயன்படுத்த அனுமதிக்கின்றன என்று வயர்டு கூறுகிறது. அரசாங்கத்திற்குள் மெட்டாவின் மாதிரிகளின் பயன்பாட்டின் அளவைக் கண்டறிவது ஒரு சவாலாக உள்ளது. லாமா 3 மற்றும் 4 உடன் மெட்டாவின் முன்னேற்றங்களைக் கருத்தில் கொண்டு, குறிப்பாக லாமா 2 ஐ DOGE நம்பியதற்கான காரணம் தெளிவாக இல்லை.
லாமா 2 ஐ DOGE பயன்படுத்தியது பற்றிய குறைந்த அறிவு
லாமா 2 ஐ DOGE பயன்படுத்தியது பற்றிய விவரங்கள் குறைவாகவே உள்ளன. DOGE மாதிரியை உள்நாட்டில் பயன்படுத்தியது என்று வயர்டின் விசாரணை வெளிப்படுத்தியது, இதனால் பல அரசு ஊழியர்கள் எழுப்பிய தனியுரிமை கவலைகளை குறைத்து தரவு இணையத்தில் அனுப்பப்பட வாய்ப்பில்லை என்று தெரிவித்தது.
காங்கிரஸின் கவலைகளும் விசாரணைக் கோரிக்கைகளும்
ஏப்ரல் மாதத்தில், மேலாண்மை மற்றும் பட்ஜெட் அலுவலகத்தின் இயக்குனர் ரஸ்ஸல் வோக்ட்டுக்கு அனுப்பப்பட்ட கடிதத்தில், 40 க்கும் மேற்பட்ட சட்டமியற்றுபவர்கள் AI ஐ DOGE பயன்படுத்தியது குறித்து முழுமையான விசாரணையை கோரினர். அத்தகைய பயன்பாடு, சாத்தியமான பாதுகாப்பு அபாயங்களுடன் கூடுதலாக, அரசாங்கத்திற்குள் AI இன் வெற்றிகரமான மற்றும் பொருத்தமான பயன்பாட்டை குறைமதிப்பிற்கு உட்படுத்தும் என்று அவர்கள் கவலை தெரிவித்தனர்.
DOGE ஊழியர் மற்றும் முன்னாள் ஸ்பேஸ்எக்ஸ் ஊழியர் மஸ்கின் xAI Grok-2 மாதிரியைப் பயன்படுத்தி ஒரு "AI உதவியாளரை" உருவாக்கியதாக அந்த கடிதம் குறிப்பிட்டது. ஒப்பந்தம் மற்றும் கொள்முதல் தரவை பகுப்பாய்வு செய்ய Anthropic மற்றும் Meta மாதிரிகளை அடிப்படையாகக் கொண்ட "GSAi" என்ற சாட்போட்டின் பயன்பாட்டைப் பற்றியும் குறிப்பிடப்பட்டுள்ளது. கூடுதலாக, DOGE ஆனது AutoRIF எனப்படும் மென்பொருளுடன் இணைக்கப்பட்டுள்ளது, இது அரசாங்கம் முழுவதும் வெகுஜன பணிநீக்கங்களை விரைவுபடுத்த வடிவமைக்கப்பட்டுள்ளது.
சட்டமன்ற உறுப்பினர்கள் DOGE இன் "இரண்டு மில்லியன் கூட்டாட்சி பணியாளர்களின் ஒரு பெரிய பகுதியிலிருந்து வரும் மின்னஞ்சல்களை அவர்களின் முந்தைய வாரத்தின் சாதனைகளை விவரிக்கும் மின்னஞ்சல்களை பகுப்பாய்வு செய்ய AI அமைப்புகளைப் பயன்படுத்துவது குறித்த முக்கிய கவலைகளை வலியுறுத்தினர்.
இந்த மின்னஞ்சல்கள் "கிளை சாலை" மின்னஞ்சல்களைத் தொடர்ந்து, தொழிலாளர்கள் வாராந்திர சாதனைகளை ஐந்து புல்லட் புள்ளிகளில் கோடிட்டுக் காட்டினர். DOGE சரியான பாதுகாப்பு அனுமதிகள் இல்லாமல் முக்கியமான தகவல்களைக் கோருகிறதா என்று ஊழியர்கள் அஞ்சினர்.
லாமா 2 இந்த மின்னஞ்சல் பதில்களைப் பாகுபடுத்தவும் பயன்படுத்தப்பட்டதா என்பதை வயர்டால் உறுதிப்படுத்த முடியவில்லை. ஒரு நியாயமான முடிவாக இருந்தால், “கிளை சாலை” மின்னஞ்சலிடமிருந்து DOGE அதன் குறியீட்டை மீண்டும் பயன்படுத்தும் என்று கூட்டாட்சி தொழிலாளர்கள் வயர்டிடம் தெரிவித்தனர்.
ஏன் குரோக் பயன்படுத்தப்படவில்லை
ஏன் DOGE குரோக்கைப் பயன்படுத்தவில்லை என்ற கேள்வி எழுகிறது.
ஜனவரி மாதத்தில் குரோக் ஒரு தனியுரிம மாதிரியாக இருந்ததால் DOGE இன் பணிக்கு கிடைக்கவில்லை என்பதே இதற்கான சாத்தியமான விளக்கம். வயர்டின் கூற்றுப்படி, DOGE குரோக்கின் பயன்பாட்டை அதிகரிக்கலாம், குறிப்பாக மைக்ரோசாப்ட் அதன் Azure AI Foundரி இந்த வாரம் xAI இன் Grok 3 மாடல்களை ஹோஸ்ட் செய்யத் தொடங்கும் என்று அறிவித்தது.
சட்டமியற்றுபவர்களின் கவலைகள்: நலன்களின் முரண்பாடுகள் மற்றும் தரவு மீறல்கள்
தங்கள் கடிதத்தில், மஸ்க்கை உள்ளடக்கிய நலன்களின் முரண்பாடுகளை விசாரிக்கும்படி சட்டமன்ற உறுப்பினர்கள் வோக்ட்டை வலியுறுத்தினர், அதே நேரத்தில் சாத்தியமான தரவு மீறல்கள் குறித்து எச்சரித்தனர். DOGE பயன்படுத்தும் AI அரசாங்க பயன்பாடுகளுக்கு இன்னும் பொருத்தமானதாக இல்லை என்று அவர்கள் வலியுறுத்தினர்.
"சரியான பாதுகாப்புகள் இல்லாமல், முக்கியமான தரவை AI அமைப்பில் செலுத்துவது ஒரு அமைப்பின் ஆபரேட்டரின் வசம் வைக்கிறது. இது பொது மற்றும் பணியாளர்களின் நம்பிக்கையை மீறுவதோடு அந்தத் தரவைச் சுற்றியுள்ள சைபர் பாதுகாப்பு அபாயத்தையும் அதிகரிக்கிறது. பொது மற்றும் பணியாளர்களின் நம்பிக்கையை மீறுவதோடு அந்தத் தரவைச் சுற்றியுள்ள சைபர் பாதுகாப்பு அபாயத்தையும் அதிகரிக்கிறது என்று அவர்கள் மேலும் தெரிவித்தனர். "உருவாக்கும் AI மாதிரிகள் அடிக்கடி பிழைகளைச் செய்கின்றன மற்றும் குறிப்பிடத்தக்க சார்புகளைக் காட்டுகின்றன; சரியான சோதனை, வெளிப்படைத்தன்மை, மேற்பார்வை மற்றும் பாதுகாப்புகள் இல்லாமல் அதிக ஆபத்துள்ள முடிவெடுப்பதில் தொழில்நுட்பம் பயன்படுத்த தயாராக இல்லை.”
"கிளை சாலை" மின்னஞ்சல்களிலிருந்து முக்கியமான தரவை வெளிப்புற மூலத்திற்கு DOGE அனுப்பவில்லை என்று வயர்டின் அறிக்கை குறிப்பிடும்போது, சட்டமியற்றுபவர்கள் AI மாதிரி வழங்குநர்களுடன் தனிப்பட்ட முறையில் அடையாளம் காணக்கூடிய தகவல்களைப் பகிர்வதற்கான அபாயத்தைக் குறைக்க AI அமைப்புகளின் தீவிரமான சோதனையை ஆதரிக்கின்றனர்.
மஸ்க் தனது சொந்த மாதிரிகளை அதிகரித்து அரசு தரவுகளிலிருந்து நன்மை அடையக்கூடும் என்ற கவலை உள்ளது. சட்டமன்ற உறுப்பினர்கள் DOGE அதன் AI அமைப்புகளை நிறுத்த நிர்ப்பந்திக்கப்படுவார்கள் என்று நம்புகின்றனர். இருப்பினும், கூட்டாட்சி பயன்பாட்டிற்கான அவரது AI வழிகாட்டுதல்களைக் கருத்தில் கொண்டு, DODGE இன் அணுகுமுறையுடன் வோக்ட் அதிகம் ஒத்துப்போகிறார்.
புதிய AI தொழில்நுட்பங்களை ஒருங்கிணைப்பதை நாங்கள் ஆதரிக்கிறோம். பாதுகாப்பு, தனியுரிமை மற்றும் பொருத்தமான பயன்பாட்டு தரங்களை தியாகம் செய்ய முடியாது. அவர்களின் அறிவாற்றலை இழக்க நேரிடும்.
அரசாங்க செயல்திறன் முயற்சிகளில் AI பயன்பாட்டின் தாக்கங்கள்
அரசாங்க செயல்திறன் துறையின் பயன்பாடு குறித்த விவாதம் நடந்து வருகிறது. AI ஐ ஒருங்கிணைப்பதன் பல அம்சங்களை ஆராய்வதன் மூலம் சாத்தியமான நலன்கள் மற்றும் அபாயங்களை ஆராய வேண்டும்.
அரசாங்கத்தில் AI இன் கவர்ச்சியும் ஆபத்துகளும்
அரசாங்க செயல்பாடுகளில் AI ஐ ஒருங்கிணைப்பது செயல்திறன், தரவு பகுப்பாய்வு மற்றும் முடிவெடுப்பதில் மாற்றங்களை உறுதி செய்கிறது. AI ஆனது பொது சேவைகளை வழங்குவதை மேம்படுத்துகிறது. உள்கட்டமைப்பு தோல்விகளை கணிக்கவும், பேரழிவு நிவாரண முயற்சிகளில் வள ஒதுக்கீட்டை மேம்படுத்தவும் முடியும்.
இருப்பினும், இந்த தொழில்நுட்ப புரட்சி அதன் அபாயங்கள் இல்லாமல் இல்லை. AI அமைப்புகளை நம்புவது பாதுகாப்பு பாதிப்புகள் மற்றும் சாத்தியமான சார்புகளின் சிக்கலான வலையை அறிமுகப்படுத்துகிறது. AI மாதிரிகள் தரவுகளால் பயிற்றுவிக்கப்படுகின்றன. இது சட்ட அமலாக்கம் போன்ற பகுதிகளில் பாகுபாடு காட்ட வழிவகுக்கும்.
மேலும், AI பயன்பாடு வெளிப்படைத்தன்மை மற்றும் பொறுப்புணர்வு குறித்த கேள்விகளை எழுப்புகிறது.
லாமா 2 எதிராக க்ரோக் புதிர்
க்ரோக்கை விட லாமா 2 ஐ தேர்வு செய்வது அதன் சொந்த பரிசீலனைகளை கொண்டு வருகிறது. லாமா 2 இன் திறந்த மூலமானது அரசாங்க நிறுவனங்கள் ஒரு தனியுரிம சுற்றுச்சூழல் அமைப்புக்குள் பூட்டப்படாமல் அவற்றின் குறிப்பிட்ட தேவைகளுக்கு ஏற்றவாறு மாற்றியமைக்க அனுமதிக்கிறது.
மறுபுறம், க்ரோக் ஒரு கட் எட்ஜ் செயல்திறன் மற்றும் சிறப்பு நிபுணத்துவத்திற்கான வாக்குறுதியை வழங்குகிறது. எப்படியிருந்தாலும், அது சம்பந்தப்பட்ட அரசாங்க நோக்கம் பற்றிய கவலைகளை எழுப்புகிறது.
நலன்களின் முரண்பாடுகளின் நிழல்
அரசாங்க AI முயற்சிகளில் எலான் மஸ்க்கின் நிறுவனங்கள் சம்பந்தப்பட்டிருப்பது நலன்களின் முரண்பாடுகள் குறித்த கேள்விகளை எழுப்புகிறது. அதிகாரிகள் பொதுமக்களுக்குத் தேவையானது பற்றி விசாரிக்க முடியுமா?
தரவு பாதுகாப்பு மற்றும் தனியுரிமைக் கவலைகள்
அரசாங்க செயல்பாடுகளில் AI ஐப் பயன்படுத்துவது தவிர்க்க முடியாமல் முக்கியமான குடிமக்களின் தரவைச் சேகரிப்பது, சேமிப்பது மற்றும் செயலாக்குவது ஆகியவை அடங்கும். இது சைபர் தாக்குதல்களுக்கு ஒரு இலக்கை உருவாக்குகிறது. அங்கீகரிக்கப்படாத அணுகல் மற்றும் தவறான பயன்பாட்டிலிருந்து இந்தத் தரவைப் பாதுகாக்க கடுமையான பாதுகாப்பு நடவடிக்கைகளை அரசாங்கம் செயல்படுத்த வேண்டும்.
AI அ வழிமுறைகளின் தன்மை மூலம் அதிகரிக்கும். குடிமக்களுக்குத் தெரியாது அவர்களின் வாழ்க்கையைப் பாதிக்கும் முடிவுகளை எடுக்கத் தரவு எவ்வாறு பயன்படுத்தப்படுகிறது என்று. வெளிப்படைத்தன்மை அரசாங்கத்தில் நம்பிக்கையை குறைக்கிறது.
எதிர்கால அரசாங்கத்திற்கான தாக்கங்கள்
DOGE இன் AI பயன்பாடு பற்றிய விவாதம் குறிப்பிட்ட நிகழ்வைப் பற்றியது மட்டுமல்ல, செயற்கை நுண்ணறிவின் சகாப்தத்தில் அரசாங்கத்தின் பரந்த எதிர்காலத்தைப் பற்றியது. அபாயங்களைக் குறைக்கும்போது, பொதுச் சேவைகளை மேம்படுத்த AI இன் சக்தியை அரசாங்கம் எவ்வாறு பயன்படுத்த முடியும்? AI ஐ எவ்வாறு நெறிமுறையாகவும் வெளிப்படையாகவும் பதிலளிக்கும் வகையிலும் பயன்படுத்த முடியும்?
இந்தக் கேள்விகளுக்கான பதில்களுக்கு பல முனை அணுகுமுறை தேவை:
தெளிவான நெறிமுறை வழிகாட்டுதல்களை உருவாக்குங்கள்: அரசாங்கத்தில் AI பயன்பாட்டை நிர்வகிக்கும் நெறிமுறை கொள்கைகளை குறியிடவும். அந்த கொள்கைகள் நியாயம், வெளிப்படைத்தன்மை, பொறுப்புக்கூறல் மற்றும் தனியுரிமைக்கு மதிப்பளிப்பதற்கு முன்னுரிமை அளிக்க வேண்டும்.
வெளிப்படைத்தன்மை மற்றும் திறந்த மனப்பான்மையை ஊக்குவிக்கவும்: AI அல்காரிதம்கள் மற்றும் முடிவெடுக்கும் செயல்முறைகளை வெளிப்படையானவை ஆக்குங்கள். அரசு AI பயன்படுத்துவது குறித்து அறிக்கைகளை வெளியிடவும்.
தரவு பாதுகாப்பைப் பாதுகாக்கவும்: முக்கியமான குடிமக்களின் தரவைப் பாதுகாக்கவும். உள் பயன்பாட்டைத் தடுக்க கடுமையாக்கவும்.
பொறுப்புக்கூறலை உறுதிப்படுத்தவும்: AI இயக்கப்படும் முடிவுகளுக்கான பொறுப்புகளை நிறுவவும். AI பயன்பாட்டைக் கண்காணிக்கவும் மற்றும் எழக்கூடிய எந்தப் பிரச்னைகளையும் தீர்ப்பதற்குப் பொறுப்பான அரசு அதிகாரிகளை நியமிக்கவும்.
பொது நம்பிக்கையை வளர்த்தல்: அரசாங்கத்தில் AI நன்மைகள் மற்றும் அபாயங்கள் குறித்து பொதுமக்களுக்குக் கற்பியுங்கள். அவர்களின் கவலைகளைத் தீர்ப்பதற்கும் தொழில் பயன்பாட்டை நம்பிக்கையை வளர்ப்பதற்கும் குடிமக்களிடம் ஈடுபடுங்கள்.
ஒரு செயலில் உள்ள அணுகுமுறையை மேற்கொள்வதன் மூலம், நலன்களைப் பாதுகாக்க அரசாங்கம் AI யின் சக்தியைப் பயன்படுத்தலாம். DODGE பிரச்சினை விழிப்புடன் இருப்பதற்கான மதிப்புமிக்க நினைவூட்டலாக செயல்படுகிறது.
வெளிவரும் கதை
DOGE இன் AI பயன்பாட்டைச் சுற்றியுள்ள நாடகம் முடிவடையவில்லை. விசாரணைகள் தொடர்வதால் மற்றும் விவரங்கள் வெளிவருவதால், அரசாங்கத்திற்குள் AI பயன்பாட்டிற்காக இது தயார் நிலையில் இருக்கும். இந்த நிலைமை தொழில்நுட்பத்தை சிந்தனையுடன் ஒருங்கிணைக்க வழிவகுக்கும்.