Musk, AI, மற்றும் "நிர்வாகப் பிழை" ஆயுதமாக்கல்
Elon Musk பாதுகாப்பு இயக்க வழிகாட்டுதல் மேம்பாடு (Defense Operational Guidance Enhancement - DOGE) முயற்சியிலிருந்து விலகியது ஒரு முக்கியமான நிகழ்வாகத் தோன்றலாம், ஆனால் பொதுமக்களின் விழிப்புணர்வு எவ்வளவு இருக்கிறது என்பதில்தான் இதன் உண்மையான தாக்கம் உள்ளது. உண்மையான கதை வெறும் நிதி வெட்டுக்கள் அல்லது Musk இன் நாடகீயங்கள் பற்றியது அல்ல; இது அமெரிக்க அரசாங்கத்தை வழிநடத்தும் தொழில்நுட்ப அமைப்புகளுக்குள் சித்தாந்த திட்டங்களை உள்வாங்குவது பற்றியது.
பிப்ரவரியில், நான் ஒரு "AI ஆட்சிக்கவிழ்ப்பு" என்ற கருத்தை கோடிட்டுக் காட்டினேன், அங்கு செயற்கை நுண்ணறிவு ஒரு கருவியாகக் குறைவாகவும், ஒரு காட்சி மற்றும் நியாயப்படுத்தலாகவும் செயல்படுகிறது. பெரிய மொழி மாதிரிகள் (Large Language Models - LLMs) ஒரு வசதியான மறைப்பாக செயல்படுகின்றன, எந்த தவறுக்கும் பொறுப்பேற்க விரும்பாத செயல்களுக்கு ஒரு வசதியான போர்வையை வழங்குகின்றன. Elon Musk இதேபோன்ற ஒரு பங்கைக் கொண்டுள்ளார், தீவிரமான மாற்றங்களைச் செயல்படுத்தும் போது பரபரப்பான காட்சிகளுடன் பொதுமக்களை திசை திருப்புகிறார்.
மிகவும் மோசமான எடுத்துக்காட்டுகளில் ஒன்று, எய்ட்ஸ் காரணமாக 26 மில்லியன் இறப்புகளைத் தடுத்த ஒரு திட்டத்திற்கு நிதி வெட்டப்பட்டது, அதில் குழந்தைகளும் அடங்குவர். தேர்ந்தெடுக்கப்பட்ட அதிகாரிகள் பெரும்பாலும் இந்த சிக்கலை புறக்கணித்தனர், உதவியற்றவர்கள் போல் நடித்தனர்.
Musk இன் சர்ச்சைக்குரிய சேட்டைகள் கூட்டாட்சி அரசாங்கத்தை தீவிரமாக கலைப்பதற்கு ஒரு வசதியான புகைமூட்டையாக செயல்பட்டன. இது ஒரு அடிமட்ட எதிர்ப்பு இயக்கத்தைத் தூண்டியது மற்றும் டெஸ்லா விற்பனையை எதிர்மறையாக பாதித்தது, ஆனால் AI ஒருங்கிணைப்பின் ஆழமான சிக்கலை மறைத்தது.
Musk மற்றும் Trump ஆகியோர் DOGE இன் சித்தாந்தத்தால் உந்தப்பட்ட நிதி வெட்டுக்களை ஊக்குவித்தாலும், The Atlantic இல் உள்ள ஒரு பகுப்பாய்வு மொத்த கூட்டாட்சி செலவுகள் உண்மையில் அதிகரித்துள்ளன என்பதைக் காட்டுகிறது. கூட்டாட்சி பணியாளர்களின் AI மாற்றம், "அரசாங்க செயல்திறனுக்கான" ஒரு வழியாக ஊக்குவிக்கப்படுகிறது, இது பெரும்பாலும் கவனிக்கப்படாமல் போகிறது. DOGE கூட்டாட்சி ஊழியர்களிடமிருந்து வரும் மின்னஞ்சல்களை மதிப்பாய்வு செய்து வகைப்படுத்த Llama 2 ஐப் பயன்படுத்தியது, ஆனால் ஒரு பரந்த பொது கண்காணிப்பு உள்கட்டமைப்பை உருவாக்க Palantir இன் $113 மில்லியன் ஒப்பந்தம் ஒரு தொந்தரவான போக்கைக் காட்டுகிறது. நிறுவனம் Musk இன் Grok மொழி மாதிரியையும் அதன் தளத்தில் ஒருங்கிணைக்கிறது.
நிரலாக்க பிழைகள் (Programming Errors)
Musk இன் நேரடி கட்டுப்பாட்டின் கீழ் உள்ள xAI இன் Grok ஒரு கவலைக்குரிய எடுத்துக்காட்டை வழங்குகிறது. இந்த மாதிரி தென்னாப்பிரிக்காவில் வெள்ளை இனப்படுகொலையின் யதார்த்தத்தை ஊக்குவிக்கும் கருத்துகளுடன் தீங்கற்ற வினவல்களுக்கு பதிலளித்துள்ளது. மாதிரியின் மறைக்கப்பட்ட அமைப்பு தூண்டுதலின் இந்த கையாளுதல் சமூக பொறியியலின் ஒரு மோசமான முயற்சியை வெளிப்படுத்துகிறது. இந்த மாதிரி பின்னர் Holocaust மறுப்பில் ஈடுபட்டது, அது xAI ஒரு "நிரலாக்க பிழை" என்று கூறியது.
xAI "வெள்ளை இனப்படுகொலை" சம்பவத்திற்கு பதிலளித்தபோது, தூண்டுதல் மாற்றம் உள் கொள்கைகளை மீறியதாகக் கூறியது. எதிர்கால அமைப்பு தூண்டுதல் மாற்றங்கள் மதிப்பாய்வுக்கு உட்படுத்தப்படும் என்றும் அவர்கள் கூறினர்.
இந்தச் சம்பவங்கள் அமைப்பு தூண்டுதல்களின் உள்ளார்ந்த அபாயங்களை எடுத்துக்காட்டுகின்றன. அவற்றை மாதிரியின் கட்டுப்பாட்டில் வைத்திருக்கும் எவராலும் மாற்ற முடியும், மேலும் கண்டறிந்த பின்னரே ஆய்வு செய்ய முடியும். அரசாங்க முடிவெடுப்பதில் பெருநிறுவன AI மாதிரிகளை நம்புவது தொழில்நுட்ப உயரடுக்கினருக்கு மகத்தான அரசியல் அதிகாரத்தை வழங்குகிறது.
பொதுவாக, அரசாங்கத்தில் தொழில்நுட்பத்தை ஏற்றுக்கொள்வது கவனமான ஆலோசனை மற்றும் பாதுகாப்பு மதிப்புரைகளை உள்ளடக்கியது. DOGE இன் செயல்படுத்தல் சரியான மேற்பார்வை இல்லாமல் உள்ளது, எந்த மதிப்புரைகளின் சுதந்திரம் பற்றியும் கவலைகளை எழுப்புகிறது. ஏஜென்சி தரவை ஒரு ஒருங்கிணைந்த மாதிரியில் ஒருங்கிணைப்பதன் மூலம், DOGE தனிப்பட்ட ஏஜென்சிகளின் குறிப்பிட்ட பாதுகாப்பு தேவைகளை கருத்தில் கொள்வதில்லை. சாராம்சத்தில், DOGE மாற்றும் தேவைகள், போதுமானதா அல்லது குடிமக்களுக்கு நன்மையா என்பதை மதிப்பிடாமல் மாற்றங்களை செயல்படுத்துகிறது.
டிரம்ப் நிர்வாகம் நம்பகமான அமைப்புகளை உருவாக்குவதில் உண்மையிலேயே அக்கறை கொண்டிருந்தால், அவர்களின் நடவடிக்கைகள் அதைப் பிரதிபலிக்கும். அதற்கு பதிலாக, DOGE மற்றும் டிரம்ப் நிர்வாகம் பெருநிறுவன AI மாதிரிகளில் உள்ள சார்புகள் மற்றும் அமைப்பு தூண்டுதல் கையாளுதலின் நிகழ்வுகள் குறித்த மேற்பார்வையை முடக்கினர். AI சார்பு ஆராய்ச்சிக்கு DOGE நிதி வெட்டியதைத் தொடர்ந்து, காங்கிரஸால் நிறைவேற்றப்பட்ட ஒரு புதிய மசோதா அடுத்த தசாப்தத்திற்கு AI மேற்பார்வை தொடர்பான எந்தவொரு புதிய சட்டங்களையும் தடை செய்யும்.
மோசடி ஊழியர்கள் (Rogue Employees)
Musk இன் DOGE இலிருந்து வெளியேறுதல், Palantir இன் தேர்வின் மூலம் உறுதியாக்கப்பட்ட ஒரு மரபுச் சொத்தை விட்டுச்செல்கிறது. Musk மற்றும் Thiel Paypal இன் இணை நிறுவனர்கள், மற்றும் Thiel சுதந்திரம் மற்றும் ஜனநாயகம் ஆகியவற்றின் பொருந்தக்கூடிய தன்மை குறித்து சந்தேகத்தை எழுப்பியுள்ளார்.
DOGE மூலம் Musk ஆரம்பித்த அதிகார குவிப்பு தொடர்ந்து இருக்கும், மேலும் விவேகத்துடன் செயல்படும். அவரது வெளியேற்றம் அவரை எதிர்த்தவர்களுக்கு வெற்றியாக இருந்தபோதிலும், DOGE இன் வேலை அவர்களின் விசுவாசத்திற்காக பணியமர்த்தப்பட்ட அதிகாரிகளின் தலைமையின் கீழ் தொடர்கிறது.
DOGE இன் உண்மையான நோக்கம் அரசாங்க கழிவுகளை அகற்றுவது அல்ல, ஆனால் குறைவான பொறுப்புக்கூறல் நடவடிக்கைகளுடன் அதிகாரத்துவத்தை தானியக்கமாக்குவதே. "அரசாங்க செயல்திறன்" என்ற இந்த இலக்கு மோசமாக வரையறுக்கப்பட்டுள்ளது. அரசாங்கத்தை ஒழுங்குபடுத்துவது குடிமக்களின் சேவைகளுடனான தொடர்புகளை எளிதாக்க வேண்டும். அதற்கு பதிலாக, பணிநீக்கங்கள் முறையான தடுமாற்றங்களை உருவாக்கியுள்ளன, அதே நேரத்தில் தனியுரிமைக்கு ஆபத்தை ஏற்படுத்தியுள்ளன. IRS நிதி வெட்டுக்கள் தணிக்கைகள் மற்றும் பணத்தைத் திரும்பப் பெறுவது குறித்து கவலைகளை எழுப்பியுள்ளன, இது பில்லியன் கணக்கான வருவாய் இழக்க நேரிடும்.
DOGE இன் நோக்கம் அதிகாரத்துவத்தை மேம்படுத்துவது அல்ல, ஆனால் மனித உறுப்புகளை அகற்றுவதே. இது தொழில்துறை பாணி திறனை ஊக்குவிக்கிறது, குடிமக்களை வகைப்படுத்துகிறது மற்றும் முறையான துஷ்பிரயோகத்தை கருதுகிறது. உரிமைகள் மற்றும் சலுகைகள் AI அமைப்பில் உட்பொதிக்கப்பட்ட சார்புகளின் அடிப்படையில் வழங்கப்படுகின்றன அல்லது மறுக்கப்படுகின்றன.
இந்த வகைகளுக்கு பதில்களை யார் வரையறுத்து தானியக்கமாக்குகிறார்களோ அவர்கள் கணிசமான சக்தியைப் பயன்படுத்துகிறார்கள். மாதிரிகள் பயிற்சி அளிப்பவர்களின் முடிவுகளைப் பிரதிபலிக்கின்றன, இதில் பொறுத்துக்கொள்ளப்பட்ட சார்புகள் மற்றும் உகப்பாக்கம் குறிக்கோள்கள் அடங்கும். தற்போதைய நிர்வாகிகள் வழிமுறை தடயங்களைப் பயன்படுத்துவதால், அதிகாரத்துவம் மனிதத்துடனான கடைசி தொடர்பை இழக்கிறது.
நிர்வாக பிழைகள் (Administrative Errors)
அதிகாரத்துவம் மற்றும் அதிகாரத்துவ பிழை ஒன்றும் புதிதல்ல. பிழைகளுக்கு மனிதனுடைய பொறுப்புக்கூறல் துண்டிக்கப்படுவதும், அவற்றைத் தவிர்ப்பதில் அக்கறையின்மை ஊக்குவிக்கப்படுவதும் தான் முன்னோடியில்லாதது.
Robert F. Kennedy Jr. இன் சுகாதார அறிக்கையை எடுத்துக் கொள்ளுங்கள், அதில் ஜோடிக்கப்பட்ட மேற்கோள்கள் இருந்தன. இந்தச் செயல் வரலாற்று ரீதியாக ஒரு ஊழலாக இருந்திருக்கும், ஆனால் அது ஒரு "வடிவமைப்பு பிழை" என்று நிராகரிக்கப்பட்டது. கென்னடி ஆதாரமற்ற கொள்கைகளை ஏற்றுக்கொள்கிறார், மேலும் இந்த அறிக்கையின் AI உருவாக்கம் சட்டபூர்வமான அறிவியல் விசாரணைக்கு மேலாக விளக்கக்காட்சிக்கு முன்னுரிமை அளிக்கிறது. ஜோடிக்கப்பட்ட ஆதாரங்களின் தன்னியக்கமாக்கல் என்பது AI நிர்வாகத்திற்கான ஒரு கருவியாக மாறியுள்ள ஒரு வழியாகும்.
Trump ஐ எதிர்ப்பவர்களை – புலம்பெயர்ந்தோர், கல்வியாளர்கள், இன சிறுபான்மையினர் – தண்டிப்பதில் DOGE அதிக கவனம் செலுத்துகிறது, மேலும் அதன் பரந்த அளவிலான முயற்சிகள் தவிர்க்க முடியாமல் பிழைகளை உருவாக்குகின்றன. Kilmar Abrego Garcia நாடுகடத்தப்பட்டது ஒரு "நிர்வாக பிழை" காரணமாக நிகழ்ந்தது. இது பிழையின் வேண்டுமென்றே ஆயுதமயமாக்கலைக் காட்டுகிறது.
இறுதியில், DOGE சர்ச்சைக்குரிய விளைவுகளை "நிர்வாக," "நிரலாக்க" அல்லது "வடிவமைப்பு" பிழைகள் என குற்றம் சாட்டக்கூடிய ஒரு அமைப்பை உருவாக்க முயற்சிக்கிறது. பிழையான கருவிகளுக்கு நிர்வாகம் பழி சுமத்துகிறது, பொறுப்பேற்க மறுக்கிறது. Garcia வழக்கில், நிர்வாகம் பிழையை சரிசெய்ய மறுக்கிறது. இது நம்பகமற்ற ஒழுங்கின் ஒரு உலகத்தை நிரூபிக்கிறது, அங்கு விசுவாசமாக இருப்பதாக உறுதியளிப்பவர்கள் மட்டுமே காப்பாற்றப்படுவார்கள்.
AI இன் விருப்பங்களுக்கும் அதன் கண்ணுக்கு தெரியாத நிரலாக்கத்திற்கும் தனிப்பயனாக்கப்பட்ட தலைவிதி சார்ந்த ஒரு உடையக்கூடிய சூழலை நாங்கள் உருவாக்குகிறோம். இந்த AI நிரல்கள் ஒரு ஒருங்கிணைந்த கண்காணிப்பு கட்டமைப்புகளாக தரவை ஒருங்கிணைக்கும் சீர்குலைக்கும் கருவிகளாக இருக்கும்போது என்ன நடக்கும்?
DOGE இலிருந்து Musk இன் புறப்பாடு பொதுமக்களின் கவனத்தை குறைக்கக்கூடும் என்றாலும், அடிப்படை சிக்கல்கள் அப்படியே உள்ளன: வழிமுறை சார்பு, பொறுப்புக்கூறல் இல்லாமை மற்றும் மனித மேற்பார்வையின் அரிப்பு. இந்த போக்குகள் கவனிக்கப்படாமல் விடப்பட்டால், ஒரு நியாயமான மற்றும் சமமான சமூகத்தின் அடித்தளத்தையே சேதப்படுத்தும் திறன் உள்ளது.