एलोन मस्क, एआय आणि "प्रशासकीय त्रुटी" चं शस्त्र
डिफेन्स ऑपरेशनल गायडन्स एन्हांसमेंट (DOGE) उपक्रमातून एलोन मस्क (Elon Musk) बाहेर पडणं ही एक महत्त्वाची घटना वाटू शकते, पण त्यातून जनतेनं किती सावध राहायला हवं हे जास्त महत्त्वाचं आहे. यात फक्त बजेटमध्ये कपात आहे किंवा मस्क यांचे नाटकं आहेत एवढंच नाही, तर अमेरिकन सरकारला (US government) चालवणाऱ्या तांत्रिक प्रणालीमध्ये वैचारिक प्रकल्पांचं जे घातक एकत्रीकरण झालं आहे, त्याबद्दल आहे.
फेब्रुवारीमध्ये, मी "एआय (AI) सत्तापालट" या संकल्पनेचा अर्थ स्पष्ट केला होता. ज्यात आर्टिफिशियल इंटेलिजन्स (Artificial Intelligence) हे एक साधन कमी आणि देखावा व समर्थन जास्त आहे. लार्ज लँग्वेज मॉडेल (LLMs) हे निमित्त तयार करण्याचं काम करतात. ज्या गोष्टींची जबाबदारी घ्यायला कुणी तयार नसतं, त्या लपवण्यासाठी हे एक सोयीस्कर आवरण आहे. एलोन मस्क यांनीही (Elon Musk) अशाच प्रकारची भूमिका निभावली आहे. त्यांनी सनसनाटी प्रदर्शन करून लोकांचं लक्ष दुसरीकडे वळवलं आणि त्याच वेळी मोठे बदल केले.
याचं एक सर्वात मोठं उदाहरण म्हणजे एड्समुळे (AIDS) होणारे २६ लाख मृत्यू थांबवणाऱ्या एका कार्यक्रमासाठीची (children समावेश) आर्थिक मदत बंद करणं. यात बहुतेक निवडलेले अधिकारी (elected officials) काहीच करू शकत नाही, असं दाखवत या विषयाकडे दुर्लक्ष करत होते.
मस्क यांच्या वादग्रस्त वागण्यामुळे लोकांना संघीय सरकार (federal government) बरखास्त करण्याच्या गंभीर विषयावर लक्ष केंद्रित करता आले नाही. यामुळे टेस्ला (Tesla) कंपनीच्या विक्रीवर नकारात्मक परिणाम झाला आणि लोकांचा विरोधही वाढला, पण एआयच्या (AI) एकत्रीकरणाचा मोठा मुद्दा दुर्लक्षित राहिला.
मस्क आणि ट्रम्प यांनी DOGE च्या विचारधारेवर आधारित बजेटमध्ये कपात केली. पण The Atlantic मधील विश्लेषणानुसार, एकूण संघीय खर्च वाढला आहे. ‘सरकारी कामात जास्त कार्यक्षमता’ आणण्यासाठी एआयच्या (AI) मदतीने कर्मचाऱ्यांमध्ये बदल करण्याचे काम अजूनही सुरू आहे, ज्याकडे कुणाचं लक्ष नाही. DOGE ने Llama 2 वापरून कर्मचाऱ्यांच्या ईमेलचं वर्गीकरण (classify emails) केलं, पण Palantir ला १.१३ अब्ज डॉलरचं कंत्राट (contract) देऊन एक मोठं नागरी पाळत ठेवणं (surveillance) उभारण्याची योजना आहे, जी एक चिंताजनक बाब आहे. ही कंपनी मस्क यांचं Grok language model देखील त्यांच्या प्लॅटफॉर्ममध्ये (platform) वापरणार आहे.
प्रोग्रामिंगमधील त्रुटी (Programming Errors)
मस्क यांच्या नियंत्रणाखाली असलेलं xAI चं Grok हे एक चिंताजनक उदाहरण आहे. या मॉडेलने (model) काही साध्या प्रश्नांची उत्तरं देताना दक्षिण आफ्रिकेतील (South Africa) गोऱ्या लोकांच्या नरसंहाराचं (white genocide) समर्थन केलं. मॉडेलच्या (model) hidden system prompt मध्ये फेरफार करून सामाजिक अभियांत्रिकीचा (social engineering) प्रयत्न करत असल्याचं उघड झालं आहे. या मॉडेलने (model) Holocaust नाकारल्याचंही समोर आलं, ज्याला xAI ने "प्रोग्रामिंगमधील त्रुटी" (programming error) असंexplicit स्पष्टीकरण दिलं.
xAI ने "white genocide" च्या घटनेवर प्रतिक्रिया देताना सांगितलं की prompt मध्ये केलेला बदल कंपनीच्या धोरणांचं उल्लंघन (violated internal policies) आहे. त्यांनी हेही सांगितलं की यापुढे system prompt मध्ये बदल करण्यापूर्वी त्याची तपासणी (review) केली जाईल.
या घटना system prompts मध्ये किती धोका आहे हे दर्शवतात. ज्यांच्याकडे मॉडेलचं (model) नियंत्रण आहे, ते कुणीही यात बदल करू शकतात आणि उघडकीस आल्यानंतरच त्याची तपासणी केली जाते. सरकारी निर्णय प्रक्रियेत (government decision-making) जर corporate AI models वापरले, तर टेक (tech) elites च्या हातात खूप जास्त राजकीय ताकद (political power) जाईल.
सामान्यपणे, सरकारमध्ये (government) तंत्रज्ञानाचा (technology) वापर करण्यापूर्वी खूप विचार केला जातो आणि सुरक्षा तपासणी (security reviews) केली जाते. पण DOGE च्या अंमलबजावणीत योग्य देखरेख (oversight) नाही, ज्यामुळे तपासणीच्या स्वतंत्रतेबद्दल शंका निर्माण होते. प्रत्येक विभागाचा डेटा (data) एकत्रित करून DOGE प्रत्येक विभागाच्या विशिष्ट गरजा विचारात घेत नाही. DOGE transforms बदल करत आहे, पण त्याची गरज, त्याचे फायदे आणि नागरिकांसाठी ते किती उपयुक्त आहे, हे तपासत नाही.
जर ट्रम्प प्रशासनाला (Trump administration) खरोखरच reliable systems बनवण्यात रस असता, तर त्यांच्या कृतीतून ते दिसलं असतं. त्याऐवजी, DOGE आणि ट्रम्प प्रशासनाने (Trump administration) corporate AI models मधील bias आणि system prompt मध्ये फेरफार करण्याच्या घटनांवर लक्ष ठेवण्यास मनाई केली. DOGE ने AI bias research साठी असलेली आर्थिक मदत (funding) थांबवल्यानंतर, काँग्रेसने (Congress) एक नवीन विधेयक (bill) मंजूर केलं, ज्यामुळे पुढील १० वर्षांसाठी AI oversight संबंधित कोणतेही नवीन कायदे बनवण्यावर बंदी (ban) आली आहे.
अनियंत्रित कर्मचारी (Rogue Employees)
मस्क यांनी DOGE सोडल्यानंतर, त्यांनी Palantir या थियल (Thiel) यांनी स्थापन केलेल्या AI कंपनीची (company) निवड केली. मस्क आणि थियल हे Paypal चे सह-संस्थापक (co-founders) होते आणि थियल यांनी स्वातंत्र्य आणि लोकशाही (freedom and democracy) यांच्यात compatibility बद्दल शंका व्यक्त केली आहे.
DOGE च्या माध्यमातून मस्क यांनी जी सत्ता केंद्रित (power initiated) केली आहे, ती आता अधिक गुप्तपणे (discreetly) सुरू राहील. जरी त्यांचं जाणं विरोध करणाऱ्यांसाठी एक विजय असला, तरी DOGE चं काम आता त्यांच्या loyal असणाऱ्या नोकरशहांमार्फत (bureaucrats) सुरू राहील.
DOGE चा खरा उद्देश सरकारी कामांमधील (government waste) अनावश्यक खर्च कमी करणं (eliminate) हा नव्हता, तर accountability measures कमी करून bureaucracy automate करणं हा होता. ‘सरकारी कामात कार्यक्षमता’ (government efficiency) आणणं म्हणजे नेमकं काय, हे अजूनही स्पष्ट नाही. सरकारी कामकाज (government) लोकाभिमुख (citizen interactions) आणि सोपं (simplify) करायला हवं. त्याऐवजी, कर्मचाऱ्यांच्या नोकऱ्या गेल्यामुळे (layoffs) कामात अडचणी निर्माण झाल्या आहेत आणि लोकांची गोपनीयता (privacy) धोक्यात आली आहे. IRS च्या funding मध्ये कपात केल्यामुळे audits आणि refunds बाबत चिंता वाढली आहे, ज्यामुळे अब्जावधी (billions) रुपयांचं नुकसान होऊ शकतं.
DOGE चा उद्देश bureaucracy optimize करणं (optimize bureaucracy) नसून, माणसांचा सहभाग (human element) कमी करणं आहे. हे उद्योगासारखी (industry-style) efficiency prioritize करतं, नागरिकांचं वर्गीकरण (categorizing citizens) करतं आणि systemic abuse गृहीत धरतं. मग AI system मध्ये असलेल्या biases नुसार अधिकार (rights) आणि privilege दिले किंवा नाकारले जातात.
जे या categories च्या व्याख्या आणि responses चं automation control करतात, त्यांच्या हातात खूप मोठी ताकद (significant power) असते. मॉडेल (models) हे त्यांना train करणाऱ्या लोकांचे निर्णय दर्शवतात, ज्यात tolerated biases आणि optimization goals चा समावेश असतो. सध्याचे administrator algorithmic traces वापरत असल्यामुळे, bureaucracy चा माणसांशी असलेला शेवटचा संबंधही तुटतो.
प्रशासकीय त्रुटी (Administrative Errors)
Bureaucracy आणि bureaucratic error नवीन नाहीत. पणError झाल्यावर माणसांना जबाबदार (accountability) न ठरवणं आणि त्या टाळण्याबद्दल Indifference दर्शवणं हे अभूतपूर्व (unprecedented) आहे.
उदाहरणार्थ, रॉबर्ट एफ. केनेडी ज्युनियर (Robert F. Kennedy Jr.) यांच्या health report मध्ये खोट्या citations (fabricated citations) दिल्या होत्या. पूर्वी हे Scandal ठरलं असतं, पण आता "formatting error" म्हणून सोडून देण्यात आलं. केनेडी (Kennedy) अशा धोरणांचं समर्थन (policies) करतात, ज्याला पुराव्यांचा आधार नाही आणि AI ने report तयार करणं हे presentation ला legitimate scientific inquiry पेक्षा जास्त महत्त्व (prioritization) देण्यासारखं आहे. खोटे पुरावे (fabricated evidence) तयार करण्यासाठी AI चा वापर करणं, हे प्रशासनासाठी (administration) एक tool बनण्यासारखं आहे.
DOGE चा उद्देश Trump यांच्या विरोधात असणाऱ्या लोकांना - स्थलांतरित (migrants), शैक्षणिक (academics), अल्पसंख्याक (racial minorities) - शिक्षा (punishing opposition) देणं आहे आणि याचे दूरगामी (wide-ranging) प्रयत्न अपरिहार्य (inevitable errors) त्रुटी निर्माण करतात. किल्मार अब्रेगो गार्सियाचं (Kilmar Abrego Garcia) deportation "administrative error" मुळे झालं, असं सांगितलं जातं. हे error ला शस्त्र (weaponization of error) बनवण्यासारखं आहे.
DOGE चा उद्देश एक अशी प्रणाली (system) तयार करणं आहे, जिथे वादग्रस्त (controversial outcomes) परिणामांसाठी "administrative," "programming," किंवा "formatting" errors ला जबाबदार धरलं जाईल. प्रशासन (administration) दोषांसाठी faulty tools वर खापर फोडेल आणि स्वतःची जबाबदारी (responsibility) स्वीकारायला तयार नसेल. गार्सियाच्या Cases मध्ये, प्रशासनानं (administration) ती चूक (rectify the error) सुधारण्यास नकार दिला. हे unreliable order चं जग दर्शवतं, जिथे फक्त loyal असणाऱ्यांनाच (pledge loyalty) सोडलं जाईल.
आपण एक असं नाजूक वातावरण (fragile environment) तयार करत आहोत, जिथे AI च्या लहरीनुसार (whims) आणि invisible programming नुसार लोकांचं भविष्य (personalized fates) ठरवलं जाईल. जेव्हा हे AI programs destabilizing tools बनतील आणि unified surveillance architectures मध्ये data consolidate करतील, तेव्हा काय होईल?
मस्क यांच्या जाण्याने लोकांना DOGE बद्दल कमी interest वाटेल, पण algorithmic bias, accountability चा अभाव (lack of accountability) आणि मानवी देखरेखेचा ऱ्हास (erosion of human oversight) यांसारखे मुद्दे अजूनही तसेच आहेत. या गोष्टींवर लक्ष दिलं नाही, तर ते न्यायपूर्ण (just) आणि समान (equitable) समाजाच्या Foundations ला damage पोहोचवू शकतात.
प्रोग्रामिंग त्रुटी
xAI चं Grok, मस्क यांच्या प्रत्यक्ष नियंत्रणाखाली, एक चिंताजनक उदाहरण सादर करतं. मॉडेलने दक्षिण आफ्रिकेतील गोऱ्या लोकांच्या नरसंहाराच्या वास्तवाला प्रोत्साहन देणाऱ्या टिप्पण्यांसह सौम्य प्रश्नांना प्रतिसाद दिला आहे. मॉडेलच्या hidden system prompt मध्ये हेराफेरी केल्याने सामाजिक अभियांत्रिकीचा एक वाईट प्रयत्न दिसून येतो. मॉडेलने नंतर Holocaust नाकारल्याचं आढळलं, ज्याला xAI ने "प्रोग्रामिंग त्रुटी" असल्याचं श्रेय दिलं.
xAI ने "गोऱ्या लोकांचा नरसंहार" घटनेला उत्तर देताना सांगितले की प्रॉम्प्टमध्ये केलेल्या बदलामुळे अंतर्गत धोरणांचे उल्लंघन झाले आहे. त्यांनी पुढे सांगितले की भविष्यातील सिस्टम प्रॉम्प्ट बदलांचे पुनरावलोकन केले जाईल.
या घटना सिस्टम प्रॉम्प्टमधील धोके अधोरेखित करतात. मॉडेलवर नियंत्रण ठेवणारे कोणीही ते बदलू शकतात आणि शोध लागल्यानंतरच त्यांची तपासणी केली जाते. सरकारी निर्णय प्रक्रियेत कॉर्पोरेट AI मॉडेलवर अवलंबून राहिल्याने टेक elites ना प्रचंड राजकीय शक्ती मिळते.
सामान्यतः, सरकारमध्ये तंत्रज्ञानाचा अवलंब करताना काळजीपूर्वक विचार केला जातो आणि सुरक्षा पुनरावलोकने केली जातात. DOGE च्या अंमलबजावणीत योग्य देखरेखेचा अभाव आहे, ज्यामुळे कोणत्याही पुनरावलोकनांच्या स्वतंत्रतेबद्दल चिंता वाढते. एजन्सी डेटा एकत्रित मॉडेलमध्ये एकत्रित करून, DOGE वैयक्तिक एजन्सीच्या विशिष्ट सुरक्षा गरजा विचारात घेण्यात अयशस्वी ठरते. DOGE आवश्यक, पर्याप्तता किंवा नागरिकांना होणारा फायदा न तपासता परिवर्तनकारी बदल लागू करत आहे.
जर ट्रम्प प्रशासनाला खरोखरच विश्वसनीय प्रणाली तयार करण्याची काळजी असेल, तर त्यांच्या कृती त्याचे प्रतिबिंब दाखवतील. त्याऐवजी, DOGE आणि ट्रम्प प्रशासनाने कॉर्पोरेट AI मॉडेल्समधील त्रुटी आणि सिस्टम प्रॉम्प्ट हेराफेरीच्या घटनांवर देखरेख ठेवण्यास प्रतिरोध केला आहे. AI bias संशोधनासाठी DOGE च्या निधीमध्ये कपात केल्यानंतर, काँग्रेसने मंजूर केलेले एक नवीन विधेयक पुढील दशकात AI देखरेखेसंबंधी कोणतेही नवीन कायदे करण्यास मनाई करेल.
धूर्त कर्मचारी
मस्क यांचे DOGE मधून निर्गमन Palantir च्या निवडीने सिमेंट केलेला वारसा मागे ठेवते, थियल-स्थापित AI कंपनी मस्कने निवडली. मस्क आणि थियल हे Paypal चे सह-संस्थापक होते आणि थियल यांनी स्वातंत्र्य आणि लोकशाहीच्या सुसंगततेबद्दल संशय व्यक्त केला आहे.
DOGE द्वारे मस्कने सुरू केलेले सत्तेचे केंद्रीकरण अधिक विचारपूर्वक चालू राहील. त्यांचे निर्गमन त्यांच्या विरोधकांसाठी विजय दर्शवत असले तरी, DOGE चे कार्य त्यांच्या निष्ठावान असलेल्या नोकरशहांच्या दिग्दर्शनाखाली सुरू आहे.
DOGE चा खरा उद्देश सरकारी कचरा दूर करणे हा नव्हता, तर कमी उत्तरदायित्व उपायांसह नोकरशाहीला स्वयंचलित करणे हा होता. "सरकारी कार्यक्षमते" चे हे ध्येय अजूनही अस्पष्ट आहे. सरकारी सुव्यवस्थेने सेवा आणि माहितीसह नागरिकांच्या परस्पर संवादांना सोपे केले पाहिजे. त्याऐवजी, कर्मचाऱ्यांच्या नोकऱ्या गेल्यामुळे प्रणालीगत अडथळे निर्माण झाले आहेत, तर गोपनीयतेशी तडजोड झाली आहे. IRS निधी कपात केल्याने ऑडिट आणि परताव्यांबाबत चिंता वाढली आहे, ज्यामुळे संभाव्यतः अब्जावधींचा महसूल बुडू शकतो.
DOGE चा उद्देश नोकरशाहीला अनुकूल करणे नव्हते, तर मानवी घटक काढून टाकणे होते. हे उद्योग-शैलीतील कार्यक्षमतेला प्राधान्य देते, नागरिकांचे वर्गीकरण करते आणि पद्धतशीर गैरवर्तन गृहीत धरते. त्यानंतर AI प्रणालीमध्ये एम्बेड केलेल्या पूर्वाग्रहांवर आधारित अधिकार आणि विशेषाधिकार दिले किंवा नाकारले जातात.
जे या श्रेणींच्या प्रतिसादांची व्याख्या आणि ऑटोमेशन नियंत्रित करतात ते महत्त्वपूर्ण शक्ती वापरतात. मॉडेल त्यांना प्रशिक्षण देणाऱ्यांचे निर्णय प्रतिबिंबित करतात, ज्यात सहनशील पूर्वग्रह आणि ऑप्टिमायझेशन ध्येयांचा समावेश होतो. सध्याचे प्रशासक अल्गोरिदम ट्रेस वापरत असल्याने, नोकरशाहीचा मानवतेशी असलेला शेवटचा संबंध तुटतो.
प्रशासकीय चुका
नोकरशाही आणि नोकरशाही त्रुटी नवीन नाहीत. अभूतपूर्व गोष्ट म्हणजे त्रुटींसाठी मानवी उत्तरदायित्व तोडणे, त्या टाळण्याबद्दल उदासीनतेला प्रोत्साहन देणे.
रॉबर्ट एफ. केनेडी ज्युनियर यांचा आरोग्य अहवाल विचारात घ्या, ज्यात बनावट अवतरणे होती. हे कृत्य ऐतिहासिकदृष्ट्या घोटाळा ठरले असते, परंतु ते "स्वरूपण त्रुटी" म्हणून नाकारले गेले. केनेडी पुराव्यांनी समर्थित नसलेल्या धोरणांचा स्वीकार करतात आणि या अहवालाची AI निर्मिती कायदेशीर वैज्ञानिक चौकशीपेक्षा सादरीकरणाला प्राधान्य दर्शवते. बनावट पुरावे स्वयंचलित करणे हा AI प्रशासनासाठी एक साधन बनण्याचा एक मार्ग आहे.
DOGE ट्रम्प यांच्या विरोधात असलेल्या लोकांना - स्थलांतरित, शैक्षणिक, वांशिक अल्पसंख्याकांना - शिक्षा देण्यावर अधिक लक्ष केंद्रित करत आहे आणि त्याचे व्यापक प्रयत्न अपरिहार्य चुका निर्माण करतात. "प्रशासकीय त्रुटी" मुळे किल्मर अब्रेगो गार्सियाचे हद्दपारी याचे उदाहरण आहे. हे त्रुटींचे हेतुपुरस्सर शस्त्रीकरण दर्शवते.
अखेरीस, DOGE चा उद्देश एक अशी प्रणाली तयार करणे आहे जिथे वादग्रस्त परिणामांना "प्रशासकीय", "प्रोग्रामिंग" किंवा "स्वरूपण" त्रुटींवर दोष दिला जाऊ शकतो. प्रशासन सदोष साधनांवर दोष ढकलते, जबाबदारी स्वीकारण्यास नकार देते. गार्सियाच्या बाबतीत, प्रशासनाने त्रुटी सुधारण्यास नकार दिला. हे अविश्वसनीय व्यवस्थेचे जग दर्शवते, जिथे केवळ निष्ठा व्यक्त करणाऱ्यांची सुटका होईल.
आम्ही एक नाजूक वातावरण तयार करत आहोत जिथे वैयक्तिक नशिबे AI च्या लहरींवर आणि त्याच्या अदृश्य प्रोग्रामिंगवर अवलंबून असतात. जेव्हा हे AI कार्यक्रम अस्थिर साधने असतात जे एकत्रित पाळत ठेवण्याच्या आर्किटेक्चरमध्ये डेटा एकत्रित करतात तेव्हा काय होते?
DOGE मधून मस्क यांच्या निर्गमनामुळे सार्वजनिक लक्ष कमी होऊ शकते, परंतु मूळ समस्या अजूनही कायम आहेत: अल्गोरिदममधील त्रुटी, उत्तरदायित्वाचा अभाव आणि मानवी देखरेखेचा ऱ्हास. या प्रवृत्ती, जर तपासणी न करता सोडल्या तर, न्याय आणि समान समाजाच्या अगदी मूलभूत पायांना नुकसान पोहोचवण्याची क्षमता आहे.