मस्क, एआई, और "प्रशासनिक त्रुटि" का हथियार

एलोन मस्क का डिफेंस ऑपरेशनल गाइडेंस एन्हांसमेंट (DOGE) पहल से प्रस्थान एक महत्वपूर्ण घटना लग सकता है, लेकिन इसका वास्तविक प्रभाव इस बात पर निर्भर करता है कि जनता कितनी सतर्क रहती है। असली कहानी केवल बजट में कटौती या मस्क के नाटकीय प्रदर्शन के बारे में नहीं है; यह वैचारिक परियोजनाओं के तकनीकी प्रणालियों में कपटपूर्ण एकीकरण के बारे में है जो अमेरिकी सरकार को चलाते हैं।

फरवरी में, मैंने एक "एआई तख्तापलट" की अवधारणा को रेखांकित किया, जहां आर्टिफिशियल इंटेलिजेंस एक उपकरण के रूप में कम और एक तमाशे और औचित्य के रूप में अधिक कार्य करता है। बड़े भाषा मॉडल (LLMs) पूर्वाग्रह जनरेटर के रूप में काम करते हैं, उन कार्यों के लिए एक सुविधाजनक आवरण प्रदान करते हैं जिनकी कोई जिम्मेदारी नहीं लेना चाहता है। एलोन मस्क ने इसी तरह की भूमिका निभाई है, कट्टरपंथी परिवर्तनों को अंजाम देते हुए सनसनीखेज प्रदर्शनों से जनता को विचलित किया है।

सबसे भयावह उदाहरणों में से एक एक ऐसे कार्यक्रम को डिफंड करना था जिसने बच्चों सहित 26 मिलियन लोगों की एड्स से होने वाली मौतों को रोका था। निर्वाचित अधिकारियों ने बड़े पैमाने पर इस मुद्दे को अनदेखा किया, लाचारी का नाटक किया।

मस्क के विवादास्पद हरकतों ने संघीय सरकार के कट्टरपंथी विध्वंस के लिए एक सुविधाजनक स्मोकस्क्रीन के रूप में काम किया। जबकि इसने एक जमीनी स्तर के विरोध आंदोलन को जन्म दिया और टेस्ला की बिक्री पर नकारात्मक प्रभाव डाला, इसने एआई एकीकरण के गहरे मुद्दे को छिपा दिया।

जबकि मस्क और ट्रम्प ने DOGE की विचारधारा-संचालित बजट कटौती को बढ़ावा दिया है, द अटलांटिक में एक विश्लेषण से पता चला है कि कुल संघीय परिव्यय वास्तव में बढ़ गया है। संघीय कार्यबल का एआई परिवर्तन, जिसे "सरकारी दक्षता" के साधन के रूप में प्रचारित किया गया है, बड़े पैमाने पर अनदेखा रहता है। DOGE ने संघीय कर्मचारियों से ईमेल की समीक्षा और वर्गीकृत करने के लिए Llama 2 का उपयोग किया, लेकिन एक विशाल नागरिक निगरानी अवसंरचना बनाने के लिए Palantir का $113 मिलियन का अनुबंध एक परेशान करने वाली प्रवृत्ति को उजागर करता है। कंपनी मस्क के Grok भाषा मॉडल को भी अपने प्लेटफ़ॉर्म में एकीकृत कर रही है।

प्रोग्रामिंग त्रुटियाँ

xAI का Grok, मस्क के सीधे नियंत्रण में, एक चिंताजनक उदाहरण प्रदान करता है। मॉडल ने दक्षिण अफ्रीका में श्वेत नरसंहार की वास्तविकता को बढ़ावा देने वाली टिप्पणियों के साथ सौम्य प्रश्नों का जवाब दिया है। मॉडल के छिपे हुए सिस्टम प्रॉम्प्ट में यह हेरफेर सामाजिक इंजीनियरिंग का एक अनाड़ी प्रयास दर्शाता है। मॉडल को बाद में प्रलय से इनकार करने में संलग्न पाया गया, जिसे xAI ने एक "प्रोग्रामिंग त्रुटि" बताया।

xAI ने "श्वेत नरसंहार" की घटना पर यह कहकर प्रतिक्रिया दी कि प्रॉम्प्ट संशोधन ने आंतरिक नीतियों का उल्लंघन किया है। उन्होंने कहा कि भविष्य में सिस्टम प्रॉम्प्ट परिवर्तन समीक्षा के अधीन होंगे।

ये घटनाएं सिस्टम प्रॉम्प्ट के अंतर्निहित जोखिमों को उजागर करती हैं। उन्हें मॉडल के नियंत्रण वाले किसी भी व्यक्ति द्वारा बदला जा सकता है और केवल पता लगने के बाद ही जांच के अधीन किया जाता है। सरकारी निर्णय लेने में कॉर्पोरेट एआई मॉडल पर निर्भरता तकनीकी अभिजात वर्ग को भारी राजनीतिक शक्ति प्रदान करती है।

आमतौर पर, सरकार में प्रौद्योगिकी को अपनाने में सावधानीपूर्वक विचार-विमर्श और सुरक्षा समीक्षा शामिल होती है। DOGE के कार्यान्वयन में उचित निरीक्षण का अभाव है, जिससे किसी भी समीक्षा की स्वतंत्रता के बारे में चिंताएं बढ़ रही हैं। एजेंसी डेटा को एक एकीकृत मॉडल में एकीकृत करके, DOGE व्यक्तिगत एजेंसियों की विशिष्ट सुरक्षा आवश्यकताओं पर विचार करने में विफल रहता है। संक्षेप में, DOGE उनकी आवश्यकता, पर्याप्तता या नागरिकों को लाभ का आकलन किए बिना परिवर्तनकारी परिवर्तन लागू कर रहा है।

यदि ट्रम्प प्रशासन वास्तव में विश्वसनीय सिस्टम बनाने की परवाह करता था, तो उनकी कार्रवाइयाँ इसे दर्शातीं। इसके बजाय, DOGE और ट्रम्प प्रशासन ने कॉर्पोरेट एआई मॉडल में पूर्वाग्रहों और सिस्टम प्रॉम्प्ट हेरफेर के उदाहरणों की निगरानी को दबा दिया है। DOGE द्वारा एआई पूर्वाग्रह अनुसंधान की धन कटौती के बाद, कांग्रेस द्वारा पारित एक नया विधेयक अगले दशक के लिए एआई निरीक्षण के संबंध में किसी भी नए कानून पर प्रतिबंध लगाएगा।

दुष्ट कर्मचारी

DOGE से मस्क का प्रस्थान एक विरासत छोड़ जाता है, जिसे Palantir के चयन द्वारा मजबूत किया गया है, जो थिएल-स्थापित एआई कंपनी है जिसे मस्क ने चुना है। मस्क और थिएल पेपाल के सह-संस्थापक थे, और थिएल ने स्वतंत्रता और लोकतंत्र की अनुकूलता के बारे में संदेह व्यक्त किया है।

DOGE के माध्यम से मस्क द्वारा शुरू की गई शक्ति का संकेंद्रण बना रहेगा, अधिक सावधानी से काम कर रहा है। जबकि उनका प्रस्थान उन लोगों के लिए एक जीत है जिन्होंने उनका विरोध किया, DOGE का काम वफादारी के लिए किराए पर लिए गए नौकरशाहों के निर्देशन में जारी है।

DOGE का असली उद्देश्य कभी भी सरकारी कचरे को खत्म करना नहीं था, बल्कि कम जवाबदेही उपायों के साथ नौकरशाही को स्वचालित करना था। "सरकारी दक्षता" का यह लक्ष्य खराब तरीके से परिभाषित है। सरकार को सुव्यवस्थित करने से सेवाओं और सूचनाओं के साथ नागरिक संपर्क सरल होने चाहिए। इसके बजाय, लेऑफ ने गोपनीयता से समझौता करते हुए व्यवस्थित लॉगजाम बनाए हैं। आईआरएस फंडिंग में कटौती ने ऑडिट और रिफंड के बारे में चिंताओं को बढ़ा दिया है, जिससे संभावित रूप से राजस्व में अरबों डॉलर का नुकसान हो सकता है।

DOGE का उद्देश्य नौकरशाही को अनुकूलित करना नहीं था, बल्कि मानव तत्व को खत्म करना था। यह उद्योग-शैली की दक्षता को प्राथमिकता देता है, नागरिकों को वर्गीकृत करता है और व्यवस्थित दुरुपयोग मानता है। उसके बाद अधिकारों और विशेषाधिकारों को AI प्रणाली में एम्बेडेड पूर्वाग्रहों के आधार पर प्रदान या अस्वीकार किया जाता है।

इन श्रेणियों की प्रतिक्रियाओं की परिभाषा और स्वचालन को नियंत्रित करने वाले महत्वपूर्ण शक्ति रखते हैं। मॉडल उन लोगों के निर्णयों को दर्शाते हैं जो उन्हें प्रशिक्षित करते हैं, जिसमें सहन किए गए पूर्वाग्रह और अनुकूलन लक्ष्य शामिल हैं। वर्तमान प्रशासक एल्गोरिथम ट्रेस का उपयोग कर रहे हैं, नौकरशाही मानवता के साथ अपना अंतिम संबंध खो देती है।

प्रशासनिक त्रुटियाँ

नौकरशाही और नौकरशाही त्रुटि कोई नई बात नहीं है। अभूतपूर्व क्या है त्रुटियों के लिए मानव जवाबदेही का विच्छेद, उनसे बचने के प्रति उदासीनता को बढ़ावा देना।

रॉबर्ट एफ कैनेडी जूनियर की स्वास्थ्य रिपोर्ट पर विचार करें, जिसमें मनगढ़ंत उद्धरण शामिल थे। यह कार्य ऐतिहासिक रूप से एक घोटाला होता, लेकिन इसे "स्वरूपण त्रुटि" के रूप में खारिज कर दिया गया। कैनेडी उन नीतियों को अपनाते हैं जो साक्ष्य द्वारा समर्थित नहीं हैं, और इस रिपोर्ट की एआई पीढ़ी वैध वैज्ञानिक जांच पर प्रस्तुति को प्राथमिकता देने का सुझाव देती है। मनगढ़ंत सबूतों का स्वचालन सिर्फ एक तरीका है जिससे एआई प्रशासन के लिए एक उपकरण बन गया है।

DOGE ट्रम्प के विरोध-प्रवासियों, शिक्षाविदों, नस्लीय अल्पसंख्यकों को दंडित करने पर अधिक केंद्रित प्रतीत होता है - और इसके व्यापक प्रयास अपरिहार्य त्रुटियां उत्पन्न करते हैं। किल्मर एब्रेगो गार्सिया का निर्वासन, जिसे "प्रशासनिक त्रुटि" के लिए जिम्मेदार ठहराया गया था, इसका एक उदाहरण है। यह त्रुटि के जानबूझकर हथियारकरण का उदाहरण है।

अंततः, DOGE का उद्देश्य एक ऐसी प्रणाली बनाना है जहां विवादास्पद परिणामों को "प्रशासनिक," "प्रोग्रामिंग" या "स्वरूपण" त्रुटियों पर दोषी ठहराया जा सके। प्रशासन दोषपूर्ण उपकरणों पर दोष डालता है, जिम्मेदारी लेने से इनकार करता है। गार्सिया के मामले में, प्रशासन गलती को सुधारने से इनकार कर देता है। यह अविश्वसनीय व्यवस्था की दुनिया को दर्शाता है, जहां केवल वही लोग बख्शे जाएंगे जो वफादारी की प्रतिज्ञा करते हैं।

हम एक नाजुक वातावरण बना रहे हैं जहां व्यक्तिगत भाग्य AI की सनक और इसकी अदृश्य प्रोग्रामिंग पर निर्भर करते हैं। तब क्या होता है जब ये AI प्रोग्राम अस्थिर करने वाले उपकरण होते हैं जो डेटा को एकीकृत निगरानी आर्किटेक्चर में समेकित करते हैं?

जबकि DOGE से मस्क का प्रस्थान सार्वजनिक ध्यान को कम कर सकता है, अंतर्निहित मुद्दे बने हुए हैं: एल्गोरिथम पूर्वाग्रह, जवाबदेही की कमी और मानव निरीक्षण का क्षरण। यदि इन प्रवृत्तियों को अनियंत्रित छोड़ दिया गया, तो उनमें एक न्यायपूर्ण और न्यायसंगत समाज की नींव को नुकसान पहुंचाने की क्षमता है।