मेटा का Llama 2: सरकारी कटौती में उपयोग

एक अप्रत्याशित रहस्योद्घाटन इंगित करता है कि सरकारी दक्षता विभाग की संघीय कार्यबल को सुव्यवस्थित करने की अत्यधिक जांच वाली पहलों ने एलोन मस्क की अपनी AI रचना, Grok के बजाय एक पुराने Meta AI मॉडल, विशेष रूप से Llama 2 का उपयोग किया।

“कांटे पर सड़क” ज्ञापन और Llama 2 की भूमिका

वायर्ड द्वारा किए गए एक समीक्षा के अनुसार, एलोन मस्क के DOGE (सरकारी दक्षता विभाग) से संबद्ध, कार्मिक प्रबंधन कार्यालय के भीतर काम कर रहे, ने Meta के Llama 2 मॉडल को सावधानीपूर्वक विश्लेषण करने और जनवरी के अंत में पूरे सरकार में भेजे गए विवादास्पद “कांटे पर सड़क” ईमेल से संघीय कर्मचारियों की प्रतिक्रियाओं को वर्गीकृत करने के लिए लगाया।

“कांटे पर सड़क” ज्ञापन, मस्क द्वारा ट्विटर कर्मचारियों को भेजे गए एक पिछले संचार के समान, संघीय श्रमिकों को एक विकल्प के साथ प्रस्तुत किया: सरकार की संशोधित रिटर्न-टू-ऑफिस नीति को स्वीकार करके “वफादारी” प्रदर्शित करें, या इस्तीफा देना चुनें। उस समय, प्रसारित अफवाहों ने सुझाव दिया कि DOGE सरकारी कर्मचारी डेटा को संसाधित करने के लिए AI का लाभ उठा रहा है। तब से पुष्टि हुई है, जिससे कर्मचारी प्रतिक्रियाओं को छानने और इस्तीफों की संख्या को मापने के लिए Llama 2 के उपयोग की पुष्टि होती है।

Llama 2 का विवादास्पद अतीत: सैन्य अनुप्रयोग और Meta की प्रतिक्रिया

Llama 2 का इतिहास विवादों से रहित नहीं है। विशेष रूप से, नवंबर में, चीनी शोधकर्ताओं ने Llama 2 को चीनी सेना द्वारा नियोजित एक AI मॉडल की आधारशिला के रूप में लाभ उठाया। इस रहस्योद्घाटन ने बैकलैश को जन्म दिया, जिससे Meta को शुरू में शोधकर्ताओं की "अनधिकृत" निर्भरता को एक "एकल" और "पुराने" मॉडल पर अस्वीकार करने के लिए प्रेरित किया। हालांकि, Meta ने बाद में सैन्य अनुप्रयोगों पर प्रतिबंध लगाने वाली अपनी नीतियों को उलट दिया और अमेरिकी राष्ट्रीय सुरक्षा उद्देश्यों के लिए अपने AI मॉडल तक पहुंच बढ़ा दी।

Meta ने सार्वजनिक रूप से अमेरिकी सरकारी एजेंसियों के लिए Llama को सुलभ बनाने की अपनी प्रतिबद्धता की घोषणा की, जिसमें रक्षा और राष्ट्रीय सुरक्षा अनुप्रयोगों में शामिल लोगों के साथ-साथ उनकी आकांक्षाओं का समर्थन करने वाले निजी क्षेत्र के भागीदार भी शामिल हैं। उन्होंने एक्सेंचर, अमेज़ॅन वेब सर्विसेज, एंडुरिल, बूज़ एलन, डेटाब्रिक्स, डेलॉइट, आईबीएम, लीडोस, लॉकहीड मार्टिन, माइक्रोसॉफ्ट, ओरेकल, पलान्टिर, स्केल एआई और स्नोफ्लेक जैसी कंपनियों के साथ साझेदारी की घोषणा की, ताकि सरकारी एजेंसियों के बीच Llama की तैनाती को सुविधाजनक बनाया जा सके।

वायर्ड का सुझाव है कि Meta के मॉडलों की ओपन-सोर्स प्रकृति सरकार को मस्क के उद्देश्यों के समर्थन में उन्हें आसानी से नियोजित करने की अनुमति देती है, संभावित रूप से स्पष्ट कंपनी सहमति के बिना। सरकार के भीतर Meta के मॉडलों की तैनाती की सीमा की पहचान करना एक चुनौती बनी हुई है। DOGE की Llama 2 पर निर्भरता के पीछे तर्क अस्पष्ट है, खासकर Llama 3 और 4 के साथ Meta की प्रगति को देखते हुए।

DOGE के Llama 2 के उपयोग का सीमित ज्ञान

DOGE के Llama 2 के विशिष्ट अनुप्रयोग के संबंध में विवरण कम हैं। वायर्ड की जांच से पता चला कि DOGE ने मॉडल को स्थानीय रूप से तैनात किया है, यह सुझाव देते हुए कि डेटा को इंटरनेट पर प्रेषित किए जाने की संभावना नहीं थी, जिससे कई सरकारी कर्मचारियों द्वारा व्यक्त की गई गोपनीयता संबंधी चिंताएं कम हो गईं।

कांग्रेस की चिंताएं और जांच के लिए आह्वान

अप्रैल में प्रबंधन और बजट कार्यालय के निदेशक रसेल वॉउट को संबोधित एक पत्र में, 40 से अधिक सांसदों ने AI के DOGE के उपयोग की गहन जांच की मांग की। उन्होंने चिंता व्यक्त की कि इस तरह का उपयोग, संभावित सुरक्षा जोखिमों के साथ, सरकार के भीतर AI को सफल और उचित रूप से अपनाने को कमजोर कर सकता है।

पत्र में विशेष रूप से DOGE के एक कर्मचारी और पूर्व स्पेसएक्स कर्मचारी का उल्लेख किया गया है, जिन्होंने कथित तौर पर मस्क के xAI Grok-2 मॉडल का उपयोग एक "AI सहायक" विकसित करने के लिए किया था। इसमें संविदा और खरीद डेटा का विश्लेषण करने के लिए एंथ्रोपिक और मेटा मॉडल के आधार पर "GSAi" नामक एक चैटबॉट के उपयोग का भी उल्लेख किया गया है। इसके अतिरिक्त, DOGE को AutoRIF नामक सॉफ़्टवेयर से जोड़ा गया है, जिसे कथित तौर पर पूरे सरकार में सामूहिक फायरिंग में तेजी लाने के लिए डिज़ाइन किया गया है।

सांसदों ने पारदर्शिता की कमी का हवाला देते हुए "बीस लाख-सदस्यीय संघीय कार्यबल के एक बड़े हिस्से से ईमेल का विश्लेषण करने के लिए" AI प्रणालियों के DOGE के उपयोग के आसपास "सुरक्षा के बारे में प्रमुख चिंताएं" पर जोर दिया, जिसमें पिछले सप्ताह की उपलब्धियों का वर्णन किया गया है।"

ये ईमेल "कांटे पर सड़क" ईमेल के बाद आए, जिसमें श्रमिकों को पांच बुलेट बिंदुओं में साप्ताहिक उपलब्धियों को रेखांकित करने के लिए प्रेरित किया गया। कर्मचारियों ने प्रतिक्रियाओं की प्रकृति के बारे में आशंका व्यक्त की, यह डरते हुए कि DOGE उचित सुरक्षा मंजूरी के बिना संवेदनशील जानकारी मांग रहा होगा।

वायर्ड निश्चित रूप से पुष्टि नहीं कर सका कि Llama 2 का उपयोग इन ईमेल प्रतिक्रियाओं को पार्स करने के लिए भी किया गया था या नहीं। हालांकि, संघीय श्रमिकों ने वायर्ड को सुझाव दिया कि अगर यह एक विवेकपूर्ण निर्णय था, तो DOGE "कांटे पर सड़क" ईमेल प्रयोग से "उनके कोड को पुन: उपयोग" करेगा।

Grok का उपयोग क्यों नहीं किया गया

सवाल उठता है: DOGE ने Grok का उपयोग क्यों नहीं किया?

संभवतः स्पष्टीकरण यह है कि Grok, उस समय एक मालिकाना मॉडल होने के कारण, जनवरी में DOGE के कार्य के लिए अनुपलब्ध था। वायर्ड के अनुसार, DOGE आगे बढ़ने पर Grok पर अपनी निर्भरता बढ़ा सकता है, खासकर माइक्रोसॉफ्ट की घोषणा को देखते हुए कि वह इस सप्ताह अपने Azure AI Foundry में xAI के Grok 3 मॉडल की मेजबानी शुरू कर देगा, जिससे मॉडल के संभावित अनुप्रयोगों का विस्तार होगा।

सांसदों की चिंताएं: हितों का टकराव और डेटा उल्लंघन

अपने पत्र में, सांसदों ने वॉउट से मस्क से जुड़े संभावित हितों के टकराव की जांच करने का आग्रह किया, जबकि संभावित डेटा उल्लंघनों के खिलाफ भी चेतावनी दी। उन्होंने दावा किया कि AI, जैसा कि DOGE द्वारा उपयोग किया जाता है, अभी तक सरकारी अनुप्रयोगों के लिए उपयुक्त नहीं था।

उन्होंने तर्क दिया कि "उचित सुरक्षा के बिना, एक AI प्रणाली में संवेदनशील डेटा को खिलाना इसे एक प्रणाली के ऑपरेटर के कब्जे में डाल देता है - सार्वजनिक और कर्मचारी विश्वास का एक बड़ा उल्लंघन और उस डेटा के आसपास साइबर सुरक्षा जोखिमों में वृद्धि।" उन्होंने आगे कहा कि "उत्पादक AI मॉडल भी अक्सर त्रुटियां करते हैं और महत्वपूर्ण पूर्वाग्रह दिखाते हैं-प्रौद्योगिकी उचित जांच, पारदर्शिता, निरीक्षण और गार्ड्रेल के बिना उच्च जोखिम वाले निर्णय लेने में उपयोग के लिए तैयार नहीं है।"

जबकि वायर्ड की रिपोर्ट से पता चलता है कि DOGE ने "कांटे पर सड़क" ईमेल से संवेदनशील डेटा को बाहरी स्रोत में प्रेषित नहीं किया, सांसदों AI प्रणालियों की अधिक मजबूत जांच की वकालत कर रहे हैं, ताकि "AI मॉडल परिनियोजकों के साथ व्यक्तिगत रूप से पहचान योग्य या अन्यथा संवेदनशील जानकारी साझा करने के जोखिम" को कम किया जा सके।"

एक प्रचलित चिंता यह है कि मस्क अपनी प्रतिस्पर्धा के लिए दुर्गम सरकारी डेटा से लाभान्वित होते हुए अपनी स्वयं की मॉडलों का तेजी से लाभ उठा सकते हैं, जबकि साथ ही उस डेटा को उल्लंघन जोखिमों के लिए उजागर कर सकते हैं। सांसदों को उम्मीद है कि DOGE को अपनी AI प्रणालियों को बंद करने के लिए मजबूर किया जाएगा। हालांकि, वॉउट DOGE के दृष्टिकोण के साथ अधिक संरेखित प्रतीत होता है, जैसा कि संघीय उपयोग के लिए उनके AI मार्गदर्शन से प्रमाणित होता है, जो एजेंसियों को "नवाचार के लिए बाधाओं को दूर करने और करदाता के लिए सर्वोत्तम मूल्य प्रदान करने" के लिए प्रोत्साहित करता है।

सांसदों के पत्र में जोर दिया गया है कि "जबकि हम संघीय सरकार को नए, स्वीकृत AI तकनीकों को एकीकृत करने का समर्थन करते हैं जो दक्षता या प्रभावकारिता में सुधार कर सकते हैं, हम संघीय डेटा के साथ बातचीत करते समय सुरक्षा, गोपनीयता और उपयुक्त उपयोग मानकों का त्याग नहीं कर सकते हैं।" वे यह भी कहते हैं कि "हम AI प्रणालियों के उपयोग को भी माफ नहीं कर सकते हैं, जो अक्सर मतिभ्रम और पूर्वाग्रह के लिए जाने जाते हैं, संघीय रोजगार या संघीय धन की समाप्ति के संबंध में निर्णयों में जब तक कि उन मॉडलों की पर्याप्त पारदर्शिता और निरीक्षण न हो - त्रुटिपूर्ण तकनीक या ऐसी तकनीक के त्रुटिपूर्ण उपयोग के कारण प्रतिभा और महत्वपूर्ण अनुसंधान को खोने का जोखिम बहुत अधिक है।"

सरकारी दक्षता पहलों में AI उपयोग के निहितार्थों में गहराई से उतरें

सरकारी दक्षता विभाग (DOGE) के संचालन को सुव्यवस्थित करने के प्रयासों में कृत्रिम बुद्धिमत्ता के उपयोग ने बहस और जांच का तूफान भड़का दिया है। यह रहस्योद्घाटन कि एजेंसी ने एलोन मस्क के मालिकाना Grok AI के बजाय Meta के Llama 2 मॉडल-एक ओपन-सोर्स AI-पर झुकाव किया, ने पहले से ही जटिल कथा में जटिलता की एक परत जोड़ दी है। यह स्थिति सरकारी कार्यों में AI को एकीकृत करने के बहुआयामी निहितार्थों में गहराई से उतरने, निहित लाभों और जोखिमों, नैतिक विचारों और हितों के टकराव की संभावना की जांच की गारंटी देती है।

सरकार में AI का आकर्षण और कमियां

सरकारी कार्यों में AI का एकीकरण दक्षता, डेटा विश्लेषण और निर्णय लेने में परिवर्तनकारी प्रगति का वादा करता है। नियमित कार्यों को स्वचालित करने से लेकर विशाल डेटासेट के माध्यम से छानने तक, AI अभूतपूर्व स्तर की उत्पादकता को अनलॉक करने और सार्वजनिक सेवाओं के वितरण में सुधार करने की क्षमता रखता है। उन एल्गोरिदम की कल्पना करें जो बुनियादी ढांचे की विफलताओं की भविष्यवाणी कर सकते हैं, शिक्षा को निजीकृत कर सकते हैं या आपदा राहत प्रयासों में संसाधन आवंटन को अनुकूलित कर सकते हैं। संभावनाएं अंतहीन प्रतीत होती हैं।

हालांकि, यह तकनीकी क्रांति अपनी परेशानियों के बिना नहीं है। AI प्रणालियों पर निर्भरता नैतिक दुविधाओं, सुरक्षा कमजोरियों और संभावित पूर्वाग्रहों का एक जटिल वेब पेश करती है। AI मॉडल को डेटा पर प्रशिक्षित किया जाता है, और यदि वह डेटा सामाजिक पूर्वाग्रहों को दर्शाता है, तो AI उन पूर्वाग्रहों को कायम रखेगा और यहां तक कि बढ़ा भी देगा। यह सरकारी सेवाओं में निष्पक्षता और समानता के लिए एक महत्वपूर्ण खतरा पैदा करता है, जिससे कानून प्रवर्तन, सामाजिक कल्याण और शिक्षा जैसे क्षेत्रों में संभावित रूप से भेदभावपूर्ण परिणाम होते हैं।

इसके अलावा, AI का उपयोग पारदर्शिता और जवाबदेही के बारे में गहन सवाल उठाता है।जब एल्गोरिदम द्वारा निर्णय लिए जाते हैं, तो उन निर्णयों के तर्क को समझना चुनौतीपूर्ण हो जाता है, जिससे सरकारी एजेंसियों को उनके कार्यों के लिए जवाबदेह ठहराना मुश्किल हो जाता है।

Llama 2 बनाम Grok की पहेली

Grok पर Llama 2 की पसंद विचारों का अपना सेट लाती है। Llama 2 की ओपन-सोर्स प्रकृति इसे आसानी से सुलभ और अनुकूलन योग्य बनाती है, जिससे सरकारी एजेंसियां इसे मालिकाना पारिस्थितिकी तंत्र में बंद किए बिना अपनी विशिष्ट आवश्यकताओं के अनुकूल बना सकती हैं। हालांकि, इसका यह भी मतलब है कि इसमें समर्पित समर्थन और रखरखाव का अभाव है जो आमतौर पर मालिकाना AI समाधानों के साथ आता है।

दूसरी ओर, Grok, एक मालिकाना AI के रूप में, अत्याधुनिक प्रदर्शन और विशेष विशेषज्ञता का वादा करता है। हालांकि, यह संभावित विक्रेता लॉक-इन, डेटा गोपनीयता और AI के प्रशिक्षण डेटा से उपजे पूर्वाग्रह के बारे में भी चिंताएं उठाता है। यह निर्णय लेने की प्रक्रियाओं पर अनुचित प्रभाव डालने के लिए किसी भी निजी इकाई, विशेष रूप से उच्च-प्रोफ़ाइल फिगर से जुड़े व्यक्ति की क्षमता पर चिंता व्यक्त करता है जो सरकार के उद्देश्यों से निकटता से जुड़ा हुआ है।

हितों के टकराव का भूत

सरकारी AI पहलों में एलोन मस्क की संस्थाओं (स्पेसएक्स और xAI) की भागीदारी हितों के टकराव का भूत उठाती है। विभिन्न क्षेत्रों में निहित स्वार्थ वाले एक प्रमुख व्यक्ति के रूप में, मस्क की भागीदारी इस बात के बारे में सवाल उठाती है कि वह सरकारी नीति और अनुबंधों के पुरस्कार पर संभावित रूप से कितना प्रभाव डाल सकते हैं।

क्या सरकार मस्क की कंपनियों को तरजीही व्यवहार दे रही होगी? क्या यह सुनिश्चित करने के लिए पर्याप्त सुरक्षा उपाय हैं कि निर्णय निष्पक्ष रूप से और जनता के सर्वोत्तम हित में किए जाएं? ये वैध प्रश्न हैं जिनकी कठोर जांच की मांग है।

डेटा सुरक्षा और गोपनीयता संबंधी चिंताएं

सरकारी कार्यों में AI का उपयोग अनिवार्य रूप से संवेदनशील नागरिक डेटा को एकत्र करना, संग्रहीत करना और संसाधित करना शामिल है। यह साइबर हमलों और डेटा उल्लंघनों के लिए एक आकर्षक लक्ष्य बनाता है। सरकार को अनाधिकृत पहुंच और दुरुपयोग से इस डेटा की सुरक्षा के लिए मजबूत सुरक्षा उपाय लागू करने चाहिए। इसमें न केवल डेटा को बाहरी खतरों से बचाना शामिल है, बल्कि आंतरिक दुरुपयोग को रोकने के लिए सख्त पहुंच नियंत्रण और जवाबदेही तंत्र स्थापित करना भी शामिल है।

डेटा गोपनीयता पर चिंताएं AI एल्गोरिदम की अपारदर्शी प्रकृति से बढ़ जाती हैं। नागरिकों को अक्सर पता नहीं होता है कि उनके डेटा को कैसे संसाधित किया जा रहा है या उनके जीवन को प्रभावित करने वाले निर्णय लेने के लिए इसका उपयोग किया जा रहा है। पारदर्शिता की यह कमी सरकार में विश्वास को कम करती है और AI-संचालित पहलों के खिलाफ प्रतिरोध का कारण बन सकती है।

सरकार के भविष्य के लिए निहितार्थ

DOGE के AI के उपयोग पर बहस सिर्फ एक विशिष्ट उदाहरण के बारे में नहीं है, बल्कि कृत्रिम बुद्धिमत्ता के युग में सरकार के व्यापक भविष्य के बारे में है। हम AI की शक्ति का उपयोग सार्वजनिक सेवाओं में सुधार के लिए कैसे कर सकते हैं जबकि जोखिमों को कम कर सकते हैं? हम यह कैसे सुनिश्चित कर सकते हैं कि AI का उपयोग नैतिक, पारदर्शी और जवाबदेही से किया जाए?

इन सवालों के जवाब के लिए एक बहुआयामी दृष्टिकोण की आवश्यकता है:

  • स्पष्ट नैतिक दिशानिर्देश स्थापित करें: सरकार में AI के उपयोग को नियंत्रित करने वाले नैतिक सिद्धांतों का एक स्पष्ट सेट संहिताबद्ध करें। इन सिद्धांतों को निष्पक्षता, पारदर्शिता, जवाबदेही और गोपनीयता के सम्मान को प्राथमिकता देनी चाहिए।

  • पारदर्शिता और खुलेपन को बढ़ावा दें: AI एल्गोरिदम और निर्णय लेने की प्रक्रियाओं को अधिक पारदर्शी बनाएं। रिपोर्ट प्रकाशित करें कि सरकार में AI का उपयोग कैसे किया जा रहा है और नागरिकों को प्रतिक्रिया प्रदान करने के रास्ते प्रदान करें।

  • डेटा सुरक्षा की रक्षा करें: साइबर खतरों और अंदरूनी दुरुपयोग से संवेदनशील नागरिक डेटा की सुरक्षा के लिए मजबूत सुरक्षा उपाय लागू करें।

  • जवाबदेही सुनिश्चित करें: AI-संचालित निर्णयों के लिए जवाबदेही की स्पष्ट पंक्तियाँ स्थापित करें। सरकारी अधिकारियों को नामित करें जो AI के उपयोग की देखरेख करने और आने वाली किसी भी समस्या का समाधान करने के लिए जिम्मेदार हैं।

  • सार्वजनिक विश्वास पैदा करें: सरकार में AI के लाभों और जोखिमों के बारे में जनता को शिक्षित करें। AI के जिम्मेदार उपयोग में उनकी चिंताओं को दूर करने और विश्वास बनाने के लिए नागरिकों के साथ जुड़ें।

एक सक्रिय और विचारशील दृष्टिकोण को अपनाकर, सरकार सार्वजनिक हित की सुरक्षा करते हुए AI की परिवर्तनकारी शक्ति का उपयोग कर सकती है। DOGE विवाद सावधानीपूर्वक योजना, खुली बातचीत और कृत्रिम बुद्धिमत्ता के युग में नैतिक सिद्धांतों के प्रति प्रतिबद्धता के महत्व की एक मूल्यवान अनुस्मारक के रूप में कार्य करता है।

सामने आ रही कथा

DOGE के AI उपयोग से जुड़ा नाटक अभी खत्म नहीं हुआ है। जैसे-जैसे जांच जारी है और अधिक विवरण सामने आते हैं, इस घटना का सरकार के भीतर AI की तैनाती के भविष्य पर निस्संदेह प्रभाव पड़ेगा। उम्मीद है, यह स्थिति प्रौद्योगिकी के अधिक विचारशील एकीकरण की ओर ले जाएगी।