An unexpected revelation indicates that the Department of Government Efficiency’s highly scrutinized initiatives to streamline the federal workforce utilized an older Meta AI model, specifically Llama 2, rather than Elon Musk’s own AI creation, Grok.
“Fork in the Road” मेमो आणि Llama 2 ची भूमिका
Wired ने केलेल्या तपासणीनुसार, Office of Personnel Management मध्ये कार्यरत असलेल्या Elon Musk च्या DOGE (Department of Government Efficiency) च्या संलग्नकांनी Meta च्या Llama 2 मॉडेलचा वापर करून सरकारी कर्मचाऱ्यांकडून आलेल्या प्रतिक्रियांवर Barikiq लक्ष केंद्रित केले. जानेवारीच्या उत्तरार्धात देशभरातील कर्मचाऱ्यांन बरोबरीने एक वादग्रस्त “Fork in the Road” ईमेल पाठवला.
“Fork in the Road” मेमो, Elon Musk यांनी Twitter कर्मचाऱ्यांसाठी पाठवलेल्या मागील संभाषणासारखाच होता. यामुळे सरकारी कर्मचाऱ्यांसमोर एक निवड होती: सरकारने कार्यालयात परत येण्याच्या धोरणाला ‘निष्ठा’ दर्शवून स्वीकारा किंवा राजीनामा द्या. त्यावेळी, DOGE सरकारी कर्मचाऱ्यांच्या डेटावर प्रक्रिया करण्यासाठी AI चा वापर करत असल्याची अफवा पसरली होती. Llama 2 चा वापर कर्मचारी प्रतिक्रियांची तपासणी करण्यासाठी आणि राजीनामा देणाऱ्यांची संख्या मोजण्यासाठी केला गेला, हे आता सिद्ध झाले आहे.
Llama 2 चा वादग्रस्त इतिहास: लष्करी उपयोग आणि Meta चा प्रतिसाद
Llama 2 चा इतिहास विवादाशिवाय नाही. नोव्हेंबरमध्ये, चीनी संशोधकांनी Llama 2 चा उपयोग चीनी सैन्याद्वारे वापरल्या जाणाऱ्या AI मॉडेलसाठी केला. या खुलासामुळे Meta विरोधात टीका झाली, ज्यामुळे Meta ने सुरुवातीला संशोधकांच्या “अनधिकृत” वापराचा निषेध केला आणि या मॉडेलला “Single” आणि “Outdated” म्हटले. मात्र, Meta ने नंतर सैन्य उपयोगांवर बंदी घालण्याचे धोरण बदलले आणि अमेरिकेच्या राष्ट्रीय सुरक्षा उद्देशांसाठी AI मॉडेलमध्ये प्रवेश वाढवला.
Meta ने Llama हे अमेरिकन सरकारी संस्था, संरक्षण आणि राष्ट्रीय सुरक्षा ऍप्लिकेशन्समध्ये सहभागी असलेल्या संस्था आणि त्यांच्या प्रयत्नांना समर्थन देणाऱ्या खाजगी क्षेत्रातील भागीदारांना उपलब्ध करून देण्याची आपली बांधिलकी जाहीर केली. त्यांनी Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI आणि Snowflake यांसारख्या कंपन्यांशी भागीदारी केली.
Wired चा अंदाज आहे की Meta च्या मॉडेलच्या ओपन-सोर्स स्वरूपामुळे सरकारला Musk च्या उद्दिष्टांच्या समर्थनार्थ सहजपणे त्यांचा वापर करता येतो, शक्यतो कंपनीच्या स्पष्ट संमतीशिवाय. सरकारमध्ये Meta च्या मॉडेलच्या वापराबद्दल माहिती मिळवणे अजूनही एक आव्हान आहे. Llama 3 आणि 4 मध्ये Meta च्या प्रगतीनंतरही DOGE ने Llama 2 वर अवलंबून राहण्यामागील तर्क अस्पष्ट आहे.
DOGE च्या Llama 2 च्या वापराबाबत मर्यादित ज्ञान
DOGE च्या Llama 2 च्या विशिष्ट ऍप्लिकेशनबद्दल तपशील अजूनही कमी आहेत. Wired च्या तपासणीत असे दिसून आले आहे की DOGE ने मॉडेल स्थानिक पातळीवर तैनात केले आहे, त्यामुळे डेटा इंटरनेटवर प्रसारित होण्याची शक्यता कमी आहे. यामुळे अनेक सरकारी कर्मचाऱ्यांनी व्यक्त केलेल्या गोपनीयतेच्या चिंता कमी होतात.
Congressional चिंता आणि तपासाची मागणी
एप्रिलमध्ये Office of Management and Budget चे संचालक Russell Vought यांना लिहिलेल्या पत्रात 40 हून अधिक कायद्यांची अंमलबजावणी करणाऱ्यांनी AI च्या DOGE च्या वापराची कसून चौकशी करण्याची मागणी केली. त्यांनी चिंता व्यक्त केली की अशा वापरामुळे संभाव्य सुरक्षा धोक्यांबरोबरच सरकारमध्ये AI चा यशस्वी आणि योग्य अवलंबन कमी होऊ शकते.
पत्रात DOGE कर्मचारी आणि SpaceX च्या माजी कर्मचाऱ्याचा उल्लेख आहे, ज्याने कथितपणे Musk चे xAI Grok-2 मॉडेल वापरून “AI सहाय्यक” विकसित केले. कंत्राट आणि खरेदी डेटाचे विश्लेषण करण्यासाठी Anthropic आणि Meta मॉडेलवर आधारित “GSAi” नावाच्या चॅटबॉटचा वापर देखील नमूद केला आहे. याव्यतिरिक्त, DOGE ऑटोRIF नावाच्या सॉफ्टवेअरशी जोडलेले आहे, जे कथितपणे सरकारमध्ये मोठ्या प्रमाणात कर्मचाऱ्यांना कामावरून काढण्यासाठी तयार केले आहे.
कायद्यांची अंमलबजावणी करणाऱ्यांनी “दोन दशलक्ष कर्मचाऱ्यांच्या संघीय कर्मचाऱ्यांकडून मागील आठवड्यातील कामगिरीचे वर्णन करणाऱ्या ईमेलचे विश्लेषण करण्यासाठी AI प्रणाली” वापरल्याबद्दल “सुरक्षेबद्दल मोठी चिंता” व्यक्त केली, कारण यात पारदर्शकतेचा अभाव होता.
हे ईमेल “Fork in the Road” ईमेलनंतर पाठवले गेले, ज्यात कर्मचाऱ्यांनी त्यांच्या साप्ताहिक कामांचे पाच बुलेट पॉईंटमध्ये वर्णन केले. कर्मचाऱ्यांनी उत्तरांच्या स्वरूपाबद्दल भीती व्यक्त केली, DOGE योग्य सुरक्षा मंजुरीशिवाय संवेदनशील माहिती मागू शकते अशी शक्यता वर्तवण्यात आली.
Wired निश्चितपणे याची पुष्टी करू शकले नाही की Llama 2 चा वापर ईमेल प्रतिसादांचे विश्लेषण करण्यासाठी केला गेला होता की नाही. मात्र, संघीय कर्मचाऱ्यांनी Wired ला सांगितले की DOGE ने “Fork in the Road” ईमेल प्रयोगातून “त्यांचा कोड पुन्हा वापरण्याची” शक्यता आहे.
Grok चा वापर का केला गेला नाही
DOGE ने Grok चा वापर का केला नाही, हा प्रश्न आहे?
याचे संभाव्य स्पष्टीकरण असे आहे की Grok, त्यावेळी एक मालकीचे मॉडेल असल्याने, जानेवारीमध्ये DOGE साठी उपलब्ध नव्हते. Wired नुसार, DOGE भविष्यात Grok वर अधिक अवलंबून राहू शकते, विशेषत: Microsoft ने घोषणा केल्यामुळे की ते या आठवड्यात Azure AI Foundry मध्ये xAI चे Grok 3 मॉडेल होस्ट करण्यास सुरुवात करेल, ज्यामुळे मॉडेलच्या संभाव्य ऍप्लिकेशन्सचा विस्तार होईल.
कायद्यांची अंमलबजावणी करणाऱ्यांच्या चिंता: Interests आणि डेटा उल्लंघनांचे संघर्ष
आपल्या पत्रात, कायद्यांची अंमलबजावणी करणाऱ्यांनी Vought यांना Musk यांच्याशी संबंधित Interests च्या संभाव्य संघर्षांची चौकशी करण्याची विनंती केली, तसेच संभाव्य डेटा उल्लंघनांविरुद्ध सावधगिरी बाळगली. त्यांनी असा युक्तिवाद केला की AI अजूनपर्यंत सरकारी ऍप्लिकेशन्ससाठी योग्य नाही.
त्यांनी असा युक्तिवाद केला की “योग्य संरक्षणाशिवाय, संवेदनशील डेटा AI प्रणालीमध्ये टाकल्यास तो प्रणालीच्या ऑपरेटरच्या ताब्यात जातो. हा सार्वजनिक आणि कर्मचाऱ्यांच्या विश्वासाचा मोठा भंग आहे.” त्यांनी पुढे नमूद केले की “जनरेटिव्ह AI मॉडेलमध्ये अनेकदा त्रुटी आढळतात आणि ते महत्त्वपूर्ण bias दर्शवतात. ही तंत्रज्ञान योग्य तपासणी, पारदर्शकता, देखरेख आणि सुरक्षा उपायांशिवाय high-risk निर्णय घेण्यासाठी तयार नाही.”
Wired च्या अहवालात असे नमूद केले आहे की DOGE ने “Fork in the Road” ईमेलमधील संवेदनशील डेटा बाह्य स्त्रोताला पाठवला नाही, तरीही कायद्यांची अंमलबजावणी करणारे AI प्रणालीची अधिक मजबूत तपासणी करण्याची वकिली करत आहेत.
एक प्रमुख चिंता अशी आहे की Musk त्यांची स्वतःची मॉडेल अधिकाधिक प्रमाणात वापरू शकतात, ज्यामुळे त्यांच्या प्रतिस्पर्धकांना उपलब्ध नसलेल्या सरकारी डेटाचा फायदा होऊ शकतो आणि त्याच वेळी डेटा उल्लंघनाच्या धोक्यांना सामोरे जावे लागू शकते. कायद्यांची अंमलबजावणी करणाऱ्यांना आशा आहे की DOGE ला त्याची AI प्रणाली बंद करण्यास भाग पाडले जाईल. मात्र, Vought DOGE च्या दृष्टिकोणाशी अधिक सहमत दिसत आहेत, कारण संघीय वापरासाठी त्यांच्या AI मार्गदर्शनात त्यांनी एजन्सींना “नवीनतेला असलेले अडथळे दूर करण्यास आणि करदात्यांसाठी सर्वोत्तम मूल्य प्रदान करण्यास” प्रोत्साहित केले आहे.
कायद्यांची अंमलबजावणी करणाऱ्यांच्या पत्रात जोर देण्यात आला आहे की “आम्ही संघीय सरकारला नवीन, मंजूर AI तंत्रज्ञानाचा समावेश करण्यास समर्थन देतो, ज्यामुळे कार्यक्षमतेत किंवा प्रभावीतेत सुधारणा होऊ शकते. मात्र, आम्ही संघीय डेटाशी संवाद साधताना सुरक्षा, गोपनीयता आणि योग्य वापर मानकांची त्याग करू शकत नाही.” त्यांनी असेही म्हटले आहे की “आम्ही AI प्रणालीचा वापर सहन करू शकत नाही, ज्या अनेकदा hallucination आणि bias साठी ओळखल्या जातात, संघीय नोकरी किंवा संघीय निधी समाप्त करण्याच्या निर्णयांमध्ये पुरेशी पारदर्शकता आणि देखरेख न ठेवता अशा मॉडेलच्या वापरामुळे प्रतिभा आणि गंभीर संशोधनात त्रुटी येण्याची शक्यता खूप जास्त आहे.”
सरकारी कार्यक्षमतेच्या उपक्रमांमध्ये AI च्या वापराच्या परिणामांचा सखोल अभ्यास
सरकारीकार्यक्षमतेच्या विभागाने (DOGE) आपल्या कार्यात्मक सुव्यवस्थेच्या प्रयत्नात कृत्रिम बुद्धिमत्तेचा उपयोग केल्यामुळे वाद आणि छाननीची आग भडकली आहे. संस्थेने Elon Musk च्या मालकीच्या Grok AI ऐवजी Meta च्या Llama 2 मॉडेलचा उपयोग केल्याने, आधीच गुंतागुंतीच्या कथनात आणखी एक पदर जोडला गेला आहे. AI ला सरकारी कामकाजात एकत्रित करण्याच्या बहुआयामी परिणामांचा सखोल अभ्यास करणे आवश्यक आहे, अंतर्निहित फायदे आणि धोके, नैतिक विचार आणि Interests च्या संघर्षाची शक्यता तपासणे आवश्यक आहे.
सरकारमध्ये AI चा मोह आणि धोके
AI चा सरकारी कामकाजात समावेश कार्यक्षमतेत, डेटा विश्लेषणात आणि निर्णय घेण्यात परिवर्तन घडवून आणण्याचे आश्वासन देतो. नित्यक्रम स्वयंचलित करण्यापासून ते विशाल डेटासेटमधून माहिती काढण्यापर्यंत, AI मध्ये अभूतपूर्व स्तरांची उत्पादकता अनलॉक करण्याची आणि सार्वजनिक सेवांची वितरण सुधारण्याची क्षमता आहे. अशा अल्गोरिदमची कल्पना करा जे पायाभूत सुविधांच्या अयशस्वीतेचा अंदाज लावू शकतात, शिक्षणाला वैयक्तिकृत करू शकतात किंवा आपत्कालीन परिस्थितीत संसाधनांचे वाटप ऑप्टिमाइझ करू शकतात. शक्यता अंतहीन आहेत.
मात्र, ही तांत्रिक क्रांती धोक्यांशिवाय नाही. AI प्रणालीवरील अवलंबनामुळे नैतिक दुविधा, सुरक्षा असुरक्षा आणि संभाव्य bias चे एक जटिल जाळे तयार होते. AI मॉडेल्स डेटावर प्रशिक्षित केले जातात आणि जर त्या डेटामध्ये सामाजिक पूर्वग्रह प्रतिबिंबित झाले, तर AI त्या bias ला कायम ठेवेल आणि वाढवेल. यामुळे सरकारी सेवांमधील निष्पक्षता आणि समानतेसाठी एक महत्त्वपूर्ण धोका निर्माण होतो, ज्यामुळे कायदा अंमलबजावणी, सामाजिक कल्याण आणि शिक्षण यांसारख्या क्षेत्रांमध्ये भेदभावाचे परिणाम होऊ शकतात.
शिवाय, AI चा वापर पारदर्शकता आणि उत्तरदायित्वाबद्दल गंभीर प्रश्न उभे करतो. जेव्हा निर्णय अल्गोरिदमद्वारे घेतले जातात, तेव्हा त्या निर्णयांच्या मागे काय तर्क आहे हे समजणे कठीण होते, ज्यामुळे सरकारी संस्थांना त्यांच्या कृतींसाठी जबाबदार धरणे कठीण होते.
Llama 2 विरुद्ध Grok ची समस्या
Grok ऐवजी Llama 2 ची निवड स्वतःच्या विचारांचा संच आणते. Llama 2 चे ओपन-सोर्स स्वरूप ते सहज उपलब्ध आणि सानुकूल करण्यायोग्य बनवते, ज्यामुळे सरकारी संस्थांना ते मालकीचे इकोसिस्टममध्ये लॉक न होता त्यांच्या विशिष्ट गरजांनुसार Adzavane मिळते. मात्र, याचा अर्थ असाही आहे की त्यात समर्पित समर्थन आणि देखभाल नसते.
दुसरीकडे, Grok हे एक मालकीचे AI आहे, जे अत्याधुनिक कार्यप्रदर्शन आणि विशेष कौशल्ये प्रदान करण्याचे आश्वासन देते. मात्र, यामुळे संभाव्य विक्रेता लॉक-इन, डेटा गोपनीयता आणि AI च्या प्रशिक्षण डेटापासून उद्भवणाऱ्या bias बद्दल चिंता वाढतात.
Interests च्या संघर्षाचे सावट
सरकारी AI उपक्रमांमध्ये Elon Musk च्या संस्थांचा (SpaceX आणि xAI) सहभाग Interests च्या संघर्षाचे सावट उभे करतो. विविध क्षेत्रांमध्ये निहित Interests असलेले एक प्रमुख व्यक्ती असल्याने, Musk यांच्या सहभागामुळे सरकारी धोरणावर आणि करारांच्या वाटपावर ते exerted करू शकणाऱ्या संभाव्य प्रभावाबद्दल प्रश्न निर्माण होतात.
सरकार Musk च्या कंपन्यांना प्राधान्य देत आहे का? निर्णय निःपक्षपातीपणे आणि जनतेच्या हितासाठी घेतले जातील याची खात्री करण्यासाठी पुरेसे सुरक्षा उपाय आहेत का? हे न्याय्य प्रश्न आहेत ज्यांना कठोर तपासणीची मागणी आहे.
डेटा सुरक्षा आणि गोपनीयतेच्या चिंता
AI च्या सरकारी कामकाजात वापरात अपरिहार्यपणे संवेदनशील नागरिकांचा डेटा गोळा करणे, साठवणे आणि त्यावर प्रक्रिया करणे समाविष्ट आहे. यामुळे सायबर हल्ल्यांसाठी आणि डेटा उल्लंघनासाठी एक आकर्षक लक्ष्य तयार होते. सरकारने अनधिकृत प्रवेश आणि गैरवापरापासून या डेटाचे संरक्षण करण्यासाठी मजबूत सुरक्षा उपाय अंमलात आणणे आवश्यक आहे. यात केवळ बाह्य धोक्यांपासून डेटाचे संरक्षण करणेच नव्हे, तर आतल्या गैरवर्तनांना प्रतिबंध करण्यासाठी कठोर प्रवेश नियंत्रणे आणि उत्तरदायित्व यंत्रणा स्थापित करणे देखील समाविष्ट आहे.
डेटा गोपनीयतेवरील चिंता AI अल्गोरिदमच्या अस्पष्ट स्वरूपामुळे वाढतात. नागरिकांना अनेकदा कल्पना नसते की त्यांच्या डेटावर कशी प्रक्रिया केली जात आहे किंवा त्यांच्या जीवनावर परिणाम करणारे निर्णय घेण्यासाठी त्याचा वापर कसा केला जात आहे. या पारदर्शकतेच्या अभावामुळे सरकारवरील विश्वास कमी होतो आणि AI-आधारित उपक्रमांना विरोध होऊ शकतो.
भविष्यातील सरकारसाठी अर्थ
DOGE च्या AI च्या वापरावरील वाद केवळ एका विशिष्ट घटनेबद्दल नाही, तर कृत्रिम बुद्धिमत्तेच्या युगात सरकारचे व्यापक भविष्य काय असेल याबद्दल आहे. सार्वजनिक सेवा सुधारण्यासाठी AI च्या शक्तीचा उपयोग सरकार धोके कमी करून कसा करू शकते? AI चा उपयोग नैतिक, पारदर्शक आणि जबाबदार पद्धतीने कसा केला जाईल याची खात्री आम्ही कशी करू शकतो?
या प्रश्नांची उत्तरे देण्यासाठी बहुआयामी दृष्टीकोन आवश्यक आहे:
स्पष्ट नैतिक मार्गदर्शक तत्त्वे स्थापित करा: सरकारमध्ये AI च्या वापराचे नियमन करणारे नैतिक तत्त्वांचे एक स्पष्ट संच तयार करा. या तत्त्वांमध्ये निष्पक्षता, पारदर्शकता, उत्तरदायित्व आणि गोपनीयतेचा आदर यांना प्राधान्य दिले पाहिजे.
पारदर्शकता आणि खुलेपणा वाढवा: AI अल्गोरिदम आणि निर्णय प्रक्रिया अधिक पारदर्शक करा. AI चा उपयोग सरकारमध्ये कसा केला जात आहे याचे वर्णन करणारे अहवाल प्रकाशित करा आणि नागरिकांना अभिप्राय देण्यासाठी मार्ग प्रदान करा.
डेटा सुरक्षा जतन करा: संवेदनशील नागरिकांच्या डेटाचे सायबर धोके आणि आतल्या गैरवर्तनांपासून संरक्षण करण्यासाठी मजबूत सुरक्षा उपाय अंमलात आणा.
उत्तरदायित्व सुनिश्चित करा: AI-आधारित निर्णयांसाठी जबाबदारीच्या स्पष्ट ओळी स्थापित करा. AI च्या वापराची देखरेख करण्यासाठी आणि उद्भवणाऱ्या कोणत्याही समस्यांचे निराकरण करण्यासाठी जबाबदार असलेल्या सरकारी अधिकाऱ्यांची नेमणूक करा.
सार्वजनिक विश्वास वाढवा: सरकारमधील AI च्या फायद्यां आणि धोक्यांविषयी जनतेला शिक्षित करा. नागरिकांशी त्यांच्या चिंतांचे निराकरण करण्यासाठी आणि या तंत्रज्ञानाच्या जबाबदार वापरामध्ये विश्वास निर्माण करण्यासाठी संवाद साधा.
सक्रिय आणि विचारपूर्वक दृष्टीकोन स्वीकारून, सरकार सार्वजनिक हिताचे रक्षण करताना AI च्या परिवर्तनात्मक शक्तीचा उपयोग करू शकते. DOGE चा वाद AI च्या युगात काळजीपूर्वक नियोजन, खुल्या संवादाचे महत्त्व आणि नैतिक तत्त्वांच्या बांधिलकीची एक मौल्यवान आठवण करून देतो.
उलगडणारी कथा
DOGE च्या AI वापराबद्दलचे नाट्य अजून संपलेले नाही. जसजशी चौकशी पुढे जाईल आणि अधिक तपशील समोर येतील, तसतसे या घटनेचे सरकारमधील AI च्या भविष्यातील तैनातीवर निस्संदेह परिणाम होतील. आशा आहे की, यामुळे तंत्रज्ञानाचा अधिक विचारपूर्वक वापर केला जाईल.