ایلون مسک کا ڈیفنس آپریشنل گائیڈنس انہانسمنٹ (DOGE) کے اقدام سے دستبردار ہونا ایک اہم واقعہ معلوم ہو سکتا ہے، لیکن اس کا اصل اثر اس بات میں مضمر ہے کہ عوام کتنی چوکس رہتی ہے۔ اصل کہانی محض بجٹ میں کٹوتیوں یا مسک کے ڈراموں کے بارے میں نہیں ہے۔ یہ نظریاتی منصوبوں کی تکنیکی نظاموں میں خفیہ انضمام کے بارے میں ہے جو امریکی حکومت کو چلاتے ہیں۔
فروری میں، میں نے ایک “اے آئی بغاوت” کے تصور کا خاکہ پیش کیا، جہاں مصنوعی ذہانت ایک آلے کے طور پر کم اور تماشے اور جواز کے طور پر زیادہ کام کرتی ہے۔ لارج لینگویج ماڈلز (LLMs) ایک آسان پردہ فراہم کرتے ہیں ان کاموں کے لیے جن کی ذمہ داری کوئی نہیں لینا چاہتا۔ ایلون مسک نے بھی ایسا ہی کردار ادا کیا ہے، عوام کو سنسنی خیز مظاہروں سے مشغول کرتے ہوئے بنیاد پرست تبدیلیاں کی ہیں۔
سب سے سنگین مثالوں میں سے ایک اس پروگرام کی فنڈنگ میں کمی تھی جس نے ایڈز سے 26 ملین اموات کو روکا تھا، جن میں بچے بھی شامل تھے۔ منتخب عہدیداروں نے بڑی حد تک اس مسئلے کو نظر انداز کیا، بے بسی کا بہانہ کیا۔
مسک کی متنازعہ حرکتیں وفاقی حکومت کو بنیاد پرست طور پر ختم کرنے کے لیے ایک آسان پردہ بن گئیں۔ اگرچہ اس نے ایک عوامی احتجاجی تحریک کو جنم دیا اور ٹیسلا کی فروخت پر منفی اثرات مرتب کیے، لیکن اس نے اے آئی کے انضمام کے گہرے مسئلے کو چھپا لیا۔
جبکہ مسک اور ٹرمپ نے DOGE کی نظریاتی طور پر چلائی جانے والی بجٹ میں کٹوتیوں کو فروغ دیا،_دی اٹلانٹک_ میں ایک تجزیے سے پتہ چلا کہ وفاقی اخراجات میں دراصل اضافہ ہوا ہے۔ وفاقی افرادی قوت کی اے آئی تبدیلی، جسے “حکومتی کارکردگی” کا ایک ذریعہ بتایا جاتا ہے، بڑی حد تک غیر محسوس شدہ جاری ہے۔ DOGE نے وفاقی ملازمین کی ای میلوں کا جائزہ لینے اور درجہ بندی کرنے کے لیے Llama 2 کا استعمال کیا، لیکن Palantir کا 113 ملین ڈالر کا معاہدہ ایک وسیع پیمانے پر شہری نگرانی کا بنیادی ڈھانچہ بنانے کے لیے ایک پریشان کن رجحان کو اجاگر کرتا ہے۔ یہ کمپنی مسک کے Grok لینگویج ماڈل کو بھی اپنے پلیٹ فارم میں ضم کر رہی ہے۔
پروگرامنگ کی غلطیاں
xAI کا Grok، مسک کے براہ راست کنٹرول میں، ایک متعلقہ مثال فراہم کرتا ہے۔ ماڈل نے جنوبی افریقہ میں سفید فام نسل کشی کی حقیقت کو فروغ دینے والی تبصروں کے ساتھ بے ضرر سوالوں کا جواب دیا ہے۔ ماڈل کے پوشیدہ نظام کے اشارے میں یہ ہیرا پھیری سماجی انجینئرنگ کی ایک بھونڈی کوشش کو ظاہر کرتی ہے۔ بعد میں ماڈل کو ہولوکاسٹ سے انکار میں ملوث پایا گیا، جسے xAI نے “پروگرامنگ کی غلطی” قرار دیا۔
xAI نے "سفید فام نسل کشی" کے واقعے کا جواب یہ دیتے ہوئے دیا کہ فوری ترمیم داخلی پالیسیوں کی خلاف ورزی کرتی ہے۔ انہوں نے مزید کہا کہ مستقبل میں سسٹم کے فوری تبادلوں کا جائزہ لیا جائے گا۔
یہ واقعات سسٹم کے اشارے کے موروثی خطرات کو اجاگر کرتے ہیں۔ انہیں ماڈل پر کنٹرول رکھنے والا کوئی بھی شخص تبدیل کر سکتا ہے اور ان کا جائزہ صرف پتہ لگانے کے بعد ہی لیا جاتا ہے۔ حکومتی فیصلہ سازی میں کارپوریٹ AI ماڈلز پر انحصار ٹیک اشرافیہ کو بے پناہ سیاسی طاقت دیتا ہے۔
عام طور پر، حکومت میں ٹیکنالوجی کو اپنانے میں احتیاط سے غور و فکر اور سیکورٹی جائزے شامل ہوتے ہیں۔ DOGE کے نفاذ میں مناسب نگرانی کا فقدان ہے، جس سے کسی بھی جائزے کی آزادی کے بارے میں خدشات پیدا ہوتے ہیں۔ ایجنسی کے ڈیٹا کو ایک متحد ماڈل میں ضم کرکے، DOGE انفرادی ایجنسیوں کی مخصوص حفاظتی ضروریات پر غور کرنے میں ناکام رہتا ہے۔ خلاصہ یہ ہے کہ DOGE ضروریات، کفایت شعاری یا شہریوں کو فائدہ کا جائزہ لیے بغیر تبدیلیوں کو نافذ کر رہا ہے۔
اگر ٹرمپ انتظامیہ واقعی قابل اعتماد نظام بنانے کی پرواہ کرتی ہے، تو ان کے اقدامات اس کی عکاسی کریں گے۔ اس کے بجائے، DOGE اور ٹرمپ انتظامیہ نے کارپوریٹ AI ماڈلز میں تعصبات اور نظام کی فوری ہیرا پھیری کی مثالوں کی نگرانی کو دبا دیا ہے۔ AI تعصب کی تحقیق کے لیے DOGE کی فنڈنگ کو ختم کرنے کے بعد، کانگریس سے منظور شدہ ایک نیا بل آئندہ دہائی کے لیے AI نگرانی کے حوالے سے کسی بھی نئے قوانین پر پابندی عائد کرے گا۔
بدمعاش ملازمین
DOGE سے مسک کی روانگی ایک میراث چھوڑ جاتی ہے، جو Palantir کے انتخاب سے پختہ ہوتی ہے، تھیل کی قائم کردہ AI کمپنی جسے مسک نے منتخب کیا ہے۔ مسک اور تھیل پے پال کے شریک بانی تھے، اور تھیل نے آزادی اور جمہوریت کی مطابقت کے حوالے سے شکوک و شبہات کا اظہار کیا ہے۔
مسک کی جانب سے DOGE کے ذریعے شروع کی گئی طاقت کا ارتکاز زیادہ احتیاط سے کام کرتا رہے گا۔ اگرچہ ان کی روانگی ان لوگوں کے لیے ایک فتح کی نشاندہی کرتی ہے جنہوں نے ان کی مخالفت کی، لیکن DOGE کا کام بیوروکریٹس کی ہدایت کے تحت جاری ہے جنہیں ان کی وفاداری کے لیے رکھا گیا ہے۔
DOGE کا اصل مقصد کبھی بھی سرکاری ضیاع کو ختم کرنا نہیں تھا بلکہ احتساب کے کم اقدامات کے ساتھ بیوروکریسی کو خودکار بنانا تھا۔ "حکومتی کارکردگی" کا یہ مقصد ناقص طور پر متعین ہے۔ حکومت کو ہموار کرنے سے خدمات اور معلومات کے ساتھ شہریوں کے تعاملات کو آسان بنانا چاہیے۔ اس کے بجائے، لیآف نے نظامی لاگ جام بنائے ہیں جبکہ رازداری کو سمجھوتہ کیا ہے۔ IRS کی فنڈنگ میں کٹوتیوں نے آڈٹ اور ریفنڈ کے بارے میں خدشات کھڑے کیے ہیں، جس سے ممکنہ طور پر اربوں ڈالر کا نقصان ہو سکتا ہے۔
DOGE کا مقصد بیوروکریسی کو بہتر بنانا نہیں تھا، بلکہ انسانی عنصر کو ختم کرنا تھا۔ یہ صنعت کے انداز کی کارکردگی کو ترجیح دیتا ہے، شہریوں کی درجہ بندی کرتا ہے اور نظامی بدسلوکی کو فرض کرتا ہے۔ حقوق اور استحقاق پھر AI نظام میں شامل تعصبات کی بنیاد پر دیئے یا مسترد کیے جاتے ہیں۔
وہ لوگ جو ان زمروں کے جوابات کی تعریف اور آٹومیشن کو کنٹرول کرتے ہیں وہ اہم طاقت رکھتے ہیں۔ ماڈل ان لوگوں کے فیصلوں کی عکاسی کرتے ہیں جو انہیں تربیت دیتے ہیں، بشمول برداشت شدہ تعصبات اور اصلاحی اہداف۔ موجودہ منتظمین الگورتھمک ٹریسز کا استعمال کرتے ہوئے، بیوروکریسی انسانیت سے اپنا آخری تعلق کھو دیتی ہے۔
انتظامی غلطیاں
بیوروکریسی اور بیوروکریٹک غلطی کوئی نئی بات نہیں ہے۔ جو چیز بے مثال ہے وہ غلطیوں کے لیے انسانی احتساب کا خاتمہ ہے، ان سے بچنے کے تئیں لاتعلقی کو فروغ دینا۔
رابرٹ ایف کینیڈی جونیئر کی ہیلتھ رپورٹ پر غور کریں، جس میں من گھڑت حوالے موجود تھے۔ یہ فعل تاریخی طور پر ایک اسکینڈل ہوتا، لیکن اسے "فارمیٹنگ کی غلطی" کہہ کر مسترد کر دیا گیا۔ کینیڈی ان پالیسیوں کو اپناتے ہیں جو شواہد سے غیر تائید شدہ ہیں، اور اس رپورٹ کی AI جنریشن جائز سائنسی انکوائری پر پریزنٹیشن کو ترجیح دینے کی تجویز کرتی ہے۔ من گھڑت ثبوتوں کا آٹومیشن صرف ایک طریقہ ہے جس میں AI انتظامیہ کے لیے ایک آلہ بن گیا ہے۔
DOGE ٹرمپ کی مخالفت کرنے والوں - تارکین وطن، ماہرین تعلیم، نسلی اقلیتوں - کو سزا دینے پر زیادہ توجہ مرکوز کرتا نظر آتا ہے اور اس کی وسیع پیمانے پر کوششیں ناگزیر غلطیاں پیدا کرتی ہیں۔ کلمار آبریگو گارسیا کی ملک بدری، جس کا سبب "انتظامی غلطی" بتایا گیا ہے، اس کی مثال ہے۔ یہ غلطی کے جان بوجھ کر ہتھیار بنانے کی مثال ہے۔
بالآخر، DOGE کا مقصد ایک ایسا نظام بنانا ہے جہاں متنازعہ نتائج کو "انتظامی،" "پروگرامنگ،" یا "فارمیٹنگ" غلطیوں پر ڈالا جا سکے۔ انتظامیہ ناقص اوزاروں پر الزام ڈالتی ہے، ذمہ داری قبول کرنے سے انکار کرتی ہے۔ گارسیا کے معاملے میں، انتظامیہ غلطی کو دور کرنے سے انکار کرتی ہے۔ یہ ناقابل اعتبار حکم کی ایک دنیا کو ظاہر کرتا ہے، جہاں صرف وہ لوگ جو وفاداری کا عہد کرتے ہیں انہیں بخشا جائے گا۔
ہم ایک نازک ماحول بنا رہے ہیں جہاں ذاتی قسمت کا انحصار AI کی خواہشات اور اس کی پوشیدہ پروگرامنگ پر منحصر ہے۔ کیا ہوتا ہے جب یہ AI پروگرام غیر مستحکم کرنے والے اوزار ہوتے ہیں جو ڈیٹا کو متحد نگرانی کے فن تعمیر میں ضم کرتے ہیں؟
اگرچہ DOGE سے مسک کی روانگی عوامی توجہ کو کم کرنے کا سبب بن سکتی ہے، لیکن بنیادی مسائل باقی ہیں: الگورتھمک تعصب، احتساب کا فقدان، اور انسانی نگرانی کا خاتمہ۔ اگر ان رجحانات پر قابو نہ پایا گیا تو ان میں ایک منصفانہ اور مساوی معاشرے کی بنیادوں کو نقصان پہنچانے کی صلاحیت موجود ہے۔