حکومتی عملے میں تخفیف کیلئے ‘میٹا’ کا ‘لاما 2’ استعمال کیا گیا، نہ کہ ‘مسک’ کا ‘گروک’، رپورٹ میں انکشاف
ایک غیر متوقع انکشاف سے پتہ چلتا ہے کہ حکومتی کارکردگی کے شعبے (Department of Government Efficiency) کی وفاقی افرادی قوت کو منظم کرنے کی انتہائی جانچ پڑتال والی مہموں میں میٹا (Meta) کے پرانے اے آئی ماڈل یعنی لاما 2 (Llama 2) کو استعمال کیا گیا، نہ کہ ایلون مسک (Elon Musk) کی اپنی تخلیق گروک (Grok) کو۔
“دوراہے پر” میمو اور لاما 2 کا کردار
وائرڈ (Wired) کے ذریعہ کیے گئے ایک جائزے کے مطابق، ایلون مسک کے DOGE (محکمہ حکومتی کارکردگی) سے وابستہ افراد، جو دفتر برائے پرسنل مینجمنٹ (Office of Personnel Management) کے اندر کام کر رہے تھے، نے میٹا کے لاما 2 ماڈل کو وفاقی ملازمین کی جانب سے متنازعہ “دوراہے پر” ای میل کے جوابات کو باریک بینی سے تجزیہ کرنے اور درجہ بندی کرنے کے لیے استعمال کیا، جو جنوری کے آخر میں پورے حکومت میں بھیجی گئی تھی۔
“دوراہے پر” میمو، جو مسک کی جانب سے ٹوئٹر (Twitter) کے ملازمین کو بھیجی گئی پچھلی مواصلت سے بہت ملتا جلتا تھا، وفاقی کارکنوں کو ایک انتخاب پیش کیا: حکومت کی نظر ثانی شدہ دفتر واپسی پالیسی کو قبول کرکے “وفاداری” کا مظاہرہ کریں، یا استعفی دینے کا انتخاب کریں۔ اس وقت گردش کرنے والی افواہوں سے پتہ چلتا تھا کہ DOGE حکومتی ملازمین کے ڈیٹا کو پروسیس کرنے کے لیے اے آئی کا فائدہ اٹھا رہا ہے۔ تب سے اس بات کی تصدیق ہوئی ہے کہ لاما 2 کو ملازمین کے جوابات کی جانچ پڑتال کرنے اور استعفوں کی تعداد کا تعین کرنے کے لیے استعمال کیا گیا تھا۔
لاما 2 کا متنازعہ ماضی: فوجی درخواستیں اور میٹا کا ردعمل
لاما 2 کی تاریخ تنازعات سے خالی نہیں ہے۔ خاص طور پر، نومبر میں، چینی محققین نے لاما 2 کو ایک اے آئی ماڈل کی بنیاد کے طور پر استعمال کیا جسے چینی فوج استعمال کر رہی تھی۔ اس انکشاف نے سخت ردعمل کو جنم دیا، جس کے نتیجے میں میٹا نے ابتدائی طور پر محققین کی جانب سے ایک “سنگل” اور “پرانے” ماڈل پر “غیر مجاز” انحصار کی مذمت کی۔ تاہم، میٹا نے بعد میں فوجی استعمال پر پابندی لگانے والی پالیسیوں کو تبدیل کر دیا اور امریکی قومی سلامتی کے مقاصد کے لیے اپنے اے آئی ماڈلز تک رسائی کو وسیع کر دیا۔
میٹا نے عوامی طور پر امریکی حکومتی ایجنسیوں کے لیے لاما کو قابل رسائی بنانے کے عزم کا اظہار کیا، بشمول وہ ایجنسیاں جو دفاع اور قومی سلامتی کی درخواستوں میں شامل ہیں، نیز ان کے کوششوں کی حمایت کرنے والے نجی شعبے کے شراکت دار۔ انہوں نے ایکسنچر (Accenture)، ایمیزون ویب سروسز (Amazon Web Services)، انڈرل (Anduril)، بوز ایلن (Booz Allen)، ڈیٹا برکس (Databricks)، ڈیلویٹ (Deloitte)، آئی بی ایم (IBM)، لیڈوس (Leidos)، لاک ہیڈ مارٹن (Lockheed Martin)، مائیکروسافٹ (Microsoft)، اوریکل (Oracle)، پالانٹیر (Palantir)، اسکیل اے آئی (Scale AI) اور سنو فلیک (Snowflake) جیسی کمپنیوں کے ساتھ شراکت داری کا اعلان کیا تاکہ حکومتی ایجنسیوں میں لاما کے استعمال کو آسان بنایا جا سکے۔
وائرڈ کا مشورہ ہے کہ میٹا کے ماڈلز کی اوپن سورس نوعیت حکومت کو مسک کے مقاصد کی حمایت میں انہیں آسانی سے استعمال کرنے کی اجازت دیتی ہے، ممکنہ طور پر کمپنی کی واضح رضامندی کے بغیر۔ حکومت کے اندر میٹا کے ماڈلز کے استعمال کی حد کی شناخت کرنا ایک چیلنج ہے۔ DOGE کی جانب سے لاما 2 پر انحصار کرنے کی وجہ واضح نہیں ہے، خاص طور پر میٹا کی جانب سے لاما 3 اور 4 کے ساتھ پیشرفت کے پیش نظر۔
لاما 2 کے DOGE کے استعمال کے بارے میں محدود معلومات
لاما 2 کے DOGE کے مخصوص استعمال کے بارے میں تفصیلات کم ہیں۔ وائرڈ کی تحقیقات سے پتہ چلا ہے کہ DOGE نے ماڈل کو مقامی طور پر استعمال کیا، اس سے پتہ چلتا ہے کہ ڈیٹا کے انٹرنیٹ (Internet) پر منتقل ہونے کا امکان نہیں تھا، اس طرح بہت سے سرکاری ملازمین کی طرف سے اٹھائے جانے والی رازداری کے خدشات کم ہو گئے۔
کانگریسی خدشات اور تحقیقات کا مطالبہ
اپریل میں رسل وائٹ (Russell Vought)، ڈائریکٹر آفس آف مینجمنٹ اینڈ بجٹ (Office of Management and Budget) کو لکھے گئے ایک خط میں، 40 سے زائد قانون سازوں نے DOGE کی جانب سے اے آئی کے استعمال کی مکمل تحقیقات کا مطالبہ کیا۔ انہوں نے خدشہ ظاہر کیا کہ اس طرح کا استعمال، ممکنہ حفاظتی خطرات کے ساتھ، حکومت کے اندر اے آئی کے کامیاب اور مناسب اختیار کو کمزور کر سکتا ہے۔
خط میں خاص طور پر DOGE کے ایک اسٹاف اور اسپیس ایکس (SpaceX) کے سابق ملازم کا حوالہ دیا گیا ہے جس نے مبینہ طور پر مسک کے xAI گروک-2 ماڈل کو ایک “اے آئی اسسٹنٹ” تیار کرنے کے لیے استعمال کیا۔ اس میں اینتھروپک (Anthropic) اور میٹا ماڈلز پر مبنی ایک چیٹ بوٹ (chatbot) “GSAi” کے استعمال کا بھی ذکر کیا گیا ہے تاکہ معاہدے اور خریداری کے ڈیٹا کا تجزیہ کیا جا سکے۔ اس کے علاوہ، DOGE سافٹ ویئر (software) سے منسلک رہا ہے جسے AutoRIF کہا جاتا ہے، جو مبینہ طور پر پورے حکومت میں بڑے پیمانے پر برطرفیوں کو تیز کرنے کے لیے ڈیزائن کیا گیا ہے۔
قانون سازوں نے “حفاظت کے بارے میں بڑے خدشات” پر زور دیا اور DOGE کی جانب سے “دو ملین (million) افراد پر مشتمل وفاقی افرادی قوت کے ایک بڑے حصے سے ای میل (email) کا تجزیہ کرنے کے لیے اے آئی (AI) نظاموں کا استعمال کرنے” کا حوالہ دیا، جس میں انہوں نے پچھلے ہفتے کی کامیابیوں کو بیان کیا”، شفافیت کی کمی کا حوالہ دیا۔
یہ ای میل “دوراہے پر” ای میل کے بعد آئی، جس میں کارکنوں پر زور دیا گیا کہ وہ پانچ بلیٹ پوائنٹس (bullet points) میں ہفتہ وار کامیابیوں کا خاکہ پیش کریں۔ ملازمین نے ردعمل کی نوعیت کے بارے میں خدشہ ظاہر کیا، انہیں خدشہ ہے کہ DOGE مناسب سیکیورٹی کلیئرنس (security clearance) کے بغیر حساس معلومات طلب کر رہا ہوگا۔
وائرڈ نے قطعی طور پر تصدیق نہیں کی کہ لاما 2 کو ان ای میل کے جوابات کو پارس (parse) کرنے کے لیے بھی استعمال کیا گیا تھا۔ تاہم، وفاقی کارکنوں نے وائرڈ کو بتایا کہ DOGE ممکنہ طور پر “دوراہے پر” ای میل کے تجربے سے “اپنے کوڈ (code) کو دوبارہ استعمال کرے گا، اگر یہ ایک دانشمندانہ فیصلہ ہوتا۔
گروک کو کیوں استعمال نہیں کیا گیا؟
یہ سوال پیدا ہوتا ہے: DOGE نے گروک کا استعمال کیوں نہیں کیا؟
اس کی ممکنہ وضاحت یہ ہے کہ گروک، اس وقت ایک ملکیتی ماڈل ہونے کی وجہ سے، جنوری میں DOGE کے ٹاسک کے لیے دستیاب نہیں تھا۔ وائرڈ کے مطابق، DOGE آگے بڑھنے کے ساتھ گروک پر اپنے انحصار کو بڑھا سکتا ہے، خاص طور پر مائیکروسافٹ کے اس اعلان پر غور کرتے ہوئے کہ وہ اس ہفتے اپنے Azure AI Foundry میں xAI کے Grok 3 ماڈلز کی میزبانی کرنا شروع کر دے گا، اس طرح ماڈل کی ممکنہ درخواستوں کو وسیع کر دے گا۔
قانون سازوں کے خدشات: مفادات کا تصادم اور ڈیٹا کی خلاف ورزی
اپنے خط میں، قانون سازوں نے Vought پر زور دیا کہ وہ مسک کو شامل مفادات کے ممکنہ تصادم کی تحقیقات کریں، جبکہ ڈیٹا (data) کی ممکنہ خلاف ورزیوں کے خلاف بھی خبردار کیا۔ انہوں نے دعویٰ کیا کہ اے آئی (AI)، جیسا کہ DOGE استعمال کر رہا ہے، ابھی تک حکومتی درخواستوں کے لیے موزوں نہیں ہے۔
انہوں نے استدلال کیا کہ “مناسب تحفظات کے بغیر، کسی اے آئی (AI) نظام میں حساس ڈیٹا (data) ڈالنا اسے نظام کے آپریٹر کے قبضے میں ڈال دیتا ہے - جو کہ عوامی اور ملازمین کے اعتماد کی ایک زبردست خلاف ورزی ہے اور اس ڈیٹا (data) کے ارد گرد سائبر سیکیورٹی (cyber security) کے خطرات میں اضافہ ہے۔” انہوں نے مزید نوٹ کیا کہ “تولیدی اے آئی (AI) ماڈل (model) بھی اکثر غلطیاں کرتے ہیں اور نمایاں تعصبات دکھاتے ہیں - یہ ٹیکنالوجی (technology) مناسب جانچ پڑتال، شفافیت، نگرانی اور گارڈ ریلز (guard rails) کے بغیر اعلی خطرے والے فیصلے کرنے میں استعمال کے لیے تیار نہیں ہے۔”
جبکہ وائرڈ کی رپورٹ میں بتایا گیا ہے کہ DOGE نے “دوراہے پر” ای میل سے حساس ڈیٹا کو کسی بیرونی ذریعہ تک منتقل نہیں کیا، قانون ساز اے آئی نظاموں کی مزید مضبوط جانچ کی وکالت کر رہے ہیں تاکہ “اے آئی ماڈل (model) تعینات کرنے والوں کے ساتھ ذاتی طور پر قابل شناخت یا دوسری صورت میں حساس معلومات شیئر (share) کرنے کے خطرے کو کم کیا جا سکے۔”
ایک غالب تشویش یہ ہے کہ مسک اپنی خود کی ماڈلز (models) کا فائدہ اٹھاتا ہے، جو ممکنہ طور پر سرکاری ڈیٹا (data) سے فائدہ اٹھا سکتا ہے جو اس کے حریفوں کے لیے ناقابل رسائی ہے، جبکہ بیک وقت اس ڈیٹا (data) کو خلاف ورزی کے خطرات سے دوچار کر رہا ہے۔ قانون سازوں کو امید ہے کہ DOGE کو اپنے اے آئی (AI) نظاموں کو بند کرنے پر مجبور کیا جائے گا۔ تاہم، ووگٹ DOGE کے نقطہ نظر کے ساتھ زیادہ منسلک نظر آتے ہیں، جیسا کہ وفاقی استعمال کے لیے ان کے اے آئی رہنمائی سے ظاہر ہوتا ہے، جو ایجنسیوں کو “جدت میں رکاوٹوں کو دور کرنے اور ٹیکس دہندگان کے لیے بہترین قیمت فراہم کرنے کے لیے حوصلہ افزائی کرتا ہے۔”
قانون سازوں کے خط میں اس بات پر زور دیا گیا ہے کہ “جب کہ ہم وفاقی حکومت کی نئی، منظور شدہ اے آئی ٹیکنالوجیز کو مربوط کرنے کی حمایت کرتے ہیں جو کارکردگی یا تاثیر کو بہتر بنا سکتی ہیں، ہم وفاقی ڈیٹا کے ساتھ تعامل کرتے وقت سلامتی، رازداری اور مناسب استعمال کے معیارات کو قربان نہیں کر سکتے ہیں۔” انہوں نے یہ بھی کہا کہ “ہم اے آئی نظاموں کے استعمال کی بھی حمایت نہیں کر سکتے، جو اکثر فریب کاری اور تعصب کے لیے مشہور ہیں، وفاقی ملازمت یا وفاقی فنڈنگ کے خاتمے کے بارے میں فیصلوں میں ان ماڈلز کی کافی شفافیت اور نگرانی کے بغیر - ناقص ٹیکنالوجی یا اس طرح کی ٹیکنالوجی کے ناقص استعمال کی وجہ سے باصلاحیت اور تنقیدی تحقیق سے محروم ہونے کا خطرہ بہت زیادہ ہے۔”
حکومتی کارکردگی کے اقدامات میں اے آئی کے استعمال کے مضمرات میں گہرائی سے غوطہ لگانا
محکمہ حکومتی کارکردگی (DOGE) کی جانب سے اپنی آپریشنل سٹریم لائننگ کی کوششوں میں مصنوعی ذہانت کے استعمال نے بحث اور جانچ پڑتال کا ایک طوفان برپا کر دیا ہے۔ اس انکشاف نے کہ ایجنسی نے ایلون مسک کے ملکیتی گروک اے آئی (Grok AI) کے بجائے میٹا (Meta) کے لاما 2 ماڈل - ایک اوپن سورس اے آئی - پر انحصار کیا ہے، پہلے سے ہی پیچیدہ کہانی میں ایک اور تہہ کا اضافہ کر دیا ہے۔ اس صورتحال میں اے آئی کو حکومتی کارروائیوں میں ضم کرنے کے کثیر الجہتی مضمرات میں گہرائی سے غوطہ لگانا ضروری ہے، جس میں موروثی فوائد اور خطرات، اخلاقی تحفظات اور مفادات کے تصادم کے امکانات کا جائزہ لیا جائے۔
حکومت میں اے آئی کی کشش اور نقصانات
حکومتی کاموں میں اے آئی کا انضمام کارکردگی، ڈیٹا کے تجزیہ اور فیصلہ سازی میں تبدیلی لانے والی ترقی کا وعدہ کرتا ہے۔ معمول کے کاموں کو خودکار بنانے سے لے کر وسیع ڈیٹا سیٹس کی جانچ پڑتال تک، اے آئی میں پیداواری صلاحیت کی بے مثال سطح کو کھولنے اور عوامی خدمات کی فراہمی کو بہتر بنانے کی صلاحیت موجود ہے۔ تصور کریں کہ الگورتھم (algorithms) جو بنیادی ڈھانچے کی ناکامیوں کی پیش گوئی کر سکتے ہیں، تعلیم کو ذاتی بنا سکتے ہیں، یا آفات سے متعلق امدادی کوششوں میں وسائل کی تقسیم کو بہتر بنا سکتے ہیں۔ امکانات بظاہر لامتناہی ہیں۔
تاہم، یہ تکنیکی انقلاب اپنے خطرات سے خالی نہیں ہے۔ اے آئی نظاموں پر انحصار اخلاقی مخمصوں، حفاظتی کمزوریوں اور ممکنہ تعصبات کا ایک پیچیدہ جال متعارف کراتا ہے۔ اے آئی ماڈلز کو ڈیٹا پر تربیت دی جاتی ہے، اور اگر وہ ڈیٹا معاشرتی تعصبات کی عکاسی کرتا ہے، تو اے آئی ان تعصبات کو برقرار رکھے گا اور یہاں تک کہ ان کو بڑھا بھی دے گا۔ اس سے حکومتی خدمات میں عدل و انصاف اور مساوات کو ایک بڑا خطرہ لاحق ہے، جس سے قانون نافذ کرنے والے اداروں، سماجی بہبود اور تعلیم جیسے شعبوں میں امتیازی نتائج برآمد ہو سکتے ہیں۔
مزید برآں، اے آئی کا استعمال شفافیت اور احتساب کے بارے میں گہرے سوالات اٹھاتا ہے۔ جب فیصلے الگورتھم کے ذریعے کیے جاتے ہیں، تو ان فیصلوں کے پیچھے منطق کو سمجھنا مشکل ہو جاتا ہے، جس سے حکومتی اداروں کو ان کے اقدامات کے لیے جوابدہ ٹھہرانا مشکل ہو جاتا ہے۔
لاما 2 بمقابلہ گروک کی معمہ
گروک پر لاما 2 کا انتخاب اپنے تحفظات کا ایک سیٹ لاتا ہے۔ لاما 2 کی اوپن سورس نوعیت اسے آسانی سے قابل رسائی اور حسب ضرورت بناتی ہے، جس سے سرکاری اداروں کو اسے ملکیتی ایکو سسٹم (eco system) میں مقید ہوئے بغیر اپنی مخصوص ضروریات کے مطابق ڈھالنے کی اجازت ملتی ہے۔تاہم، اس کا مطلب یہ بھی ہے کہ اس میں وہ وقف شدہ مدد اور دیکھ بھال نہیں ہے جو عام طور پر ملکیتی اے آئی حل کے ساتھ آتی ہے۔
دوسری طرف، گروک، ایک ملکیتی اے آئی کے طور پر، جدید کارکردگی اور خصوصی مہارت کا وعدہ کرتا ہے۔ تاہم، اس سے ممکنہ وینڈر لاک ان (Vendor lock-in)، ڈیٹا کی رازداری اور اے آئی کے تربیتی ڈیٹا (data) سے پیدا ہونے والے تعصب کے بارے میں بھی خدشات پیدا ہوتے ہیں۔ یہ کسی بھی نجی ادارے، خاص طور پر حکومت کے مقاصد سے قریبی تعلق رکھنے والی ایک اعلی پروفائل (high profile) شخصیت سے وابستہ کسی ادارے کی جانب سے فیصلہ سازی کے عمل پر ناجائز اثر و رسوخ کے امکان پر خدشات کو اجاگر کرتا ہے۔
مفادات کے تصادم کا آسیب
حکومتی اے آئی اقدامات میں ایلون مسک کے اداروں (اسپیس ایکس اور xAI) کی شمولیت مفادات کے تصادم کا آسیب پیدا کرتی ہے۔ مختلف شعبوں میں निहित مفادات کے ساتھ ایک ممتاز شخصیت کے طور پر، مسک کی شمولیت سے ان ممکنہ اثرات کے بارے میں سوالات اٹھتے ہیں جو وہ حکومتی پالیسی اور ٹھیکوں کی منظوری پر ڈال سکتے ہیں۔
کیا حکومت مسک کی کمپنیوں کے ساتھ ترجیحی سلوک کر رہی ہو گی؟ کیا اس بات کو یقینی بنانے کے لیے مناسب حفاظتی تدابیر موجود ہیں کہ فیصلے غیر جانبداری سے اور عوام کے بہترین مفاد میں کیے جائیں؟ یہ جائز سوالات ہیں جو سخت جانچ کے متقاضی ہیں۔
ڈیٹا سیکیورٹی اور رازداری کے خدشات
حکومتی کارروائیوں میں اے آئی کے استعمال میں لامحالہ حساس شہریوں کے ڈیٹا کو جمع کرنا، ذخیرہ کرنا اور پروسیس کرنا شامل ہے۔ یہ سائبر حملوں اور ڈیٹا کی خلاف ورزیوں کے لیے ایک پرکشش ہدف بناتا ہے۔ حکومت کو اس ڈیٹا کو غیر مجاز رسائی اور غلط استعمال سے بچانے کے لیے حفاظتی اقدامات نافذ کرنے چاہئیں۔ اس میں نہ صرف ڈیٹا کو بیرونی خطرات سے بچانا شامل ہے بلکہ اندرونی استحصال کو روکنے کے لیے سخت رسائی کنٹرول اور احتساب کے طریقہ کار کو بھی قائم کرنا شامل ہے۔
ڈیٹا کی رازداری کے خدشات کو اے آئی الگورتھم کی مبہم نوعیت سے بڑھاوا ملتا ہے۔ شہریوں کو اکثر اس بات کا کوئی اندازہ نہیں ہوتا کہ ان کے डेटा (data) کو کیسے پروسیس کیا جا رہا ہے یا ان فیصلوں کے لیے جو ان کی زندگیوں کو متاثر کرتے ہیں۔ شفافیت کی اس کمی سے حکومت پر اعتماد ختم ہو جاتا ہے اور اے آئی سے چلنے والے اقدامات کے خلاف مزاحمت ہو سکتی ہے۔
حکومت کے مستقبل کے لیے مضمرات
DOGE کی جانب سے AI کے استعمال پر بحث صرف ایک مخصوص مثال کے بارے میں نہیں ہے، بلکہ مصنوعی ذہانت کے دور میں حکومت کے وسیع تر مستقبل کے بارے میں ہے۔ حکومت عوامی خدمات کو بہتر بنانے کے لیے AI کی طاقت کو کیسے استعمال کر سکتی ہے جبکہ خطرات کو کم کر سکتی ہے؟ ہم کیسے یقینی بنا سکتے ہیں کہ AI کا استعمال اخلاقی، شفاف اور جوابدہ طریقے سے کیا جائے؟
ان سوالات کے جوابات کے لیے کثیر الجہتی نقطہ نظر کی ضرورت ہے:
واضح اخلاقی رہنما اصول قائم کریں: حکومت میں AI کے استعمال کو کنٹرول کرنے والے اخلاقی اصولوں کا ایک واضح سیٹ مرتب کریں۔ ان اصولوں کو عدل وانصاف، شفافیت، احتساب اور رازداری کے احترام کو ترجیح دینی چاہیے۔
شفافیت اور کھلے پن کو فروغ دیں: AI الگورتھم اور فیصلہ سازی کے عمل کو مزید شفاف بنائیں۔ رپورٹیں شائع کریں جس میں یہ بتایا جائے کہ सरकार में AI (AI) का उपयोग कैसे किया जा रहा है और नागरिकों को प्रतिक्रिया प्रदान करने के लिए मार्ग प्रदान करें।
ڈیٹا سیکیورٹی کو محفوظ بنائیں: حساس شہریوں کے ڈیٹا کو سائبر خطرات اور اندرونی استحصال سے بچانے کے لیے مضبوط حفاظتی اقدامات نافذ کریں۔
احتساب کو یقینی بنائیں: AI से प्रेरित सभी निर्णयों के लिए स्पष्ट जवाबदेही लाइनों की स्थापना करें। उन सरकारी अधिकारियों को नामित करें जो AI के उपयोग की देखरेख करने और उत्पन्न होने वाली किसी भी समस्या को संबोधित करने के लिए जिम्मेदार हैं।
عوامی اعتماد پیدا کریں: حکومت میں AI के फायदों और जोखिमों के बारे में जनता को शिक्षित करें। उनकी चिंताओं का समाधान করার और इस तकनीक के जिम्मेदार उपयोग में विश्वास पैदा करे।
ایک فعال اور سوچ سمجھ کر نقطہ نظر اپنا کر حکومت عوامی مفاد کو محفوظ رکھتے ہوئے AI की परिवर्तनकारी शक्ति का उपयोग कर सकती है। DOGE विवाद सावधानीपूर्वक योजना बनाने, खुले संवाद और कृत्रिम बुद्धिमत्ता के युग में नैतिक सिद्धांतों के प्रति प्रतिबद्धता के महत्व की आवश्यक याद दिलाता है।
سامنے آنے والی कथा
डीओजीई (DOGE) کے اے آئی (AI) کے استعمال کے بارے میں ڈرامہ ابھی ختم نہیں ہوا۔ जैसा कि जांच जारी है और अधिक विवरण सामने आ رہے हैं, इस घटना का निस्संदेह सरकार के भीतर AI की तैनाती के भविष्य पर प्रभाव पड़ेगा। उम्मीद है कि यह स्थिति तकनीक के अधिक विचारशील एकीकरण की ओर ले जाएगी।