خروج ایلان ماسک از ابتکار ارتقاء راهنمای عملیاتی دفاعی (DOGE) ممکن است رویدادی مهم به نظر برسد، اما تأثیر واقعی آن در میزان هوشیاری عمومی نهفته است. داستان واقعی صرفاً در مورد کاهش بودجه یا نمایش های ماسک نیست. بلکه در مورد ادغام موذیانه پروژه های ایدئولوژیک در سیستم های فنی است که دولت ایالات متحده را هدایت می کنند.
در ماه فوریه، من مفهوم یک "کودتای هوش مصنوعی" را تشریح کردم، جایی که هوش مصنوعی کمتر به عنوان یک ابزار و بیشتر به عنوان یک نمایش و توجیه عمل می کند. مدل های زبان بزرگ (LLMs) به عنوان ژنراتورهای بهانه عمل می کنند و پوششی مناسب برای اقداماتی ارائه می دهند که هیچ کس مایل به پذیرش مسئولیت آن نیست. ایلان ماسک نقش مشابهی ایفا کرده است، افکار عمومی را با نمایش های پرشور سرگرم می کند در حالی که تغییرات اساسی را اجرا می کند.
یکی از فاحش ترین نمونه ها، قطع بودجه برنامه ای بود که از 26 میلیون مرگ ناشی از ایدز، از جمله کودکان، جلوگیری کرده بود. مقامات منتخب تا حد زیادی این موضوع را نادیده گرفتند و تظاهر به درماندگی کردند.
اقدامات بحث برانگیز ماسک به عنوان یک پوشش مناسب برای برچیدن اساسی دولت فدرال عمل کرد. در حالی که این امر باعث ایجاد یک جنبش اعتراضی مردمی شد و بر فروش تسلا تأثیر منفی گذاشت، اما موضوع عمیق تر ادغام هوش مصنوعی را پنهان کرد.
در حالی که ماسک و ترامپ کاهش بودجه ایدئولوژیک محور DOGE را ترویج کرده اند، تحلیلی در The Atlantic نشان داد که کل هزینه های فدرال در واقع افزایش یافته است. تحول هوش مصنوعی نیروی کار فدرال، که به عنوان ابزاری برای "بهره وری دولت" تبلیغ می شود، تا حد زیادی مورد توجه قرار نمی گیرد. DOGE از Llama 2 برای بررسی و طبقه بندی ایمیل های کارمندان فدرال استفاده کرد، اما قرارداد 113 میلیون دلاری Palantir برای ایجاد یک زیرساخت نظارتی گسترده غیرنظامی، روند نگران کننده ای را برجسته می کند. این شرکت همچنین در حال ادغام مدل زبان Grok ماسک در پلتفرم خود است.
خطاهای برنامه نویسی
Grok شرکت xAI، تحت کنترل مستقیم ماسک، نمونه ای نگران کننده ارائه می دهد. این مدل به پرسش های خوش خیم با نظراتی در ترویج واقعیت نسل کشی سفیدپوستان در آفریقای جنوبی پاسخ داده است. این دستکاری در اعلان سیستم پنهان مدل، تلاش ناشیانه ای برای مهندسی اجتماعی را نشان می دهد. بعداً مشخص شد که این مدل در انکار هولوکاست شرکت دارد که xAI آن را به یک "خطای برنامه نویسی" نسبت داد.
xAI با بیان اینکه اصلاح اعلان، سیاست های داخلی را نقض می کند، به حادثه "نسل کشی سفیدپوستان" پاسخ داد. آنها افزودند که تغییرات آینده در اعلان سیستم مشمول بررسی خواهد بود.
این حوادث خطرات ذاتی اعلانات سیستم را برجسته می کند. آنها می توانند توسط هر کسی که کنترل مدل را در دست دارد تغییر داده شوند و تنها پس از شناسایی مشمول بررسی قرار می گیرند. اتکا به مدل های هوش مصنوعی شرکت ها در تصمیم گیری های دولت، قدرت سیاسی عظیمی به نخبگان فناوری می دهد.
به طور معمول، پذیرش فناوری در دولت شامل بررسی های امنیتی و بررسی های دقیق است. اجرای DOGE فاقد نظارت مناسب است و نگرانی هایی را در مورد استقلال هرگونه بررسی ایجاد می کند. DOGE با ادغام داده های آژانس در یک مدل واحد، نیازهای امنیتی خاص آژانس های فردی را در نظر نمی گیرد. در اصل، DOGE تغییرات تحول آفرین را بدون ارزیابی ضرورت، کفایت یا سودمندی آنها برای شهروندان اجرا می کند.
اگر دولت Trump واقعاً به ساخت سیستم های قابل اعتماد اهمیت می داد، اقدامات آنها این را منعکس می کرد. در عوض، DOGE و دولت Trump نظارت بر سوگیری ها در مدل های هوش مصنوعی شرکتی و موارد دستکاری اعلان سیستم را خفه کرده اند. پس از قطع بودجه تحقیقات در مورد سوگیری هوش مصنوعی توسط DOGE، لایحه جدیدی که توسط کنگره تصویب شد، هرگونه قانون جدید در مورد نظارت بر هوش مصنوعی را برای دهه آینده ممنوع می کند.
کارمندان سرکش
خروج Musk از DOGE میراثی را به جا می گذارد که با انتخاب Palantir، شرکت هوش مصنوعی تاسیس شده توسط Thiel که توسط Musk انتخاب شده است، تثبیت شده است. ماسک و Thiel هم بنیانگذاران Paypal بودند و Thiel نسبت به سازگاری آزادی و دموکراسی ابراز تردید کرده است.
تمرکز قدرتی که توسط ماسک از طریق DOGE آغاز شد، به طور محتاطانه تری ادامه خواهد یافت. در حالی که خروج او نشان دهنده پیروزی برای کسانی است که با او مخالف بودند، کار DOGE تحت هدایت بوروکرات هایی که به دلیل وفاداری استخدام شده اند، ادامه می یابد.
هدف واقعی DOGE هرگز حذف ضایعات دولت نبود، بلکه خودکارسازی بوروکراسی با اقدامات پاسخگویی کمتر بود. این هدف "بهره وری دولت" به طور ضعیفی تعریف شده است. ساده سازی دولت باید تعاملات شهروندان با خدمات و اطلاعات را ساده کند. در عوض، اخراج ها باعث ایجاد انسدادهای سیستمی شده و در عین حال حریم خصوصی را به خطر انداخته است. کاهش بودجه IRS نگرانی هایی را در مورد حسابرسی و بازپرداخت ایجاد کرده است که به طور بالقوه میلیاردها دلار درآمد از دست رفته را به همراه دارد.
هدف DOGE بهینه سازی بوروکراسی نبود، بلکه حذف عنصر انسانی بود. این اولویت را به بهره وری به سبک صنعتی می دهد، طبقه بندی شهروندان و فرض سوء استفاده سیستماتیک. حقوق و امتیازات سپس بر اساس سوگیری های تعبیه شده در سیستم هوش مصنوعی اعطا یا رد می شوند.
کسانی که تعریف و خودکارسازی پاسخ ها به این دسته ها را کنترل می کنند، قدرت قابل توجهی دارند. مدل ها بازتاب دهنده تصمیمات کسانی هستند که آنها را آموزش می دهند، از جمله سوگیری های تحمل شده و اهداف بهینه سازی. با استفاده مدیران فعلی از ردپاهای الگوریتمی، بوروکراسی آخرین ارتباط خود را با انسانیت از دست می دهد.
خطاهای اداری
بوروکراسی و خطای بوروکراتیک چیز جدیدی نیست. آنچه بی سابقه است، قطع مسئولیت پذیری انسانی برای خطاها، ترویج بی تفاوتی نسبت به اجتناب از آنها است.
گزارش سلامت رابرت اف. کندی جونیور را در نظر بگیرید که حاوی استنادهای ساختگی بود. این عمل از نظر تاریخی یک رسوایی بود، اما به عنوان یک "خطای قالب بندی" رد شد. کندی سیاست هایی را می پذیرد که توسط شواهد پشتیبانی نمی شوند و تولید هوش مصنوعی این گزارش نشان دهنده اولویت دادن به ارائه نسبت به تحقیقات علمی مشروع است. خودکارسازی شواهد ساختگی تنها یکی از راه هایی است که هوش مصنوعی به ابزاری برای دولت تبدیل شده است.
DOGE به نظر می رسد بیشتر بر مجازات مخالفان ترامپ - مهاجران، دانشگاهیان، اقلیت های نژادی - متمرکز است و تلاش های گسترده آن خطاهای اجتناب ناپذیری ایجاد می کند. اخراج Kilmar Abrego Garcia که به "خطای اداری" نسبت داده شده است، نمونه ای از این موضوع است. این نمونه ای از تسلیح عمدی خطا است.
در نهایت، DOGE قصد دارد سیستمی ایجاد کند که در آن پیامدهای بحث برانگیز را می توان به "خطاهای" "اداری"، "برنامه نویسی" یا "قالب بندی" نسبت داد. دولت تقصیر را به ابزارهای معیوب نسبت می دهد و از پذیرش مسئولیت خودداری میکند. در مورد گارسیا، دولت از اصلاح این خطا خودداری می کند. این نشان دهنده دنیایی از نظم غیرقابل اعتماد است، جایی که فقط کسانی که سوگند وفاداری می خورند در امان خواهند ماند.
ما در حال ایجاد یک محیط شکننده هستیم که در آن سرنوشت شخصی افراد به هوس های هوش مصنوعی و برنامه نویسی نامرئی آن بستگی دارد. وقتی این برنامه های هوش مصنوعی ابزارهای بی ثبات کننده ای باشند که داده ها را در معماری های نظارتی یکپارچه ادغام می کنند، چه اتفاقی می افتد؟
در حالی که خروج ماسک از DOGE ممکن است توجه عمومی را کاهش دهد، مسائل اساسی همچنان پابرجاست: سوگیری الگوریتمی، عدم پاسخگویی و فرسایش نظارت انسانی. این روندها در صورت مهار نشدن، می توانند به مبانی یک جامعه عادلانه و برابر آسیب برسانند.