Musk, AI, dan Senjata "Kesalahan Administratif"

Kepergian Elon Musk dari inisiatif Defense Operational Guidance Enhancement (DOGE) mungkin tampak seperti peristiwa penting, tetapi dampak sebenarnya terletak pada tingkat kewaspadaan publik. Kisah sebenarnya bukan hanya tentang pemotongan anggaran atau aksi teatrikal Musk; ini tentang integrasi proyek-proyek ideologis yang berbahaya ke dalam sistem teknis yang mengarahkan pemerintah AS.

Pada bulan Februari, saya menguraikan konsep “kudeta AI,” di mana Kecerdasan Buatan berfungsi kurang sebagai alat dan lebih sebagai tontonan dan pembenaran. Large Language Models (LLMs) berfungsi sebagai generator dalih, menyediakan kedok yang nyaman untuk tindakan yang tidak ingin dipertanggungjawabkan oleh siapa pun. Elon Musk telah memainkan peran serupa, mengalihkan perhatian publik dengan pertunjukan sensasional sambil menjalankan perubahan radikal.

Salah satu contoh yang paling mengerikan adalah penghapusan pendanaan program yang telah mencegah 26 juta kematian akibat AIDS, termasuk anak-anak. Para pejabat terpilih sebagian besar mengabaikan masalah ini, berpura-pura tidak berdaya.

Aksi kontroversial Musk berfungsi sebagai tabir asap yang nyaman untuk pembongkaran radikal pemerintah federal. Sementara ini memicu gerakan protes akar rumput dan berdampak negatif pada penjualan Tesla, itu menutupi masalah yang lebih dalam dari integrasi AI.

Sementara Musk dan Trump telah mempromosikan pemotongan anggaran berbasis ideologi DOGE, sebuah analisis di The Atlantic mengungkapkan bahwa total pengeluaran federal sebenarnya meningkat. Transformasi AI dari tenaga kerja federal, yang digembar-gemborkan sebagai sarana untuk “efisiensi pemerintah,” terus berlanjut sebagian besar tanpa disadari. DOGE menggunakan Llama 2 untuk meninjau dan mengklasifikasikan email dari karyawan federal, tetapi kontrak Palantir senilai $113 juta untuk menciptakan infrastruktur pengawasan sipil yang luas menyoroti tren yang mengkhawatirkan. Perusahaan ini juga mengintegrasikan model bahasa Grok Musk ke dalam platformnya.

Kesalahan Pemrograman

Grok xAI, di bawah kendali langsung Musk, memberikan contoh yang mengkhawatirkan. Model tersebut telah menanggapi pertanyaan yang tidak berbahaya dengan komentar yang mempromosikan realitas genosida kulit putih di Afrika Selatan. Manipulasi petunjuk sistem tersembunyi model ini mengungkapkan upaya yang ceroboh pada rekayasa sosial. Model tersebut kemudian ditemukan terlibat dalam penyangkalan Holocaust, yang oleh xAI dianggap sebagai “kesalahan pemrograman.”

xAI menanggapi insiden “genosida kulit putih” dengan menyatakan bahwa modifikasi prompt melanggar kebijakan internal. Mereka menambahkan bahwa perubahan prompt sistem di masa mendatang akan tunduk pada peninjauan.

Insiden-insiden ini menyoroti risiko inheren dari prompt sistem. Mereka dapat diubah oleh siapa pun yang memiliki kendali atas model dan hanya tunduk pada pengawasan setelah deteksi. Ketergantungan pada model AI perusahaan dalam pengambilan keputusan pemerintah memberikan kekuatan politik yang sangat besar kepada elit teknologi.

Biasanya, adopsi teknologi ke dalam pemerintah melibatkan musyawarah yang cermat dan tinjauan keamanan. Implementasi DOGE tidak memiliki pengawasan yang memadai, menimbulkan kekhawatiran tentang independensi tinjauan apa pun. Dengan mengintegrasikan data agensi ke dalam model terpadu, DOGE gagal mempertimbangkan kebutuhan keamanan khusus dari masing-masing agensi. Intinya, DOGE menerapkan perubahan transformatif tanpa menilai kebutuhan, kecukupan, atau manfaatnya bagi warga.

Jika pemerintahan Trump benar-benar peduli tentang membangun sistem yang andal, tindakan mereka akan mencerminkan hal itu. Sebaliknya, DOGE dan pemerintahan Trump telah menghambat pengawasan terhadap bias dalam model AI perusahaan dan contoh manipulasi prompt sistem. Setelah DOGE menghapus pendanaan untuk penelitian bias AI, sebuah RUU baru yang disahkan oleh Kongres akan melarang undang-undang baru apa pun mengenai pengawasan AI untuk dekade berikutnya.

Karyawan Nakal

Kepergian Musk dari DOGE meninggalkan warisan, diperkuat oleh pemilihan Palantir, perusahaan AI yang didirikan oleh Thiel yang dipilih oleh Musk. Musk dan Thiel adalah salah satu pendiri Paypal, dan Thiel telah menyuarakan skeptisisme mengenai kompatibilitas kebebasan dan demokrasi.

Konsentrasi kekuasaan yang diprakarsai oleh Musk melalui DOGE akan bertahan, beroperasi lebih diam-diam. Sementara kepergiannya menandai kemenangan bagi mereka yang menentangnya, pekerjaan DOGE berlanjut di bawah arahan birokrat yang dipekerjakan karena kesetiaan mereka.

Tujuan sebenarnya dari DOGE bukanlah untuk menghilangkan pemborosan pemerintah tetapi untuk mengotomatiskan birokrasi dengan lebih sedikit langkah akuntabilitas. Tujuan “efisiensi pemerintah” ini tetap tidak terdefinisi dengan baik. Merampingkan pemerintah harus menyederhanakan interaksi warga dengan layanan dan informasi. Sebaliknya, PHK telah menciptakan kemacetan sistemik sambil membahayakan privasi. Pemotongan pendanaan IRS telah menimbulkan kekhawatiran tentang audit dan pengembalian dana, yang berpotensi merugikan miliaran dolar dalam pendapatan yang hilang.

Tujuan DOGE bukan untuk mengoptimalkan birokrasi, tetapi untuk menghilangkan elemen manusia. Ini memprioritaskan efisiensi gaya industri, mengkategorikan warga dan mengasumsikan penyalahgunaan sistemik. Hak dan hak istimewa kemudian diberikan atau ditolak berdasarkan bias yang tertanam dalam sistem AI.

Mereka yang mengendalikan definisi dan otomatisasi tanggapan terhadap kategori-kategori ini memegang kekuatan yang signifikan. Model mencerminkan keputusan orang-orang yang melatih mereka, termasuk bias dan tujuan optimasi yang ditoleransi. Dengan administrator saat ini menggunakan jejak algoritmik, birokrasi kehilangan koneksi terakhirnya ke kemanusiaan.

Kesalahan Administratif

Birokrasi dan kesalahan birokrasi bukanlah hal baru. Yang belum pernah terjadi sebelumnya adalah pemutusan akuntabilitas manusia untuk kesalahan, mempromosikan ketidakpedulian terhadap menghindarinya.

Pertimbangkan laporan kesehatan Robert F. Kennedy Jr., yang berisi kutipan yang dibuat-buat. Tindakan ini akan menjadi skandal secara historis, tetapi ditolak sebagai “kesalahan pemformatan". Kennedy menganut kebijakan yang tidak didukung oleh bukti, dan pembuatan laporan ini oleh AI menunjukkan prioritas presentasi daripada penyelidikan ilmiah yang sah. Otomatisasi bukti yang dibuat-buat hanyalah salah satu cara AI telah menjadi alat bagi administrasi.

DOGE tampaknya lebih fokus pada menghukum oposisi terhadap Trump – migran, akademisi, minoritas rasial – dan upayanya yang luas menghasilkan kesalahan yang tak terhindarkan. Deportasi Kilmar Abrego Garcia, yang dikaitkan dengan “kesalahan administratif,” mencontohkan hal ini. Ini mencontohkan persenjataan kesalahan yang disengaja.

Pada akhirnya, DOGE bertujuan untuk menciptakan sistem di mana hasil kontroversial dapat disalahkan pada “administratif,” “pemrograman,” atau “kesalahan pemformatan.” Administrasi mengalihkan kesalahan ke alat yang rusak, menolak untuk menerima tanggung jawab. Dalam kasus Garcia, administrasi menolak untuk memperbaiki kesalahan. Ini menunjukkan dunia keteraturan yang tidak dapat diandalkan, di mana hanya mereka yang menjanjikan kesetiaan yang akan terhindar.

Kami menciptakan lingkungan yang rapuh di mana nasib pribadi bergantung pada keinginan AI dan pemrogramannya yang tidak terlihat. Apa yang terjadi ketika program AI ini adalah alat yang mengganggu stabilitas yang mengkonsolidasikan data ke dalam arsitektur pengawasan terpadu?

Sementara kepergian Musk dari DOGE dapat mendorong perhatian publik untuk berkurang, masalah mendasar tetap ada: bias algoritmik, kurangnya akuntabilitas, dan erosi pengawasan manusia. Tren-tren ini, jika tidak dikendalikan, berpotensi merusak fondasi masyarakat yang adil dan setara.