Sebuah penemuan tak terduga menunjukkan bahwa inisiatif Departemen Efisiensi Pemerintah (Department of Government Efficiency - DOGE) untuk merampingkan tenaga kerja federal menggunakan model AI Meta yang lebih lama, yaitu Llama 2, bukan Grok, kreasi AI Elon Musk.
Memo “Fork in the Road” dan Peran Llama 2
Menurut tinjauan oleh Wired, afiliasi DOGE Elon Musk, yang beroperasi di dalam Office of Personnel Management, menggunakan model Llama 2 Meta untuk menganalisis dan mengkategorikan respons dari pegawai federal atas email kontroversial “Fork in the Road” yang dikirim ke seluruh pemerintah pada akhir Januari.
Memo “Fork in the Road”, yang sangat mirip dengan komunikasi sebelumnya yang dikirim Musk ke karyawan Twitter, memberi pekerja federal pilihan: menunjukkan "loyalitas" dengan menerima kebijakan kembali ke kantor yang direvisi oleh pemerintah, atau memilih untuk mengundurkan diri. Pada saat itu, rumor yang beredar menunjukkan bahwa DOGE memanfaatkan AI untuk memproses data pegawai pemerintah. Konfirmasi kemudian muncul, yang membuktikan penggunaan Llama 2 untuk menyaring tangapan karyawan dan menghitung jumlah pengunduran diri.
Masa Lalu Kontroversial Llama 2: Aplikasi Militer dan Tanggapan Meta
Sejarah Llama 2 bukannya tanpa kontroversi. Khususnya, pada bulan November, para peneliti Tiongkok memanfaatkan Llama 2 sebagai fondasi untuk model AI yang digunakan oleh militer Tiongkok. Pengungkapan ini memicu reaksi keras, mendorong Meta untuk awalnya mengecam ketergantungan para periset yang "tidak sah" pada model yang "tunggal" dan "ketinggalan zaman". Namun, Meta kemudian membalikkan kebijakannya yang melarang aplikasi militer dan memperluas akses ke model AI-nya untuk tujuan keamanan nasional AS.
Meta secara terbuka menyatakan komitmennya untuk membuat Llama dapat diakses oleh badan-badan pemerintah AS, termasuk yang terlibat dalam aplikasi pertahanan dan keamanan nasional, serta mitra sektor swasta yang mendukung upaya mereka. Mereka mengumumkan kemitraan dengan perusahaan seperti Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI, dan Snowflake untuk memfasilitasi penyebaran Llama di seluruh badan pemerintah.
Wired berpendapat bahwa sifat open-source dari model Meta memungkinkan pemerintah untuk dengan mudah menggunakannya untuk mendukung tujuan Musk, berpotensi tanpa persetujuan perusahaan eksplisit. Mengidentifikasi sejauh mana penyebaran model Meta dalam pemerintah masih menjadi tantangan. Alasan di balik ketergantungan DOGE pada Llama 2, terutama mengingat kemajuan Meta dengan Llama 3 dan 4, tidak jelas.
Pengetahuan Terbatas tentang Penggunaan Llama 2 oleh DOGE
Rincian mengenai aplikasi spesifik Llama 2 oleh DOGE masih jarang. Investigasi Wired mengungkapkan bahwa DOGE menyebarkan model secara lokal, menunjukkan bahwa data tidak mungkin ditransmisikan melalui Internet, sehingga mengurangi kekhawatiran privasi yang disuarakan oleh banyak pegawai pemerintah.
Kekhawatiran Kongres dan Seruan untuk Investigasi
Dalam surat April yang ditujukan kepada Russell Vought, direktur Office of Management and Budget, lebih dari 40 anggota parlemen menuntut penyelidikan menyeluruh terhadap pemanfaatan AI oleh DOGE. Mereka menyatakan keprihatinan bahwa penggunaan semacam itu, bersama dengan potensi risiko keamanan, dapat merusak keberhasilan dan penerapan AI yang tepat dalam pemerintah.
Surat tersebut secara khusus menyebutkan seorang staf DOGE dan mantan karyawan SpaceX yang diduga menggunakan model xAI Grok-2 Musk untuk mengembangkan "asisten AI". Ia juga menyebutkan penggunaan chatbot bernama "GSAi", berdasarkan model Anthropic dan Meta, untuk menganalisis data kontrak dan pengadaan. Selain itu, DOGE telah dikaitkan dengan perangkat lunak yang disebut AutoRIF, yang konon dirancang untuk mempercepat pemecatan massal di seluruh pemerintah.
Para anggota parlemen menekankan "kekhawatiran besar tentang keamanan" seputar DOGE yang menggunakan "sistem AI untuk menganalisis email dari sebagian besar dua juta tenaga kerja federal yang menggambarkan pencapaian minggu sebelumnya," dengan alasan kurangnya transparansi.
Email-email ini menyusul email "Fork in the Road", yang mendorong pekerja untuk menguraikan pencapaian mingguan dalam lima poin. Karyawan menyatakan kekhawatiran tentang sifat tanggapan, takut bahwa DOGE mungkin meminta informasi sensitif tanpa izin keamanan yang tepat.
Wired tidak dapat secara definitif mengonfirmasi apakah Llama 2 juga digunakan untuk mengurai tanggapan email ini. Namun, pekerja federal menyarankan kepada Wired bahwa DOGE kemungkinan akan "menggunakan kembali kode mereka" dari percobaan email "Fork in the Road", jika itu adalah keputusan yang bijaksana.
Mengapa Grok Tidak Digunakan
Pertanyaan muncul: mengapa DOGE tidak menggunakan Grok?
Penjelasan yang mungkin adalah bahwa Grok, yang merupakan model berpemilik pada saat itu, tidak tersedia untuk tugas DOGE pada bulan Januari. Menurut Wired, DOGE dapat meningkatkan ketergantungannya pada Grok di masa mendatang, terutama mengingat pengumuman Microsoft bahwa mereka akan mulai menghosting model Grok 3 xAI di Azure AI Foundry minggu ini, sehingga memperluas potensi aplikasi model tersebut.
Kekhawatiran Anggota Parlemen: Konflik Kepentingan dan Pelanggaran Data
Dalam surat mereka, anggota parlemen mendesak Vought untuk menyelidiki potensi konflik kepentingan yang melibatkan Musk, sambil juga memperingatkan tentang potensi pelanggaran data. Mereka menyatakan bahwa AI, seperti yang digunakan oleh DOGE, belum cocok untuk aplikasi pemerintah.
Mereka berpendapat bahwa "tanpa perlindungan yang tepat, memasukkan data sensitif ke dalam sistem AI menempatkannya ke dalam kepemilikan operator sistem—pelanggaran besar kepercayaan publik dan karyawan serta peningkatan risiko keamanan siber seputar data tersebut." Mereka lebih lanjut mencatat bahwa "model AI generatif juga sering membuat kesalahan dan menunjukkan bias yang signifikan—teknologi ini tidak siap untuk digunakan dalam pengambilan keputusan berisiko tinggi tanpa pemeriksaan, transparansi, pengawasan, dan pagar pembatas yang tepat."
Sementara laporan Wired menunjukkan bahwa DOGE tidak mentransmisikan data sensitif dari email "Fork in the Road" ke sumber eksternal, anggota parlemen menganjurkan untuk pemeriksaan sistem AI yang lebih ketat untuk mengurangi "risiko berbagi informasi pengenal pribadi atau informasi sensitif lainnya dengan penyebar model AI."
Kekhawatiran utama adalah bahwa Musk dapat semakin memanfaatkan modelnya sendiri, berpotensi mendapatkan keuntungan dari data pemerintah yang tidak dapat diakses oleh pesaingnya, sambil secara bersamaan mengekspos data tersebut terhadap risiko pelanggaran. Anggota parlemen berharap bahwa DOGE akan dipaksa untuk menghentikan sistem AI-nya. Namun, Vought tampaknya lebih selaras dengan pendekatan DOGE, sebagaimana dibuktikan oleh panduan AI-nya untuk penggunaan federal, yang mendorong agen untuk "menghilangkan hambatan untuk inovasi dan memberikan nilai terbaik bagi pembayar pajak."
Surat anggota parlemen menekankan bahwa "sementara kami mendukung pemerintah federal mengintegrasikan teknologi AI baru yang disetujui yang dapat meningkatkan efisiensi atau kemanjuran, kami tidak dapat mengorbankan keamanan, privasi, dan standar penggunaan yang tepat saat berinteraksi dengan data federal." Mereka juga menyatakan bahwa "kami juga tidak dapat memaafkan penggunaan sistem AI, sering dikenal karena halusinasi dan bias, dalam keputusan mengenai pemutusan pekerjaan federal atau pendanaan federal tanpa transparansi dan pengawasan yang memadai dari model-model tersebut—risiko kehilangan bakat dan penelitian kritis karena teknologi yang cacat atau penggunaan teknologi semacam itu yang cacat terlalu tinggi."
Penyelaman Mendalam ke Implikasi Penggunaan AI dalam Inisiatif Efisiensi Pemerintah
Kisah yang berkembang tentang pemanfaatan kecerdasan buatan oleh Departemen Efisiensi Pemerintah (DOGE) dalam upaya perampingan operasionalnya telah memicu badai perdebatan dan pengawasan. Pengungkapan bahwa agensi tersebut bersandar pada model Llama 2 Meta—AI sumber terbuka—alih-alih AI Grok berpemilik Elon Musk telah menambahkan lapisan kompleksitas pada narasi yang sudah rumit. Situasi ini memerlukan penyelaman mendalam ke implikasi multifaset dari mengintegrasikan AI ke dalam operasi pemerintah, memeriksa manfaat dan risiko yang melekat, pertimbangan etis, dan potensi konflik kepentingan.
Daya Pikat dan Jebakan AI dalam Pemerintahan
Integrasi AI ke dalam fungsi-fungsi pemerintah menjanjikan kemajuan transformatif dalam efisiensi, analisis data, dan pengambilan keputusan. Dari mengotomatiskan tugas-tugas rutin hingga menyaring set data yang luas, AI berpotensi membuka tingkat produktivitas yang belum pernah terjadi sebelumnya dan meningkatkan penyampaian layanan publik. Bayangkan algoritma yang dapat memprediksi kegagalan infrastruktur, mempersonalisasi pendidikan, atau mengoptimalkan alokasi sumber daya dalam upaya bantuan bencana. Kemungkinannya tampaknya tak terbatas.
Namun, revolusi teknologi ini bukannya tanpa bahaya. Ketergantungan pada sistim AI memperkenalkan jaringan kompleks dilema etika, kerentanan keamanan, dan potensi bias. Model AI dilatih pada data, dan jika data tersebut mencerminkan prasangka sosial, AI akan mengabadikan dan bahkan memperkuat bias tersebut. Hal ini menimbulkan ancaman signifikan terhadap keadilan dan kesetaraan dalam pelayanan pemerintah, yang berpotensi menyebabkan hasil diskriminatif di bidang-bidang seperti penegakan hukum, kesejahteraan sosial, dan pendidikan.
Selanjutnya, penggunaan AI menimbulkan pertanyaan mendalam tentang transparansi dan akuntabilitas. Ketika keputusan dibuat oleh algoritma, menjadi sulit untuk memahami alasan di balik keputusan tersebut, sehingga menyulitkan untuk meminta pertanggungjawaban agen pemerintah atas tindakan mereka.
Teka-Teki Llama 2 vs. Grok
Pilihan mendahulukan Llama 2 daripada Grok menghadirkan serangkaian pertimbangan tersendiri. Sifat sumber terbuka Llama 2 membuatnya mudah diakses dan dapat disesuaikan, memungkinkan agen pemerintah untuk menyesuaikannya dengan kebutuhan spesifik mereka tanpa terkunci dalam ekosistem berpemilik. Namun, ini juga berarti bahwa ia tidak memiliki dukungan dan pemeliharaan khusus yang biasanya menyertai solusi AI berpemilik.
Di sisi lain, Grok, sebagai AI berpemilik, menawarkan janji kinerja mutakhir dan keahlian khusus. Namun, ia juga menimbulkan kekhawatiran tentang potensi penguncian vendor, privasi data, dan bias yang berasal dari data pelatihan AI. Hal ini menyoroti kekhawatiran atas potensi bagi setiap badan swasta, terutama yang terkait dengan tokoh terkenal yang terkait erat dengan tujuan pemerintah, untuk memaksakan pengaruh yang tidak semestinya atas proses pengambilan keputusan.
Momok Konflik Kepentingan
Keterlibatan entitas Elon Musk (SpaceX dan xAI) dalam inisiatif AI pemerintah meningkatkan momok konflik kepentingan. Sebagai tokoh terkemuka dengan kepentingan pribadi di berbagai sektor, keterlibatan Musk menimbulkan pertanyaan tentang potensi pengaruh yang mungkin ia berikan atas kebijakan pemerintah dan pemberian kontrak.
Apakah pemerintah akan memberikan perlakuan istimewa kepada perusahaan Musk? Apakah ada perlindungan yang memadai untuk memastikan bahwa keputusan dibuat secara imparsial dan untuk kepentingan terbaik publik? Ini adalah pertanyaan sah yang menuntut pengawasan yang ketat.
Keamanan Data dan Masalah Privasi
Penggunaan AI dalam operasi pemerintah pasti melibatkan pengumpulan, penyimpanan, dan pemrosesan data warga negara yang sensitif. Hal ini menciptakan target yang menggiurkan untuk serangan siber dan pelanggaran data. Pemerintah harus menerapkan langkah-langkah keamanan yang kuat untuk melindungi data ini dari akses tidak sah dan penyalahgunaan. Ini mencakup tidak hanya melindungi data dari ancaman eksternal tetapi juga menetapkan kontrol akses yang ketat dan mekanisme akuntabilitas untuk mencegah penyalahgunaan orang dalam.
Kekhawatiran atas privasi data diperkuat oleh sifat algoritma AI yang buram. Warga negara seringkali tidak tahu bagaimana data mereka diproses atau digunakan untuk membuat keputusan yang memengaruhi kehidupan mereka. Kurangnya transparansi ini mengikis kepercayaan pada pemerintah dan dapat menyebabkan perlawanan terhadap inisiatif yang didorong oleh AI.
Implikasi untuk Masa Depan Pemerintahan
Perdebatan tentang penggunaan AI oleh DOGE bukan hanya tentang contoh tertentu, tetapi tentang masa depan pemerintahan yang lebih luas di era kecerdasan buatan. Bagaimana pemerintah dapat memanfaatkan kekuatan AI untuk meningkatkan pelayanan publik sambil mengurangi risiko? Bagaimana kita dapat memastikan bahwa AI digunakan secara etis, transparan, dan akuntabel?
Jawaban atas pertanyaan-pertanyaan ini memerlukan pendekatan multi-cabang:
Menetapkan Pedoman Etika yang Jelas: Mengkodifikasikan serangkaian prinsip etika yang jelas yang mengatur penggunaan AI dalam pemerintahan. Prinsip-prinsip ini harus memprioritaskan keadilan, transparansi, akuntabilitas, dan penghormatan terhadap privasi.
Mempromosikan Transparansi dan Keterbukaan: Membuat algoritma AI dan proses pengambilan keputusan lebih transparan. Menerbitkan laporan yang menjelaskan bagaimana AI digunakan dalam pemerintahan dan menyediakan jalan bagi warga untuk memberikan umpan balik.
Melindungi Keamanan Data: Menerapkan langkah-langkah keamanan yang kuat untuk melindungi data warga negara yang sensitif dari ancaman siber dan penyalahgunaan orang dalam.
Memastikan Akuntabilitas: Menetapkan jalur akuntabilitas yang jelas untuk keputusan yang didorongAI. Menunjuk pejabat pemerintah yang bertanggung jawab untuk mengawasi penggunaan AI dan mengatasi masalah apa pun yang mungkin timbul.
Menumbuhkan Kepercayaan Publik: Mendidik masyarakat tentang manfaat dan risiko AI dalam pemerintahan. Terlibat dengan warga negara untuk mengatasi kekhawatiran mereka dan membangun kepercayaan pada penggunaan teknologi ini yang bertanggung jawab.
Dengan merangkul pendekatan proaktif dan bijaksana, pemerintah dapat memanfaatkan kekuatan transformatif AI sambil menjaga kepentingan publik. Kontroversi DOGE berfungsi sebagai pengingat berharga tentang pentingnya perencanaan yang matang, dialog terbuka, dan komitmen terhadap prinsip-prinsip etika di era kecerdasan buatan.
Narasi yang Berkembang
Drama seputar penggunaan AI DOGE masih jauh dari selesai. Saat penyelidikan berlanjut dan lebih banyak detail muncul, insiden tersebut pasti akan memiliki dampak untuk masa depan penyebaran AI dalam pemerintah. Mudah-mudahan, situasi ini akan mengarah pada integrasi teknologi yang lebih bijaksana.