Satu pendedahan yang tidak dijangka menunjukkan bahawa inisiatif Jabatan Kecekapan Kerajaan yang dipantau dengan teliti untuk memperkemaskan tenaga kerja persekutuan menggunakan model AI Meta yang lebih lama, khususnya Llama 2, dan bukannya ciptaan AI Elon Musk sendiri, Grok.
Memo "Fork in the Road" dan Peranan Llama 2
Menurut kajian yang dijalankan oleh Wired, ahli gabungan DOGE (Jabatan Kecekapan Kerajaan) Elon Musk, yang beroperasi dalam Pejabat Pengurusan Personel, melibatkan model Llama 2 Meta untuk menganalisis dan mengkategorikan dengan teliti respons daripada pekerja persekutuan kepada e-mel "Fork in the Road" yang kontroversi yang dihantar ke seluruh kerajaan pada akhir Januari.
Memo "Fork in the Road", yang sangat serupa dengan komunikasi sebelumnya yang telah dihantar oleh Musk kepada pekerja Twitter, memberikan pekerja persekutuan pilihan: menunjukkan "kesetiaan" dengan menerima dasar kembali ke pejabat kerajaan yang disemak, atau memilih untuk meletak jawatan. Pada masa itu, khabar angin yang beredar mencadangkan bahawa DOGE memanfaatkan AI untuk memproses data pekerja kerajaan. Pengesahan telah muncul sejak itu, menyokong penggunaan Llama 2 untuk menapis respons pekerja dan mengkuantifikasi bilangan peletakan jawatan.
Sejarah Kontroversi Llama 2: Aplikasi Tentera dan Respons Meta
Sejarah Llama 2 tidak terlepas daripada kontroversi. Terutamanya, pada bulan November, penyelidik Cina memanfaatkan Llama 2 sebagai asas untuk model AI yang digunakan oleh tentera Cina. Pendedahan ini mencetuskan tindak balas, mendorong Meta untuk pada mulanya mengecam pergantungan "tidak dibenarkan" penyelidik pada model "tunggal" dan "ketinggalan zaman". Walau bagaimanapun, Meta kemudiannya membalikkan dasar yang melarang aplikasi ketenteraan dan meluaskan akses kepada model AInya untuk tujuan keselamatan negara AS.
Meta secara terbuka mengisytiharkan komitmennya untuk menjadikan Llama boleh diakses oleh agensi kerajaan AS, termasuk mereka yang terlibat dalam aplikasi pertahanan dan keselamatan negara, serta rakan kongsi sektor swasta yang menyokong usaha mereka. Mereka mengumumkan perkongsian dengan firma seperti Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI dan Snowflake untuk memudahkan penggunaan Llama di seluruh agensi kerajaan.
Wired mencadangkan bahawa sifat sumber terbuka model Meta membolehkan kerajaan dengan mudah menggunakannya untuk menyokong objektif Musk, mungkin tanpa persetujuan syarikat secara jelas. Mengenal pasti sejauh mana penggunaan model Meta dalam kerajaan kekal sebagai satu cabaran. Rasional di sebalik pergantungan DOGE pada Llama 2, terutamanya memandangkan kemajuan Meta dengan Llama 3 dan 4, tidak jelas.
Pengetahuan Terhad tentang Penggunaan DOGE terhadap Llama 2
Butiran mengenai aplikasi khusus DOGE bagi Llama 2 kekal terhad. Siasatan Wired mendedahkan bahawa DOGE menggunakan model itu secara tempatan, menunjukkan bahawa data tidak mungkin dihantar melalui Internet, dengan itu mengurangkan kebimbangan privasi yang disuarakan oleh ramai pekerja kerajaan.
Kebimbangan Kongres dan Seruan untuk Siasatan
Dalam surat April yang ditujukan kepada Russell Vought, pengarah Pejabat Pengurusan dan Belanjawan,lebih 40 penggubal undang-undang menuntut siasatan menyeluruh terhadap penggunaan AI oleh DOGE. Mereka menyuarakan kebimbangan bahawa penggunaan sedemikian, di samping potensi risiko keselamatan, boleh menjejaskan penerimaan AI yang berjaya dan sesuai dalam kerajaan.
Surat itu secara khusus merujuk kepada seorang kakitangan DOGE dan bekas pekerja SpaceX yang didakwa menggunakan model xAI Grok-2 Musk untuk membangunkan "pembantu AI". Ia juga menyebut penggunaan chatbot bernama "GSAi", berdasarkan model Anthropic dan Meta, untuk menganalisis data kontrak dan perolehan. Selain itu, DOGE telah dikaitkan dengan perisian yang dipanggil AutoRIF, yang dikatakan direka untuk mempercepatkan pemecatan beramai-ramai di seluruh kerajaan.
Penggubal undang-undang menekankan "kebimbangan utama mengenai keselamatan" sekitar penggunaan "sistem AI untuk menganalisis e-mel daripada sebahagian besar daripada dua juta tenaga kerja persekutuan yang menerangkan pencapaian minggu mereka sebelumnya," dengan memetik kekurangan ketelusan oleh DOGE.
E-mel ini menyusuli e-mel "Fork in the Road", mendorong pekerja untuk menggariskan pencapaian mingguan dalam lima mata. Pekerja menyatakan kebimbangan mengenai sifat tindak balas, kerana bimbang DOGE mungkin meminta maklumat sensitif tanpa kelulusan keselamatan yang sewajarnya.
Wired tidak dapat mengesahkan secara pasti sama ada Llama 2 juga digunakan untuk menghuraikan respons e-mel ini. Walau bagaimanapun, pekerja persekutuan mencadangkan kepada Wired bahawa DOGE mungkin akan "menggunakan semula kod mereka" daripada eksperimen e-mel "Fork in the Road", jika ia adalah keputusan yang bijak.
Mengapa Grok Tidak Digunakan
Persoalan timbul: mengapa DOGE tidak menggunakan Grok?
Penjelasan yang mungkin ialah Grok, sebagai model proprietari pada masa itu, tidak tersedia untuk tugas DOGE pada bulan Januari. Menurut Wired, DOGE mungkin meningkatkan pergantungannya pada Grok pada masa hadapan, terutamanya memandangkan pengumuman Microsoft bahawa ia akan mula mengehoskan model Grok 3 xAI dalam Azure AI Foundrynya minggu ini, dengan itu mengembangkan potensi aplikasi model tersebut.
Kebimbangan Penggubal Undang-undang: Konflik Kepentingan dan Pencabulan Data
Dalam surat mereka, penggubal undang-undang menggesa Vought untuk menyiasat potensi konflik kepentingan yang melibatkan Musk, sambil juga memberi amaran terhadap potensi pencabulan data. Mereka menegaskan bahawa AI, seperti yang digunakan oleh DOGE, masih belum sesuai untuk aplikasi kerajaan.
Mereka berhujah bahawa "tanpa perlindungan yang sewajarnya, memasukkan data sensitif ke dalam sistem AI meletakkannya dalam milikan pengendali sistem—pencabulan besar-besaran terhadap kepercayaan awam dan pekerja serta peningkatan risiko keselamatan siber yang mengelilingi data itu." Mereka selanjutnya menyatakan bahawa "model AI generatif juga sering membuat kesilapan dan menunjukkan berat sebelah yang ketara—teknologi itu sememangnya tidak sedia untuk digunakan dalam membuat keputusan berisiko tinggi tanpa pemeriksaan, ketelusan, pengawasan dan rel pengawal yang sewajarnya."
Walaupun laporan Wired mencadangkan bahawa DOGE tidak memindahkan data sensitif daripada e-mel "Fork in the Road" kepada sumber luaran, penggubal undang-undang menyokong pemeriksaan sistem AI yang lebih teguh untuk mengurangkan "risiko berkongsi maklumat peribadi atau sensitif dengan pengedar model AI."
Kebimbangan yang ketara ialah Musk boleh meningkatkan lagi penggunaan modelnya sendiri, berpotensi mendapat manfaat daripada data kerajaan yang tidak boleh diakses oleh pesaingnya, sambil serentak mendedahkan data itu kepada risiko pelanggaran. Penggubal undang-undang berharap DOGE akan dipaksa untuk menghentikan sistem AInya. Walau bagaimanapun, Vought nampaknya lebih sejajar dengan pendekatan DOGE, seperti yang dibuktikan oleh panduan AInya untuk kegunaan persekutuan, yang menggalakkan agensi untuk "membuang halangan kepada inovasi dan memberikan nilai terbaik untuk pembayar cukai."
Surat penggubal undang-undang itu menekankan bahawa "walaupun kami menyokong kerajaan persekutuan menyepadukan teknologi AI baharu yang diluluskan yang boleh meningkatkan kecekapan atau keberkesanan, kami tidak boleh mengorbankan keselamatan, privasi dan piawaian penggunaan yang sesuai semasa berinteraksi dengan data persekutuan." Mereka juga menyatakan bahawa "kami juga tidak boleh memaafkan penggunaan sistem AI, yang sering dikenali untuk halusinasi dan berat sebelah, dalam keputusan mengenai penamatan pekerjaan persekutuan atau pembiayaan persekutuan tanpa ketelusan dan pengawasan yang mencukupi terhadap model tersebut—risiko kehilangan bakat dan penyelidikan kritikal kerana teknologi yang cacat atau penggunaan teknologi sedemikian yang cacat terlalu tinggi."
Penerokaan Mendalam tentang Implikasi Penggunaan AI dalam Inisiatif Kecekapan Kerajaan
Kisah yang terbongkar mengenai penggunaan kecerdasan buatan Jabatan Kecekapan Kerajaan (DOGE) dalam usaha menyelaraskan operasinya telah mencetuskan ribut perdebatan dan penelitian. Pendedahan bahawa agensi itu bergantung pada model Llama 2 Meta—AI sumber terbuka—dan bukannya AI Grok proprietari Elon Musk telah menambahkan lapisan kerumitan kepada naratif yang sudah rumit. Keadaan ini memerlukan penerokaan mendalam tentang implikasi pelbagai aspek penyepaduan AI ke dalam operasi kerajaan, meneliti manfaat dan risiko yang wujud, pertimbangan etika dan potensi konflik kepentingan.
Tarikan dan Perangkap AI dalam Kerajaan
Penyepaduan AI ke dalam fungsi kerajaan menjanjikan kemajuan transformatif dalam kecekapan, analisis data dan membuat keputusan. Daripada mengautomasikan tugas rutin kepada menapis set data yang besar, AI berpotensi untuk membuka kunci tahap produktiviti yang belum pernah terjadi sebelumnya dan meningkatkan penyampaian perkhidmatan awam. Bayangkan algoritma yang boleh meramalkan kegagalan infrastruktur, memperibadikan pendidikan atau mengoptimumkan peruntukan sumber dalam usaha bantuan bencana. Kemungkinannya nampaknya tidak berkesudahan.
Walau bagaimanapun, revolusi teknologi ini tidak terlepas daripada bahayanya. Pergantungan pada sistem AI memperkenalkan jaringan dilema etika, kerentanan keselamatan dan potensi berat sebelah yang kompleks. Model AI dilatih pada data, dan jika data itu mencerminkan prasangka masyarakat, AI akan mengekalkan dan juga menguatkan berat sebelah tersebut. Ini menimbulkan ancaman ketara kepada keadilan dan kesaksamaan dalam perkhidmatan kerajaan, yang berpotensi membawa kepada hasil diskriminasi dalam bidang seperti penguatkuasaan undang-undang, kebajikan sosial dan pendidikan.
Tambahan pula, penggunaan AI menimbulkan persoalan yang mendalam tentang ketelusan dan akauntabiliti. Apabila keputusan dibuat oleh algoritma, adalah menjadi satu cabaran untuk memahami rasional di sebalik keputusan tersebut, menjadikannya sukar untuk mempertanggungjawabkan agensi kerajaan atas tindakan mereka.
Teka-teki Llama 2 vs Grok
Pilihan Llama 2 berbanding Grok membawa set pertimbangan tersendiri. Sifat sumber terbuka Llama 2 menjadikannya mudah diakses dan disesuaikan, membolehkan agensi kerajaan menyesuaikannya dengan keperluan khusus mereka tanpa dikunci ke dalam ekosistem proprietari. Walau bagaimanapun, ini juga bermakna ia tidak mempunyai sokongan dan penyelenggaraan khusus yang biasanya disertakan dengan penyelesaian AI proprietari.
Sebaliknya, Grok, sebagai AI proprietari, menawarkan janji prestasi canggih dan kepakaran khusus. Walau bagaimanapun, ia juga menimbulkan kebimbangan tentang potensi penguncian vendor, privasi data dan berat sebelah yang berpunca daripada data latihan AI. Ia menyerlahkan kebimbangan mengenai potensi mana-mana entiti swasta, terutamanya yang dikaitkan dengan tokoh berprofil tinggi yang berkait rapat dengan matlamat kerajaan, untuk menggunakan pengaruh yang tidak wajar ke atas proses membuat keputusan.
Hantu Konflik Kepentingan
Penglibatan entiti Elon Musk (SpaceX dan xAI) dalam inisiatif AI kerajaan menimbulkan hantu konflik kepentingan. Sebagai tokoh terkemuka yang mempunyai kepentingan yang terjamin dalam pelbagai sektor, penglibatan Musk menimbulkan persoalan tentang potensi pengaruh yang mungkin diamalkannya ke atas dasar kerajaan dan penganugerahan kontrak.
Adakah kerajaan akan memberikan layanan keutamaan kepada syarikat Musk? Adakah terdapat perlindungan yang mencukupi untuk memastikan keputusan dibuat secara tidak berat sebelah dan demi kepentingan terbaik orang ramai? Ini adalah soalan yang sah yang memerlukan penelitian yang ketat.
Kebimbangan Keselamatan Data dan Privasi
Penggunaan AI dalam operasi kerajaan pasti melibatkan pengumpulan, penyimpanan dan pemprosesan data warganegara yang sensitif. Ini mewujudkan sasaran yang menggoda untuk serangan siber dan pencabulan data. Kerajaan mesti melaksanakan langkah keselamatan yang teguh untuk melindungi data ini daripada akses dan penyalahgunaan yang tidak dibenarkan. Ini merangkumi bukan sahaja melindungi data daripada ancaman luaran tetapi juga mewujudkan kawalan akses yang ketat dan mekanisme akauntabiliti untuk mencegah penyalahgunaan orang dalam.
Kebimbangan mengenai privasi data diperkuatkan oleh sifat algoritma AI yang tidak jelas. Warganegara selalunya tidak tahu bagaimana data mereka diproses atau digunakan untuk membuat keputusan yang mempengaruhi kehidupan mereka. Kekurangan ketelusan ini menghakis kepercayaan dalam kerajaan dan boleh membawa kepada penentangan terhadap inisiatif yang dipacu AI.
Implikasi untuk Masa Depan Kerajaan
Perdebatan mengenai penggunaan AI DOGE bukan hanya mengenai kejadian tertentu, tetapi mengenai masa depan kerajaan yang lebih luas dalam era kecerdasan buatan. Bagaimanakah kerajaan boleh memanfaatkan kuasa AI untuk meningkatkan perkhidmatan awam sambil mengurangkan risiko? Bagaimanakah kita boleh memastikan bahawa AI digunakan secara beretika, telus dan bertanggungjawab?
Jawapan kepada soalan-soalan ini memerlukan pendekatan pelbagai serampang:
Wujudkan Garis Panduan Etika yang Jelas: Mengkodifikasikan set prinsip etika yang jelas yang mengawal penggunaan AI dalam kerajaan. Prinsip-prinsip ini harus mengutamakan keadilan, ketelusan, akauntabiliti dan penghormatan terhadap privasi.
Menggalakkan Ketelusan dan Keterbukaan: Jadikan algoritma AI dan proses membuat keputusan lebih telus. Terbitkan laporan yang menerangkan bagaimana AI digunakan dalam kerajaan dan menyediakan jalan untuk warganegara memberikan maklum balas.
Melindungi Keselamatan Data: Laksanakan langkah keselamatan yang teguh untuk melindungi data warganegara yang sensitif daripada ancaman siber dan penyalahgunaan orang dalam.
Memastikan Akauntabiliti: Wujudkan barisan akauntabiliti yang jelas untuk keputusan yang didorong oleh AI. Tentukan pegawai kerajaan yang bertanggungjawab untuk menyelia penggunaan AI dan menangani sebarang masalah yang mungkin timbul.
Memupuk Kepercayaan Awam: Mendidik orang ramai tentang faedah dan risiko AI dalam kerajaan. Berinteraksi dengan warganegara untuk menangani kebimbangan mereka dan membina kepercayaan dalam penggunaan teknologi ini yang bertanggungjawab.
Dengan menerima pendekatan yang proaktif dan bertimbang rasa, kerajaan boleh memanfaatkan kuasa transformatif AI sambil melindungi kepentingan awam. Kontroversi DOGE berfungsi sebagai peringatan berharga tentang kepentingan perancangan yang teliti, dialog terbuka dan komitmen kepada prinsip etika dalam era kecerdasan buatan.
Naratif yang Terbongkar
Drama mengenai penggunaan AI DOGE masih jauh daripada selesai. Memandangkan siasatan diteruskan dan lebih banyak butiran muncul, insiden itu pasti akan mempunyai kesan untuk masa depan penggunaan AI dalam kerajaan. Diharapkan, keadaan ini akan membawa kepada penyepaduan teknologi yang lebih bernas.