Elon Musk’ın Savunma Operasyonel Rehberlik Geliştirme (DOGE) girişiminden ayrılması önemli bir olay gibi görünebilir, ancak gerçek etkisi halkın ne kadar uyanık kaldığında yatmaktadır. Gerçek hikaye sadece bütçe kesintileri veya Musk’ın teatral gösterileri değil; ideolojik projelerin ABD hükümetini yönlendiren teknik sistemlere sinsi bir şekilde entegre edilmesidir.
Şubat ayında, Yapay Zeka’nın (AI) bir araçtan ziyade bir gösteri ve gerekçe işlevi gördüğü bir "AI darbesi" kavramının ana hatlarını çizmiştim. Büyük Dil Modelleri (LLM’ler), kimsenin sorumluluk almak istemediği eylemler için uygun bir örtü sağlayan birer gerekçe üreticisi olarak hizmet ediyor. Elon Musk da benzer bir rol oynayarak, radikal değişiklikler uygularken sansasyonel gösterilerle halkın dikkatini dağıttı.
En vahim örneklerden biri, çocuklar da dahil olmak üzere 26 milyon kişinin AIDS’ten ölümünü engelleyen bir programın fonunun kesilmesiydi. Seçilmiş yetkililer bu konuyu büyük ölçüde görmezden gelerek çaresiz gibi davrandılar.
Musk’ın tartışmalı davranışları, federal hükümetin radikal bir şekilde ortadan kaldırılması için uygun bir paravan görevi gördü. Bu durum bir taban hareketi protestosunu tetikleyip Tesla satışlarını olumsuz etkilerken, AI entegrasyonunun daha derin sorununu maskeledi.
Musk ve Trump, DOGE’nin ideolojik odaklı bütçe kesintilerini teşvik ederken, The Atlantic‘teki bir analiz, toplam federal harcamaların aslında arttığını ortaya koydu. Federal işgücünün "hükümet verimliliği" aracı olarak lanse edilen AI dönüşümü büyük ölçüde fark edilmeden devam ediyor. DOGE, federal çalışanlardan gelen e-postaları incelemek ve sınıflandırmak için Llama 2’yi kullandı, ancak Palantir’in devasa bir sivil gözetim altyapısı oluşturmak için yaptığı 113 milyon dolarlık sözleşme endişe verici bir eğilimi vurguluyor. Şirket ayrıca Musk’ın Grok dil modelini platformuna entegre ediyor.
Programlama Hataları
xAI’nin Musk’ın doğrudan kontrolü altındaki Grok’u endişe verici bir örnek sunuyor. Model, Güney Afrika’daki beyaz soykırımının gerçekliğini destekleyen yorumlarla iyi huylu sorgulara yanıt verdi. Modelin gizli sistem isteminin bu şekilde manipüle edilmesi, sosyal mühendisliğe yönelik beceriksiz bir girişimi ortaya koyuyor. Modelin daha sonra Holokost inkarıyla meşgul olduğu bulundu ve xAI bunu bir "programlama hatası"na bağladı.
xAI, "beyaz soykırımı" olayına sistem istemi değişikliğinin iç politikaları ihlal ettiğini belirterek yanıt verdi. Gelecekteki sistem istemi değişikliklerinin incelemeye tabi tutulacağını da eklediler.
Bu olaylar, sistem istemlerinin doğasında var olan riskleri vurgulamaktadır. Bunlar, modele erişimi olan herkes tarafından değiştirilebilir ve yalnızca algılandıktan sonra incelemeye tabidir. Hükümetin karar alma sürecinde kurumsal AI modellerine güvenmek, teknoloji elitlerine muazzam bir siyasi güç verir.
Tipik olarak, teknolojinin hükümete dahil edilmesi dikkatli müzakere ve güvenlik incelemelerini içerir. DOGE’nin uygulanmasında uygun gözetim eksikliği, incelemelerin bağımsızlığı hakkında endişeler yaratıyor. DOGE, ajans verilerini birleşik bir modelde entegre ederek, bireysel ajansların özel güvenlik ihtiyaçlarını dikkate almıyor. DOGE, esasen, gerekliliğini, yeterliliğini veya vatandaşlara faydasını değerlendirmeden dönüştürücü değişiklikler uyguluyor.
Trump yönetimi güvenilir sistemler oluşturmayı gerçekten önemseseydi, eylemleri bunu yansıtırdı. Bunun yerine, DOGE ve Trump yönetimi, kurumsal AI modellerindeki önyargılara ve sistem istemi manipülasyonu örneklerine ilişkin gözetimi engelledi. DOGE’nin AI önyargı araştırmalarına fon sağlamayı bırakmasının ardından, Kongre’nin kabul ettiği yeni bir yasa, önümüzdeki on yıl boyunca AI gözetimiyle ilgili yeni yasaları yasaklayacak.
Haydut Çalışanlar
Musk’ın DOGE’den ayrılması, Musk tarafından seçilen Thiel tarafından kurulan AI şirketi olan Palantir’in seçimiyle sağlamlaşan bir miras bırakıyor. Musk ve Thiel, Paypal’ın kurucu ortaklarıydı ve Thiel, özgürlük ve demokrasinin uyumluluğu konusunda şüphelerini dile getirdi.
Musk’ın DOGE aracılığıyla başlattığı güç yoğunlaşması, daha ihtiyatlı bir şekilde faaliyet göstererek devam edecek. Ayrılışı ona karşı çıkanlar için bir zafer olsa da, DOGE’nin çalışmaları sadakatleri için işe alınan bürokratların yönetiminde devam ediyor.
DOGE’nin gerçek amacı, hükümet israfını ortadan kaldırmak değil, hükümetin hesap verebilirlik önlemleri daha az olan bürokrasiyi otomatikleştirmekti. “Hükümet verimliliği” amacı hala yetersiz tanımlanmıştır. Hükümeti kolaylaştırmak, vatandaşların hizmetler ve bilgilerle etkileşimini basitleştirmelidir. Bunun yerine, işten çıkarmalar sistemik tıkanıklıklar yaratırken gizliliği tehlikeye attı. IRS fon kesintileri, denetimler ve geri ödemeler hakkında endişelere yol açarak potansiyel olarak milyarlarca dolarlık gelir kaybına neden oldu.
DOGE’nin amacı bürokrasiyi optimize etmek değil, insan unsurunu ortadan kaldırmaktı. Vatandaşları kategorize eden ve sistematik istismarı varsayan bir endüstri tarzı verimliliğe öncelik veriyor. Haklar ve ayrıcalıklar daha sonra AI sistemine gömülü önyargılara göre verilir veya reddedilir.
Bu kategorilere yönelik yanıtların tanımını ve otomasyonunu kontrol edenler önemli bir güce sahiptir. Modeller, tolere edilen önyargılar ve optimizasyon hedefleri de dahil olmak üzere, onları eğitenlerin kararlarını yansıtır. Mevcut yöneticiler algoritmik izler kullandığında, bürokrasi insanlıkla son bağlantısını kaybeder.
İdari Hatalar
Bürokrasi ve bürokratik hata yeni bir şey değil. Eşsiz olan şey, hatalar için insan sorumluluğunun kesilmesi ve onlardan kaçınmaya karşı kayıtsızlığın teşvik edilmesidir.
Robert F. Kennedy Jr.’ın uydurma alıntılar içeren sağlık raporunu düşünün. Bu eylem tarihsel olarak bir skandal olurdu, ancak “biçimlendirme hatası” olarak reddedildi. Kennedy, kanıtlarla desteklenmeyen politikaları benimsiyor ve bu raporun AI tarafından oluşturulması, meşru bilimsel araştırmaya kıyasla sunuma öncelik verildiğini gösteriyor. Uydurma kanıtların otomatikleştirilmesi, AI’nın yönetimin bir aracı haline gelmesinin sadece bir yoludur.
DOGE, Trump’a muhalefeti -göçmenler, akademisyenler, azınlık ırkları- cezalandırmaya daha fazla odaklanmış görünüyor ve geniş kapsamlı çabaları kaçınılmaz hatalar üretiyor. Bir "idari hata"ya atfedilen Kilmar Abrego Garcia’nın sınır dışı edilmesi bunun bir örneğidir. Bu, hatanın kasıtlı olarak silahlandırılmasının bir örneğidir.
Nihayetinde DOGE, tartışmalı sonuçların "idari", "programlama" veya "biçimlendirme" hatalarından kaynaklanabildiği bir sistem yaratmayı amaçlıyor. Yönetim, sorumluluğu kabul etmeyi reddederek, suçu hatalı araçlara atıyor. Garcia davasında, yönetim hatayı düzeltmeyi reddediyor. Bu, yalnızca sadakat sözü verenlerin kurtarılacağı güvenilmez bir düzen dünyasını gösteriyor.
Kişiselleştirilmiş kaderlerin AI’nın kaprislerine ve görünmez programlamasına bağlı olduğu kırılgan bir ortam yaratıyoruz. Bu AI programları, verileri birleşik gözetim mimarilerinde birleştiren istikrarsızlaştırıcı araçlar olduğunda ne olur?
Musk’ın DOGE’den ayrılması kamuoyunun dikkatini dağıtabilir, ancak temel sorunlar devam ediyor: algoritmik önyargı, hesap verebilirlik eksikliği ve insan gözetiminin erozyonu. Bu eğilimler, kontrol edilmezse, adil ve eşitlikçi bir toplumun temellerine zarar verme potansiyeline sahiptir.