Meta'nın Llama 2'si Personel Azaltımında Kullanıldı

Llama 2’nin "Yol Ayrımı" Notu ve Rolü

Wired tarafından yapılan bir incelemeye göre, Elon Musk’ın DOGE’si (Hükümet Verimliliği Departmanı), Personel Yönetimi Ofisi içinde faaliyet göstererek, Meta’nın Llama 2 modelini, federal çalışanların Ocak ayının sonlarında hükümet genelinde gönderilen tartışmalı "Yol Ayrımı" e-postasına verdikleri yanıtları titizlikle analiz etmek ve kategorize etmek için kullandı.

Musk’ın Twitter çalışanlarına gönderdiği önceki bir iletişime çarpıcı biçimde benzeyen "Yol Ayrımı" notu, federal çalışanlara bir seçim sundu: hükümetin revize edilmiş işe dönüş politikasını kabul ederek "sadakat" göstermek veya istifa etmeyi seçmek. O zamanlar, DOGE’nin devlet memuru verilerini işlemek için yapay zekayı kullandığına dair dolaşan söylentiler vardı. O zamandan beri doğrulama ortaya çıktı ve Llama 2’nin çalışan yanıtlarını elemek ve istifa sayısını belirlemek için kullanıldığını doğruladı.

Llama 2’nin Tartışmalı Geçmişi: Askeri Uygulamalar ve Meta’nın Yanıtı

Llama 2’nin geçmişi tartışmasız değildir. Özellikle Kasım ayında, Çinli araştırmacılar Llama 2’yi Çin ordusu tarafından kullanılan bir yapay zeka modeli için temel olarak kullandılar. Bu açıklama tepkilere yol açtı ve Meta’yı başlangıçta araştırmacıların "izinsiz" ve "tek" "eski" modeline güvenmesini kınamaya yöneltti. Ancak Meta daha sonra askeri uygulamaları yasaklayan politikalarını tersine çevirdi ve ABD ulusal güvenlik amaçları için yapay zeka modellerine erişimi genişletti.

Meta, Llama’yı savunma ve ulusal güvenlik uygulamalarına katılanlar da dahil olmak üzere ABD hükümet kurumlarına ve bu çabalara destek veren özel sektör ortaklarına erişilebilir hale getirme taahhüdünü kamuoyuna açıkladı. Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI ve Snowflake gibi firmalarla Llama’nın devlet kurumları genelinde dağıtımını kolaylaştırmak için ortaklıklar duyurdular.

Wired, Meta’nın modellerinin açık kaynaklı doğasının, hükümetin Musk’ın hedeflerini desteklemek için bunları şirket izni olmadan hazır bir şekilde kullanmasına izin verdiğini öne sürüyor. Meta’nın modellerinin hükümet içindeki dağıtımının boyutunu belirlemek zor olmaya devam ediyor. DOGE’nin Llama 2’ye güvenmesinin ardındaki mantık, özellikle Meta’nın Llama 3 ve 4 ile kaydettiği ilerleme göz önüne alındığında belirsizdir.

DOGE’nin Llama 2 Kullanımına İlişkin Sınırlı Bilgi

DOGE’nin Llama 2’nin spesifik uygulamasına ilişkin ayrıntılar kıt olmaya devam ediyor. Wired’in araştırması, DOGE’nin modeli yerel olarak dağıttığını ortaya koydu ve bunun da verilerin İnternet üzerinden iletilmesinin olası olmadığını ve dolayısıyla birçok devlet memuru tarafından dile getirilen gizlilik endişelerini azalttığını gösteriyor.

Kongre Endişeleri ve Soruşturma Çağrıları

Nisan ayında Yönetim ve Bütçe Ofisi direktörü Russell Vought’a hitaben yazılan bir mektupta, 40’tan fazla milletvekili DOGE’nin yapay zeka kullanımına ilişkin kapsamlı bir soruşturma talep etti. Bu tür kullanımların, potansiyel güvenlik risklerinin yanı sıra, yapay zekanın hükümet içinde başarılı ve uygun şekilde benimsenmesini baltalayabileceğinden duydukları endişeyi dile getirdiler.

Mektupta özellikle bir DOGE çalışanı ve Musk’ın xAI Grok-2 modelini bir "AI asistanı" geliştirmek için kullandığı iddia edilen eski bir SpaceX çalışanına atıfta bulunuldu. Ayrıca, sözleşme ve tedarik verilerini analiz etmek için Anthropic ve Meta modellerine dayanan "GSAi" adlı bir sohbet robotunun kullanımından da bahsedildi. Ek olarak, DOGE’nin hükümet genelinde toplu işten çıkarmaları hızlandırmak için tasarlandığı iddia edilen AutoRIF adlı bir yazılımla bağlantısı var.

Milletvekilleri, DOGE’nin "iki milyon kişilik federal işgücünün büyük bir kısmından gelen ve önceki haftanın başarılarını açıklayan e-postaları analiz etmek için AI sistemlerini" kullanmasıyla ilgili "güvenliğe ilişkin büyük endişeleri" vurgulayarak şeffaflık eksikliğini gerekçe gösterdi.

Bu e-postalar, çalışanları haftalık başarıları beş madde halinde özetlemeye yönlendiren "Yol Ayrımı" e-postalarını takip etti. Çalışanlar, DOGE’nin uygun güvenlik izinleri olmadan hassas bilgileri talep edebileceğinden korkarak yanıtların doğasıyla ilgili endişelerini dile getirdiler.

Wired, Llama 2’nin bu e-posta yanıtlarını ayrıştırmak için de kullanılıp kullanılmadığını kesin olarak doğrulayamadı. Ancak federal çalışanlar Wired’a, bunun akıllıca bir karar olması durumunda DOGE’nin "Yol Ayrımı" e-posta deneyinden "kodlarını tekrar kullanacağını" öne sürdü.

Neden Grok Kullanılmadı?

Soru şu: DOGE neden Grok’u kullanmadı?

Olası açıklama, Grok’un o zamanlar tescilli bir model olduğu için Ocak ayında DOGE’nin görevi için kullanılamamasıdır. Wired’a göre, DOGE gelecekte Grok’a olan güvenini artırabilir, özellikle de Microsoft’un bu hafta Azure AI Foundry’de xAI’nın Grok 3 modellerini barındırmaya başlayacağını ve böylece modelin potansiyel uygulamalarını genişleteceğini düşündüğümüzde.

Milletvekillerinin Endişeleri: Çıkar Çatışması ve Veri İhlalleri

Milletvekilleri mektuplarında Vought’u Musk’ın dahil olduğu potansiyel çıkar çatışmalarını soruşturmaya çağırırken, aynı zamanda potansiyel veri ihlallerine karşı da uyarıyorlar. DOGE tarafından kullanılan yapay zekanın henüz hükümet uygulamaları için uygun olmadığını savundular.

"Uygun koruma olmaksızın, hassas verileri bir yapay zeka sistemine beslemek, onu bir sistem operatörünün mülkiyetine verir - topluma ve çalışanların güvenine büyük bir ihanet ve bu verileri çevreleyen siber güvenlik risklerinde bir artış" olduğunu savundular. Ayrıca, "üretken yapay zeka modelleri de sıklıkla hatalar yapar ve önemli önyargılar gösterir - teknoloji, uygun inceleme, şeffaflık, gözetim ve koruma önlemleri olmadan yüksek riskli karar vermede kullanım için henüz hazır değil."

Wired’in raporu, DOGE’nin "Yol Ayrımı" e-postalarından elde edilen hassas verileri harici bir kaynağa iletmediğini öne sürse de, milletvekilleri "kişisel olarak tanımlanabilir veya başka türlü hassas bilgilerin yapay zeka modeli dağıtımcılarıyla paylaşılması riskini" azaltmak için yapay zeka sistemlerinin daha sağlam bir şekilde incelenmesini savunuyorlar.

Yaygın bir endişe, Musk’ın giderek kendi modellerinden yararlanabileceği, potansiyel olarak rakiplerinin erişemediği hükümet verilerinden yararlanabileceği ve aynı zamanda bu verileri ihlal risklerine maruz bırakabileceği yönünde. Milletvekilleri, DOGE’nin yapay zeka sistemlerini durdurmaya zorlanacağını umuyorlar. Ancak Vought, federal kullanım için yapay zeka rehberliğinin, ajansları "yeniliğin önündeki engelleri kaldırmaya ve vergi mükellefi için en iyi değeri sağlamaya" teşvik etmesiyle DOGE’nin yaklaşımıyla daha uyumlu görünüyor.

Milletvekillerinin mektubu, "federal hükümetin verimliliği veya etkinliği artırabilecek yeni, onaylanmış yapay zeka teknolojilerini entegre etmesini desteklerken, federal verilerle etkileşimde bulunurken güvenlik, gizlilik ve uygun kullanım standartlarından ödün veremeyiz" diye vurguluyor. Ayrıca, "yapay zeka sistemlerinin kullanımını, sıklıkla halüsinasyonlar ve önyargıyla bilinen, federal istihdamın veya federal fonlamanın feshi kararlarında, bu modellerin yeterli şeffaflığı ve gözetimi olmaksızın hoş göremeyiz - hatalı teknoloji veya bu tür teknolojinin hatalı kullanımları nedeniyle yetenek ve kritik araştırmaları kaybetme riski çok yüksek."

Hükümet Verimliliği Girişimlerinde Yapay Zeka Kullanımının Etkilerinin Derinlemesine İncelenmesi

Hükümet Verimliliği Dairesi’nin (DOGE) operasyonel verimlilik geliştirme çabalarında yapay zeka kullanımına ilişkin açılan destan, bir tartışma ve inceleme fırtınasını ateşledi. Kurumun Elon Musk’ın tescilli Grok AI’sı yerine Meta’nın Llama 2 modeline (açık kaynaklı bir AI) yaslandığı şeklindeki açıklama, zaten karmaşık olan bir anlatıya bir karmaşıklık katmanı ekledi. Bu durum, yapay zekayı hükümet operasyonlarına entegre etmenin çok yönlü etkilerine derinlemesine bir dalış yapılmasını, doğasında var olan faydaların ve risklerin, etik hususların ve çıkar çatışmaları potansiyelinin incelenmesini gerektiriyor.

Hükümette Yapay Zekanın Cazibesi ve Tuzakları

Yapay zekanın hükümet işlevlerine entegre edilmesi, verimlilik, veri analizi ve karar vermede dönüştürücü ilerlemeler vaat ediyor. Rutin görevleri otomatikleştirmekten büyük veri kümelerini elemeye kadar, yapay zeka eşi görülmemiş düzeyde verimliliğin kilidini açma ve kamu hizmetlerinin sunumunu iyileştirme potansiyeline sahip. Altyapı arızalarını tahmin edebilen, eğitimi kişiselleştirebilen veya afet yardımı çabalarında kaynak tahsisini optimize edebilen algoritmalar hayal edin. Olasılıklar görünüşte sonsuzdur.

Ancak, bu teknolojik devrim tehlikelerinden arınmış değildir. Yapay zeka sistemlerine güvenmek, karmaşık bir etik ikilemler, güvenlik açıkları ve potansiyel önyargılar ağı sunar. Yapay zeka modelleri veriler üzerinde eğitilir ve bu veriler toplumsal önyargıları yansıtıyorsa, yapay zeka bu önyargıları sürdürecek ve hatta büyütecektir. Bu, kolluk kuvvetleri, sosyal yardım ve eğitim gibi alanlarda ayrımcı sonuçlara yol açabilecek hükümet hizmetlerinde adalet ve eşitliğe yönelik önemli bir tehdit oluşturmaktadır.

Ayrıca, yapay zeka kullanımı şeffaflık ve hesap verebilirlik konusunda derin soruları gündeme getirmektedir. Kararlar algoritmalar tarafından alındığında, bu kararların arkasındaki mantığı anlamak zorlaşır ve hükümet kurumlarını eylemlerinden sorumlu tutmak zorlaşır.

Llama 2 - Grok Çıkmazı

Grok yerine Llama 2’nin seçilmesi kendi düşüncelerini beraberinde getirir. Llama 2’nin açık kaynaklı doğası, onu kolayca erişilebilir ve özelleştirilebilir hale getirerek, hükümet kurumlarının onu tescilli bir ekosisteme kilitlenmeden belirli ihtiyaçlarına uyarlamasına olanak tanır. Ancak bu aynı zamanda, tipik olarak tescilli yapay zeka çözümleriyle birlikte gelen özel destek ve bakımın da eksik olduğu anlamına gelir.

Öte yandan, tescilli bir yapay zeka olan Grok, son teknoloji performans ve uzmanlık vaat ediyor. Ancak, herhangi bir özel kuruluşun, özellikle de hükümetin amaçlarıyla yakından bağlantılı, yüksek profilli bir figürle ilişkili olanın, karar verme süreçleri üzerinde yersiz bir nüfuz kullanma potansiyeliyle ilgili endişeleri vurgulamaktadır.

Çıkar Çatışmalarının Hayaleti

Elon Musk’ın kuruluşlarının (SpaceX ve xAI) hükümet yapay zeka girişimlerine katılımı, çıkar çatışmalarının hayaletini yükseltiyor. Çeşitli sektörlerdeki paylı çıkarları olan önde gelen bir figür olarak Musk’ın katılımı, hükümet politikası ve sözleşmelerin verilmesi üzerinde sergileyebileceği potansiyel nüfuzla ilgili soruları gündeme getiriyor.

Hükümet Musk’ın şirketlerine imtiyazlı muamele mi gösteriyor? Kararların tarafsız bir şekilde ve halkın en iyi çıkarları doğrultusunda alınmasını sağlamak için yeterli güvenceler var mı? Bunlar, titiz bir inceleme gerektiren meşru sorulardır.

Veri Güvenliği ve Gizlilik Endişeleri

Yapay zekanın hükümet operasyonlarında kullanılması, kaçınılmaz olarak hassas vatandaş verilerinin toplanmasını, depolanmasını ve işlenmesini içerir. Bu, siber saldırılar ve veri ihlalleri için cazip bir hedef yaratır. Hükümet, bu verileri yetkisiz erişimden ve kötüye kullanımdan korumak için sağlam güvenlik önlemleri uygulamalıdır. Bu, yalnızca verileri dış tehditlerden korumayı değil, aynı zamanda içeriden kötüye kullanımı önlemek için katı erişim kontrolleri ve hesap verebilirlik mekanizmaları oluşturmayı da kapsar.

Veri gizliliği ile ilgili endişeler, yapay zeka algoritmalarının opak doğasıyla büyütülmektedir. Vatandaşlar genellikle verilerinin nasıl işlendiği veya hayatlarını etkileyen kararlar almak için nasıl kullanıldığı hakkında hiçbir fikre sahip değildir. Bu şeffaflık eksikliği, hükümete olan güveni aşındırır ve yapay zeka odaklı girişimlere karşı dirence yol açabilir.

Hükümetin Geleceği İçin Etkileri

DOGE’nin yapay zeka kullanımına ilişkin tartışma, yalnızca belirli bir örnekle ilgili değil, aynı zamanda yapay zeka çağında hükümetin daha geniş geleceğiyle ilgilidir. Hükümet, kamu hizmetlerini iyileştirmek için yapay zekanın gücünden riskleri azaltırken nasıl yararlanabilir? Yapay zekanın etik, şeffaf ve hesap verebilir bir şekilde kullanılmasını nasıl sağlayabiliriz?

Bu soruların cevapları, çok yönlü bir yaklaşım gerektirmektedir:

  • Açık Etik İlkeler Oluşturun: Devlet içinde yapay zeka kullanımını yöneten açık bir dizi etik ilkeyi derleyin. Bu ilkeler adalete, şeffaflığa, hesap verebilirliğe ve gizliliğe saygıya öncelik vermelidir.

  • Şeffaflığı ve Açıklığı Teşvik Edin: Yapay zeka algoritmalarını ve karar verme süreçlerini daha şeffaf hale getirin. Yapay zekanın hükümette nasıl kullanıldığını açıklayan raporlar yayınlayın ve vatandaşların geri bildirim sağlaması için yollar sağlayın.

  • Veri Güvenliğini Koruyun: Hassas vatandaş verilerini siber tehditlerden ve içeriden kötüye kullanımdan korumak için sağlam güvenlik önlemleri uygulayın.

  • Hesap Verebilirliği Sağlayın: Yapay zeka odaklı kararlar için açık hesap verebilirlik hatları oluşturun. Yapay zeka kullanımını denetmekten ve ortaya çıkabilecek sorunları ele almaktan sorumlu devlet yetkililerini atayın.

  • Halkın Güvenini Artırın: Halkı yapay zekanın hükümette yararları ve riskleri hakkında eğitin. Endişelerini gidermek ve bu teknolojinin sorumlu kullanımına olan güveni artırmak için vatandaşlarla etkileşim kurun.

Proaktif ve düşünceli bir yaklaşım benimseyerek, hükümet kamu yararını korurken yapay zekanın dönüştürücü gücünden yararlanabilir. DOGE tartışması, dikkatli planlamanın, açık diyaloğun ve yapay zeka çağında etik ilkelere bağlılığın önemine değerli bir hatırlatma hizmeti görmektedir.

Ortaya Çıkan Anlatı

DOGE’nin yapay zeka kullanımıyla ilgili drama henüz bitmedi. Soruşturmalar devam ederken ve daha fazla ayrıntı ortaya çıktıkça, olay şüphesiz hükümet içindeki yapay zeka dağıtımının geleceği için yankılar uyandıracaktır. Umarım, bu durum teknolojinin daha düşünceli bir şekilde entegre edilmesine yol açacaktır.