Rus Ağı, YZ Botlarını Silahlandırıyor

‘LLM Grooming’ Mekanizmaları

Pravda ağı, yaklaşık 150 sahte haber sitesinden oluşan geniş bir ağ aracılığıyla çalışır. Ancak bu siteler insan tüketimi için tasarlanmamıştır. Çoğu sayfa aylık 1.000’den az ziyaretçi alarak minimum trafiğe sahip olduğundan, birincil amaçları AI sistemlerine içerik sağlamaktır. Bu strateji, doğrudan insan okuyucuları hedefleyen geleneksel yöntemlerin ötesine geçerek dezenformasyona yeni bir yaklaşımı temsil ediyor.

Bu taktik, AI eğitim verilerinin kasıtlı olarak manipüle edilmesini tanımlayan bir terim olan “LLM grooming“ olarak bilinir. Ağ, bunu arama motorları (SEO) için yoğun şekilde optimize edilmiş içeriği toplu olarak yayınlayarak başarır. Bu, propagandanın AI modelleri tarafından kolayca alınmasını ve yeniden dağıtılmasını sağlayarak çıktılarını etkiler ve potansiyel olarak kamuoyu algısını şekillendirir.

Moskova’da ikamet eden ve NewsGuard tarafından Rus dezenformasyon kampanyalarını desteklediği iddia edilen bir Amerikalı olan John Mark Dougan, yerel bir konferansta temel ilkeyi şöyle açıkladı: “Bu bilgi ne kadar çeşitli olursa, eğitimi ve gelecekteki AI’yı o kadar çok etkiler.” Bu ifade, AI sistemlerinin üzerine inşa edildiği temel verileri sinsice bozmayı amaçlayan operasyonun sinsi doğasını vurgulamaktadır.

Operasyonun Ölçeği ve Kapsamı

Pravda ağının faaliyetlerinin ölçeği şaşırtıcıdır. Yalnızca 2024’te bu siteler 49 ülkede yaklaşık 3,6 milyon makale yayınladı. Alan adları, NATO.News-Pravda.com, Trump.News-Pravda.com ve Macron.News-Pravda.com gibi örneklerle meşru haber kaynaklarını taklit edecek şekilde stratejik olarak seçilmiştir. Bu taklit, sıradan gözlemcilerin gerçek ve uydurma içeriği ayırt etmesini zorlaştıran bir aldatma katmanı ekler.

İçeriğin kendisi çok çeşitli konuları kapsar, ancak sürekli olarak Rus yanlısı anlatıları teşvik eder ve Batı perspektiflerini baltalar. Ağ, en az Nisan 2022’den beri aktiftir ve NewsGuard’ın analizi, o zamandan Şubat 2025’e kadar Pravda ağı tarafından dağıtılan, doğrulanabilir şekilde yanlış 15 hikayeye odaklandı.

AI Chatbot’larının Savunmasızlığı

NewsGuard’ın araştırması, Pravda ağının dezenformasyonuna karşı savunmasızlıklarını değerlendirmek için birkaç önde gelen AI chatbot’unu test etmeyi içeriyordu. Test edilen sistemler şunları içeriyordu:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity

Sonuçlar endişe vericiydi. AI chatbot’ları, vakaların %33,5’inde Pravda ağından gelen yanlış anlatıları kabul etti. Sistemler, vakaların %48,2’sinde Rus içeriğini dezenformasyon olarak doğru bir şekilde tanımlarken, bazen yanıltıcı kaynaklara atıfta bulunarak onlara hak etmedikleri bir güvenilirlik kazandırdılar. Yanıtların kalan %18,2’si sonuçsuz kaldı ve AI tarafından üretilen içerik çağında gerçeği yalandan ayırmanın zorluklarını daha da vurguladı.

AI Güdümlü Dezenformasyonla Mücadele Zorluğu

Bu tür manipülasyonla mücadele etmek önemli bir zorluk teşkil ediyor. Bilinen dezenformasyon web sitelerini engellemenin geleneksel yöntemleri etkisiz kalıyor. Yetkililer Pravda alan adlarını engellediğinde, yenileri hızla ortaya çıkıyor ve bu da ağın çevikliğini ve direncini gösteriyor.

Ayrıca, dezenformasyon aynı anda birden fazla kanaldan akıyor ve genellikle farklı ağ siteleri birbirlerinin içeriğini kusuyor. Bu, propagandanın kökünden izole edilmesini ve etkisiz hale getirilmesini zorlaştıran karmaşık bir birbirine bağlı kaynaklar ağı oluşturur. Web sitelerini engellemek, daha geniş, koordineli kampanyaya karşı sınırlı koruma sağlar.

Daha Geniş Bağlam: Devlet Destekli AI Manipülasyonu

Pravda ağının faaliyetleri münferit olaylar değildir. AI’yı dezenformasyon amacıyla kullanmak için devlet destekli çabaların daha geniş bir modeliyle uyumludurlar. Yakın tarihli bir OpenAI çalışması, Rusya, Çin, İran ve İsrail’den devlet destekli aktörlerin propaganda kampanyaları için AI sistemlerini kullanmaya çalıştıklarını ortaya koydu. Bu operasyonlar genellikle AI tarafından üretilen içeriği geleneksel, manuel olarak oluşturulmuş materyallerle birleştirerek gerçek ve manipüle edilmiş bilgi arasındaki çizgileri bulanıklaştırır.

AI’nın siyasi manipülasyonda kullanımı devlet aktörleriyle sınırlı değildir. Almanya’nın aşırı sağcı AFD partisi gibi siyasi grupların da propaganda amacıyla AI görüntü modellerini kullandığı gözlemlenmiştir. Donald Trump gibi figürler bile hem tüketici olarak hem de paradoksal olarak gerçek bilgileri AI tarafından üretilen sahte olarak etiketleyerek AI tarafından üretilen içerikle etkileşime girmiştir. Karşı propaganda biçimi olarak tanımlanan bu taktik, tüm çevrimiçi bilgilere güvensizlik ekiyor ve potansiyel olarak bireyleri, gerçek doğruluğa bakılmaksızın yalnızca güvenilir figürlere güvenmeye itiyor.

AI modellerinin tasarımı bile devlet gündemlerinden etkilenebilir. Örneğin, Çin AI modellerinin, Çin hükümetinin siyasi önceliklerini yansıtan sansür ve propaganda ile önceden yüklendiği bulunmuştur.

Derinlemesine İnceleme: Yanlış Anlatıların Spesifik Örnekleri

NewsGuard raporu, Pravda ağı tarafından yayılan her bir yanlış anlatıyı ayrıntılı olarak vermese de, doğrulanabilir şekilde yanlış hikayeler kullanma metodolojisi, aşağıdakileri amaçlayan yanlış bilgileri yayma modelini düşündürmektedir:

  1. Batı Kurumlarını Zayıflatmak: Hikayeler, NATO’yu saldırgan veya istikrarsız olarak yanlış bir şekilde tasvir edebilir veya Batılı liderleri içeren skandallar uydurabilir.
  2. Rus Yanlısı Duyguyu Teşvik Etmek: Anlatılar Rusya’nın askeri başarılarını abartabilir, insan hakları ihlallerini önemsizleştirebilir veya küresel sahnede eylemlerini haklı gösterebilir.
  3. Uyumsuzluk ve Bölünme Tohumları Ekmek: İçerik, Batı ülkelerindeki mevcut sosyal ve politik gerilimleri şiddetlendirmeyi, ayrılıkçı konuları güçlendirmeyi ve kutuplaşmayı teşvik etmeyi amaçlayabilir.
  4. Belirli Olaylar Etrafındaki Gerçekliği Çarpıtmak: Seçimler, çatışmalar veya uluslararası olaylar gibi olaylar hakkında yanlış bilgiler yayılarak anlatı Rus yanlısı bir yoruma kaydırılabilir.

Tutarlı olan nokta, belirli bir jeopolitik gündeme hizmet etmek için bilginin manipüle edilmesidir. AI kullanımı, bu anlatıların erişimini ve potansiyel etkisini artırarak tespit edilmelerini ve karşı koyulmalarını zorlaştırır.

Uzun Vadeli Etkiler

Bu AI güdümlü dezenformasyonun etkileri সুদূরপ্রসারী। Bilgi kaynaklarına olan güvenin aşınması, kamuoyunun manipülasyonu potansiyeli ve demokratik süreçlerin istikrarsızlaşması ciddi endişelerdir. AI sistemleri günlük hayatımıza giderek daha fazla entegre oldukça, gerçeği yalandan ayırma yeteneği her zamankinden daha kritik hale geliyor.

‘LLM grooming’ tekniği, bilgi savaşı alanında önemli bir tırmanışı temsil ediyor. AI sistemlerinin manipülasyona karşı savunmasızlığını ve bu ortaya çıkan tehdide karşı sağlam savunmalara duyulan ihtiyacı vurgulamaktadır. Zorluk sadece dezenformasyon kaynaklarını belirlemek ve engellemek değil, aynı zamanda AI modellerini bu ince ama yaygın etki biçimlerine karşı aşılamak için stratejiler geliştirmektir. Bu, aşağıdakileri içeren çok yönlü bir yaklaşım gerektirir:

  • Gelişmiş AI Okuryazarlığı: Halkı AI tarafından üretilen dezenformasyon potansiyeli hakkında eğitmek ve eleştirel düşünme becerilerini teşvik etmek.
  • Geliştirilmiş AI Algılama Araçları: AI tarafından üretilen içeriği ve dezenformasyonu belirlemek ve işaretlemek için daha gelişmiş yöntemler geliştirmek.
  • Güçlendirilmiş AI Eğitim Verileri: AI eğitim verilerinin bütünlüğünü ve çeşitliliğini sağlamak, manipülasyona karşı daha dirençli hale getirmek için önlemler uygulamak.
  • Uluslararası İşbirliği: Bu küresel zorluğun üstesinden gelmek için hükümetler, teknoloji şirketleri ve araştırmacılar arasında işbirliğini teşvik etmek.
  • Artan Şeffaflık: AI geliştiricileri, kullanılan eğitim verileri ve modellerinde var olabilecek potansiyel önyargılar konusunda şeffaf olmalıdır.
  • Algoritmik Sorumluluk: AI geliştiricilerini, özellikle çıktıları dezenformasyon yaymak için kullanıldığında, sistemlerinin çıktılarından sorumlu tutmak.

AI güdümlü dezenformasyona karşı savaş karmaşık ve gelişen bir savaştır. Bilginin bütünlüğünü korumak ve bilinçli karar almanın temellerini korumak için bireylerin, kuruluşların ve hükümetlerin ortak çabasını gerektirir. Pravda ağının faaliyetleri, ilgili risklerin ve bu büyüyen tehdidin üstesinden gelmenin aciliyetinin çarpıcı bir hatırlatıcısı olarak hizmet ediyor. Bilgilendirilmiş kamusal söylemin geleceği ve potansiyel olarak demokratik toplumların istikrarı, bu yeni manipülasyon biçimine başarılı bir şekilde karşı koyma yeteneğimize bağlı olabilir. Zorluk sadece teknolojik değil; aynı zamanda dijital çağda gerçeğe, doğruluğa ve eleştirel düşünceye yenilenmiş bir bağlılık gerektiren toplumsal bir zorluktur.