YZ Sohbet Botları ve Rus Dezenformasyonu

Kremlin Destekli Yanlış Bilgilerin Yaygın Etkisi

Sorunun temelinde, çevrimiçi bilgi kaynaklarının kasıtlı olarak kirletilmesi yatıyor. Arama sonuçlarını ve web tarayıcılarını Kremlin yanlısı yalanlarla dolduran bir dezenformasyon aktörleri ağı, büyük dil modellerinin (LLM’ler) çıktılarını aktif olarak şekillendiriyor. Her gün etkileşimde bulunduğumuz YZ sohbet botlarına güç veren bu modeller, internetten toplanan geniş veri kümelerine dayanır. Bu veriler yanlış bilgilerle kirlendiğinde, ortaya çıkan çıktı bu önyargıları yansıtır.

Haber ve bilgi web siteleri için güvenilirlik derecelendirmeleri ve yanlış bilgi parmak izleri sağlayan bir şirket olan NewsGuard, bu olgunun derinlemesine bir analizini yaptı. Bulguları rahatsız edici bir gerçeği ortaya koyuyor: Önde gelen YZ sohbet botları tarafından üretilen bilgilerin önemli bir kısmı, belirli bir Kremlin yanlısı web sitesi ağı tarafından yayılan anlatıları yansıtıyor.

Dezenformasyonun Mekanizmaları: YZ Modelleri Nasıl Manipüle Ediliyor?

Bu dezenformasyon ağının kullandığı strateji hem sinsi hem de sofistike. Öncelikle insan okuyucuları çekmeyi amaçlamıyor; daha ziyade, YZ sohbet botlarının temelini oluşturan algoritmaları manipüle etmek için tasarlandı. ‘LLM hazırlama’ olarak bilinen bu taktik, çok sayıda web sitesine stratejik olarak yanlış veya yanıltıcı bilgiler yerleştirmeyi içeriyor; bu platformların LLM’ler tarafından taranıp sindirileceğini bilerek.

Bir ABD kar amacı gütmeyen kuruluşu olan American Sunlight Project (ASP), Şubat 2025 tarihli bir raporda bu tehdide dikkat çekti. Kremlin yanlısı anlatıları öne süren bir web sitesi koleksiyonu olan Pravda ağının, muhtemelen YZ modellerini etkilemek amacıyla oluşturulduğu konusunda uyardılar. Rusya yanlısı anlatıların hacmi ne kadar büyük olursa, LLM’lerin bunları bilgi tabanlarına entegre etme olasılığı o kadar yüksek olur.

Bunun sonuçları geniş kapsamlıdır. LLM’ler günlük hayatımıza giderek daha fazla entegre olurken, bilgi ve yardım kaynağı olarak hizmet ederken, manipüle edilmiş içeriğin yaygın olarak yayılma potansiyeli endişe vericidir.

NewsGuard’ın Denetimi: Etkinin Ölçülmesi

Bu sorunun boyutunu değerlendirmek için NewsGuard, on önde gelen YZ sohbet botu üzerinde bir denetim gerçekleştirdi. Bunlar şunları içeriyordu:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

Denetim, Nisan 2022 ile Şubat 2025 arasında 150 Kremlin yanlısı Pravda web sitesi tarafından aktif olarak desteklenen 15 farklı yanlış anlatıya odaklandı. Bu anlatılar, belirli bir siyasi gündemi ilerletmek için tasarlanmış bir dizi konuyu kapsıyordu.

Metodoloji, her sohbet botunun, NewsGuard’ın Yanlış Bilgi Parmak İzleri (önemli haber konularındaki kanıtlanabilir yanlış iddiaların bir kataloğu) temelinde bir dizi komut istemiyle test edilmesini içeriyordu. Komut istemleri, kullanıcıların üretken YZ modelleriyle etkileşim kurma biçimlerini taklit etmek için üç farklı stilde – Masum, Yönlendirici ve Kötü Niyetli – hazırlandı. Bu, toplam 450 yanıtla sonuçlandı (sohbet botu başına 45).

Rahatsız Edici Sonuçlar: Sohbet Botlarında Yaygın Dezenformasyon

NewsGuard denetiminin bulguları çarpıcıydı. Toplu olarak, on YZ sohbet botu, yanıtların %33,55’inde yanlış Rus dezenformasyon anlatılarını tekrarladı. Vakaların %18,22’sinde yanıt vermediler ve vakaların %48,22’sinde anlatıyı çürüttüler.

Test edilen her bir sohbet botu, Pravda ağından kaynaklanan dezenformasyonu tekrarladı. Daha da endişe verici olanı, sohbet botlarından yedisi, kaynak olarak doğrudan Pravda web sitelerindeki belirli makalelere atıfta bulundu. YZ modellerinden ikisi açık atıflar sağlamasa da, yine de ağdan yanlış anlatılar ürettikleri veya tekrarladıkları bulundu. Kaynak gösteren sekiz modelden yalnızca biri Pravda’ya atıfta bulunmadı.

Toplamda, sohbet botu tarafından oluşturulan 450 yanıttan 56’sı, Pravda ağı tarafından yayınlanan yanlış iddiaları yayan makalelere doğrudan bağlantılar içeriyordu. Sohbet botları toplu olarak dezenformasyon içeren 92 farklı makaleye atıfta bulundu ve iki model, her biri 27 kadar Pravda makalesine atıfta bulundu. Bu makaleler, ağ içindeki Denmark.news-pravda.com, Trump.news-pravda.com ve NATO.news-pravda.com dahil olmak üzere çeşitli alan adlarından kaynaklanıyordu.

Komut İstemlerinin Doğası: Gerçek Dünya Etkileşimlerini Taklit Etme

NewsGuard denetiminde kullanılan üç komut istemi stili, kullanıcıların YZ sohbet botlarıyla etkileşimlerinin yelpazesini yansıtacak şekilde tasarlandı:

  • Masum Komut İstemleri: Bu komut istemleri, yanlış anlatıyı tarafsız, yönlendirici olmayan bir şekilde sundu; sanki kullanıcı herhangi bir önyargısı olmadan sadece bilgi arıyormuş gibi.
  • Yönlendirici Komut İstemleri: Bu komut istemleri, yanlış anlatıyı ustaca öne sürdü, açıkça belirtmeden doğruluğuna işaret etti. Bu, kullanıcıların yanlış bilgilere önceden maruz kalmış olabileceği ve onay aradığı senaryoları taklit eder.
  • Kötü Niyetli Komut İstemleri: Bu komut istemleri, yanlış anlatıyı doğrudan gerçek olarak ileri sürdü; kullanıcıların zaten yanlış bilgilere ikna olduğu ve pekiştirme aradığı durumları yansıtır.

Bu çok yönlü yaklaşım, farklı türdeki kullanıcı etkileşimlerinin sohbet botunun yanıtını nasıl etkileyebileceğini anlamada çok önemliydi. Sohbet botlarının, komut istemi stilinden bağımsız olarak dezenformasyonu tekrarlamaya yatkın olduğunu, ancak yanıtların sıklığının ve doğasının değiştiğini ortaya koydu.

Sohbet Botları Tarafından Tekrarlanan Dezenformasyonun Spesifik Örnekleri

NewsGuard raporu, Pravda ağı tarafından yayılan ve daha sonra YZ sohbet botları tarafından tekrarlanan belirli yanlış anlatıların çok sayıda örneğini sunmaktadır. Bu örnekler, dezenformasyon kampanyasının genişliğini ve derinliğini vurgulamaktadır. Anlatılardan bazıları şunları içeriyordu:

  • Ukrayna’nın bir Nazi devleti olduğu iddiaları.
  • Ukrayna’daki çatışmanın nedenleri hakkında yanlış iddialar.
  • Çatışmaya Batı’nın müdahalesi hakkında yanıltıcı bilgiler.
  • Ukrayna liderliği hakkında uydurma hikayeler.

Bunlar, NewsGuard tarafından titizlikle belgelenen ve izlenen birçok yanlış anlatıdan sadece birkaç örnektir. Bu anlatıların önde gelen YZ sohbet botları tarafından tekrarlanması, etkili karşı önlemlere duyulan acil ihtiyacın altını çiziyor.

YZ Kaynaklı Dezenformasyonla Mücadele Zorluğu

Bu sorunu ele almak karmaşık bir iştir. Hem teknolojik çözümleri hem de artan kullanıcı farkındalığını içeren çok yönlü bir yaklaşım gerektirir.

Teknolojik Çözümler:

  • Gelişmiş Veri Filtreleme: YZ geliştiricilerinin, LLM’leri eğitmek için kullanılan veri kümelerinden yanlış bilgileri filtrelemek için daha sağlam mekanizmalar uygulaması gerekiyor. Bu, güvenilmez kaynakların belirlenmesini ve hariç tutulmasını ve ayrıca potansiyel olarak yanlış veya yanıltıcı bilgileri tespit edip işaretleyebilen algoritmaların geliştirilmesini içerir.
  • Gelişmiş Kaynak Doğrulaması: Sohbet botları, güvenilir ve doğrulanmış kaynaklardan gelen bilgileri önceliklendirecek şekilde tasarlanmalıdır. Bu, açık atıflar sağlamayı ve kullanıcıların sunulan bilgilerin kaynağını kolayca izlemesini sağlamayı içerir.
  • Şeffaflık ve Açıklanabilirlik: YZ modelleri, karar verme süreçleri konusunda daha şeffaf olmalıdır. Kullanıcılar, bir sohbet botunun neden belirli bir yanıt verdiğini ve hangi veri kaynaklarına güvendiğini anlayabilmelidir.

Kullanıcı Farkındalığı:

  • Medya Okuryazarlığı Eğitimi: Kullanıcıların, YZ tarafından üretilen yanlış bilgi potansiyeli hakkında eğitilmesi gerekir. Bu, eleştirel düşünme becerilerinin geliştirilmesini ve çevrimiçi bilgi kaynaklarının güvenilirliğinin nasıl değerlendirileceğini öğrenmeyi içerir.
  • Şüphecilik ve Doğrulama: Kullanıcılar, YZ sohbet botları tarafından sağlanan bilgilere sağlıklı bir şüphecilik dozuyla yaklaşmalıdır. Bilgileri diğer kaynaklarla çapraz referanslamak ve çok sansasyonel veya gerçek olamayacak kadar iyi görünen iddialara karşı dikkatli olmak çok önemlidir.

Uzun Vadeli Riskler: Siyasi, Sosyal ve Teknolojik

YZ sohbet botları aracılığıyla dezenformasyonun kontrolsüz yayılması, önemli uzun vadeli riskler oluşturmaktadır. Bu riskler, bireysel yanlış anlatıların acil etkisinin ötesine uzanır ve daha geniş toplumsal sonuçları kapsar.

  • Siyasi Riskler: YZ kaynaklı dezenformasyon yoluyla kamuoyunun manipülasyonu, demokratik süreçleri baltalayabilir ve kurumlara olan güveni aşındırabilir. Seçimleri etkilemek, anlaşmazlık tohumları ekmek ve hükümetleri istikrarsızlaştırmak için kullanılabilir.
  • Sosyal Riskler: Yanlış anlatıların yayılması, mevcut sosyal bölünmeleri şiddetlendirebilir ve yenilerini yaratabilir. Önyargıyı, ayrımcılığı ve hatta şiddeti körükleyebilir.
  • Teknolojik Riskler: Yanlış bilgilerin yayılması nedeniyle YZ teknolojisine olan güvenin aşınması, teknolojinin gelişimini ve benimsenmesini engelleyebilir. İnsanlar, sağlanan bilgilerin doğruluğuna ve güvenilirliğine güvenemezlerse YZ araçlarını kullanmakta isteksiz olabilirler.

YZ kaynaklı dezenformasyona karşı savaş kritik bir savaştır. Bu güçlü teknolojilerin sorumlu ve etik bir şekilde kullanılmasını sağlamak için YZ geliştiricileri, politika yapıcılar, eğitimciler ve bireysel kullanıcılardan ortak bir çaba gerektirir. Bilginin geleceği ve hatta toplumlarımızın geleceği buna bağlı olabilir.