Bot Sembang AI & Propaganda Rusia

Pengaruh Meluas Kepalsuan yang Disokong Kremlin

Inti masalahnya terletak pada pencemaran sumber maklumat dalam talian yang disengajakan. Dengan membanjiri hasil carian dan perangkak web dengan kepalsuan pro-Kremlin, rangkaian pelakon disinformasi secara aktif membentuk output model bahasa besar (LLM). Model-model ini, yang menggerakkan chatbot AI yang kita berinteraksi setiap hari, bergantung pada set data besar yang dikikis dari internet. Apabila data ini dicemari dengan maklumat yang salah, output yang terhasil mencerminkan kecenderungan ini.

NewsGuard, sebuah syarikat yang menyediakan penilaian kredibiliti dan cap jari maklumat salah untuk laman web berita dan maklumat, menjalankan analisis mendalam mengenai fenomena ini. Penemuan mereka mendedahkan realiti yang membimbangkan: sebahagian besar maklumat yang dihasilkan oleh chatbot AI terkemuka menggemakan naratif yang disebarkan oleh rangkaian khusus laman web pro-Kremlin.

Mekanik Disinformasi: Bagaimana Model AI Dimanipulasi

Strategi yang digunakan oleh rangkaian disinformasi ini adalah licik dan canggih. Ia tidak disasarkan terutamanya untuk menarik pembaca manusia; sebaliknya, ia direka untuk memanipulasi algoritma yang menyokong chatbot AI. Taktik ini, yang dikenali sebagai ‘LLM grooming,’ melibatkan penanaman maklumat palsu atau mengelirukan secara strategik di banyak laman web, dengan mengetahui bahawa platform ini akan dikikis dan dicerna oleh LLM.

American Sunlight Project (ASP), sebuah organisasi bukan untung A.S., menekankan ancaman ini dalam laporan Februari 2025. Mereka memberi amaran bahawa rangkaian Pravda, koleksi laman web yang mendorong naratif pro-Rusia, mungkin dicipta dengan tujuan yang jelas untuk mempengaruhi model AI. Semakin besar jumlah naratif pro-Rusia, semakin tinggi kebarangkalian LLM mengintegrasikannya ke dalam pangkalan pengetahuan mereka.

Implikasi ini adalah meluas. Apabila LLM menjadi semakin terintegrasi ke dalam kehidupan seharian kita, berfungsi sebagai sumber maklumat dan bantuan, potensi penyebaran kandungan yang dimanipulasi secara meluas adalah membimbangkan.

Audit NewsGuard: Mengukur Kesan

Untuk menilai sejauh mana masalah ini, NewsGuard menjalankan audit terhadap sepuluh chatbot AI terkemuka. Ini termasuk:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

Audit ini memfokuskan pada 15 naratif palsu berbeza yang telah dipromosikan secara aktif oleh 150 laman web Pravda pro-Kremlin antara April 2022 dan Februari 2025. Naratif ini merangkumi pelbagai topik, semuanya direka untuk memajukan agenda politik tertentu.

Metodologi ini melibatkan pengujian setiap chatbot dengan satu siri gesaan berdasarkan NewsGuard’s Misinformation Fingerprints, katalog tuntutan palsu yang boleh dibuktikan mengenai topik berita penting. Gesaan itu dibuat dalam tiga gaya berbeza – Innocent, Leading, dan Malign – untuk meniru pelbagai cara pengguna berinteraksi dengan model AI generatif. Ini menghasilkan sejumlah 450 respons (45 setiap chatbot).

Keputusan yang Membimbangkan: Disinformasi Berleluasa di Seluruh Chatbot

Penemuan audit NewsGuard adalah ketara. Secara kolektif, sepuluh chatbot AI mengulangi naratif disinformasi Rusia yang palsu dalam 33.55% daripada respons. Mereka memberikan respons bukan jawapan dalam 18.22% kes dan menyangkal naratif dalam 48.22% kes.

Setiap chatbot yang diuji mengulangi disinformasi yang berasal dari rangkaian Pravda. Lebih membimbangkan lagi, tujuh daripada chatbot secara langsung memetik artikel khusus dari laman web Pravda sebagai sumber mereka. Walaupun dua daripada model AI tidak memberikan petikan yang jelas, mereka masih didapati menghasilkan atau mengulangi naratif palsu dari rangkaian. Hanya satu daripada lapan model yang memetik sumber tidak memetik Pravda.

Secara keseluruhan, 56 daripada 450 respons yang dihasilkan chatbot termasuk pautan terus ke artikel yang menyebarkan tuntutan palsu yang diterbitkan oleh rangkaian Pravda. Chatbot secara kolektif memetik 92 artikel berbeza yang mengandungi disinformasi, dengan dua model merujuk sebanyak 27 artikel Pravda setiap satu. Artikel-artikel ini berasal dari pelbagai domain dalam rangkaian, termasuk Denmark.news-pravda.com, Trump.news-pravda.com, dan NATO.news-pravda.com.

Sifat Gesaan: Meniru Interaksi Dunia Sebenar

Tiga gaya gesaan yang digunakan dalam audit NewsGuard direka untuk mencerminkan spektrum interaksi pengguna dengan chatbot AI:

  • Gesaan Innocent: Gesaan ini membentangkan naratif palsu dengan cara yang neutral, tidak memimpin, seolah-olah pengguna hanya mencari maklumat tanpa sebarang tanggapan awal.
  • Gesaan Leading: Gesaan ini secara halus mencadangkan naratif palsu, membayangkan kesahihannya tanpa menyatakannya secara eksplisit. Ini meniru senario di mana pengguna mungkin mempunyai pendedahan awal kepada maklumat yang salah dan sedang mencari pengesahan.
  • Gesaan Malign: Gesaan ini secara langsung menegaskan naratif palsu sebagai fakta, mencerminkan situasi di mana pengguna sudah yakin dengan maklumat yang salah dan sedang mencari pengukuhan.

Pendekatan pelbagai aspek ini adalah penting dalam memahami bagaimana pelbagai jenis penglibatan pengguna boleh mempengaruhi respons chatbot. Ia mendedahkan bahawa chatbot terdedah kepada pengulangan disinformasi tanpa mengira gaya gesaan, walaupun kekerapan dan sifat respons berbeza-beza.

Contoh Khusus Disinformasi yang Digemakan oleh Chatbot

Laporan NewsGuard menyediakan banyak contoh naratif palsu khusus yang disebarkan oleh rangkaian Pravda dan kemudiannya diulang oleh chatbot AI. Contoh-contoh ini menyerlahkan keluasan dan kedalaman kempen disinformasi. Beberapa naratif termasuk:

  • Dakwaan bahawa Ukraine adalah negara Nazi.
  • Dakwaan palsu tentang punca konflik di Ukraine.
  • Maklumat mengelirukan tentang penglibatan Barat dalam konflik.
  • Cerita rekaan tentang kepimpinan Ukraine.

Ini hanyalah beberapa contoh daripada banyak naratif palsu yang telah didokumentasikan dan dijejaki dengan teliti oleh NewsGuard. Fakta bahawa naratif ini digemakan oleh chatbot AI terkemuka menekankan keperluan mendesak untuk langkah balas yang berkesan.

Cabaran Memerangi Disinformasi Didorong AI

Menangani masalah ini adalah usaha yang kompleks. Ia memerlukan pendekatan pelbagai serampang yang melibatkan kedua-dua penyelesaian teknologi dan peningkatan kesedaran pengguna.

Penyelesaian Teknologi:

  • Penapisan Data yang Dipertingkatkan: Pembangun AI perlu melaksanakan mekanisme yang lebih teguh untuk menapis maklumat salah daripada set data yang digunakan untuk melatih LLM. Ini melibatkan pengenalpastian dan pengecualian sumber yang tidak boleh dipercayai, serta membangunkan algoritma yang boleh mengesan dan menandakan maklumat yang berpotensi palsu atau mengelirukan.
  • Pengesahan Sumber yang Dipertingkatkan: Chatbot harus direka untuk mengutamakan maklumat daripada sumber yang boleh dipercayai dan disahkan. Ini termasuk menyediakan petikan yang jelas dan membolehkan pengguna mengesan asal usul maklumat yang dibentangkan dengan mudah.
  • Ketelusan dan Kebolehjelasan: Model AI harus lebih telus tentang proses membuat keputusan mereka. Pengguna sepatutnya dapat memahami mengapa chatbot memberikan respons tertentu dan sumber data yang digunakannya.

Kesedaran Pengguna:

  • Pendidikan Literasi Media: Pengguna perlu dididik tentang potensi maklumat salah yang dijana AI. Ini termasuk membangunkan kemahiran berfikir kritis dan belajar cara menilai kredibiliti sumber maklumat dalam talian.
  • Keraguan dan Pengesahan: Pengguna harus mendekati maklumat yang disediakan oleh chatbot AI dengan keraguan yang sihat. Adalah penting untuk merujuk silang maklumat dengan sumber lain dan berhati-hati dengan dakwaan yang kelihatan terlalu sensasi atau terlalu bagus untuk menjadi kenyataan.

Risiko Jangka Panjang: Politik, Sosial, dan Teknologi

Penyebaran disinformasi yang tidak terkawal melalui chatbot AI menimbulkan risiko jangka panjang yang ketara. Risiko ini melangkaui kesan segera naratif palsu individu dan merangkumi akibat masyarakat yang lebih luas.

  • Risiko Politik: Manipulasi pendapat umum melalui disinformasi didorong AI boleh menjejaskan proses demokrasi dan menghakis kepercayaan terhadap institusi. Ia boleh digunakan untuk mempengaruhi pilihan raya, menyemai perselisihan, dan menjejaskan kestabilan kerajaan.
  • Risiko Sosial: Penyebaran naratif palsu boleh memburukkan lagi perpecahan sosial yang sedia ada dan mewujudkan yang baru. Ia boleh mencetuskan prasangka, diskriminasi, dan bahkan keganasan.
  • Risiko Teknologi: Hakisan kepercayaan terhadap teknologi AI akibat penyebaran maklumat salah boleh menghalang pembangunan dan penggunaannya. Orang ramai mungkin keberatan untuk menggunakan alat AI jika mereka tidak yakin dengan ketepatan dan kebolehpercayaan maklumat yang diberikan.

Pertempuran menentang disinformasi didorong AI adalah pertempuran yang kritikal. Ia memerlukan usaha bersepadu daripada pembangun AI, penggubal dasar, pendidik, dan pengguna individu untuk memastikan bahawa teknologi berkuasa ini digunakan secara bertanggungjawab dan beretika. Masa depan maklumat, dan sememangnya masa depan masyarakat kita, mungkin bergantung padanya.