Jaringan Propaganda Rusia Manfaatkan AI

Mekanisme ‘LLM Grooming’

Jaringan Pravda beroperasi melalui jaringan luas yang terdiri dari sekitar 150 situs berita palsu. Situs-situs ini, bagaimanapun, tidak dirancang untuk konsumsi manusia. Dengan lalu lintas minimal – sebagian besar halaman menerima kurang dari 1.000 pengunjung bulanan – tujuan utama mereka adalah untuk memasukkan konten ke sistem AI. Strategi ini merupakan pendekatan baru untuk disinformasi, bergerak melampaui metode tradisional yang menargetkan pembaca manusia secara langsung.

Taktik ini dikenal sebagai ‘LLM grooming’, sebuah istilah yang menggambarkan manipulasi yang disengaja terhadap data pelatihan AI. Jaringan ini mencapai hal ini dengan menerbitkan konten secara massal yang sangat dioptimalkan untuk mesin pencari (SEO). Ini memastikan bahwa propaganda tersebut mudah dicerna dan didistribusikan kembali oleh model AI, memengaruhi output mereka dan berpotensi membentuk persepsi publik.

John Mark Dougan, seorang Amerika yang tinggal di Moskow dan diidentifikasi oleh NewsGuard sebagai pendukung kampanye disinformasi Rusia, menjelaskan prinsip yang mendasarinya pada sebuah konferensi lokal: “Semakin beragam informasi ini, semakin memengaruhi pelatihan dan AI di masa depan.” Pernyataan ini menyoroti sifat berbahaya dari operasi tersebut, yang bertujuan untuk secara halus merusak data dasar yang menjadi dasar pembangunan sistem AI.

Skala dan Ruang Lingkup Operasi

Skala aktivitas jaringan Pravda sangat mencengangkan. Pada tahun 2024 saja, situs-situs ini menerbitkan sekitar 3,6 juta artikel di 49 negara. Nama domain dipilih secara strategis untuk meniru sumber berita yang sah, dengan contoh termasuk NATO.News-Pravda.com, Trump.News-Pravda.com, dan Macron.News-Pravda.com. Peniruan ini menambahkan lapisan penipuan, sehingga lebih sulit bagi pengamat biasa untuk membedakan antara konten asli dan palsu.

Konten itu sendiri mencakup berbagai topik, tetapi secara konsisten mempromosikan narasi pro-Rusia dan merusak perspektif Barat. Jaringan ini telah aktif setidaknya sejak April 2022, dan analisis NewsGuard berfokus pada 15 berita palsu yang dapat diverifikasi yang didistribusikan oleh jaringan Pravda antara waktu itu dan Februari 2025.

Kerentanan Chatbot AI

Investigasi NewsGuard melibatkan pengujian beberapa chatbot AI terkemuka untuk menilai kerentanan mereka terhadap disinformasi jaringan Pravda. Sistem yang diuji meliputi:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity

Hasilnya mengkhawatirkan. Chatbot AI menerima narasi palsu dari jaringan Pravda dalam 33,5% kasus. Sementara sistem dengan benar mengidentifikasi konten Rusia sebagai disinformasi dalam 48,2% kasus, mereka terkadang mengutip sumber yang menyesatkan, yang berpotensi memberi mereka kredibilitas yang tidak semestinya. Sisa 18,2% tanggapan tidak meyakinkan, yang selanjutnya menyoroti tantangan dalam membedakan kebenaran dari kepalsuan di era konten yang dihasilkan AI.

Tantangan Melawan Disinformasi yang Didorong AI

Memerangi jenis manipulasi ini menghadirkan tantangan yang signifikan. Metode tradisional untuk memblokir situs web disinformasi yang diketahui terbukti tidak efektif. Ketika pihak berwenang memblokir domain Pravda, yang baru dengan cepat muncul, menunjukkan kelincahan dan ketahanan jaringan.

Selain itu, disinformasi mengalir melalui berbagai saluran secara bersamaan, seringkali dengan situs jaringan yang berbeda memuntahkan konten satu sama lain. Ini menciptakan jaringan sumber yang saling berhubungan yang kompleks, sehingga sulit untuk mengisolasi dan menetralisir propaganda pada akarnya. Memblokir situs web saja menawarkan perlindungan terbatas terhadap kampanye yang lebih luas dan terkoordinasi.

Konteks yang Lebih Luas: Manipulasi AI yang Disponsori Negara

Aktivitas jaringan Pravda bukanlah insiden yang terisolasi. Mereka selaras dengan pola yang lebih luas dari upaya yang disponsori negara untuk memanfaatkan AI untuk tujuan disinformasi. Sebuah studi OpenAI baru-baru ini mengungkapkan bahwa aktor yang didukung negara dari Rusia, Cina, Iran, dan Israel telah mencoba menggunakan sistem AI untuk kampanye propaganda. Operasi ini sering menggabungkan konten yang dihasilkan AI dengan materi tradisional yang dibuat secara manual, mengaburkan batas antara informasi asli dan yang dimanipulasi.

Penggunaan AI dalam manipulasi politik tidak terbatas pada aktor negara. Kelompok-kelompok politik, seperti partai sayap kanan Jerman AFD, juga telah diamati menggunakan model gambar AI untuk tujuan propaganda. Bahkan tokoh-tokoh seperti Donald Trump telah terlibat dengan konten yang dihasilkan AI, baik sebagai konsumen maupun, secara paradoks, dengan melabeli informasi asli sebagai berita palsu yang dihasilkan AI. Taktik ini, yang diidentifikasi sebagai bentuk kontra-propaganda, menabur ketidakpercayaan pada semua informasi online, yang berpotensi mendorong individu untuk hanya mengandalkan tokoh-tokoh tepercaya, terlepas dari keakuratan faktual.

Bahkan desain model AI itu sendiri dapat dipengaruhi oleh agenda negara. Model AI Cina, misalnya, telah ditemukan hadir dengan pra-muat sensor dan propaganda, yang mencerminkan prioritas politik pemerintah Cina.

Penyelaman Mendalam: Contoh Spesifik Narasi Palsu

Meskipun laporan NewsGuard tidak merinci setiap narasi palsu yang disebarkan oleh jaringan Pravda, metodologi penggunaan berita palsu yang dapat diverifikasi menunjukkan pola penyebaran informasi yang salah yang dirancang untuk:

  1. Merusak Institusi Barat: Berita mungkin secara keliru menggambarkan NATO sebagai agresif atau tidak stabil, atau mengarang skandal yang melibatkan para pemimpin Barat.
  2. Mempromosikan Sentimen Pro-Rusia: Narasi dapat melebih-lebihkan keberhasilan militer Rusia, mengecilkan pelanggaran hak asasi manusianya, atau membenarkan tindakannya di panggung global.
  3. Menabur Perselisihan dan Perpecahan: Konten mungkin bertujuan untuk memperburuk ketegangan sosial dan politik yang ada di negara-negara Barat, memperkuat isu-isu yang memecah belah dan mempromosikan polarisasi.
  4. Mendistorsi Realitas di Sekitar Peristiwa Tertentu: Informasi palsu dapat disebarkan tentang peristiwa seperti pemilihan umum, konflik, atau insiden internasional, memutarbalikkan narasi untuk mendukung interpretasi pro-Rusia.

Benang merah yang konsisten adalah manipulasi informasi untuk melayani agenda geopolitik tertentu. Penggunaan AI memperkuat jangkauan dan dampak potensial dari narasi-narasi ini, membuatnya lebih sulit untuk dideteksi dan dilawan.

Implikasi Jangka Panjang

Implikasi dari disinformasi yang didorong AI ini sangat luas. Erosi kepercayaan pada sumber informasi, potensi manipulasi opini publik, dan destabilisasi proses demokrasi adalah semua kekhawatiran serius. Karena sistem AI menjadi semakin terintegrasi ke dalam kehidupan kita sehari-hari, kemampuan untuk membedakan antara kebenaran dan kepalsuan menjadi semakin penting.

Teknik ‘LLM grooming’ merupakan eskalasi yang signifikan dalam lanskap perang informasi. Ini menyoroti kerentanan sistem AI terhadap manipulasi dan perlunya pertahanan yang kuat terhadap ancaman yang muncul ini. Tantangannya tidak hanya dalam mengidentifikasi dan memblokir sumber disinformasi tetapi juga dalam mengembangkan strategi untuk menginokulasi model AI terhadap bentuk-bentuk pengaruh yang halus namun meresap ini. Ini membutuhkan pendekatan multi-segi, yang melibatkan:

  • Peningkatan Literasi AI: Mendidik masyarakat tentang potensi disinformasi yang dihasilkan AI dan mempromosikan keterampilan berpikir kritis.
  • Alat Deteksi AI yang Ditingkatkan: Mengembangkan metode yang lebih canggih untuk mengidentifikasi dan menandai konten dan disinformasi yang dihasilkan AI.
  • Data Pelatihan AI yang Diperkuat: Menerapkan langkah-langkah untuk memastikan integritas dan keragaman data pelatihan AI, membuatnya lebih tahan terhadap manipulasi.
  • Kerja Sama Internasional: Mendorong kolaborasi antara pemerintah, perusahaan teknologi, dan peneliti untuk mengatasi tantangan global ini.
  • Peningkatan Transparansi: Pengembang AI harus transparan tentang data pelatihan yang digunakan dan potensi bias yang mungkin ada dalam model mereka.
  • Akuntabilitas Algoritmik: Meminta pertanggungjawaban pengembang AI atas output sistem mereka, terutama ketika output tersebut digunakan untuk menyebarkan disinformasi.

Pertempuran melawan disinformasi yang didorong AI adalah pertempuran yang kompleks dan terus berkembang. Ini membutuhkan upaya bersama dari individu, organisasi, dan pemerintah untuk menjaga integritas informasi dan melindungi fondasi pengambilan keputusan yang terinformasi. Aktivitas jaringan Pravda berfungsi sebagai pengingat yang jelas tentang taruhannya dan urgensi untuk mengatasi ancaman yang berkembang ini. Masa depan wacana publik yang terinformasi, dan berpotensi stabilitas masyarakat demokratis, mungkin bergantung pada kemampuan kita untuk berhasil melawan bentuk manipulasi baru ini. Tantangannya bukan hanya teknologi; itu juga sosial, membutuhkan komitmen baru untuk kebenaran, akurasi, dan pemikiran kritis di era digital.