Mekanisme ‘LLM Grooming’
Rangkaian Pravda beroperasi melalui jaringan luas kira-kira 150 laman web berita palsu. Laman-laman web ini, bagaimanapun, tidak direka untuk penggunaan manusia. Dengan trafik yang minimum – kebanyakan halaman menerima kurang daripada 1,000 pelawat bulanan – tujuan utama mereka adalah untuk menyalurkan kandungan kepada sistem AI. Strategi ini mewakili pendekatan baru untuk disinformasi, bergerak melangkaui kaedah tradisional yang menyasarkan pembaca manusia secara langsung.
Taktik ini dikenali sebagai ‘LLM grooming‘, istilah yang menggambarkan manipulasi yang disengajakan terhadap data latihan AI. Rangkaian ini mencapainya dengan menerbitkan kandungan secara besar-besaran yang dioptimumkan untuk enjin carian (SEO). Ini memastikan bahawa propaganda mudah dicerna dan diedarkan semula oleh model AI, mempengaruhi output mereka dan berpotensi membentuk persepsi awam.
John Mark Dougan, seorang warga Amerika yang menetap di Moscow dan dikenal pasti oleh NewsGuard sebagai didakwa menyokong kempen disinformasi Rusia, menjelaskan prinsip asas pada persidangan tempatan: ‘Semakin pelbagai maklumat ini, semakin ia mempengaruhi latihan dan AI masa depan.’ Kenyataan ini menyerlahkan sifat licik operasi, yang bertujuan untuk merosakkan data asas secara halus yang menjadi asas sistem AI.
Skala dan Skop Operasi
Skala aktiviti rangkaian Pravda adalah mengejutkan. Pada tahun 2024 sahaja, laman-laman web ini menerbitkan kira-kira 3.6 juta artikel di 49 negara. Nama domain dipilih secara strategik untuk meniru sumber berita yang sah, dengan contoh termasuk NATO.News-Pravda.com, Trump.News-Pravda.com, dan Macron.News-Pravda.com. Peniruan ini menambah lapisan penipuan, menjadikannya lebih sukar bagi pemerhati kasual untuk membezakan antara kandungan yang sahih dan yang direka.
Kandungan itu sendiri merangkumi pelbagai topik, tetapi secara konsisten mempromosikan naratif pro-Rusia dan melemahkan perspektif Barat. Rangkaian ini telah aktif sejak sekurang-kurangnya April 2022, dan analisis NewsGuard memberi tumpuan kepada 15 cerita palsu yang boleh disahkan yang diedarkan oleh rangkaian Pravda antara masa itu dan Februari 2025.
Kerentanan Chatbot AI
Siasatan NewsGuard melibatkan pengujian beberapa chatbot AI terkemuka untuk menilai kerentanan mereka terhadap disinformasi rangkaian Pravda. Sistem yang diuji termasuk:
- OpenAI’s ChatGPT-4o
- You.com’s Smart Assistant
- xAI’s Grok
- Inflection’s Pi
- Mistral’s le Chat
- Microsoft’s Copilot
- Meta AI
- Anthropic’s Claude
- Google’s Gemini
- Perplexity
Hasilnya membimbangkan. Chatbot AI menerima naratif palsu daripada rangkaian Pravda dalam 33.5% kes. Walaupun sistem mengenal pasti kandungan Rusia dengan betul sebagai disinformasi dalam 48.2% kes, mereka kadangkala memetik sumber yang mengelirukan, yang berpotensi memberikan mereka kredibiliti yang tidak sepatutnya. Baki 18.2% respons adalah tidak konklusif, seterusnya menyerlahkan cabaran dalam membezakan kebenaran daripada kepalsuan dalam era kandungan yang dijana AI.
Cabaran Memerangi Disinformasi Dipacu AI
Memerangi jenis manipulasi ini memberikan cabaran yang ketara. Kaedah tradisional menyekat laman web disinformasi yang diketahui terbukti tidak berkesan. Apabila pihak berkuasa menyekat domain Pravda, domain baru muncul dengan cepat, menunjukkan ketangkasan dan daya tahan rangkaian.
Tambahan pula, disinformasi mengalir melalui pelbagai saluran secara serentak, selalunya dengan laman web rangkaian yang berbeza memuntahkan semula kandungan masing-masing. Ini mewujudkan rangkaian sumber yang saling berkaitan yang kompleks, menjadikannya sukar untuk mengasingkan dan meneutralkan propaganda pada akarnya. Hanya menyekat laman web menawarkan perlindungan terhad terhadap kempen yang lebih luas dan terkoordinasi.
Konteks Lebih Luas: Manipulasi AI Tajaan Negara
Aktiviti rangkaian Pravda bukanlah insiden terpencil. Ia sejajar dengan corak usaha tajaan negara yang lebih luas untuk memanfaatkan AI untuk tujuan disinformasi. Kajian OpenAI baru-baru ini mendedahkan bahawa pelakon yang disokong oleh negara dari Rusia, China, Iran, dan Israel telah pun cuba menggunakan sistem AI untuk kempen propaganda. Operasi ini selalunya menggabungkan kandungan yang dijana AI dengan bahan tradisional yang dicipta secara manual, mengaburkan garis antara maklumat yang sahih dan yang dimanipulasi.
Penggunaan AI dalam manipulasi politik tidak terhad kepada pelakon negara. Kumpulan politik, seperti parti AFD sayap kanan Jerman, juga telah diperhatikan menggunakan model imej AI untuk tujuan propaganda. Malah tokoh seperti Donald Trump telah terlibat dengan kandungan yang dijana AI, kedua-duanya sebagai pengguna dan, secara paradoks, dengan melabelkan maklumat tulen sebagai palsu yang dijana AI. Taktik ini, yang dikenal pasti sebagai satu bentuk propaganda balas, menyemai ketidakpercayaan dalam semua maklumat dalam talian, yang berpotensi mendorong individu untuk bergantung semata-mata kepada tokoh yang dipercayai, tanpa mengira ketepatan fakta.
Malah reka bentuk model AI itu sendiri boleh dipengaruhi oleh agenda negara. Model AI China, contohnya, didapati dimuatkan dengan penapisan dan propaganda, mencerminkan keutamaan politik kerajaan China.
Penyelaman Mendalam: Contoh Khusus Naratif Palsu
Walaupun laporan NewsGuard tidak memperincikan setiap naratif palsu yang disebarkan oleh rangkaian Pravda, metodologi menggunakan cerita palsu yang boleh disahkan mencadangkan corak penyebaran maklumat salah yang direka untuk:
- Melemahkan Institusi Barat: Cerita mungkin secara palsu menggambarkan NATO sebagai agresif atau tidak stabil, atau mereka-reka skandal yang melibatkan pemimpin Barat.
- Mempromosikan Sentimen Pro-Rusia: Naratif boleh membesar-besarkan kejayaan ketenteraan Rusia, memperkecilkan pencabulan hak asasi manusianya, atau mewajarkan tindakannya di pentas global.
- Menyemai Perselisihan dan Perpecahan: Kandungan mungkin bertujuan untuk memburukkan lagi ketegangan sosial dan politik yang sedia ada di negara-negara Barat, menguatkan isu-isu yang memecahbelahkan dan menggalakkan polarisasi.
- Memutarbelitkan Realiti Di Sekitar Peristiwa Tertentu: Maklumat palsu boleh disebarkan tentang peristiwa seperti pilihan raya, konflik, atau insiden antarabangsa, memutarbelitkan naratif untuk memihak kepada tafsiran pro-Rusia.
Benang yang konsisten ialah manipulasi maklumat untuk memenuhi agenda geopolitik tertentu. Penggunaan AI menguatkan jangkauan dan potensi kesan naratif ini, menjadikannya lebih sukar untuk dikesan dan dilawan.
Implikasi Jangka Panjang
Implikasi disinformasi dipacu AI ini adalah meluas. Penghakisan kepercayaan terhadap sumber maklumat, potensi manipulasi pendapat awam, dan ketidakstabilan proses demokrasi adalah semua kebimbangan yang serius. Memandangkan sistem AI menjadi semakin bersepadu ke dalam kehidupan seharian kita, keupayaan untuk membezakan antara kebenaran dan kepalsuan menjadi semakin kritikal.
Teknik ‘LLM grooming’ mewakili peningkatan ketara dalam landskap peperangan maklumat. Ia menyerlahkan kerentanan sistem AI terhadap manipulasi dan keperluan untuk pertahanan yang teguh terhadap ancaman yang baru muncul ini. Cabarannya bukan sahaja dalam mengenal pasti dan menyekat sumber disinformasi tetapi juga dalam membangunkan strategi untuk menyuntik model AI terhadap bentuk pengaruh yang halus tetapi meresap ini. Ini memerlukan pendekatan pelbagai aspek, yang melibatkan:
- Literasi AI yang Dipertingkatkan: Mendidik orang ramai tentang potensi disinformasi yang dijana AI dan menggalakkan kemahiran berfikir kritis.
- Alat Pengesanan AI yang Dipertingkatkan: Membangunkan kaedah yang lebih canggih untuk mengenal pasti dan menandakan kandungan dan disinformasi yang dijana AI.
- Data Latihan AI yang Diperkukuh: Melaksanakan langkah-langkah untuk memastikan integriti dan kepelbagaian data latihan AI, menjadikannya lebih tahan terhadap manipulasi.
- Kerjasama Antarabangsa: Memupuk kerjasama antara kerajaan, syarikat teknologi dan penyelidik untuk menangani cabaran global ini.
- Peningkatan Ketelusan: Pembangun AI harus telus tentang data latihan yang digunakan dan potensi berat sebelah yang mungkin wujud dalam model mereka.
- Kebertanggungjawaban Algoritma: Memastikan pembangun AI bertanggungjawab ke atas output sistem mereka, terutamanya apabila output tersebut digunakan untuk menyebarkan disinformasi.
Pertempuran menentang disinformasi dipacu AI adalah pertempuran yang kompleks dan sentiasa berubah. Ia memerlukan usaha bersepadu daripada individu, organisasi dan kerajaan untuk melindungi integriti maklumat dan melindungi asas pembuatan keputusan termaklum. Aktiviti rangkaian Pravda berfungsi sebagai peringatan yang jelas tentang kepentingan yang terlibat dan keperluan mendesak untuk menangani ancaman yang semakin meningkat ini. Masa depan wacana awam yang termaklum, dan potensi kestabilan masyarakat demokratik, mungkin bergantung pada keupayaan kita untuk berjaya menentang bentuk manipulasi baru ini. Cabarannya bukan sahaja teknologi; ia juga bersifat kemasyarakatan, memerlukan komitmen yang diperbaharui terhadap kebenaran, ketepatan, dan pemikiran kritis dalam era digital.