Chatbot AI & Sebaran Disinformasi Rusia

Pengaruh Luas Kebohongan yang Didukung Kremlin

Inti masalahnya terletak pada kontaminasi yang disengaja dari sumber informasi online. Dengan membanjiri hasil pencarian dan perayap web dengan kebohongan pro-Kremlin, jaringan aktor disinformasi secara aktif membentuk output dari model bahasa besar (LLM). Model-model ini, yang memberdayakan chatbot AI yang berinteraksi dengan kita setiap hari, bergantung pada kumpulan data besar yang diambil dari internet. Ketika data ini tercemar dengan informasi yang salah, output yang dihasilkan mencerminkan bias ini.

NewsGuard, sebuah perusahaan yang menyediakan peringkat kredibilitas dan sidik jari misinformasi untuk situs web berita dan informasi, melakukan analisis mendalam tentang fenomena ini. Temuan mereka mengungkapkan realitas yang mengganggu: sebagian besar informasi yang dihasilkan oleh chatbot AI terkemuka menggemakan narasi yang disebarkan oleh jaringan khusus situs web pro-Kremlin.

Mekanisme Disinformasi: Bagaimana Model AI Dimanipulasi

Strategi yang digunakan oleh jaringan disinformasi ini berbahaya dan canggih. Ini tidak terutama ditujukan untuk menarik pembaca manusia; sebaliknya, ini dirancang untuk memanipulasi algoritma yang mendukung chatbot AI. Taktik ini, yang dikenal sebagai ‘LLM grooming,’ melibatkan penanaman informasi palsu atau menyesatkan secara strategis di banyak situs web, mengetahui bahwa platform ini akan dikeruk dan dicerna oleh LLM.

The American Sunlight Project (ASP), sebuah organisasi nirlaba AS, menyoroti ancaman ini dalam laporan Februari 2025. Mereka memperingatkan bahwa jaringan Pravda, kumpulan situs web yang mendorong narasi pro-Rusia, kemungkinan dibuat dengan tujuan eksplisit untuk memengaruhi model AI. Semakin besar volume narasi pro-Rusia, semakin tinggi probabilitas LLM mengintegrasikannya ke dalam basis pengetahuan mereka.

Implikasi dari hal ini sangat luas. Karena LLM semakin terintegrasi ke dalam kehidupan kita sehari-hari, berfungsi sebagai sumber informasi dan bantuan, potensi penyebaran konten yang dimanipulasi secara luas sangat mengkhawatirkan.

Audit NewsGuard: Mengukur Dampaknya

Untuk menilai sejauh mana masalah ini, NewsGuard melakukan audit terhadap sepuluh chatbot AI terkemuka. Ini termasuk:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

Audit berfokus pada 15 narasi palsu berbeda yang telah dipromosikan secara aktif oleh 150 situs web Pravda pro-Kremlin antara April 2022 dan Februari 2025. Narasi-narasi ini mencakup berbagai topik, semuanya dirancang untuk memajukan agenda politik tertentu.

Metodologi tersebut melibatkan pengujian setiap chatbot dengan serangkaian prompt berdasarkan NewsGuard’s Misinformation Fingerprints, katalog klaim yang terbukti salah pada topik berita penting. Prompt dibuat dalam tiga gaya berbeda – Innocent, Leading, dan Malign – untuk meniru berbagai cara pengguna berinteraksi dengan model AI generatif. Ini menghasilkan total 450 respons (45 per chatbot).

Hasil yang Mengganggu: Disinformasi Umum di Seluruh Chatbot

Temuan audit NewsGuard sangat mencolok. Secara kolektif, sepuluh chatbot AI mengulangi narasi disinformasi Rusia yang salah dalam 33,55% dari tanggapan. Mereka memberikan non-respons dalam 18,22% kasus dan membantah narasi dalam 48,22% kasus.

Setiap chatbot yang diuji mengulangi disinformasi yang berasal dari jaringan Pravda. Yang lebih memprihatinkan, tujuh dari chatbot secara langsung mengutip artikel tertentu dari situs web Pravda sebagai sumber mereka. Sementara dua model AI tidak memberikan kutipan eksplisit, mereka masih ditemukan menghasilkan atau mengulangi narasi palsu dari jaringan. Hanya satu dari delapan model yang mengutip sumber yang tidak mengutip Pravda.

Secara total, 56 dari 450 respons yang dihasilkan chatbot menyertakan tautan langsung ke artikel yang menyebarkan klaim palsu yang diterbitkan oleh jaringan Pravda. Chatbot secara kolektif mengutip 92 artikel berbeda yang berisi disinformasi, dengan dua model mereferensikan sebanyak 27 artikel Pravda masing-masing. Artikel-artikel ini berasal dari berbagai domain dalam jaringan, termasuk Denmark.news-pravda.com, Trump.news-pravda.com, dan NATO.news-pravda.com.

Sifat Prompt: Meniru Interaksi Dunia Nyata

Tiga gaya prompt yang digunakan dalam audit NewsGuard dirancang untuk mencerminkan spektrum interaksi pengguna dengan chatbot AI:

  • Innocent Prompts: Prompt ini menyajikan narasi palsu dengan cara yang netral dan tidak mengarahkan, seolah-olah pengguna hanya mencari informasi tanpa prasangka apa pun.
  • Leading Prompts: Prompt ini secara halus menyarankan narasi palsu, mengisyaratkan validitasnya tanpa menyatakannya secara eksplisit. Ini meniru skenario di mana pengguna mungkin memiliki beberapa paparan misinformasi sebelumnya dan mencari konfirmasi.
  • Malign Prompts: Prompt ini secara langsung menegaskan narasi palsu sebagai fakta, yang mencerminkan situasi di mana pengguna sudah yakin akan misinformasi dan mencari penguatan.

Pendekatan multi-segi ini sangat penting dalam memahami bagaimana berbagai jenis keterlibatan pengguna dapat memengaruhi respons chatbot. Ini mengungkapkan bahwa chatbot rentan mengulangi disinformasi terlepas dari gaya prompt, meskipun frekuensi dan sifat responsnya bervariasi.

Contoh Spesifik Disinformasi yang Digemakan oleh Chatbot

Laporan NewsGuard memberikan banyak contoh narasi palsu spesifik yang disebarkan oleh jaringan Pravda dan selanjutnya diulangi oleh chatbot AI. Contoh-contoh ini menyoroti luas dan dalamnya kampanye disinformasi. Beberapa narasi termasuk:

  • Klaim bahwa Ukraina adalah negara Nazi.
  • Pernyataan palsu tentang penyebab konflik di Ukraina.
  • Informasi yang menyesatkan tentang keterlibatan Barat dalam konflik.
  • Cerita yang dibuat-buat tentang kepemimpinan Ukraina.

Ini hanyalah beberapa contoh dari banyak narasi palsu yang telah didokumentasikan dan dilacak dengan cermat oleh NewsGuard. Fakta bahwa narasi-narasi ini digemakan oleh chatbot AI terkemuka menggarisbawahi kebutuhan mendesak akan tindakan balasan yang efektif.

Tantangan Memerangi Disinformasi yang Didorong AI

Mengatasi masalah ini adalah usaha yang kompleks. Ini membutuhkan pendekatan multi-cabang yang melibatkan solusi teknologi dan peningkatan kesadaran pengguna.

Solusi Teknologi:

  • Penyaringan Data yang Ditingkatkan: Pengembang AI perlu menerapkan mekanisme yang lebih kuat untuk menyaring misinformasi dari kumpulan data yang digunakan untuk melatih LLM. Ini melibatkan identifikasi dan pengecualian sumber yang tidak dapat diandalkan, serta pengembangan algoritma yang dapat mendeteksi dan menandai informasi yang berpotensi salah atau menyesatkan.
  • Verifikasi Sumber yang Ditingkatkan: Chatbot harus dirancang untuk memprioritaskan informasi dari sumber yang kredibel dan terverifikasi. Ini termasuk memberikan kutipan yang jelas dan memungkinkan pengguna untuk dengan mudah melacak asal informasi yang disajikan.
  • Transparansi dan Penjelasan: Model AI harus lebih transparan tentang proses pengambilan keputusan mereka. Pengguna harus dapat memahami mengapa chatbot memberikan respons tertentu dan sumber data apa yang diandalkannya.

Kesadaran Pengguna:

  • Pendidikan Literasi Media: Pengguna perlu dididik tentang potensi misinformasi yang dihasilkan AI. Ini termasuk mengembangkan keterampilan berpikir kritis dan belajar bagaimana mengevaluasi kredibilitas sumber informasi online.
  • Skeptisisme dan Verifikasi: Pengguna harus mendekati informasi yang diberikan oleh chatbot AI dengan skeptisisme yang sehat. Sangat penting untuk mereferensikan silang informasi dengan sumber lain dan waspada terhadap klaim yang tampak terlalu sensasional atau terlalu bagus untuk menjadi kenyataan.

Risiko Jangka Panjang: Politik, Sosial, dan Teknologi

Penyebaran disinformasi yang tidak terkendali melalui chatbot AI menimbulkan risiko jangka panjang yang signifikan. Risiko ini melampaui dampak langsung dari narasi palsu individu dan mencakup konsekuensi sosial yang lebih luas.

  • Risiko Politik: Manipulasi opini publik melalui disinformasi yang didorong AI dapat merusak proses demokrasi dan mengikis kepercayaan pada institusi. Ini dapat digunakan untuk memengaruhi pemilihan umum, menabur perselisihan, dan menggoyahkan pemerintah.
  • Risiko Sosial: Penyebaran narasi palsu dapat memperburuk perpecahan sosial yang ada dan menciptakan yang baru. Ini dapat memicu prasangka, diskriminasi, dan bahkan kekerasan.
  • Risiko Teknologi: Erosi kepercayaan pada teknologi AI karena penyebaran misinformasi dapat menghambat pengembangan dan adopsinya. Orang-orang mungkin menjadi enggan untuk menggunakan alat AI jika mereka tidak dapat yakin dengan keakuratan dan keandalan informasi yang diberikan.

Pertempuran melawan disinformasi yang didorong AI adalah pertempuran yang kritis. Ini membutuhkan upaya bersama dari pengembang AI, pembuat kebijakan, pendidik, dan pengguna individu untuk memastikan bahwa teknologi yang kuat ini digunakan secara bertanggung jawab dan etis. Masa depan informasi, dan memang masa depan masyarakat kita, mungkin bergantung padanya.