Selama konflik singkat antara India dan Pakistan, misinformasi melonjak, dan pengguna media sosial mulai bergantung pada chatbot AI untuk verifikasi. Namun, chatbot ini malah memberikan lebih banyak informasi palsu, menyoroti ketidakandalannya sebagai alat cek fakta. Karena platform teknologi besar terus mengurangi jumlah pemeriksa fakta manusia, pengguna semakin bergantung pada chatbot bertenaga AI, seperti Grok dari xAI, ChatGPT dari OpenAI, dan Gemini dari Google, untuk mencari informasi yang dapat diandalkan.
Munculnya Cek Fakta Chatbot AI
Di platform X Elon Musk (sebelumnya Twitter), "@Grok, apakah ini nyata?" telah menjadi pertanyaan umum yang diajukan oleh pengguna. Grok adalah asisten AI bawaan di platform X, yang mencerminkan tren pengguna yang mencari bantahan instan di media sosial. Namun, jawaban dari chatbot AI ini sering kali penuh dengan misinformasi.
Grok baru-baru ini menjadi sorotan karena memasukkan teori konspirasi sayap kanan ekstrem "genosida kulit putih" ke dalam pertanyaan yang tidak relevan. Grok secara keliru mengidentifikasi rekaman video lama dari Bandara Khartoum di Sudan sebagai serangan rudal terhadap Pangkalan Angkatan Udara Nur Khan Pakistan selama konflik India-Pakistan. Selain itu, sebuah bangunan yang terbakar di Nepal secara keliru diidentifikasi sebagai "mungkin" menunjukkan tanggapan militer Pakistan terhadap serangan India.
Keterbatasan Cek Fakta AI
McKenzie Sadeghi, seorang peneliti di badan pengawas informasi NewsGuard, mengatakan kepada Agence France-Presse (AFP): "Karena X dan perusahaan teknologi besar lainnya telah mengurangi investasi mereka pada pemeriksa fakta manusia, orang-orang semakin bergantung pada Grok sebagai pemeriksa fakta." Dia memperingatkan: "Penelitian kami berulang kali menemukan bahwa chatbot AI bukanlah sumber berita dan informasi yang dapat diandalkan, terutama terkait berita terbaru."
Penelitian NewsGuard menemukan bahwa 10 chatbot terkemuka, termasuk Grok, mudah mengulangi informasi palsu, termasuk narasi disinformasi Rusia dan klaim palsu atau menyesatkan terkait pemilihan Australia baru-baru ini. Tow Center for Digital Journalism di Columbia University baru-baru ini melakukan studi terhadap delapan alat pencarian AI dan menemukan bahwa chatbot "umumnya tidak pandai menolak menjawab pertanyaan yang tidak dapat mereka jawab secara akurat, malah memberikan jawaban yang salah atau spekulatif."
Pemeriksa fakta AFP di Uruguay menanyai Gemini tentang gambar seorang wanita yang dihasilkan AI. Gemini tidak hanya menegaskan keaslian gambar tersebut, tetapi juga mengarang rincian tentang identitas wanita itu serta di mana gambar itu mungkin diambil.
Grok baru-baru ini menandai video yang konon menunjukkan seekor ular piton raksasa berenang di Sungai Amazon sebagai "asli," bahkan mengutip ekspedisi ilmiah yang terdengar kredibel untuk mendukung klaim palsunya. Faktanya, video itu dihasilkan oleh AI, dan pemeriksa fakta AFP di Amerika Latin melaporkan bahwa banyak pengguna mengutip penilaian Grok sebagai bukti bahwa video itu asli.
Kekhawatiran tentang Cek Fakta AI
Temuan ini menimbulkan kekhawatiran karena survei menunjukkan bahwa semakin banyak pengguna online beralih dari mesin pencari tradisional ke chatbot AI untuk mengumpulkan dan memverifikasi informasi. Sementara itu, Meta mengumumkan awal tahun ini bahwa mereka akan mengakhiri program pemeriksaan fakta pihak ketiga di AS, dan mengalihkan tugas penyangkalan ke pengguna biasa, menggunakan model yang disebut "Catatan Komunitas," yang dipopulerkan oleh platform X. Namun, para peneliti telah berulang kali mempertanyakan efektivitas "Catatan Komunitas" dalam memerangi misinformasi.
Pemeriksaan fakta manusia telah lama menjadi titik pertikaian dalam iklim politik yang terpolarisasi, terutama di AS, di mana kaum konservatif berpendapat bahwa itu menekan kebebasan berbicara dan menyensor konten sayap kanan, sebuah klaim yang dibantah keras oleh pemeriksa fakta profesional.
AFP saat ini bekerja dengan program pemeriksaan fakta Facebook dalam 26 bahasa, termasuk di Asia, Amerika Latin, dan Uni Eropa.
Kualitas dan keakuratan chatbot AI dapat bervariasi, tergantung pada bagaimana mereka dilatih dan diprogram, yang menimbulkan kekhawatiran bahwa keluaran mereka dapat dipengaruhi atau dikendalikan secara politik.
xAI Musk baru-baru ini menyalahkan "modifikasi tidak sah" atas Grok yang menghasilkan posting yang tidak diminta yang mengacu pada "genosida kulit putih" di Afrika Selatan. Ketika pakar AI David Caswell bertanya kepada Grok siapa yang mungkin telah mengubah perintah sistemnya, chatbot itu mencantumkan Musk sebagai pelaku yang "paling mungkin."
Musk adalah miliarder kelahiran Afrika Selatan dan pendukung Presiden AS Donald Trump. Dia sebelumnya telah menyebarkan klaim tidak berdasar bahwa para pemimpin Afrika Selatan "secara terbuka mendorong genosida terhadap orang kulit putih."
Direktur Jaringan Pemeriksa Fakta Internasional Angie Holan mengatakan kepada AFP: "Kami telah melihat asisten AI mengarang hasil atau memberikan jawaban yang bias setelah coder manusia secara khusus mengubah instruksi mereka." "Saya sangat prihatin tentang bagaimana Grok menangani permintaan tentang masalah yang sangat sensitif setelah menerima instruksi untuk memberikan jawaban yang telah diotorisasi sebelumnya."
Risiko Chatbot AI dalam Bidang Informasi
Peningkatan penerapan chatbot AI dalam menyediakan informasi menimbulkan kekhawatiran yang серьезные، yang melibatkan potensi efek menyesatkan dan manipulatifnya. Meskipun teknologi ini menawarkan keuntungan dalam mengakses informasi dengan cepat dan menyederhanakan penelitian, keterbatasan dan bias inheren mereka dapat secara tidak sengaja atau sengaja menyebarkan misinformasi atau propaganda.
Keterbatasan Inheren Chatbot AI
Chatbot AI belajar dengan menganalisis sejumlah besar data teks, tetapi mereka kekurangan kemampuan berpikir kritis manusia. Ini berarti bahwa mereka mungkin mengekstrak pola dari data dan menghasilkan respons yang tampaknya masuk akal, tetapi tanpa benar-benar memahami makna atau konteks yang mendasarinya. Kurangnya pengetahuan ini dapat menyebabkan produksi informasi yang tidak akurat, tidak lengkap, atau menyesatkan.
Selain itu, data pelatihan chatbot AI dapat berisi bias yang tercermin dalam respons yang dihasilkan. Misalnya, jika data pelatihan terutama berasal dari sumber atau sudut pandang tertentu, chatbot mungkin menunjukkan preferensi untuk sumber atau sudut pandang tersebut, sehingga menyebarkan informasi yang bias.
Risiko yang Ditimbulkan oleh Chatbot AI
Seiring dengan semakin banyaknya orang yang bergantung pada chatbot AI untuk informasi, risiko penyebaran misinformasi juga meningkat. Jika chatbot menghasilkan informasi yang tidak akurat atau menyesatkan, pengguna dapat menerima dan menyebarkannya tanpa menyadarinya, yang menyebabkan penyebaran keyakinan yang salah.
Selain itu, chatbot AI dapat digunakan untuk tujuan jahat, seperti menyebarkan propaganda atau memanipulasi opini publik. Dengan merancang data pelatihan dengan hati-hati atau menyesuaikan algoritma, pelaku jahat dapat memanipulasi chatbot untuk menghasilkan jenis respons tertentu, sehingga memengaruhi keyakinan dan perilaku pengguna.
Cara Mengurangi Risiko
Untuk mengurangi risiko yang terkait dengan chatbot AI, perlu diambil beberapa langkah. Pertama, pengembang harus berusaha memastikan bahwa data pelatihan chatbot AI seluas dan tidak bias mungkin. Ini mungkin mengharuskan menyertakan berbagai sampel data dari berbagai sumber dan sudut pandang untuk mengurangi dampak bias.
Kedua, chatbot AI perlu menjalani pengujian dan evaluasi yang ketat untuk mengidentifikasi dan memperbaiki kecenderungan yang tidak akurat atau bias. Ini mungkin mengharuskan validasi manual respons yang dihasilkan chatbot dan penggunaan berbagai metrik untuk mengevaluasi akurasi dan ketidakberpihakannya.
Ketiga, pengguna harus mempertahankan pemikiran kritis dan tidak secara membabi buta mempercayai informasi yang diberikan oleh chatbot AI. Pengguna harus selalu membandingkan informasi dari sumber yang berbeda dan menyadari potensi bias yang mungkin ada pada chatbot.
Peran Platform Teknologi dan Komunitas
Platform teknologi dan komunitas memainkan peran penting dalam mengatur dan mengawasi konten yang dihasilkan chatbot AI. Platform dapat menerapkan kebijakan untuk mengidentifikasi dan menghapus misinformasi atau propaganda, dan dapat bermitra dengan organisasi pemeriksa fakta untuk memverifikasi keakuratan respons yang dihasilkan chatbot. Selain itu, komunitas dapat membantu meningkatkan kesadaran pengguna dengan mempromosikan diskusi tentang keterbatasan dan bias chatbot AI, dan mendorong pengguna untuk mempertahankan pemikiran kritis.
Kesimpulan
Chatbot AI adalah alat yang berguna, tetapi juga memiliki keterbatasan dan risiko yang melekat. Untuk memastikan bahwa teknologi ini digunakan secara bertanggung jawab dan untuk mengurangi penyebaran misinformasi dan manipulasi, pengembang, regulator, dan pengguna perlu tetap waspada. Dengan mengambil langkah-langkah yang diperlukan, kita dapat memaksimalkan manfaat chatbot AI sambil meminimalkan potensi bahaya mereka.