Maklumat Salah dalam AI: Chatbot Tidak Boleh Dipercayai

Semasa konflik singkat antara India dan Pakistan, maklumat salah melonjak, dan pengguna media sosial mula bergantung pada chatbot AI untuk pengesahan. Walau bagaimanapun, chatbot ini memberikan lebih banyak maklumat palsu, menonjolkan ketidakbolehpercayaan mereka sebagai alat semakan fakta. Memandangkan platform teknologi utama terus mengurangkan bilangan pemeriksa fakta manusia, pengguna semakin bergantung pada chatbot berkuasa AI, seperti Grok xAI, ChatGPT OpenAI dan Gemini Google, untuk mendapatkan maklumat yang boleh dipercayai.

Kebangkitan Semakan Fakta Chatbot AI

Di platform X Elon Musk (dahulunya dikenali sebagai Twitter), "@Grok, adakah ini benar?" telah menjadi cara biasa bagi pengguna untuk bertanya. Grok ialah pembantu AI terbina dalam pada platform X, yang mencerminkan trend pengguna yang mencari pembongkaran segera di media sosial. Walau bagaimanapun, jawapan daripada chatbot AI ini sering dipenuhi dengan maklumat salah.

Grok baru-baru ini menerima penelitian yang rapi kerana memasukkan teori konspirasi sayap kanan yang melampau "pembunuhan beramai-ramai kaum kulit putih" ke dalam pertanyaan yang tidak berkaitan. Grok secara salah mengenal pasti klip video lama dari lapangan terbang Khartoum di Sudan sebagai serangan peluru berpandu ke atas Pangkalan Tentera Udara Nur Khan Pakistan semasa konflik India-Pakistan. Lebih-lebih lagi, sebuah bangunan yang terbakar di Nepal telah disalah anggap sebagai "mungkin" menunjukkan tindak balas tentera Pakistan terhadap serangan India.

Batasan Semakan Fakta AI

Penyelidik di NewsGuard, sebuah organisasi pemantauan maklumat, McKenzie Sadeghi memberitahu Agence France-Presse (AFP): "Memandangkan X dan syarikat teknologi besar lain telah mengurangkan pelaburan dalam pemeriksa fakta manusia, terdapat pergantungan yang semakin meningkat pada Grok sebagai pemeriksa fakta." Beliau memberi amaran: "Penyelidikan kami telah berulang kali mendapati bahawa chatbot AI bukanlah sumber berita dan maklumat yang boleh dipercayai, terutamanya apabila ia berkaitan dengan berita tergempar."

Kajian NewsGuard mendapati bahawa 10 chatbot terkemuka, termasuk Grok, mudah mengulang maklumat salah, termasuk naratif disinformasi Rusia dan dakwaan palsu atau mengelirukan yang berkaitan dengan pilihan raya Australia baru-baru ini. Kajian baru-baru ini oleh Tow Center for Digital Journalism di Columbia University terhadap lapan alat carian AI mendapati bahawa chatbot "secara amnya tidak pandai menolak soalan yang mereka tidak boleh jawab dengan tepat, sebaliknya menawarkan jawapan yang tidak betul atau spekulatif."

Pemeriksa fakta AFP di Uruguay bertanya kepada Gemini tentang imej seorang wanita yang dijana AI, dan Gemini bukan sahaja mengesahkan kesahihan imej itu tetapi juga mencipta butiran tentang identiti wanita itu dan lokasi yang mungkin imej itu diambil.

Grok baru-baru ini menandakan video yang didakwa menunjukkan seekor ular sawa gergasi berenang di Sungai Amazon sebagai "benar," malah memetik ekspedisi saintifik yang kedengaran boleh dipercayai untuk menyokong dakwaan palsunya. Sebenarnya, video itu dijana oleh AI, dan pemeriksa fakta AFP di Amerika Latin melaporkan bahawa banyak pengguna memetik penilaian Grok sebagai bukti bahawa video itu sahih.

Kebimbangan Mengenai Semakan Fakta AI

Penemuan ini telah menimbulkan kebimbangan kerana tinjauan menunjukkan bahawa bilangan pengguna dalam talian yang semakin meningkat beralih daripada enjin carian tradisional kepada chatbot AI untuk mengumpul dan mengesahkan maklumat. Sementara itu, Meta mengumumkan awal tahun ini bahawa ia akan menamatkan program semakan fakta pihak ketiganya di Amerika Syarikat, sebaliknya menyerahkan tugas pembongkaran kepada pengguna biasa, menggunakan model yang dipanggil "Nota Komuniti," yang dipopularkan oleh platform X. Walau bagaimanapun, penyelidik telah berulang kali mempersoalkan keberkesanan "Nota Komuniti" dalam memerangi maklumat salah.

Semakan fakta manusia telah lama menjadi titik kilat dalam iklim politik yang berpecah belah, terutamanya di Amerika Syarikat, di mana konservatif percaya ia menyekat kebebasan bersuara dan menapis kandungan sayap kanan, dakwaan yang dibantah dengan tegas oleh pemeriksa fakta profesional.

AFP pada masa ini bekerjasama dengan program semakan fakta Facebook dalam 26 bahasa, termasuk di Asia, Amerika Latin dan Kesatuan Eropah.

Kualiti dan ketepatan chatbot AI boleh berbeza-beza bergantung pada cara ia dilatih dan diprogramkan, menimbulkan kebimbangan bahawa outputnya mungkin dipengaruhi atau dikawal secara politik.

xAI Musk baru-baru ini menyalahkan Grok yang menjana catatan yang tidak diminta yang menyebut "pembunuhan beramai-ramai kaum kulit putih" Afrika Selatan pada "pengubahsuaian tanpa kebenaran." Apabila pakar AI David Caswell bertanya kepada Grok siapa yang mungkin mengubah suai gesaan sistemnya, chatbot itu menyenaraikan Musk sebagai pesalah "paling mungkin."

Musk ialah seorang bilionair kelahiran Afrika Selatan dan penyokong Presiden AS Donald Trump. Beliau sebelum ini telah menyebarkan dakwaan yang tidak berasas bahawa pemimpin Afrika Selatan "secara terbuka menganjurkan pembunuhan beramai-ramai kaum kulit putih."

Pengarah Rangkaian Semakan Fakta Antarabangsa, Angie Holan memberitahu AFP: "Kami telah melihat pembantu AI mengada-adakan hasil atau memberikan jawapan berat sebelah selepas pengekod manusia secara khusus mengubah suai arahannya," "Saya amat prihatin tentang cara Grok mengendalikan permintaan mengenai perkara yang sangat sensitif selepas menerima arahan untuk memberikan jawapan yang telah diluluskan terlebih dahulu."

Risiko Chatbot AI dalam Landskap Maklumat

Penggunaan chatbot AI yang semakin meluas dalam landskap maklumat menimbulkan kebimbangan serius, yang berkaitan dengan potensi kesan yang mengelirukan dan manipulatif. Walaupun teknologi ini menawarkan faedah dalam mengakses maklumat dengan cepat dan menyelaraskan penyelidikan, batasan dan kecenderungan yang wujud boleh secara tidak sengaja atau sengaja menyebarkan maklumat salah atau propaganda.

Keterbatasan Chatbot AI yang Wujud

Chatbot AI belajar dengan menganalisis sejumlah besar data teks, tetapi mereka tidak mempunyai keupayaan pemikiran kritikal manusia. Ini bermakna mereka mungkin mengekstrak corak daripada data dan menghasilkan respons yang kelihatan munasabah, tetapi tanpa benar-benar memahami makna atau konteks asas. Kekurangan pengetahuan ini boleh membawa kepada pengeluaran maklumat yang tidak tepat, tidak lengkap atau mengelirukan.

Selain itu, data latihan chatbot AI mungkin mengandungi kecenderungan, yang boleh ditunjukkan dalam respons yang dijana. Contohnya, jika data latihan terutamanya berasal dari sumber atau perspektif tertentu, chatbot mungkin mempamerkan kecenderungan terhadap sumber atau perspektif itu, dengan itu menyebarkan maklumat yang berat sebelah.

Risiko yang Ditimbulkan oleh Chatbot AI

Memandangkan semakin ramai orang bergantung pada chatbot AI untuk mendapatkan maklumat, risiko penyebaran maklumat salah meningkat. Jika chatbot menjana maklumat yang tidak tepat atau mengelirukan, pengguna mungkin tanpa disedari menerima dan menyebarkan maklumat ini, yang membawa kepada penyebaran kepercayaan palsu.

Selain itu, chatbot AI boleh digunakan untuk tujuan jahat, seperti menyebarkan propaganda atau memanipulasi pendapat umum. Dengan mereka bentuk data latihan dengan teliti atau melaraskan algoritma, pelakon berniat jahat boleh memanipulasi chatbot untuk menjana jenis respons tertentu, dengan itu mempengaruhi kepercayaan dan tingkah laku pengguna.

Cara Mengurangkan Risiko

Untuk mengurangkan risiko yang berkaitan dengan chatbot AI, beberapa langkah perlu diambil. Pertama, pembangun harus berusaha untuk memastikan bahawa data latihan chatbot AI adalah sekomprehensif dan tidak berat sebelah yang mungkin. Ini mungkin melibatkan memasukkan pelbagai sampel data daripada pelbagai sumber dan perspektif untuk mengurangkan kesan kecenderungan.

Kedua, chatbot AI perlu menjalani ujian dan penilaian yang ketat untuk mengenal pasti dan membetulkan sebarang kecenderungan ketidaktepatan atau berat sebelah. Ini mungkin melibatkan pengesahan manual respons yang dijana oleh chatbot dan menggunakan pelbagai metrik untuk menilai ketepatan dan keadilannya.

Ketiga, pengguna harus mengekalkan tatabahasa berfikir kritis dan tidak mempercayai secara membuta tuli maklumat yang diberikan oleh chatbot AI. Pengguna harus sentiasa menyemak silang maklumat dari pelbagai sumber dan sedar tentang potensi berat sebelah yang mungkin ada pada chatbot.

Peranan Platform Teknologi dan Masyarakat

Platform Teknologi dan masyarakat memainkan peranan penting dalam mengawal dan menyelia kandungan yang dijana oleh chatbot AI. Platform boleh melaksanakan dasar untuk mengenal pasti dan mengalih keluar maklumat salah atau propaganda, dan mereka boleh bekerjasama dengan organisasi semakan fakta untuk mengesahkan ketepatan respons yang dijana oleh chatbot. Di samping itu, masyarakat boleh membantu meningkatkan kesedaran pengguna dan menjimatkan perbahasan dengan menggalakkan perbincangan mengenai batasan dan kecenderungan chatbot AI, dan menggalakkan pengguna untuk kekal berfikiran kritis.

Kesimpulan

Chatbot AI ialah alat yang berguna, tetapi ia juga menimbulkan batasan dan risiko yang wujud. Untuk memastikan bahawa teknologi ini digunakan secara bertanggungjawab, dan untuk mengurangkan penyebaran maklumat salah dan manipulasi, kewaspadaan diperlukan daripada pembangun, pengawal selia dan pengguna. Dengan mengambil langkah-langkah yang perlu, kita boleh memaksimumkan faedah chatbot AI sambil meminimumkan bahaya yang mungkin berlaku.