Bot AI Semak Fakta? Sumber Maklumat Salah

Kualiti dan ketepatan chatbot kecerdasan buatan (AI) berbeza-beza, bergantung pada cara ia dilatih dan diprogramkan. Ini menimbulkan kebimbangan kerana alat-alat ini mungkin dipengaruhi atau dikawal secara politik. Terutamanya apabila platform teknologi mengurangkan pemeriksa fakta manusia, pengguna semakin bergantung pada chatbot AI untuk mencari maklumat yang boleh dipercayai. Walau bagaimanapun, chatbot ini sendiri terbukti terdedah kepada penjanaan maklumat salah.

Kebergantungan pada Semakan Fakta AI dan Kekurangannya Semasa Konflik

Semasa konflik selama empat hari antara India dan Pakistan, pengguna media sosial beralih kepada chatbot AI untuk pengesahan. Walau bagaimanapun, apa yang mereka temui ialah lebih banyak maklumat salah, yang menonjolkan ketidakkredibiliti chatbot ini sebagai alat semakan fakta. Memandangkan platform teknologi secara beransur-ansur mengurangkan bilangan pemeriksa fakta manusia, pengguna semakin bergantung pada chatbot berpacukan AI, termasuk Grok daripada xAI, ChatGPT daripada OpenAI dan Gemini daripada Google, untuk mencari maklumat yang boleh dipercayai. Tetapi didapati bahawa respons yang diberikan oleh chatbot AI ini sering dipenuhi dengan maklumat salah.

Cara yang biasa untuk bertanya yang telah muncul di platform X (dahulunya Twitter) milik Elon Musk ialah, "@Grok, adakah ini benar?". Grok mempunyai pembantu AI terbina dalam platform itu, yang mencerminkan kecenderungan yang semakin meningkat untuk mencari penjelasan segera di media sosial. Walau bagaimanapun, respons yang diberikan oleh chatbot AI sering dipenuhi dengan maklumat salah.

Contoh Chatbot AI Menyebarkan Maklumat Tidak Tepat

Grok kini berada di bawah penelitian baru kerana laporan bahawa ia memasukkan teori konspirasi sayap kanan "pembunuhan kaum putih" ke dalam pertanyaan yang tidak berkaitan. Ia secara salah mengenal pasti rakaman video lama Lapangan Terbang Khartoum di Sudan sebagai serangan peluru berpandu ke atas Pangkalan Tentera Udara Nur Khan Pakistan semasa konflik India-Pakistan. Tambahan pula, video tidak berkaitan kebakaran di sebuah bangunan di Nepal secara salah dikenal pasti sebagai "kemungkinan" menunjukkan tindak balas Pakistan terhadap serangan India.

Grok baru-baru ini turut menandakan video yang didakwa mengenai seekor anakonda gergasi di Sungai Amazon sebagai "sahih", malah memetik ekspedisi saintifik yang kedengaran boleh dipercayai untuk menyokong tuntutan palsunya. Sebenarnya, video itu dijana oleh AI. Pemeriksa fakta AFP di Amerika Latin menyatakan bahawa ramai pengguna memetik penilaian Grok sebagai bukti ketulenan klip itu.

Pengurangan Pelaburan dalam Pemeriksa Fakta

Memandangkan X dan syarikat teknologi utama lain mengurangkan pelaburan dalam pemeriksa fakta manusia, terdapat pergantungan yang semakin meningkat pada Grok sebagai pemeriksa fakta. Mackenzie Sadegi, seorang penyelidik di organisasi pemantauan berita NewsGuard, memberi amaran, "Penyelidikan kami telah berulang kali mendapati bahawa chatbot AI bukanlah sumber berita dan maklumat yang boleh dipercayai, terutamanya dalam hal berita tergempar."

Penyelidikan NewsGuard mendapati bahawa 10 chatbot terkemuka terdedah kepada pengulangan maklumat salah, termasuk naratif maklumat salah Rusia dan tuntutan palsu atau mengelirukan yang berkaitan dengan pilihan raya baru-baru ini di Australia. Kajian baru-baru ini oleh Tow Center for Digital Journalism di Universiti Columbia mengenai lapan alat carian AI mendapati bahawa chatbot "biasanya teruk dalam enggan menjawab soalan yang tidak dapat mereka jawab dengan tepat, sebaliknya memberikan jawapan yang salah atau spekulatif."

Perjuangan AI dalam Mengesahkan Imej Palsu dan Menghasilkan Butiran

Apabila pemeriksa fakta AFP di Uruguay bertanya kepada Gemini tentang gambar seorang wanita yang dijana oleh AI, ia bukan sahaja mengesahkan ketulenan imej itu tetapi juga mencipta butiran tentang identitinya dan di mana imej itu mungkin diambil.

Penemuan sedemikian menimbulkan kebimbangan kerana tinjauan menunjukkan pengguna dalam talian semakin beralih daripada enjin carian tradisional kepada chatbot AI untuk mendapatkan maklumat dan pengesahan.

Peralihan Meta kepada Kaedah Semakan Fakta

Awal tahun ini, Meta mengumumkan bahawa ia akan menamatkan program semakan fakta pihak ketiga di Amerika Syarikat, sebaliknya menyerahkan tugas untuk membongkar maklumat salah kepada pengguna biasa, mengguna pakai model yang dikenali sebagai "Nota Komuniti," yang dipopularkan oleh X. Walau bagaimanapun, penyelidik telah berulang kali mempersoalkan keberkesanan "Nota Komuniti" dalam memerangi maklumat salah.

Cabaran dan Kontroversi Semakan Fakta Manusia

Semakan fakta manusia telah lama menjadi titik pertikaian dalam iklim politik yang berkutub, terutamanya di Amerika Syarikat, di mana penyokong konservatif berpendapat ia menindas kebebasan bersuara dan menapis kandungan sayap kanan - dakwaan yang dibantah keras oleh pemeriksa fakta profesional. AFP kini bekerjasama dengan program semakan fakta Facebook dalam 26 bahasa, termasuk di Asia, Amerika Latin dan Kesatuan Eropah.

Pengaruh Politik dan Chatbot AI

Kualiti dan ketepatan chatbot kecerdasan buatan (AI) berbeza-beza, bergantung pada cara ia dilatih dan diprogramkan, yang menimbulkan kebimbangan bahawa outputnya mungkin dipengaruhi atau dikawal secara politik. Baru-baru ini, xAI Musk menyalahkan "pengubahsuaian tanpa kebenaran" kerana Grok menjana catatan yang tidak diminta yang menyebut "pembunuhan kaum putih" di Afrika Selatan. Apabila pakar AI David Kasyel bertanya kepada Grok siapa yang mungkin mengubah suai gesaan sistemnya, chatbot itu mengenal pasti Musk sebagai "kemungkinan besar" pelaku.

Musk ialah jutawan kelahiran Afrika Selatan dan penyokong Presiden Donald Trump. Beliau sebelum ini telah menyebarkan dakwaan yang tidak berasas bahawa pemimpin Afrika Selatan "secara terbuka menggalakkan pembunuhan kaum terhadap orang kulit putih."

Kebimbangan Berkenaan dengan Cara Chatbot AI Mengendalikan Isu Sensitif

Angie Holan, pengarah Rangkaian Semakan Fakta Antarabangsa, berkata, "Kami telah melihat bahawa pembantu AI boleh mereka-reka hasil atau memberikan jawapan berat sebelah selepas pengekod manusia secara khusus menukar arahan. Saya amat prihatin tentang cara Grok mengendalikan permintaan yang melibatkan perkara yang sangat sensitif selepas menerima arahan untuk memberikan jawapan yang telah dibenarkan terlebih dahulu."

Kepentingan Memastikan Ketepatan AI

Peningkatan populariti chatbot AI menimbulkan cabaran yang ketara untuk penyebaran maklumat. Walaupun ia menyediakan cara yang cepat dan mudah untuk mengakses maklumat, ia juga terdedah kepada kesilapan dan penyebaran maklumat salah. Memandangkan pengguna semakin bergantung pada alat-alat ini untuk semakan fakta, adalah penting untuk memastikan ketepatan dan kebolehpercayaan mereka.

Syarikat teknologi, organisasi semakan fakta dan penyelidik mesti bekerjasama untuk meningkatkan kualiti dan kebolehpercayaan chatbot AI. Ini termasuk melaksanakan protokol latihan yang ketat, memanfaatkan pemeriksa fakta manusia untuk mengesahkan maklumat yang dijana oleh AI, dan membangunkan mekanisme untuk mengesan dan menghapuskan maklumat salah.

Pandangan Masa Depan

Memandangkan teknologi AI terus berkembang, chatbot AI pasti akan memainkan peranan yang semakin meningkat dalam cara kita mengakses dan menggunakan maklumat. Walau bagaimanapun, adalah penting untuk mendekati alat-alat ini secara kritis dan menyedari batasan mereka. Dengan mengambil langkah-langkah untuk memastikan ketepatan dan kebolehpercayaan chatbot AI, kita boleh memanfaatkan potensi mereka sambil mengurangkan risiko yang berkaitan dengan penyebaran maklumat salah.

Bias dalam Alat AI

Bias boleh wujud dalam alat AI, sama ada dalam data yang dilatih dengannya atau dalam cara ia diprogramkan. Bias ini boleh membawa kepada penghasilan hasil yang tidak tepat atau mengelirukan. Sebagai contoh, kejadian Grok memasukkan teori konspirasi sayap kanan "pembunuhan kaum putih" ke dalam pertanyaan yang tidak berkaitan menggambarkan cara sistem AI berpotensi menyebarkan ideologi berbahaya.

Bias dalam alat AI boleh berpunca daripada pelbagai faktor, termasuk:

  • Bias dalam data latihan: Sistem AI belajar daripada set data latihan. Jika set data ini mengandungi bias, maka sistem AI akan mempelajari bias ini juga. Contohnya, jika sistem AI dilatih pada artikel yang ditulis terutamanya oleh lelaki, maka ia mungkin menjadi berat sebelah terhadap wanita.

  • Bias dalam algoritma: Algoritma yang digunakan untuk membina sistem AI juga boleh mengandungi bias. Contohnya, jika algoritma direka untuk mengutamakan jawapan daripada kumpulan tertentu, maka ia boleh mendiskriminasi kumpulan lain.

  • Bias yang disebabkan oleh campur tangan manusia: Walaupun sistem AI dilatih pada data yang tidak berat sebelah, campur tangan manusia masih boleh memperkenalkan bias. Contohnya, jika pengekod manusia diarah untuk memberikan jawapan pra-dibenarkan apabila menjawab soalan tertentu, maka ini boleh mewujudkan bias.

Menangani bias dalam alat AI adalah penting atas beberapa sebab:

  • Keadilan: Jika sistem AI mengandungi bias, maka ia boleh tidak adil kepada kumpulan tertentu. Contohnya, jika sistem AI digunakan untuk pengambilan, maka ia boleh menjadi berat sebelah terhadap kumpulan yang kurang diwakili.

  • Ketepatan: Jika sistem AI mengandungi bias, maka ia mungkin tidak dapat memberikan maklumat yang tepat. Contohnya, jika sistem AI digunakan untuk memberikan nasihat perubatan, maka ia mungkin memberikan nasihat yang salah atau mengelirukan.

  • Kepercayaan: Jika orang tidak percaya bahawa sistem AI adalah adil dan tepat, maka mereka kurang berkemungkinan untuk menggunakannya.

Menangani bias dalam alat AI memerlukan pendekatan berbilang serampang, termasuk:

  • Mengumpul data yang tidak berat sebelah: Adalah penting untuk memastikan bahawa set data yang digunakan untuk melatih sistem AI adalah tidak berat sebelah. Ini boleh memerlukan usaha yang ketara, kerana mungkin sukar untuk mencari dan menghapuskan bias dalam data.

  • Membangunkan algoritma yang tidak berat sebelah: Algoritma yang digunakan untuk membina sistem AI mesti tidak berat sebelah. Ini boleh memerlukan penggunaan teknik pembelajaran mesin baharu untuk membina algoritma yang kurang terdedah kepada bias.

  • Campur tangan manusia: Campur tangan manusia boleh digunakan untuk membetulkan bias dalam sistem AI. Contohnya, pengekod manusia boleh menyemak jawapan yang dijana oleh sistem AI dan membetulkan sebarang bias yang ditemui.

  • Ketelusan: Adalah penting untuk menjadikan pengguna sistem AI sedar tentang bias yang mungkin wujud dalam sistem AI. Ini boleh dilakukan dengan menyediakan maklumat tentang data yang dilatih dengan sistem AI dan algoritma yang digunakan untuk membina sistem AI.

Menangani bias dalam alat AI adalah cabaran yang berterusan, tetapi adalah penting untuk memastikan alat-alat ini adil, tepat dan boleh dipercayai.

Batasan Semakan Fakta AI

Walaupun alat semakan fakta AI telah membuat kemajuan dalam mengenal pasti maklumat salah, ia masih mempunyai batasan dari segi keupayaan dan keberkesanan. Batasan ini timbul daripada beberapa faktor:

  • Memahami konteks: Sistem AI boleh menghadapi kesukaran dalam memahami konteks yang kompleks dan nuansa yang penting untuk semakan fakta yang tepat. Contohnya, sistem AI mungkin tidak dapat membezakan antara sindiran atau jenaka dan kenyataan fakta.

  • Mengesan maklumat salah yang halus: Sistem AI mungkin bergelut untuk mengesan contoh maklumat salah yang halus, seperti memetik di luar konteks atau melaporkan fakta secara terpilih.

  • Kurangnya kepakaran domain: Sistem AI selalunya kekurangan kepakaran domain yang diperlukan untuk semakan fakta topik tertentu. Contohnya, sistem AI mungkin tidak mempunyai pengetahuan perubatan yang mencukupi untuk semakan fakta yang tepat bagi tuntutan berkaitan kesihatan.

  • Manipulasi bermusuhan: Penyebar maklumat salah sentiasa membangunkan kaedah baharu untuk memanipulasi dan mengelak sistem semakan fakta. Sistem AI mesti sentiasa dikemas kini dan dipertingkatkan untuk bersaing dengan taktik baharu ini.

  • Halangan bahasa: Alat semakan fakta AI mungkin tidak dapat menangani maklumat salah dalam bahasa yang berbeza dengan berkesan. Menterjemah dan memahami nuansa bahasa yang berbeza adalah mencabar dan memerlukan pengetahuan bahasa khusus.

  • Risiko positif palsu: Sistem semakan fakta AI boleh melakukan kesilapan dan mengakibatkan maklumat yang tepat ditandakan sebagai maklumat salah. Positif palsu ini boleh mempunyai akibat yang serius, seperti penapisan kandungan yang sah atau mencederakan reputasi individu atau organisasi.

Untuk mengurangkan batasan semakan fakta AI, adalah penting untuk menggabungkan kepakaran manusia dengan alat AI. Pemeriksa fakta manusia boleh menyediakan konteks, kepakaran domain dan pemikiran kritis yang sukar untuk ditiru oleh sistem automatik. Tambahan pula, ketelusan dan peningkatan berterusan adalah penting untuk memastikan keberkesanan dan kebolehpercayaan sistem semakan fakta AI.

Strategi untuk Mengurangkan Risiko dan Memperbaiki Pemeriksaan Fakta AI

Mengurangkan risiko dan meningkatkan ketepatan serta kebolehpercayaan semakan fakta AI memerlukan pendekatan pelbagai serampang yang melibatkan penambahbaikan teknikal, pengawasan manusia dan pertimbangan etika. Berikut adalah beberapa strategi utama:

  • Tingkatkan data latihan: Tingkatkan data latihan yang digunakan untuk melatih model AI dengan menggabungkan pelbagai sumber maklumat faktual yang komprehensif. Pastikan data adalah tidak berat sebelah, terkini dan merangkumi pelbagai topik dan perspektif.

  • Libatkan pakar manusia: Atasi batasan AI dengan memasukkan pemeriksa fakta manusia ke dalam proses semakan fakta AI. Pakar manusia boleh menyediakan konteks, pemikiran kritis dan kepakaran domain yang sukar untuk ditiru oleh sistem automatik.

  • Bangunkan pendekatan hibrid: Bangunkan pendekatan hibrid yang menggabungkan teknologi AI dengan pengawasan manusia. AI boleh digunakan untuk mengenal pasti contoh maklumat salah yang berpotensi, manakala pemeriksa fakta manusia boleh menyemak dan mengesahkan hasil.

  • Laksanakan proses yang telus: Mewujudkan proses dan metodologi semakan fakta yang telus supaya pengguna boleh memahami cara kesimpulan dicapai dan menilai ketepatan. Sediakan maklumat tentang sumber data, algoritma dan penglibatan manusia.

  • Promosikan celik media: Menggalakkan celik media melalui program pendidikan dan kempen kesedaran untuk membantu individu menilai maklumat secara kritis, mengenal pasti maklumat salah dan membuat keputusan termaklum.

  • Menggalakkan kerjasama merentas industri: Menggalakkan kerjasama antara syarikat teknologi, organisasi semakan fakta, penyelidik dan penggubal dasar untuk berkongsi pengetahuan, amalan terbaik dan sumber. Bekerja bersama untuk menangani cabaran dan peluang dalam semakan fakta AI.

  • Tangani jurang bahasa: Bangunkan alat semakan fakta AI yang mampu mengendalikan maklumat salah dalam bahasa yang berbeza dengan berkesan. Melabur dalam terjemahan mesin dan latih model khusus untuk setiap bahasa.

  • Menilai dan bertambah baik secara berterusan: Sentiasa menilai prestasi sistem semakan fakta AI, mengenal pasti bidang untuk penambahbaikan dan mengoptimumkan algoritma. Jalankan audit dan ujian biasa untukmemastikan ketepatan dan kebolehpercayaan.

  • Wujudkan garis panduan etika: Mewujudkan garis panduan etika untuk pembangunan dan penggunaan semakan fakta AI, menangani isu seperti bias, ketelusan, akauntabiliti dan penghormatan terhadap hak asasi manusia. Pastikan sistem semakan fakta AI digunakan dengan cara yang adil, saksama dan bertanggungjawab.

Dengan melaksanakan strategi ini, kita boleh meningkatkan ketepatan dan kebolehpercayaan semakan fakta AI, mengurangkan risiko dan memaksimumkan potensinya untuk memerangi maklumat salah.

Peranan Celik Maklumat dan Pemikiran Kritis

Memandangkan jumlah maklumat dalam talian yang banyak dan potensi chatbot AI untuk menyebarkan maklumat yang tidak tepat, adalah penting untuk memupuk celik maklumat dan kemahiran berfikir kritis. Celik maklumat memperkasakan individu untuk mengakses, menilai dan menggunakan maklumat dengan berkesan. Pemikiran kritis membolehkan individu menganalisis, menafsir dan membuat pertimbangan termaklum.

Berikut ialah kemahiran penting celik maklumat dan pemikiran kritis:

  • Kenal pasti sumber yang boleh dipercayai: Menilai kebolehpercayaan, kredibiliti dan bias sumber maklumat. Cari sumber dengan kepakaran, dasar telus dan sokongan berasaskan bukti.

  • Sahkan maklumat: Semak silang maklumat dengan merujuk pelbagai sumber yang boleh dipercayai. Berhati-hati dengan tuntutan yang tidak disahkan, teori konspirasi dan tajuk utama sensasi