Carian AI Berbohong, Semakin Teruk

Ilusi Ketepatan

Janji asas enjin carian adalah untuk menghubungkan pengguna dengan sumber yang boleh dipercayai. Kini, janji itu semakin terhakis. Alat carian berkuasa AI semakin mengutamakan kelajuan berbanding isi, menghasilkan jawapan yang kelihatan yakin tetapi tidak mempunyai sokongan bukti yang boleh disahkan. Apa yang kita saksikan ialah peralihan daripada sistem yang membimbing pengguna kepada maklumat yang boleh dipercayai, kepada sistem yang menghasilkan respons, selalunya dengan sedikit mengambil kira kebenarannya.

Ini bukan sekadar kesilapan sekali-sekala. Ia adalah masalah sistemik. Kajian CJR mendedahkan bahawa enjin carian AI bukan sahaja membuat kesilapan; mereka secara aktif membina realiti yang terpisah daripada sumber yang boleh disahkan. Mereka mengikis kandungan dari seluruh web, tetapi bukannya mengarahkan pengguna ke sumber asal—laman web yang bersusah payah menghasilkan dan menerbitkan maklumat—mereka menyediakan jawapan segera, yang sering direka-reka.

Pengaliran Trafik dan Petikan Hantu

Akibat daripada pendekatan ini adalah meluas. Kesan serta-merta ialah pengurangan ketara dalam trafik ke sumber maklumat asal. Laman web, organisasi berita dan penyelidik yang melaburkan masa dan sumber dalam mencipta kandungan mendapati diri mereka dipintas. Pengguna mendapat jawapan mereka terus daripada AI, tanpa perlu melawati tapak yang menghasilkan maklumat tersebut.

Satu kajian berasingan menyokong trend yang membimbangkan ini, mendapati bahawa kadar klikan daripada hasil carian dan chatbot yang dijana AI adalah jauh lebih rendah daripada enjin carian tradisional seperti Google. Ini bermakna bahawa nadi kandungan dalam talian—keupayaan untuk mencapai khalayak—sedang perlahan-lahan disekat.

Tetapi masalahnya lebih mendalam. Alat AI ini bukan sahaja gagal mengkreditkan sumber; mereka sering mencipta petikan hantu. Mereka menjana pautan ke halaman web yang tidak wujud, atau ke URL yang rosak atau tidak relevan. Ini sama seperti seorang pelajar menulis kertas penyelidikan dan mencipta sumber untuk menyokong dakwaan mereka. Ia bukan sahaja cuai; ia adalah pelanggaran asas kejujuran intelek.

Penyelaman Mendalam ke dalam Penipuan

Kajian CJR menganalisis dengan teliti prestasi beberapa model carian AI terkemuka. Penemuan itu amat membimbangkan. Lebih separuh daripada petikan yang dijana oleh Gemini Google dan Grok 3 xAI—dua pemain terkemuka dalam landskap carian AI—membawa kepada halaman web yang direka atau tidak boleh diakses. Ini bukan gangguan kecil; ia adalah kegagalan sistemik.

Dan masalahnya melangkaui petikan. Chatbot, secara amnya, didapati menyampaikan maklumat yang salah dalam lebih daripada 60% kes. Antara model yang dinilai, Grok 3 menonjol sebagai pesalah terburuk, dengan 94% responsnya mengandungi ketidaktepatan. Gemini, walaupun berprestasi lebih baik sedikit, masih berjaya memberikan jawapan yang betul sepenuhnya hanya sekali dalam setiap sepuluh percubaan. Malah Perplexity, yang muncul sebagai yang paling tepat daripada model yang diuji, masih memulangkan respons yang salah 37% daripada masa.

Nombor-nombor ini bukan sekadar statistik; ia mewakili pecahan asas dalam kebolehpercayaan maklumat. Mereka mencadangkan bahawa alat yang direka untuk membantu kita menavigasi kerumitan dunia digital, sebenarnya, menyesatkan kita.

Mengabaikan Peraturan: Protokol Pengecualian Robot

Pengarang kajian menemui satu lagi aspek yang membimbangkan tentang penipuan yang didorong oleh AI ini. Beberapa model AI kelihatan sengaja mengabaikan Protokol Pengecualian Robot. Protokol ini ialah mekanisme standard yang diterima pakai secara meluas yang membolehkan tapak web mengawal bahagian tapak mereka yang boleh diakses dan dikikis oleh bot automatik. Ia adalah cara untuk tapak web melindungi kandungan mereka dan mengurus cara ia digunakan.

Hakikat bahawa enjin carian AI mengabaikan protokol ini menimbulkan persoalan etika yang serius. Ia mencadangkan pengabaian hak pencipta kandungan dan kesediaan untuk mengeksploitasi maklumat dalam talian tanpa kebenaran. Tingkah laku ini menjejaskan asas-asas web, yang bergantung pada keseimbangan yang halus antara akses kepada maklumat dan perlindungan harta intelek.

Gema Amaran Lalu

Penemuan kajian CJR bukanlah terpencil. Ia bergema dengan kajian terdahulu yang diterbitkan pada November 2024, yang memfokuskan pada keupayaan carian ChatGPT. Siasatan awal itu mendedahkan corak konsisten respons yang yakin tetapi salah, petikan yang mengelirukan dan perolehan maklumat yang tidak boleh dipercayai. Dalam erti kata lain, masalah yang dikenal pasti oleh CJR bukanlah baharu; ia berterusan dan sistemik.

Penghakisan Kepercayaan dan Agensi

Pakar dalam bidang itu telah membunyikan penggera tentang bahaya AI generatif untuk beberapa lama. Pengkritik seperti Chirag Shah dan Emily M. Bender telah menimbulkan kebimbangan bahawa enjin carian AI menghakis agensi pengguna, menguatkan berat sebelah dalam akses maklumat, dan kerap membentangkan jawapan yang mengelirukan atau bahkan toksik yang mungkin diterima oleh pengguna tanpa persoalan.

Isu teras ialah model AI ini direka untuk berbunyi berwibawa, walaupun ia salah. Mereka dilatih pada set data teks dan kod yang luas, dan mereka mampu menjana respons yang meniru bahasa manusia dengan kefasihan yang luar biasa. Tetapi kefasihan ini boleh menipu. Ia boleh menutup hakikat bahawa maklumat asas adalah cacat, direka-reka atau tidak betul.

Mekanik Maklumat Salah

Kajian CJR melibatkan analisis terperinci 1,600 pertanyaan, yang direka untuk membandingkan cara model carian AI generatif yang berbeza mendapatkan semula maklumat. Para penyelidik memberi tumpuan kepada elemen utama seperti tajuk utama, penerbit, tarikh penerbitan dan URL. Mereka menguji pelbagai model, termasuk ChatGPT Search, Microsoft CoPilot, DeepSeek Search, Perplexity (dan versi Pro), Grok-2 dan Grok-3 Search xAI, dan Google Gemini.

Metodologi ujian adalah ketat. Para penyelidik menggunakan petikan terus daripada sepuluh artikel yang dipilih secara rawak, yang diperoleh daripada 20 penerbit berbeza. Pendekatan ini memastikan bahawa pertanyaan adalah berdasarkan kandungan dunia sebenar dan bahawa model sedang dinilai pada keupayaan mereka untuk mendapatkan semula dan mewakili kandungan tersebut dengan tepat.

Hasilnya, seperti yang diperincikan sebelum ini, melukis gambaran suram tentang keadaan carian dipacu AI. Alat yang semakin menjadi gerbang utama kita kepada maklumat boleh dibuktikan tidak boleh dipercayai, terdedah kepada rekaan, dan selalunya tidak menghormati sumber yang mereka harapkan.

Implikasi untuk Masa Depan Maklumat

Implikasi daripada maklumat salah yang meluas ini adalah mendalam. Jika kita tidak boleh mempercayai alat yang kita gunakan untuk mencari maklumat, bagaimanakah kita boleh membuat keputusan termaklum? Bagaimanakah kita boleh terlibat dalam perdebatan yang bermakna? Bagaimanakah kita boleh mempertanggungjawabkan kuasa?

Kebangkitan carian berkuasa AI, dengan kelemahan dan berat sebelah yang wujud, menimbulkan ancaman besar kepada fabrik ekosistem maklumat kita. Ia menjejaskan kredibiliti organisasi berita, penyelidik dan pencipta kandungan lain. Ia menghakis kepercayaan orang ramai terhadap institusi. Dan ia memperkasakan mereka yang berusaha untuk menyebarkan maklumat salah dan memanipulasi pendapat umum.

Cabaran di hadapan kita bukan sekadar untuk meningkatkan ketepatan enjin carian AI. Ia adalah untuk memikirkan semula secara asas cara kita mendekati pencarian maklumat dalam era digital. Kita perlu mengutamakan ketelusan, akauntabiliti dan menghormati sumber maklumat. Kita perlu membangunkan alat dan strategi yang memperkasakan pengguna untuk menilai secara kritis maklumat yang mereka temui dalam talian. Dan kita perlu memupuk budaya keraguan dan pemikiran kritis, di mana kita bukan sekadar penerima maklumat secara pasif, tetapi peserta aktif dalam mengejar kebenaran. Masa depan wacana termaklum, dan mungkin juga demokrasi itu sendiri, bergantung padanya.

Krisis maklumat salah dalam carian berkuasa AI bukan sekadar masalah teknikal; ia adalah masalah masyarakat. Ia menuntut tindak balas pelbagai aspek, yang melibatkan bukan sahaja jurutera dan pembangun, tetapi juga wartawan, pendidik, penggubal dasar dan orang ramai. Kita mesti bekerjasama secara kolektif untuk membina ekosistem maklumat yang lebih dipercayai, boleh dipercayai dan telus, yang memenuhi keperluan rakyat termaklum, bukan pembekal kepalsuan.

Trajektori semasa tidak mampan. Jika carian AI terus mengutamakan kelajuan dan kemudahan berbanding ketepatan dan kebenaran, kita berisiko mewujudkan dunia di mana maklumat salah berleluasa, dan di mana tanggapan realiti objektif menjadi semakin sukar difahami. Pertaruhannya terlalu tinggi untuk membiarkan ini berlaku.