Pengguna X Guna Grok, Kebimbangan Maklumat Salah

Kebangkitan AI dalam Pengesahan Maklumat

Integrasi AI ke dalam platform media sosial bukanlah perkara baru. Langkah X untuk membenarkan pengguna berinteraksi dengan Grok xAI, dalam beberapa cara, hanya mengikut trend. Ini mencerminkan pendekatan Perplexity, yang mengendalikan akaun automatik di X untuk menawarkan pengalaman yang serupa.

Selepas xAI mewujudkan kehadiran automatik Grok di X, pengguna dengan pantas mula meneroka keupayaannya, mengemukakan soalan dan mencari jawapan. Di rantau seperti India, corak yang membimbangkan muncul: individu mula menggunakan Grok untuk mengesahkan komen dan pertanyaan, yang kebanyakannya menyasarkan ideologi politik tertentu.

Kebimbangan Pemeriksa Fakta Manusia

Kebergantungan pada Grok ini, dan sememangnya mana-mana pembantu AI seumpamanya, untuk pemeriksaan fakta adalah punca kebimbangan yang serius. Sifat bot AI ini ialah ia boleh merumuskan respons yang kedengaran meyakinkan, tanpa mengira ketepatan faktanya. Ini bukan kebimbangan teori; Grok mempunyai sejarah yang didokumentasikan menyebarkan berita palsu dan maklumat salah.

Satu contoh ketara berlaku, di mana beberapa setiausaha negeri merayu kepada Musk untuk menggubal pengubahsuaian penting kepada Grok. Permintaan mendesak ini menyusuli kemunculan maklumat mengelirukan, yang dijana oleh pembantu AI, di rangkaian sosial, menimbulkan kebimbangan menjelang pilihan raya.

Grok tidak bersendirian dalam hal ini. Chatbot terkemuka lain, termasuk ChatGPT OpenAI dan Gemini Google, juga didapati menghasilkan maklumat yang tidak tepat berkaitan dengan pilihan raya. Penyelidik maklumat salah seterusnya menggariskan potensi penyalahgunaan, mendedahkan pada tahun 2023 bahawa chatbot AI seperti ChatGPT boleh dieksploitasi dengan mudah untuk menjana teks persuasif yang mengandungi naratif yang mengelirukan.

Ilusi Ketulenan

Angie Holan, pengarah International Fact-Checking Network (IFCN) di Poynter, menyatakan isu teras, berkata, “Pembantu AI, seperti Grok, mereka sangat mahir menggunakan bahasa semula jadi dan memberikan jawapan yang kedengaran seperti manusia yang mengatakannya. Dan dengan cara itu, produk AI mempunyai tuntutan terhadap keaslian dan respons yang berbunyi tulen, walaupun ia berpotensi sangat salah. Itulah bahayanya di sini.”

Bahayanya, seperti yang ditekankan oleh Holan, terletak pada penampilan ketulenan yang menipu. Keupayaan AI untuk meniru bahasa manusia mewujudkan ilusi kredibiliti, walaupun maklumat asasnya cacat atau direka sepenuhnya.

Perbezaan Asas: AI lwn. Pemeriksa Fakta Manusia

Perbezaan antara pembantu AI dan pemeriksa fakta manusia adalah ketara. Pemeriksa fakta manusia dengan teliti mengesahkan maklumat, menggunakan pelbagai sumber yang boleh dipercayai. Mereka beroperasi dengan ketelusan, melampirkan nama dan gabungan organisasi mereka pada penemuan mereka, dengan itu memastikan akauntabiliti dan meningkatkan kredibiliti.

Pratik Sinha, pengasas bersama laman web pemeriksaan fakta bukan untung India, Alt News, menegaskan bahawa walaupun respons Grok mungkin kelihatan meyakinkan pada masa ini, ketepatannya pada asasnya dihadkan oleh data yang diterimanya. “Siapa yang akan memutuskan data apa yang dibekalkan, dan di situlah campur tangan kerajaan, dan lain-lain, akan memainkan peranan,” katanya, sambil menekankan isu kritikal ketelusan sumber data.

Kekurangan ketelusan, Sinha menekankan, adalah tempat pembiakan untuk potensi bahaya. “Apa-apa sahaja yang tidak mempunyai ketelusan akan menyebabkan kemudaratan kerana apa-apa sahaja yang tidak mempunyai ketelusan boleh dibentuk dalam apa jua cara.”

Pengakuan Grok Sendiri: Potensi Penyalahgunaan

Dalam kelainan yang agak ironis, akaun Grok di X, dalam salah satu respons yang disiarkan, mengakui bahawa ia “boleh disalahgunakan — untuk menyebarkan maklumat salah dan melanggar privasi.”

Walaupun pengakuan ini, akaun automatik gagal memberikan sebarang penafian kepada pengguna yang menerima jawapannya. Peninggalan ini menyebabkan pengguna terdedah kepada maklumat yang salah, terutamanya dalam kes di mana AI telah “berhalusinasi” jawapannya, fenomena yang didokumentasikan dengan baik dalam bidang AI di mana sistem menjana maklumat palsu atau tidak masuk akal.

Anushka Jain, seorang penyelidik bersekutu di Digital Futures Lab, menghuraikan perkara ini, menyatakan, “Ia mungkin mengada-adakan maklumat untuk memberikan respons.” Kecenderungan untuk mereka-reka maklumat ini menggariskan batasan yang wujud dalam AI dalam konteks pemeriksaan fakta.

Dilema Data Latihan

Lapisan kerumitan selanjutnya timbul daripada persoalan data latihan Grok. Terdapat ketidakpastian mengenai sejauh mana Grok menggunakan siaran di X sebagai bahan latihan, dan langkah kawalan kualiti, jika ada, yang digunakan untuk menyemak fakta siaran tersebut. Perubahan yang dilaksanakan sebelum ini seolah-olah memberikan Grok akses lalai kepada data pengguna X, menimbulkan kebimbangan tentang potensi AI untuk menyerap dan menyebarkan maklumat salah yang terdapat di platform.

Penggunaan Awam lwn. Peribadi Maklumat Dijana AI

Satu lagi kebimbangan penting berkisar tentang sifat awam pembantu AI seperti Grok di platform media sosial. Tidak seperti interaksi dengan chatbot seperti ChatGPT, yang biasanya berlaku dalam tetapan peribadi, respons Grok dihantar secara terbuka.

Penyebaran awam ini mewujudkan situasi di mana, walaupun seorang pengguna sedar bahawa maklumat yang diberikan oleh AI mungkin tidak tepat, pengguna lain di platform mungkin masih menerimanya sebagai kebenaran. Ini boleh membawa kepada akibat sosial yang serius.

Terdapat duluan sejarah. India, sebagai contoh, menyaksikan insiden tragis hukuman mati beramai-ramai yang didorong oleh maklumat salah yang diedarkan melalui WhatsApp. Peristiwa ini, walaupun mendahului ketersediaan meluas Generative AI, berfungsi sebagai peringatan yang jelas tentang bahaya dunia sebenar maklumat salah yang tidak disemak. Kemunculan GenAI, dengan keupayaannya untuk menjana kandungan sintetik yang kelihatan sangat realistik, hanya menguatkan risiko ini.

Kadar Ralat AI

Holan IFCN memberi amaran bahawa, “Jika anda melihat banyak jawapan Grok ini, anda akan berkata, hei, kebanyakannya betul, dan mungkin begitu, tetapi akan ada beberapa yang salah. Dan berapa banyak? Ia bukan pecahan kecil. Beberapa kajian penyelidikan telah menunjukkan bahawa model AI tertakluk kepada kadar ralat 20%… dan apabila ia salah, ia boleh menjadi sangat salah dengan akibat dunia sebenar.”

Kadar ralat 20%, seperti yang ditekankan oleh Holan, adalah angka yang besar. Ia menggariskan ketidakbolehpercayaan AI yang wujud dalam situasi yang menuntut ketepatan fakta. Dan, seperti yang ditekankannya, akibat daripada kesilapan ini boleh menjadi mendalam, menjangkau jauh di luar alam digital.

AI: Alat, Bukan Pengganti Pertimbangan Manusia

Walaupun syarikat AI, termasuk xAI, terus memperhalusi model mereka untuk mencapai komunikasi yang lebih seperti manusia, realiti asas kekal: AI tidak boleh, dan tidak sepatutnya, menggantikan pertimbangan manusia, terutamanya dalam domain kritikal pemeriksaan fakta.

Trend dalam kalangan syarikat teknologi untuk meneroka jalan untuk mengurangkan pergantungan kepada pemeriksa fakta manusia adalah punca kebimbangan. Platform seperti X dan Meta telah menerima konsep pemeriksaan fakta sumber ramai, yang dicontohkan oleh inisiatif seperti ‘Community Notes’. Peralihan ini, walaupun berpotensi menawarkan kelebihan tertentu, juga menimbulkan persoalan tentang potensi hakisan piawaian pemeriksaan fakta yang ketat.

Ayunan Bandul Kembali kepada Pemeriksaan Fakta Manusia?

Sinha dari Alt News menyatakan pandangan optimistik, mencadangkan bahawa orang ramai akhirnya akan belajar untuk membezakan antara output mesin dan kerja pemeriksa fakta manusia, akhirnya menghargai ketepatan dan kebolehpercayaan yang terakhir.

“Kita akan melihat bandul berayun kembali akhirnya ke arah lebih banyak pemeriksaan fakta,” ramal Holan IFCN.

Walau bagaimanapun, beliau memberi amaran bahawa dalam tempoh interim, pemeriksa fakta berkemungkinan menghadapi beban kerja yang meningkat disebabkan oleh penyebaran pesat maklumat yang dijana AI. Cabarannya adalah untuk menentang arus maklumat salah dengan berkesan, memastikan bahawa orang ramai kekal dimaklumkan oleh kebenaran, bukan oleh ilusi yang meyakinkan.

Soalan Teras: Mengambil Berat tentang Kebenaran

Di tengah-tengah perkara itu terletak persoalan asas: “Adakah anda benar-benar mengambil berat tentang apa yang sebenarnya benar atau tidak? Adakah anda hanya mencari lapisan sesuatu yang kedengaran dan terasa benar tanpa benar-benar benar? Kerana itulah yang akan diberikan oleh bantuan AI kepada anda,” kata Holan.

Soalan ini merangkumi dilema kritikal yang ditimbulkan oleh kebangkitan AI dalam penyebaran maklumat. Adakah kita, sebagai sebuah masyarakat, bersedia untuk mengutamakan kemudahan dan penampilan kebenaran berbanding proses yang susah payah untuk mengesahkan fakta? Jawapan kepada soalan ini akhirnya akan membentuk masa depan maklumat, menentukan sama ada kita tunduk kepada dunia realiti yang direka atau menegakkan prinsip kebenaran dan ketepatan.