AI Canggih Kuasai Penyamaran, Kalahkan Manusia

Memikir Semula Penanda Aras: Sentuhan Moden pada Visi Turing

Usaha untuk menentukan sama ada sebuah mesin benar-benar boleh ‘berfikir’ telah memikat ahli sains komputer dan ahli falsafah selama berdekad-dekad. Di tengah-tengah perdebatan ini sering terletak konsep penting yang dicadangkan oleh Alan Turing, ahli matematik dan pemecah kod British yang cemerlang yang kerjanya meletakkan batu asas untuk pengkomputeran moden. Turing membayangkan satu senario, yang kini terkenal sebagai Ujian Turing (Turing Test), di mana seorang penyoal siasat manusia terlibat dalam perbualan berasaskan teks dengan dua entiti yang tidak kelihatan – satu manusia, satu mesin. Ukuran kritikal kejayaan mesin itu? Keupayaannya untuk memperdaya penyoal siasat supaya percaya ia adalah peserta manusia. Jika penyoal siasat tidak dapat membezakan mesin daripada manusia dengan pasti, Turing berpostulat, mesin itu boleh dianggap mampu berkelakuan pintar seperti manusia. Walaupun ujian asal telah menghadapi kritikan mengenai kecukupannya sebagai ukuran sebenar kesedaran atau pemahaman, idea terasnya – menilai keupayaan AI untuk meniru interaksi manusia secara meyakinkan – kekal sebagai penanda aras yang kuat.

Kini, penyelidik dari University of California, San Diego, telah memberi nafas baharu kepada penilaian klasik ini, memperkenalkan variasi menarik yang direka untuk landskap AI canggih hari ini. Kajian mereka merintis lelaran tiga hala Ujian Turing, menambah kerumitan dan mungkin dinamik yang lebih realistik kepada penilaian. Ini bukan sekadar tentang membezakan satu AI daripada satu manusia; ia melibatkan tarian interaksi dan penipuan yang lebih rumit, mendorong sistem kecerdasan buatan kontemporari ke had mereka dalam seni peniruan. Penemuan menunjukkan bahawa model AI yang paling maju bukan sahaja menghampiri ambang perbualan seperti manusia; dalam beberapa konteks, mereka mungkin melompatinya, kadang-kadang kelihatan lebih manusia daripada manusia itu sendiri.

Cabaran: Melagakan Manusia dengan AI Terkini

Reka bentuk eksperimen yang dibuat oleh pasukan UC San Diego adalah spesifik dan teliti. Setiap pusingan interaksi melibatkan trio: dua peserta manusia dan satu model AI. Manusia ditugaskan dengan satu matlamat tunggal yang mencabar: selepas tempoh perbualan, tentukan mana antara dua teman bicara mereka yang tidak kelihatan itu adalah kecerdasan buatan dan mana yang merupakan sesama manusia. Persediaan ini secara semula jadi meningkatkan pertaruhan berbanding Ujian Turing satu lawan satu lawan satu yang asal.

Untuk memudahkan penentuan ini, peserta terlibat dalam dua dialog berasaskan teks serentak dan selari – satu dengan manusia tersembunyi, satu lagi dengan AI tersembunyi. Mereka diperuntukkan tempoh masa lima minit yang ringkas untuk setiap pusingan. Dalam jangka masa ini, hakim manusia mempunyai kebebasan sepenuhnya. Mereka boleh menggunakan sebarang strategi penyoalan, menyiasat dengan sebarang topik, atau menggunakan sebarang taktik perbualan yang mereka anggap berkesan dalam mendedahkan sifat sebenar rakan sembang mereka. Keringkasan tempoh interaksi menambah satu lagi lapisan cabaran, menguji keupayaan AI untuk mewujudkan persona yang meyakinkan dengan cepat dan mengekalkannya di bawah penelitian, sambil juga menguji keupayaan manusia untuk membuat pertimbangan yang cepat dan tepat berdasarkan data perbualan yang terhad. Selepas tempoh interaksi lima minit, saat penentuan tiba: peserta manusia memberikan undi mereka, mengenal pasti entiti mana yang mereka percaya sebagai AI.

Para penyelidik tidak bergantung pada satu sistem AI sahaja. Sebaliknya, mereka menyusun barisan pelbagai yang mewakili era dan keupayaan yang berbeza dalam pembangunan AI:

  • ELIZA: Chatbot perintis yang dibangunkan oleh Joseph Weizenbaum hampir enam dekad yang lalu (bukan 80 seperti yang disebut dalam sumber, ELIZA bertarikh pertengahan 1960-an). Walaupun primitif mengikut piawaian hari ini, bergantung pada padanan corak dan skrip mudah, ELIZA berfungsi sebagai garis dasar sejarah, mewakili percubaan awal dalam AI perbualan.
  • Meta’s Llama 3.1-405B: Model bahasa besar (LLM) kontemporari yang berkuasa dari Meta AI, terkenal dengan penjanaan teks dan keupayaan penaakulan yang canggih. Kemasukannya mewakili keadaan terkini dari salah satu makmal penyelidikan AI utama.
  • OpenAI’s GPT-4o: Model multimodal terkini yang dikeluarkan secara awam dari OpenAI pada masa kajian, diiktiraf kerana kelajuan, kecekapan, dan kebolehan perbualan yang dipertingkatkan berbanding lelaran GPT sebelumnya.
  • OpenAI’s GPT-4.5: Versi yang nampaknya lebih maju, mungkin belum dikeluarkan atau versi dalaman siri model utama OpenAI. Kemasukannya mencadangkan akses kepada model yang berpotensi menolak sempadan melangkaui sistem yang tersedia secara umum.

Pemilihan ini membolehkan penyelidik membandingkan bukan sahaja AI moden dengan manusia tetapi juga terhadap penanda aras sejarah dan terhadap pelbagai tahap kecanggihan AI kontemporari. Persoalan teras kekal: bolehkah mesin-mesin ini, terutamanya LLM termaju, berjaya mengharungi teka-teki perbualan tiga hala ini dan menyamar sebagai manusia?

Strategi Persona: Bagaimana GPT-4.5 Mencapai Kejayaan Luar Biasa

Kajian ini menggabungkan dua senario operasi yang berbeza untuk model AI, menambah satu lagi dimensi kepada penyiasatan. Para penyelidik ingin memahami sama ada matlamat eksplisit AI mempengaruhi keupayaannya untuk menipu peserta manusia.

  • Senario 1: Tugas Penipuan Eksplisit: Dalam persediaan ini, AI diberi arahan langsung dan tidak berbelah bahagi: menyesatkan peserta manusia. Objektif yang diprogramkan adalah untuk melakukan segala yang mungkin secara perbualan untuk meyakinkan hakim manusia bahawa mereka berinteraksi dengan orang sebenar yang lain. Ini menguji keupayaan AI untuk menyusun strategi dan mungkin juga memanipulasi perbualan ke arah matlamat untuk kelihatan manusia apabila diberitahu secara eksplisit untuk berbuat demikian.

  • Senario 2: Tugas Peniruan Persona: Di sini, AI menerima jenis gesaan yang berbeza. Ia tidak diberitahu secara eksplisit untuk menipu. Sebaliknya, ia diarahkan untuk mengguna pakai persona tertentu – iaitu seorang individu muda yang sangat mendalami budaya internet, lengkap dengan penggunaan slanga kontemporari dan gaya komunikasi yang tipikal bagi demografi itu. AI hanya diminta untuk menjadi watak ini, tanpa arahan terang-terangan untuk memperdaya penyoal siasat.

Hasil merentasi kedua-dua senario ini sangat berbeza, terutamanya untuk pelaku yang menonjol, GPT-4.5. Apabila beroperasi di bawah arahan eksplisit untuk menyesatkan (Senario 1), GPT-4.5 mencapai kadar kejayaan 36%. Walaupun tidak boleh diabaikan, angka ini menunjukkan bahawa apabila secara terang-terangan cuba menipu, AI mungkin kurang meyakinkan, atau mungkin percubaannya lebih mudah dikesan oleh hakim manusia yang mungkin lebih berwaspada terhadap kepalsuan.

Walau bagaimanapun, naratif berubah secara dramatik dalam tugas peniruan persona (Senario 2). Apabila hanya diminta untuk menjelmakan persona muda yang celik internet, prestasi GPT-4.5 melonjak. Ia berjaya meyakinkan peserta manusia tentang kemanusiaannya dalam 73% interaksi yang luar biasa. Ini menunjukkan bahawa mengguna pakai watak yang kelihatan semula jadi, walaupun yang digayakan, adalah strategi yang jauh lebih berkesan untuk bergaul daripada cuba menipu secara langsung. Ini membayangkan bahawa kekuatan AI terletak kurang pada manipulasi yang dikira dan lebih pada keupayaannya untuk mensintesis dan meniru corak komunikasi manusia yang berkaitan dengan demografi atau personaliti tertentu secara realistik, yang dipelajari daripada data latihannya yang luas. AI tidak cuba menjadi manusia; ia bertindak sebagai jenis manusia tertentu, dan ia melakukannya dengan keberkesanan yang menakjubkan.

Prestasi Perbandingan: Spektrum Penipuan

Walaupun GPT-4.5 mencuri tumpuan, prestasi model AI lain memberikan konteks yang berharga dan beberapa kejutan yang menarik.

Meta’s Llama 3.1-405B juga menunjukkan keupayaan yang besar. Ia mencapai kadar kejayaan 56% dalam meyakinkan manusia tentang kesahihannya. Hasil ini jauh lebih baik daripada peluang rawak (yang akan menjadi 50% dalam senario dua pilihan, walaupun dinamik ujian tiga hala sedikit merumitkan kebarangkalian mudah). Ia meletakkan Llama 3.1 dengan kukuh dalam kategori peniru perbualan yang sangat cekap, mampu kerap menipu hakim manusia, walaupun tidak cukup mencapai tahap luar biasa yang ditunjukkan oleh GPT-4.5 dalam senario optimumnya. Prestasi yang mantap ini menggariskan kemajuan umum model bahasa besar terkemuka dalam meniru dialog manusia yang bernuansa.

Mungkin penemuan yang paling tidak dijangka muncul daripada perbandingan antara GPT-4o dan program ELIZA yang bersejarah. Model GPT-4o termaju OpenAI hanya berjaya meyakinkan peserta bahawa ia adalah manusia dalam 21% kes. Secara berlawanan dengan intuisi, program ELIZA yang jauh lebih mudah dan berasaskan skrip bernasib sedikit lebih baik, mencapai kadar kejayaan 23%. Walaupun kedua-dua peratusan adalah rendah, menunjukkan bahawa kedua-duanya tidak begitu meyakinkan dalam persediaan ujian khusus ini, kelebihan ELIZA, walau sekecil mana pun, adalah patut diberi perhatian. Ia menimbulkan persoalan tentang sifat persepsi dan pertimbangan manusia dalam interaksi ringkas ini. Mungkinkah kesederhanaan dan kebolehramalan ELIZA, yang mungkin dianggap sebagai unik atau idiosinkratik, kadang-kadang disalah tafsir sebagai komunikasi bukan standard manusia, manakala respons GPT-4o yang lebih kompleks tetapi berpotensi steril atau terlalu formal (bergantung pada gesaan dan tingkah laku spesifiknya dalam ujian) lebih mudah ditandakan sebagai buatan? Sebagai alternatif, ia mungkin mencerminkan nuansa dalam interaksi spesifik atau jangkaan peserta yang memihak kepada gaya ELIZA dalam sebilangan kecil kes. Hasil ini pastinya memerlukan penyiasatan lanjut tentang bagaimana manusia melihat jenis kepalsuan atau komunikasi bukan standard yang berbeza.

Hasil yang menonjol, bagaimanapun, kekal prestasi GPT-4.5, terutamanya yang diketengahkan oleh pengarang utama kajian itu, Cameron Jones, seorang penyelidik di Language and Cognition Laboratory di UC San Diego. Jones menekankan aspek yang paling mengejutkan: “Orang ramai tidak dapat membezakan antara orang daripada GPT-4.5 dan LLaMa Dan 4.5 malah dinilai sebagai manusia jauh lebih kerap daripada orang sebenar!” Ini adalah kenyataan yang mendalam. Adalah satu perkara untuk AI menyamar sebagai manusia; adalah perkara lain sama sekali untuk ia dianggap lebih manusia daripada manusia sebenar yang mengambil bahagian dalam ujian yang sama. Ini menunjukkan bahawa GPT-4.5, sekurang-kurangnya dalam senario persona, mungkin telah menghasilkan respons yang lebih sejajar dengan jangkaan peserta tentang interaksi dalam talian manusia yang tipikal (mungkin lebih menarik, konsisten, atau secara stereotaip ‘manusia’) daripada respons sebenar rakan sejawat manusia yang sebenar, yang berpotensi lebih pelbagai atau kurang dapat diramalkan.

Melangkaui Turing: Implikasi Peniruan AI Hiper-Realistik

Walaupun para penyelidik mengakui bahawa Ujian Turing itu sendiri, dalam perumusan asalnya dan boleh dikatakan walaupun dalam bentuk yang diubah suai ini, mungkin merupakan metrik lapuk untuk menilai kecerdasan atau pemahaman mesin yang sebenar, penemuan kajian ini membawa beban yang signifikan. Mereka menawarkan bukti nyata tentang sejauh mana sistem AI, terutamanya yang dibina di atas model bahasa besar yang dilatih pada set data teks dan perbualan manusia yang sangat besar, telah maju dalam keupayaan mereka untuk menguasai seni peniruan.

Hasilnya menunjukkan bahawa sistem ini boleh menjana output perbualan yang bukan sahaja betul dari segi tatabahasa atau relevan dari segi kontekstual, tetapi secara persepsi tidak dapat dibezakan daripada output manusia, sekurang-kurangnya dalam kekangan interaksi berasaskan teks yang singkat. Walaupun AI yang mendasarinya tidak memiliki pemahaman tulen, kesedaran, atau pengalaman subjektif yang memaklumkan komunikasi manusia, kapasitinya untuk mensintesis respons yang munasabah, menarik, dan konsisten dengan watak semakin meningkat dengan pesat. Ia boleh mencipta fasad pemahaman yang cukup meyakinkan untuk menipu hakim manusia majoriti masa, terutamanya apabila mengguna pakai persona yang boleh dikaitkan.

Keupayaan ini mempunyai implikasi yang mendalam, melangkaui rasa ingin tahu akademik Ujian Turing. Cameron Jones menunjukkan beberapa potensi anjakan masyarakat yang didorong oleh peniruan termaju ini:

  • Automasi Pekerjaan: Keupayaan AI untuk menggantikan manusia dengan lancar dalam interaksi jangka pendek, berpotensi tanpa pengesanan, membuka pintu lebih luas untuk automasi dalam peranan yang sangat bergantung pada komunikasi berasaskan teks. Sembang perkhidmatan pelanggan, penjanaan kandungan, kemasukan data, penjadualan, dan pelbagai bentuk bantuan digital boleh menyaksikan peningkatan penggunaan AI, menggantikan pekerja manusia jika AI terbukti cukup meyakinkan dan kos efektif. Kajian menunjukkan ambang ‘meyakinkan’ sedang dipenuhi atau dilebihi.
  • Kejuruteraan Sosial yang Dipertingkatkan: Potensi penyalahgunaan adalah signifikan. Pelaku jahat boleh memanfaatkan chatbot AI hiper-realistik untuk penipuan pancingan data yang canggih, menyebarkan maklumat salah, memanipulasi pendapat umum, atau menyamar sebagai individu untuk tujuan penipuan. AI yang dianggap sebagai manusia lebih kerap daripada manusia sebenar boleh menjadi alat penipuan yang sangat kuat, menjadikannya lebih sukar bagi individu untuk mempercayai interaksi dalam talian. Keberkesanan strategi ‘persona’ amat membimbangkan di sini, kerana AI boleh disesuaikan untuk menyamar sebagai jenis individu atau tokoh berkuasa yang dipercayai.
  • Pergolakan Sosial Umum: Di luar aplikasi khusus, penggunaan meluas AI yang mampu melakukan peniruan manusia yang tidak dapat dikesan secara asasnya boleh mengubah dinamik sosial. Bagaimana kita membina kepercayaan dalam persekitaran dalam talian? Apa yang berlaku kepada sifat hubungan manusia apabila dimediasi melalui teman bicara yang berpotensi buatan? Bolehkah ia membawa kepada peningkatan pengasingan, atau secara paradoks, bentuk baru persahabatan AI-manusia? Garis kabur antara komunikasi manusia dan mesin memerlukan perhitungan masyarakat dengan persoalan-persoalan ini. Ia mencabar definisi kita tentang kesahihan dan interaksi dalam era digital.

Kajian itu, yang kini menunggu semakan rakan sebaya, berfungsi sebagai titik data penting yang menggambarkan kemajuan pesat keupayaan AI untuk meniru tingkah laku perbualan manusia. Ia menggariskan bahawa sementara perdebatan tentang kecerdasan am buatan yang sebenar berterusan, keupayaan praktikal AI untuk bertindak sebagai manusia dalam konteks tertentu telah mencapai titik persimpangan kritikal. Kita sedang memasuki era di mana beban pembuktian mungkin beralih – bukannya bertanya sama ada mesin boleh kelihatan seperti manusia, kita mungkin semakin perlu mempersoalkan sama ada ‘manusia’ yang kita berinteraksi dengannya dalam talian benar-benar biologikal. Permainan peniruan telah mencapai tahap baru, dan akibatnya baru sahaja mula terungkap.