AI: Mencerminkan Ketidaksempurnaan Manusia

Penyelidikan terkini telah mendedahkan aspek yang menarik tetapi membimbangkan tentang kecerdasan buatan (AI): kerentanannya terhadap kecenderungan irasional yang serupa dengan yang diperhatikan dalam membuat keputusan manusia. Pendedahan ini mencabar persepsi konvensional AI sebagai alat yang objektif dan tidak berat sebelah, mendorong penilaian semula utiliti praktikalnya merentasi pelbagai aplikasi.

Satu kajian perintis meneliti dengan teliti tingkah laku ChatGPT, sistem AI terkemuka, merentasi spektrum berat sebelah kognitif yang lazim dalam psikologi manusia. Penemuan itu, yang diterbitkan dalam jurnal berprestij Manufacturing & Service Operations Management, mendedahkan bahawa ChatGPT mempamerkan banyak corak membuat keputusan yang tidak rasional dalam hampir separuh daripada senario yang dinilai. Corak ini merangkumi berat sebelah yang didokumentasikan dengan baik seperti falasi tangan panas, pengabaian kadar asas, dan falasi kos tenggelam, menimbulkan kebimbangan yang ketara tentang kebolehpercayaan dan kesesuaian AI dalam konteks membuat keputusan yang kritikal.

Mendedahkan Kelemahan Seperti Manusia dalam AI

Penyelidikan itu, yang dijalankan oleh konsortium pakar dari lima institusi akademik terkemuka yang merangkumi Kanada dan Australia, menilai dengan teliti prestasi GPT-3.5 dan GPT-4 OpenAI, model bahasa besar (LLM) asas yang menjana ChatGPT. Analisis komprehensif kajian itu mendedahkan bahawa walaupun "ketekalan yang mengagumkan" yang dipamerkan oleh LLM ini dalam proses penaakulan mereka, mereka jauh daripada kebal terhadap ketidaksempurnaan dan berat sebelah seperti manusia.

Para pengarang dengan bijak menekankan bahawa ketekalan yang wujud dalam sistem AI ini memberikan kedua-dua kelebihan dan kekurangan. Walaupun ketekalan boleh menyelaraskan tugas dengan penyelesaian formula yang jelas, ia menimbulkan potensi risiko apabila digunakan untuk keputusan subjektif atau berdasarkan keutamaan. Dalam senario sedemikian, replikasi berat sebelah manusia oleh AI boleh membawa kepada hasil yang cacat dan keputusan yang berat sebelah.

Yang Chen, ketua pengarang kajian dan penolong profesor pengurusan operasi di Ivey Business School yang terkemuka, menekankan kepentingan untuk membezakan aplikasi alat AI yang sesuai. Beliau memberi amaran bahawa walaupun AI cemerlang dalam tugas yang memerlukan pengiraan tepat dan penaakulan logik, penggunaannya dalam proses membuat keputusan subjektif memerlukan pertimbangan yang teliti dan pemantauan yang berwaspada.

Mensimulasikan Berat Sebelah Manusia dalam AI

Untuk menyelidiki kehadiran berat sebelah manusia dalam sistem AI, para penyelidik merangka satu siri eksperimen yang mencerminkan berat sebelah manusia yang biasa diketahui, termasuk penghindaran risiko, keyakinan berlebihan, dan kesan endowmen. Mereka membentangkan ChatGPT dengan gesaan yang direka untuk mencetuskan berat sebelah ini dan menganalisis dengan teliti tindak balas AI untuk menentukan sama ada ia akan menyerah kepada perangkap kognitif yang sama seperti manusia.

Para saintis mengemukakan soalan hipotetikal, yang diadaptasi daripada eksperimen psikologi tradisional, kepada LLM. Soalan-soalan ini dirangka dalam konteks aplikasi komersial dunia sebenar, yang merangkumi bidang seperti pengurusan inventori dan rundingan pembekal. Objektifnya adalah untuk memastikan sama ada AI akan meniru berat sebelah manusia dan sama ada kerentanannya terhadap berat sebelah ini akan berterusan merentasi domain perniagaan yang berbeza.

Keputusan mendedahkan bahawa GPT-4 mengatasi pendahulunya, GPT-3.5, dalam menyelesaikan masalah dengan penyelesaian matematik yang eksplisit. GPT-4 mempamerkan lebih sedikit kesilapan dalam senario yang memerlukan pengiraan kebarangkalian dan penaakulan logik. Walau bagaimanapun, dalam simulasi subjektif, seperti memutuskan sama ada untuk meneruskan pilihan berisiko untuk mendapatkan keuntungan, chatbot sering mencerminkan keutamaan tidak rasional yang dipaparkan oleh manusia.

Keutamaan AI untuk Kepastian

Khususnya, kajian itu mendedahkan bahawa "GPT-4 menunjukkan keutamaan yang lebih kuat untuk kepastian daripada yang dilakukan oleh manusia." Pemerhatian ini menggariskan kecenderungan AI untuk memihak kepada hasil yang lebih selamat dan lebih mudah diramal apabila berhadapan dengan tugas yang samar-samar. Kecenderungan ke arah kepastian boleh menjadi bermanfaat dalam situasi tertentu, tetapi ia juga boleh mengehadkan keupayaan AI untuk meneroka penyelesaian inovatif atau menyesuaikan diri dengan keadaan yang tidak dijangka.

Signifikan, tingkah laku chatbot kekal sangat konsisten, tanpa mengira sama ada soalan dibentangkan sebagai masalah psikologi abstrak atau proses perniagaan operasi. Ketekalan ini mencadangkan bahawa berat sebelah yang diperhatikan bukan semata-mata hasil daripada contoh yang dihafal tetapi lebih merupakan aspek intrinsik tentang cara sistem AI menaakul dan memproses maklumat. Kajian itu menyimpulkan bahawa berat sebelah yang dipamerkan oleh AI tertanam dalam mekanisme penaakulannya.

Salah satu pendedahan yang paling mengejutkan dalam kajian itu ialah cara GPT-4 kadangkala menguatkan kesilapan seperti manusia. Dalam tugas berat sebelah pengesahan, GPT-4 secara konsisten memberikan tindak balas yang berat sebelah. Tambahan pula, ia mempamerkan kecenderungan yang lebih ketara ke arah falasi tangan panas daripada GPT 3.5, menunjukkan kecenderungan yang lebih kuat untuk melihat corak dalam rawak.

Contoh Penghindaran Berat Sebelah

Menariknya, ChatGPT menunjukkan keupayaan untuk mengelakkan berat sebelah manusia biasa tertentu, termasuk pengabaian kadar asas dan falasi kos tenggelam. Pengabaian kadar asas berlaku apabila individu mengabaikan fakta statistik yang memihak kepada maklumat anekdot atau khusus kes. Falasi kos tenggelam timbul apabila membuat keputusan dipengaruhi secara tidak wajar oleh kos yang telah ditanggung, mengaburkan pertimbangan rasional.

Para pengarang berpendapat bahawa berat sebelah seperti manusia ChatGPT berpunca daripada data latihan yang didedahkannya, yang merangkumi berat sebelah kognitif dan heuristik yang dipamerkan oleh manusia. Kecenderungan ini diperkukuh lagi semasa proses penalaan halus, terutamanya apabila maklum balas manusia mengutamakan tindak balas yang munasabah berbanding yang rasional. Dalam menghadapi tugas yang samar-samar, AI cenderung untuk tertarik kepada corak penaakulan manusia dan bukannya bergantung semata-mata pada logik langsung.

Menavigasi Berat Sebelah AI

Untuk mengurangkan risiko yang berkaitan dengan berat sebelah AI, para penyelidik menyokong pendekatan yang bijaksana terhadap aplikasinya. Mereka mengesyorkan agar AI digunakan dalam bidang di mana kekuatannya terletak, seperti tugas yang memerlukan ketepatan dan pengiraan yang tidak berat sebelah, serupa dengan yang dilakukan oleh kalkulator. Walau bagaimanapun, apabila hasilnya bergantung pada input subjektif atau strategik, pengawasan manusia menjadi yang terpenting.

Chen menekankan bahawa "Jika anda mahukan sokongan keputusan yang tepat dan tidak berat sebelah, gunakan GPT dalam bidang di mana anda sudah mempercayai kalkulator." Beliau selanjutnya mencadangkan bahawa campur tangan manusia, seperti melaraskan gesaan pengguna untuk membetulkan berat sebelah yang diketahui, adalah penting apabila AI digunakan dalam konteks yang memerlukan pertimbangan bernuansa dan pemikiran strategik.

Meena Andiappan, seorang pengarang bersama kajian itu dan profesor madya sumber manusia dan pengurusan di Universiti McMaster di Kanada, menyokong untuk melayan AI sebagai pekerja yang membuat keputusan penting. Beliau menekankan keperluan untuk pengawasan dan garis panduan etika untuk memastikan AI digunakan secara bertanggungjawab dan berkesan. Kegagalan untuk memberikan panduan sedemikian boleh membawa kepada pengautomatan pemikiran yang cacat, dan bukannya peningkatan yang diinginkan dalam proses membuat keputusan.

Implikasi dan Pertimbangan

Penemuan kajian itu mempunyai implikasi yang mendalam untuk pembangunan dan penggunaan sistem AI merentasi pelbagai sektor. Pendedahan bahawa AI terdedah kepada berat sebelah seperti manusia menggariskan kepentingan untuk menilai dengan teliti kesesuaiannya untuk tugas tertentu dan melaksanakan perlindungan untuk mengurangkan potensi risiko.

Organisasi yang bergantung pada AI untuk membuat keputusan harus sedar tentang potensi berat sebelah dan mengambil langkah untuk menanganinya. Ini mungkin melibatkan penyediaan data latihan tambahan untuk mengurangkan berat sebelah, menggunakan algoritma yang kurang terdedah kepada berat sebelah, atau melaksanakan pengawasan manusia untuk memastikan keputusan AI adalah adil dan tepat.

Kajian itu juga menggariskan keperluan untuk penyelidikan lanjut mengenai punca dan akibat berat sebelah AI. Dengan mendapatkan pemahaman yang lebih baik tentang cara sistem AI membangunkan berat sebelah, kita boleh membangunkan strategi untuk menghalangnya daripada berlaku di tempat pertama.

Syor untuk Pelaksanaan AI Bertanggungjawab

Untuk memastikan pelaksanaan sistem AI yang bertanggungjawab dan berkesan, syor berikut harus dipertimbangkan:

  • Menilai dengan teliti sistem AI untuk potensi berat sebelah sebelum penggunaan. Ini termasuk menguji sistem AI pada pelbagai set data dan senario untuk mengenal pasti sebarang bidang di mana ia mungkin terdedah kepada berat sebelah.
  • Sediakan data latihan tambahan untuk mengurangkan berat sebelah. Semakin pelbagai dan representatif data latihan, semakin kurang berkemungkinan sistem AI membangunkan berat sebelah.
  • Gunakan algoritma yang kurang terdedah kepada berat sebelah. Sesetengah algoritma lebih terdedah kepada berat sebelah daripada yang lain. Apabila memilih algoritma untuk tugas tertentu, adalah penting untuk mempertimbangkan potensi berat sebelahnya.
  • Laksanakan pengawasan manusia untuk memastikan keputusan AI adalah adil dan tepat. Pengawasan manusia boleh membantu untuk mengenal pasti dan membetulkan sebarang berat sebelah dalam keputusan AI.
  • Tetapkan garis panduan etika yang jelas untuk penggunaan AI. Garis panduan ini harus menangani isu seperti keadilan, akauntabiliti, dan ketelusan.

Dengan mengikuti syor ini, organisasi boleh memastikan bahawa sistem AI digunakan dengan cara yang bermanfaat dan bertanggungjawab. Wawasan yang diperoleh daripada penyelidikan ini berfungsi sebagai peringatan yang berharga bahawa walaupun AI memegang janji yang besar, adalah penting untuk mendekati pelaksanaannya dengan berhati-hati dan komitmen terhadap prinsip etika. Hanya dengan itu kita boleh memanfaatkan potensi penuh AI sambil melindungi daripada potensi perangkapnya.