AI: Cerminan Ketidaksempurnaan Manusia

Investigasi terbaru telah mengungkap aspek menarik namun mengkhawatirkan dari kecerdasan buatan (AI): kerentanannya terhadap kecenderungan irasional yang mirip dengan yang diamati dalam pengambilan keputusan manusia. Penemuan ini menantang persepsi konvensional AI sebagai alat yang objektif dan tidak bias, mendorong evaluasi ulang terhadap utilitas praktisnya di berbagai aplikasi.

Sebuah studi inovatif dengan cermat meneliti perilaku ChatGPT, sistem AI terkemuka, di berbagai spektrum bias kognitif yang lazim dalam psikologi manusia. Temuan tersebut, yang diterbitkan dalam jurnal terhormat Manufacturing & Service Operations Management, mengungkapkan bahwa ChatGPT menunjukkan banyak pola pengambilan keputusan yang irasional di hampir setengah dari skenario yang dinilai. Pola-pola ini mencakup bias yang terdokumentasi dengan baik seperti kesalahan hot hand, pengabaian base-rate, dan kesalahan sunk cost, yang menimbulkan kekhawatiran signifikan tentang keandalan dan kesesuaian AI dalam konteks pengambilan keputusan yang kritis.

Mengungkap Kekurangan AI yang Mirip Manusia

Penelitian ini, yang dilakukan oleh konsorsium ahli dari lima lembaga akademik terkemuka yang mencakup Kanada dan Australia, dengan ketat mengevaluasi kinerja GPT-3.5 dan GPT-4 OpenAI, model bahasa besar (LLM) dasar yang mendukung ChatGPT. Analisis komprehensif studi tersebut mengungkap bahwa meskipun "konsistensi yang mengesankan" yang ditunjukkan oleh LLM ini dalam proses penalaran mereka, mereka jauh dari kebal terhadap ketidaksempurnaan dan bias yang mirip manusia.

Para penulis dengan cerdik menyoroti bahwa konsistensi inheren dalam sistem AI ini menghadirkan keuntungan dan kerugian. Meskipun konsistensi dapat menyederhanakan tugas-tugas dengan solusi yang jelas dan bersifat formula, hal itu menimbulkan potensi risiko ketika diterapkan pada keputusan yang subjektif atau digerakkan oleh preferensi. Dalam skenario seperti itu, replikasi bias manusia oleh AI dapat menyebabkan hasil yang cacat dan hasil yang condong.

Yang Chen, penulis utama studi tersebut dan asisten profesor manajemen operasi di Ivey Business School yang terhormat, menggarisbawahi pentingnya membedakan aplikasi yang sesuai dari alat AI. Dia memperingatkan bahwa meskipun AI unggul dalam tugas-tugas yang membutuhkan perhitungan yang tepat dan penalaran logis, penerapannya dalam proses pengambilan keputusan yang subjektif memerlukan pertimbangan yang cermat dan pemantauan yang waspada.

Mensimulasikan Bias Manusia dalam AI

Untuk mempelajari lebih dalam keberadaan bias manusia dalam sistem AI, para peneliti merancang serangkaian eksperimen yang mencerminkan bias manusia yang umum dikenal, termasuk penghindaran risiko, terlalu percaya diri, dan efek endowment. Mereka menyajikan ChatGPT dengan perintah yang dirancang untuk memicu bias ini dan dengan cermat menganalisis tanggapan AI untuk menentukan apakah ia akan menyerah pada jebakan kognitif yang sama seperti manusia.

Para ilmuwan mengajukan pertanyaan hipotetis, yang diadaptasi dari eksperimen psikologi tradisional, kepada LLM. Pertanyaan-pertanyaan ini dibingkai dalam konteks aplikasi komersial dunia nyata, yang mencakup bidang-bidang seperti manajemen inventaris dan negosiasi pemasok. Tujuannya adalah untuk memastikan apakah AI akan meniru bias manusia dan apakah kerentanannya terhadap bias ini akan bertahan di berbagai domain bisnis.

Hasilnya mengungkapkan bahwa GPT-4 mengungguli pendahulunya, GPT-3.5, dalam memecahkan masalah dengan solusi matematis eksplisit. GPT-4 menunjukkan lebih sedikit kesalahan dalam skenario yang menuntut perhitungan probabilitas dan penalaran logis. Namun, dalam simulasi subjektif, seperti memutuskan apakah akan mengejar opsi berisiko untuk mengamankan keuntungan, chatbot sering kali mencerminkan preferensi irasional yang ditampilkan oleh manusia.

Preferensi AI untuk Kepastian

Khususnya, penelitian ini mengungkapkan bahwa "GPT-4 menunjukkan preferensi yang lebih kuat untuk kepastian daripada yang dilakukan manusia." Pengamatan ini menggarisbawahi kecenderungan AI untuk menyukai hasil yang lebih aman dan lebih dapat diprediksi ketika dihadapkan dengan tugas-tugas yang ambigu. Kecenderungan terhadap kepastian dapat menguntungkan dalam situasi tertentu, tetapi juga dapat membatasi kemampuan AI untuk mengeksplorasi solusi inovatif atau beradaptasi dengan keadaan yang tidak terduga.

Secara signifikan, perilaku chatbot tetap sangat konsisten, terlepas dari apakah pertanyaan disajikan sebagai masalah psikologis abstrak atau proses bisnis operasional. Konsistensi ini menunjukkan bahwa bias yang diamati bukanlah semata-mata hasil dari contoh yang dihafal, melainkan aspek intrinsik dari bagaimana sistem AI bernalar dan memproses informasi. Penelitian menyimpulkan bahwa bias yang ditunjukkan oleh AI tertanam dalam mekanisme penalaran.

Salah satu wahyu paling mengejutkan dari penelitian ini adalah cara GPT-4 terkadang memperkuat kesalahan yang mirip manusia. Dalam tugas bias konfirmasi, GPT-4 secara konsisten memberikan tanggapan yang bias. Selain itu, ia menunjukkan kecenderungan yang lebih jelas terhadap kesalahan hot-hand daripada GPT 3.5, yang menunjukkan kecenderungan yang lebih kuat untuk melihat pola dalam keacakan.

Contoh Penghindaran Bias

Anehnya, ChatGPT menunjukkan kemampuan untuk menghindari bias manusia umum tertentu, termasuk pengabaian base-rate dan kesalahan sunk-cost. Pengabaian base-rate terjadi ketika individu mengabaikan fakta statistik demi informasi anekdot atau spesifik kasus. Kesalahan sunk-cost muncul ketika pengambilan keputusan dipengaruhi secara tidak semestinya oleh biaya yang telah dikeluarkan, mengaburkan penilaian rasional.

Para penulis berpendapat bahwa bias mirip manusia ChatGPT berasal dari data pelatihan yang terpapar, yang mencakup bias kognitif dan heuristik yang ditunjukkan manusia. Kecenderungan ini semakin diperkuat selama proses penyetelan halus, terutama ketika umpan balik manusia memprioritaskan tanggapan yang masuk akal daripada tanggapan rasional. Dalam menghadapi tugas-tugas yang ambigu, AI cenderung condong ke pola penalaran manusia daripada hanya mengandalkan logika langsung.

Menavigasi Bias AI

Untuk mengurangi risiko yang terkait dengan bias AI, para peneliti menganjurkan pendekatan yang bijaksana untuk penerapannya. Mereka merekomendasikan agar AI digunakan di area di mana kekuatannya terletak, seperti tugas-tugas yang menuntut akurasi dan perhitungan yang tidak bias, mirip dengan yang dilakukan oleh kalkulator. Namun, ketika hasilnya bergantung pada input subjektif atau strategis, pengawasan manusia menjadi yang terpenting.

Chen menekankan bahwa "Jika Anda menginginkan dukungan keputusan yang akurat dan tidak bias, gunakan GPT di area di mana Anda sudah mempercayai kalkulator." Dia lebih lanjut menyarankan bahwa intervensi manusia, seperti menyesuaikan perintah pengguna untuk memperbaiki bias yang diketahui, sangat penting ketika AI digunakan dalam konteks yang membutuhkan penilaian yang bernuansa dan pemikiran strategis.

Meena Andiappan, rekan penulis studi tersebut dan profesor sumber daya manusia dan manajemen di McMaster University di Kanada, menganjurkan untuk memperlakukan AI sebagai karyawan yang membuat keputusan penting. Dia menekankan perlunya pengawasan dan pedoman etika untuk memastikan bahwa AI digunakan secara bertanggung jawab dan efektif. Kegagalan untuk memberikan panduan semacam itu dapat menyebabkan otomatisasi pemikiran yang cacat, daripada peningkatan yang diinginkan dalam proses pengambilan keputusan.

Implikasi dan Pertimbangan

Temuan penelitian ini memiliki implikasi mendalam bagi pengembangan dan penyebaran sistem AI di berbagai sektor. Wahyu bahwa AI rentan terhadap bias mirip manusia menggarisbawahi pentingnya mengevaluasi dengan cermat kesesuaiannya untuk tugas-tugas tertentu dan menerapkan pengamanan untuk mengurangi potensi risiko.

Organisasi yang mengandalkan AI untuk pengambilan keputusan harus menyadari potensi bias dan mengambil langkah-langkah untuk mengatasinya. Ini mungkin melibatkan penyediaan data pelatihan tambahan untuk mengurangi bias, menggunakan algoritma yang kurang rentan terhadap bias, atau menerapkan pengawasan manusia untuk memastikan bahwa keputusan AI adil dan akurat.

Studi ini juga menyoroti perlunya penelitian lebih lanjut tentang penyebab dan konsekuensi dari bias AI. Dengan mendapatkan pemahaman yang lebih baik tentang bagaimana sistem AI mengembangkan bias, kita dapat mengembangkan strategi untuk mencegahnya terjadi sejak awal.

Rekomendasi untuk Implementasi AI yang Bertanggung Jawab

Untuk memastikan implementasi sistem AI yang bertanggung jawab dan efektif, rekomendasi berikut harus dipertimbangkan:

  • Evaluasi secara menyeluruh sistem AI untuk potensi bias sebelum penyebaran. Ini termasuk menguji sistem AI pada berbagai kumpulan data dan skenario untuk mengidentifikasi area di mana ia mungkin rentan terhadap bias.
  • Sediakan data pelatihan tambahan untuk mengurangi bias. Semakin beragam dan representatif data pelatihan, semakin kecil kemungkinan sistem AI mengembangkan bias.
  • Gunakan algoritma yang kurang rentan terhadap bias. Beberapa algoritma lebih rentan terhadap bias daripada yang lain. Saat memilih algoritma untuk tugas tertentu, penting untuk mempertimbangkan potensinya untuk bias.
  • Terapkan pengawasan manusia untuk memastikan bahwa keputusan AI adil dan akurat. Pengawasan manusia dapat membantu mengidentifikasi dan memperbaiki bias apa pun dalam keputusan AI.
  • Tetapkan pedoman etika yang jelas untuk penggunaan AI. Pedoman ini harus membahas isu-isu seperti keadilan, akuntabilitas, dan transparansi.

Dengan mengikuti rekomendasi ini, organisasi dapat memastikan bahwa sistem AI digunakan dengan cara yang bermanfaat dan bertanggung jawab. Wawasan yang diperoleh dari penelitian ini berfungsi sebagai pengingat berharga bahwa meskipun AI memiliki janji yang sangat besar, sangat penting untuk mendekati implementasinya dengan hati-hati dan komitmen pada prinsip-prinsip etika. Hanya dengan begitu kita dapat memanfaatkan potensi penuh AI sambil menjaga terhadap potensi jebakannya.