การตรวจสอบล่าสุดได้เปิดเผยแง่มุมที่น่าสนใจแต่ก็น่ากังวลเกี่ยวกับปัญญาประดิษฐ์ (AI): ความอ่อนแอต่อแนวโน้มที่ไร้เหตุผลซึ่งคล้ายคลึงกับที่พบในการตัดสินใจของมนุษย์ การเปิดเผยนี้ท้าทายการรับรู้แบบดั้งเดิมของ AI ว่าเป็นเครื่องมือที่เป็นกลางและไม่เอนเอียง กระตุ้นให้มีการประเมินคุณประโยชน์เชิงปฏิบัติในด้านการใช้งานที่หลากหลาย
การศึกษาบุกเบิกได้ตรวจสอบพฤติกรรมของ ChatGPT ซึ่งเป็นระบบ AI ที่โดดเด่นอย่างพิถีพิถันในหลากหลายอคติทางปัญญาที่มีอยู่ในจิตวิทยาของมนุษย์ ผลการวิจัยซึ่งตีพิมพ์ในวารสารอันทรงเกียรติ Manufacturing & Service Operations Management เปิดเผยว่า ChatGPT แสดงรูปแบบการตัดสินใจที่ไร้เหตุผลมากมายในเกือบครึ่งหนึ่งของสถานการณ์ที่ได้รับการประเมิน รูปแบบเหล่านี้ครอบคลุมถึงอคติที่ได้รับการบันทึกไว้อย่างดี เช่น ความเข้าใจผิดว่า "มือขึ้น", การละเลยอัตราพื้นฐาน และความเข้าใจผิดเกี่ยวกับต้นทุนจม ซึ่งก่อให้เกิดความกังวลอย่างมากเกี่ยวกับความน่าเชื่อถือและความเหมาะสมของ AI ในบริบทการตัดสินใจที่สำคัญ
เปิดเผยข้อบกพร่องที่เหมือนมนุษย์ใน AI
การวิจัยนี้ดำเนินการโดยกลุ่มผู้เชี่ยวชาญจากสถาบันการศึกษาที่มีชื่อเสียงห้าแห่งซึ่งครอบคลุมแคนาดาและออสเตรเลีย ประเมินผลการดำเนินงานของ GPT-3.5 และ GPT-4 ของ OpenAI อย่างเข้มงวด ซึ่งเป็นแบบจำลองภาษาขนาดใหญ่ (LLM) ที่เป็นรากฐานที่ขับเคลื่อน ChatGPT การวิเคราะห์ที่ครอบคลุมของการศึกษาเปิดเผยว่าแม้จะมี "ความสอดคล้องที่น่าประทับใจ" ที่ LLM เหล่านี้แสดงให้เห็นในกระบวนการให้เหตุผล แต่ก็ยังห่างไกลจากความสมบูรณ์แบบและอคติที่เหมือนมนุษย์
ผู้เขียนเน้นย้ำอย่างชาญฉลาดว่าความสอดคล้องโดยธรรมชาติภายในระบบ AI นี้มีทั้งข้อดีและข้อเสีย ในขณะที่ความสอดคล้องสามารถปรับปรุงงานที่มีโซลูชันที่ชัดเจนและเป็นสูตรได้ แต่ก็ก่อให้เกิดความเสี่ยงที่อาจเกิดขึ้นเมื่อนำไปใช้กับการตัดสินใจที่เป็นอัตนัยหรือขับเคลื่อนด้วยความชอบ ในสถานการณ์เช่นนี้ การจำลองอคติของมนุษย์โดย AI อาจนำไปสู่ผลลัพธ์ที่ผิดพลาดและผลลัพธ์ที่เบ้
Yang Chen ผู้เขียนนำของการศึกษาและผู้ช่วยศาสตราจารย์ด้านการจัดการการดำเนินงานที่ Ivey Business School อันทรงเกียรติ เน้นย้ำถึงความสำคัญของการแยกแยะการใช้งานที่เหมาะสมของเครื่องมือ AI เขาเตือนว่าในขณะที่ AI เก่งในงานที่ต้องใช้การคำนวณที่แม่นยำและการให้เหตุผลเชิงตรรกะ การใช้งานในกระบวนการตัดสินใจที่เป็นอัตนัยจำเป็นต้องมีการพิจารณาอย่างรอบคอบและการตรวจสอบอย่างระมัดระวัง
จำลองอคติของมนุษย์ใน AI
เพื่อเจาะลึกลงไปในการมีอยู่ของอคติของมนุษย์ภายในระบบ AI นักวิจัยได้ออกแบบชุดการทดลองที่สะท้อนอคติของมนุษย์ที่รู้จักกันทั่วไป รวมถึงการหลีกเลี่ยงความเสี่ยง ความมั่นใจมากเกินไป และผลกระทบจากความเป็นเจ้าของ พวกเขาได้นำเสนอ ChatGPT พร้อมข้อความแจ้งที่ออกแบบมาเพื่อกระตุ้นอคติเหล่านี้ และวิเคราะห์การตอบสนองของ AI อย่างพิถีพิถันเพื่อตรวจสอบว่ามันจะยอมจำนนต่อกับดักทางปัญญาเดียวกันกับมนุษย์หรือไม่
นักวิทยาศาสตร์ได้ตั้งคำถามสมมติฐาน ดัดแปลงจากการทดลองทางจิตวิทยาทั่วไป ให้กับ LLM คำถามเหล่านี้ถูกกำหนดไว้ในบริบทของการใช้งานเชิงพาณิชย์ในโลกแห่งความเป็นจริง ครอบคลุมพื้นที่ต่างๆ เช่น การจัดการสินค้าคงคลังและการเจรจาต่อรองกับซัพพลายเออร์ วัตถุประสงค์คือเพื่อตรวจสอบว่า AI จะเลียนแบบอคติของมนุษย์หรือไม่ และความอ่อนแอต่ออคติเหล่านี้จะยังคงมีอยู่หรือไม่ในโดเมนธุรกิจต่างๆ
ผลการวิจัยพบว่า GPT-4 มีประสิทธิภาพเหนือกว่า GPT-3.5 รุ่นก่อนหน้าในการแก้ปัญหาด้วยโซลูชันทางคณิตศาสตร์ที่ชัดเจน GPT-4 แสดงข้อผิดพลาดน้อยกว่าในสถานการณ์ที่ต้องการการคำนวณความน่าจะเป็นและการให้เหตุผลเชิงตรรกะ อย่างไรก็ตาม ในการจำลองเชิงอัตนัย เช่น การตัดสินใจว่าจะเลือกตัวเลือกที่มีความเสี่ยงเพื่อรับผลตอบแทนหรือไม่ แชทบอทมักจะสะท้อนความชอบที่ไร้เหตุผลที่มนุษย์แสดง
ความชอบในความแน่นอนของ AI
สิ่งที่น่าสังเกตคือ การศึกษาเปิดเผยว่า "GPT-4 แสดงความชอบในความแน่นอนมากกว่าที่มนุษย์ทำเสียอีก" ข้อสังเกตนี้เน้นย้ำถึงแนวโน้มของ AI ที่จะสนับสนุนผลลัพธ์ที่ปลอดภัยกว่าและคาดการณ์ได้มากกว่าเมื่อเผชิญกับงานที่ไม่ชัดเจน ความโน้มเอียงไปสู่ความแน่นอนอาจเป็นประโยชน์ในบางสถานการณ์ แต่อาจจำกัดความสามารถของ AI ในการสำรวจโซลูชันที่เป็นนวัตกรรมหรือปรับตัวเข้ากับสถานการณ์ที่ไม่คาดฝัน
ที่สำคัญ พฤติกรรมของแชทบอทยังคงสอดคล้องกันอย่างน่าทึ่ง ไม่ว่าคำถามจะถูกนำเสนอเป็นปัญหาทางจิตวิทยาเชิงนามธรรมหรือกระบวนการทางธุรกิจในการดำเนินงาน ความสอดคล้องนี้บ่งชี้ว่าอคติที่สังเกตได้ไม่ได้เป็นเพียงผลลัพธ์ของตัวอย่างที่จดจำ แต่เป็นแง่มุมที่แท้จริงของวิธีการที่ระบบ AI ให้เหตุผลและประมวลผลข้อมูล การศึกษาได้ข้อสรุปว่าอคติที่ AI แสดงนั้นฝังอยู่ในกลไกการให้เหตุผล
หนึ่งในการเปิดเผยที่น่าตกใจที่สุดของการศึกษาคือลักษณะที่ GPT-4 บางครั้งขยายข้อผิดพลาดที่เหมือนมนุษย์ ในงานอคติในการยืนยัน GPT-4 ส่งมอบการตอบสนองที่เป็นอคติอย่างสม่ำเสมอ นอกจากนี้ ยังแสดงให้เห็นถึงความโน้มเอียงที่เด่นชัดมากขึ้นต่อความเข้าใจผิดว่า "มือขึ้น" มากกว่า GPT 3.5 ซึ่งบ่งชี้ถึงแนวโน้มที่แข็งแกร่งกว่าในการรับรู้รูปแบบในความบังเอิญ
ตัวอย่างการหลีกเลี่ยงอคติ
สิ่งที่น่าสนใจคือ ChatGPT ได้แสดงให้เห็นถึงความสามารถในการหลีกเลี่ยงอคติของมนุษย์ทั่วไปบางอย่าง รวมถึงการละเลยอัตราพื้นฐานและความเข้าใจผิดเกี่ยวกับต้นทุนจม การละเลยอัตราพื้นฐานเกิดขึ้นเมื่อบุคคลละเลยข้อเท็จจริงทางสถิติเพื่อสนับสนุนข้อมูลเฉพาะกรณีหรือเฉพาะกรณี ความเข้าใจผิดเกี่ยวกับต้นทุนจมเกิดขึ้นเมื่อการตัดสินใจได้รับอิทธิพลอย่างไม่สมควรจากต้นทุนที่เกิดขึ้นแล้ว บดบังการตัดสินอย่างมีเหตุผล
ผู้เขียนตั้งสมมติฐานว่าอคติที่เหมือนมนุษย์ของ ChatGPT เกิดจากข้อมูลการฝึกอบรมที่ได้รับ ซึ่งครอบคลุมถึงอคติทางปัญญาและฮิวริสติกที่มนุษย์แสดง แนวโน้มเหล่านี้ได้รับการเสริมสร้างเพิ่มเติมในระหว่างกระบวนการปรับแต่ง โดยเฉพาะอย่างยิ่งเมื่อความคิดเห็นของมนุษย์ให้ความสำคัญกับการตอบสนองที่สมเหตุสมผลมากกว่าการตอบสนองที่มีเหตุผล เมื่อเผชิญกับงานที่ไม่ชัดเจน AI มีแนวโน้มที่จะมุ่งไปที่รูปแบบการให้เหตุผลของมนุษย์มากกว่าการพึ่งพาตรรกะโดยตรงเพียงอย่างเดียว
นำทางอคติของ AI
เพื่อลดความเสี่ยงที่เกี่ยวข้องกับอคติของ AI นักวิจัยสนับสนุนแนวทางที่รอบคอบในการใช้งาน พวกเขาแนะนำให้ใช้ AI ในด้านที่จุดแข็งอยู่ที่นั่น เช่น งานที่ต้องการความแม่นยำและการคำนวณที่ไม่เอนเอียง คล้ายกับงานที่เครื่องคิดเลขทำ อย่างไรก็ตาม เมื่อผลลัพธ์ขึ้นอยู่กับอินพุตที่เป็นอัตนัยหรือเชิงกลยุทธ์ การกำกับดูแลของมนุษย์จึงมีความสำคัญอย่างยิ่ง
Chen เน้นย้ำว่า "หากคุณต้องการการสนับสนุนการตัดสินใจที่ถูกต้องและไม่เอนเอียง ให้ใช้ GPT ในด้านที่คุณไว้วางใจเครื่องคิดเลขอยู่แล้ว" เขายังแนะนำว่าการแทรกแซงของมนุษย์ เช่น การปรับข้อความแจ้งของผู้ใช้เพื่อแก้ไขอคติที่ทราบ เป็นสิ่งสำคัญเมื่อใช้ AI ในบริบทที่ต้องใช้การตัดสินที่ละเอียดอ่อนและการคิดเชิงกลยุทธ์
Meena Andiappan ผู้ร่วมเขียนการศึกษาและรองศาสตราจารย์ด้านทรัพยากรบุคคลและการจัดการที่ McMaster University ในแคนาดา สนับสนุนให้ปฏิบัติต่อ AI เสมือนพนักงานที่ทำการตัดสินใจที่สำคัญ เธอเน้นย้ำถึงความจำเป็นในการกำกับดูแลและแนวทางปฏิบัติทางจริยธรรมเพื่อให้แน่ใจว่า AI ถูกใช้อย่างมีความรับผิดชอบและมีประสิทธิภาพ การไม่ให้คำแนะนำดังกล่าวอาจนำไปสู่ระบบอัตโนมัติของการคิดที่ผิดพลาด แทนที่จะเป็นการปรับปรุงกระบวนการตัดสินใจที่ต้องการ
ผลกระทบและข้อควรพิจารณา
ผลการวิจัยของการศึกษามีผลกระทบอย่างลึกซึ้งต่อการพัฒนาและการใช้งานระบบ AI ในภาคส่วนต่างๆ การเปิดเผยว่า AI มีความอ่อนไหวต่ออคติที่เหมือนมนุษย์ เน้นย้ำถึงความสำคัญของการประเมินความเหมาะสมอย่างรอบคอบสำหรับงานเฉพาะและการใช้มาตรการป้องกันเพื่อลดความเสี่ยงที่อาจเกิดขึ้น
องค์กรที่พึ่งพา AI ในการตัดสินใจควรตระหนักถึงศักยภาพในการเกิดอคติและดำเนินการเพื่อแก้ไขปัญหานี้ ซึ่งอาจเกี่ยวข้องกับการให้ข้อมูลการฝึกอบรมเพิ่มเติมเพื่อลดอคติ การใช้อัลกอริทึมที่มีแนวโน้มที่จะเกิดอคติน้อยกว่า หรือการดำเนินการกำกับดูแลของมนุษย์เพื่อให้แน่ใจว่าการตัดสินใจของ AI นั้นยุติธรรมและถูกต้อง
การศึกษายังเน้นย้ำถึงความจำเป็นในการวิจัยเพิ่มเติมเกี่ยวกับสาเหตุและผลกระทบของอคติของ AI ด้วยการทำความเข้าใจที่ดีขึ้นเกี่ยวกับวิธีการที่ระบบ AI พัฒนาอคติ เราสามารถพัฒนากลยุทธ์เพื่อป้องกันไม่ให้เกิดขึ้นตั้งแต่แรก
คำแนะนำสำหรับการใช้งาน AI อย่างมีความรับผิดชอบ
เพื่อให้มั่นใจถึงการใช้งานระบบ AI อย่างมีความรับผิดชอบและมีประสิทธิภาพ ควรพิจารณาคำแนะนำต่อไปนี้:
- ประเมินระบบ AI อย่างละเอียดเพื่อหาอคติที่อาจเกิดขึ้นก่อนการใช้งาน ซึ่งรวมถึงการทดสอบระบบ AI กับชุดข้อมูลและสถานการณ์ที่หลากหลายเพื่อระบุพื้นที่ใด ๆ ที่อาจมีแนวโน้มที่จะเกิดอคติ
- ให้ข้อมูลการฝึกอบรมเพิ่มเติมเพื่อลดอคติ ยิ่งข้อมูลการฝึกอบรมมีความหลากหลายและเป็นตัวแทนมากเท่าใด ระบบ AI ก็ยิ่งมีโอกาสน้อยที่จะพัฒนาอคติ
- ใช้อัลกอริทึมที่มีแนวโน้มที่จะเกิดอคติน้อยกว่า อัลกอริทึมบางตัวมีความอ่อนไหวต่ออคติมากกว่าอัลกอริทึมอื่น ๆ เมื่อเลือกอัลกอริทึมสำหรับงานเฉพาะ สิ่งสำคัญคือต้องพิจารณาถึงศักยภาพในการเกิดอคติ
- ดำเนินการกำกับดูแลของมนุษย์เพื่อให้แน่ใจว่าการตัดสินใจของ AI นั้นยุติธรรมและถูกต้อง การกำกับดูแลของมนุษย์สามารถช่วยระบุและแก้ไขอคติใด ๆ ในการตัดสินใจของ AI
- กำหนดแนวทางปฏิบัติทางจริยธรรมที่ชัดเจนสำหรับการใช้ AI แนวทางเหล่านี้ควรมุ่งเน้นไปที่ประเด็นต่างๆ เช่น ความยุติธรรม ความรับผิดชอบ และความโปร่งใส
ด้วยการปฏิบัติตามคำแนะนำเหล่านี้ องค์กรต่างๆ สามารถมั่นใจได้ว่าระบบ AI ถูกใช้อย่างเป็นประโยชน์และมีความรับผิดชอบ ข้อมูลเชิงลึกที่รวบรวมได้จากการวิจัยนี้ทำหน้าที่เป็นเครื่องเตือนใจที่มีคุณค่าว่าในขณะที่ AI มีศักยภาพอย่างมาก การเข้าถึงการใช้งานด้วยความระมัดระวังและความมุ่งมั่นต่อหลักการทางจริยธรรมเป็นสิ่งสำคัญ จากนั้นเราจึงจะสามารถควบคุมศักยภาพทั้งหมดของ AI ในขณะที่ป้องกันความเสี่ยงที่อาจเกิดขึ้นได้