AI:決策中人類缺陷的鏡像

近期研究揭示了人工智慧 (AI) 一個引人入勝但令人擔憂的面向:它容易受到非理性傾向的影響,類似於人類決策中觀察到的那些傾向。 這一發現挑戰了將 AI 視為客觀且公正工具的傳統觀念,促使人們重新評估其在各種應用中的實用性。

一項開創性的研究仔細審查了 ChatGPT(一種著名的 AI 系統)在人類心理學中普遍存在的各種認知偏差方面的行為。 發表在著名期刊 Manufacturing & Service Operations Management 上的研究結果顯示,ChatGPT 在近一半的評估情境中表現出許多非理性的決策模式。 這些模式包括眾所周知的偏差,例如熱手謬誤、基本比率忽視和沉沒成本謬誤,引發了人們對 AI 在關鍵決策環境中的可靠性和適用性的重大擔憂。

揭示 AI 中類人般的缺陷

這項研究由來自加拿大和澳洲五所傑出學術機構的專家組成的聯盟進行,嚴格評估了 OpenAI 的 GPT-3.5 和 GPT-4 的性能,這兩者是為 ChatGPT 提供支援的基礎大型語言模型 (LLM)。 該研究的綜合分析表明,儘管這些 LLM 在其推理過程中表現出「令人印象深刻的一致性」,但它們遠非免受類人般的缺陷和偏差的影響。

作者敏銳地強調,AI 系統中這種固有的連貫性既有優點也有缺點。 雖然連貫性可以簡化具有明確、公式化解決方案的任務,但當應用於主觀或偏好驅動的決策時,它會帶來潛在的風險。 在這種情況下,AI 複製人類的偏見可能會導致有缺陷的結果和有偏差的結果。

該研究的主要作者、著名 Ivey Business School 的營運管理助理教授楊辰強調了辨別 AI 工具適當應用的重要性。 他告誡說,雖然 AI 在需要精確計算和邏輯推理的任務中表現出色,但在主觀決策過程中的應用需要仔細考慮和嚴格監控。

模擬 AI 中的人類偏見

為了深入研究 AI 系統中人類偏見的存在,研究人員設計了一系列實驗,這些實驗反映了眾所周知的人類偏見,包括風險規避、過度自信和稟賦效應。 他們向 ChatGPT 提出了旨在觸發這些偏見的提示,並仔細分析了 AI 的回應,以確定它是否會像人類一樣屈服於相同的認知陷阱。

科學家們向 LLM 提出了假設性問題,這些問題改編自傳統的心理學實驗。 這些問題是在真實商業應用背景下提出的,涵蓋了庫存管理和供應商談判等領域。 目的是確定 AI 是否會模仿人類的偏見,以及它對這些偏見的敏感性是否會在不同的業務領域持續存在。

結果顯示,GPT-4 在解決具有明確數學解的問題方面優於其前身 GPT-3.5。 在需要機率計算和邏輯推理的情境中,GPT-4 表現出的錯誤較少。 然而,在主觀模擬中,例如決定是否採取冒險選項以確保收益,聊天機器人經常反映出人類表現出的非理性偏好。

AI 對確定性的偏好

值得注意的是,該研究揭示了「GPT-4 顯示出比人類更強烈的對確定性的偏好」。 這一觀察結果凸顯了 AI 在面對不明確的任務時傾向於選擇更安全和更可預測的結果。 對確定性的傾向在某些情況下可能是有利的,但它也可能限制 AI 探索創新解決方案或適應無法預見的情況的能力。

重要的是,無論問題是作為抽象的心理學問題還是營運業務流程提出,聊天機器人的行為都保持了驚人的一致性。 這種一致性表明,觀察到的偏差不僅僅是記憶的範例的結果,而是 AI 系統如何推理和處理資訊的固有方面。 該研究得出的結論是,AI 表現出的偏差已嵌入其推理機制中。

該研究最令人震驚的發現之一是 GPT-4 有時會放大類人錯誤的方式。 在確認偏差任務中,GPT-4 一貫提供有偏差的回應。 此外,它表現出比 GPT 3.5 更明顯的對熱手謬誤的傾向,表明它更傾向於感知隨機性中的模式。

避免偏見的實例

有趣的是,ChatGPT 表現出迴避某些常見人類偏見的能力,包括基本比率忽視和沉沒成本謬誤。 當個人忽略統計事實而傾向於軼事或個案特定資訊時,就會發生基本比率忽視。 當決策受到已經發生的成本的不當影響,從而掩蓋了理性判斷時,就會產生沉沒成本謬誤。

作者認為,ChatGPT 類人般的偏見源於它接觸到的訓練資料,其中包括人類表現出的認知偏見和啟發法。 這些傾向在微調過程中得到進一步強化,特別是當人類回饋優先考慮合理的回應而不是理性的回應時。 在面對不明確的任務時,AI 傾向於傾向於人類的推理模式,而不是僅僅依靠直接邏輯。

駕馭 AI 的偏見

為了減輕與 AI 偏見相關的風險,研究人員提倡採取明智的應用方法。 他們建議 AI 應用於其優勢所在的領域,例如需要準確性和公正計算的任務,類似於計算機執行的任務。 然而,當結果取決於主觀或策略性輸入時,人類的監督就變得至關重要。

辰強調,「如果您想要準確、公正的決策支援,請在您已經信任計算機的領域中使用 GPT」。 他進一步建議,當 AI 用於需要細緻判斷和策略性思維的環境中時,人類干預(例如調整使用者提示以糾正已知的偏見)至關重要。

該研究的共同作者、加拿大 McMaster University 的人力資源和管理副教授 Meena Andiappan 提倡將 AI 視為做出重要決策的員工。 她強調需要監督和道德準則,以確保 AI 得到負責任和有效的使用。 如果未能提供此類指導,可能會導致有缺陷的思維自動化,而不是決策過程的預期改進。

影響和考慮

該研究的發現對 AI 系統在各個領域的開發和部署產生了深遠的影響。 AI 容易受到類人般的偏見的影響這一發現強調了仔細評估其對特定任務的適用性以及實施保障措施以減輕潛在風險的重要性。

依賴 AI 進行決策的組織應意識到存在偏見的可能性,並採取措施加以解決。 這可能涉及提供額外的訓練資料以減少偏見、使用不太容易產生偏見的演算法或實施人工監督以確保 AI 決策公平且準確。

該研究還強調需要進一步研究 AI 偏見的原因和後果。 透過更好地了解 AI 系統如何發展偏見,我們可以制定策略來從一開始就預防它們的發生。

負責任的 AI 實施建議

為了確保 AI 系統的負責任和有效實施,應考慮以下建議:

  • 在部署之前,徹底評估 AI 系統是否存在潛在的偏見。 這包括在各種資料集和情境中測試 AI 系統,以識別它可能容易產生偏見的任何領域。
  • 提供額外的訓練資料以減少偏見。 訓練資料越多元化和具有代表性,AI 系統就越不容易發展偏見。
  • 使用不太容易產生偏見的演算法。 有些演算法比其他演算法更容易產生偏見。 在為特定任務選擇演算法時,考慮其產生偏見的可能性非常重要。
  • 實施人工監督以確保 AI 決策公平且準確。 人工監督有助於識別和糾正 AI 決策中的任何偏見。
  • 建立明確的 AI 使用道德準則。 這些準則應解決公平性、問責制和透明度等問題。

透過遵循這些建議,組織可以確保 AI 系統以既有益又負責的方式使用。 從這項研究中獲得的見解是一個寶貴的提醒,即雖然 AI 具有巨大的希望,但重要的是要謹慎地對待其實施,並承諾遵守道德原則。 只有這樣,我們才能充分利用 AI 的潛力,同時防範其潛在的陷阱。

AI:決策中人類缺陷的鏡像

近期研究揭示AI易受非理性傾向影響,如同人類決策。這挑戰AI客觀中立的傳統觀點,促使重新評估其應用價值。

揭示 AI 中類人般的缺陷

這項研究由來自加拿大和澳洲五所傑出學術機構的專家組成的聯盟進行,嚴格評估了 OpenAI 的 GPT-3.5 和 GPT-4 的性能,這兩者是為 ChatGPT 提供支援的基礎大型語言模型 (LLM)。 該研究的綜合分析表明,儘管這些 LLM 在其推理過程中表現出「令人印象深刻的一致性」,但它們遠非免受類人般的缺陷和偏差的影響。

作者敏銳地強調,AI 系統中這種固有的連貫性既有優點也有缺點。 雖然連貫性可以簡化具有明確、公式化解決方案的任務,但當應用於主觀或偏好驅動的決策時,它會帶來潛在的風險。 在這種情況下,AI 複製人類的偏見可能會導致有缺陷的結果和有偏差的結果。

該研究的主要作者、著名 Ivey Business School 的營運管理助理教授楊辰強調了辨別 AI 工具適當應用 Importance。 他告誡說,雖然 AI 在需要精確計算和邏輯推理的任務中表現出色,但在主觀決策過程中的應用需要仔細考慮和嚴格監控。

模擬 AI 中的人類偏見

為了深入研究 AI 系統中人類偏見的存在,研究人員設計了一系列實驗,這些實驗反映了眾所周知的人類偏見,包括風險規避、過度自信和稟賦效應。 他們向 ChatGPT 提出了旨在觸發這些偏見的提示,並仔細分析了 AI 的回應,以確定它是否會像人類一樣屈服於相同的認知陷阱。

科學家們向 LLM 提出了假設性問題,這些問題改編自傳統的心理學實驗。 這些問題是在真實商業應用背景下提出的,涵蓋了庫存管理和供應商談判等領域。 目的是確定 AI 是否會模仿人類的偏見,以及它對這些偏見的敏感性是否會在不同的業務領域持續存在。

結果顯示,GPT-4 在解決具有明確數學解的問題方面優於其前身 GPT-3.5。 在需要機率計算和邏輯推理的情境中,GPT-4 表現出的錯誤較少。 然而,在主觀模擬中,例如決定是否採取冒險選項以確保收益,聊天機器人經常反映出人類表現出的非理性偏好。

AI 對確定性的偏好

值得注意的是,該研究揭示了「GPT-4 顯示出比人類更強烈的對確定性的偏好」。 這一觀察結果凸顯了 AI 在面對不明確的任務時傾向於選擇更安全和更可預測的結果。 對確定性的傾向在某些情況下可能是有利的,但它也可能限制 AI 探索創新解決方案或適應無法預見的情況的能力。

重要的是,無論問題是作為抽象的心理學問題還是營運業務流程提出,聊天機器人的行為都保持了驚人的一致性。 這種一致性表明,觀察到的偏差不僅僅是記憶的範例的結果,而是 AI 系統如何推理和處理資訊的固有方面。 該研究得出的結論是,AI 表現出的偏差已嵌入其推理機制中。

該研究最令人震驚的發現之一是 GPT-4 有時會放大類人錯誤的方式。 在確認偏差任務中,GPT-4 一貫提供有偏差的回應。 此外,它表現出比 GPT 3.5 更明顯的對熱手謬誤的傾向,表明它更傾向於感知隨機性中的模式。

避免偏見的實例

有趣的是,ChatGPT 表現出迴避某些常見人類偏見的能力,包括基本比率忽視和沉沒成本謬誤。 當個人忽略統計事實而傾向於軼事或個案特定資訊時,就會發生基本比率忽視。 當決策受到已經發生的成本的不當影響,從而掩蓋了理性判斷時,就會產生沉沒成本謬誤。

作者認為,ChatGPT 類人般的偏見源於它接觸到的訓練資料,其中包括人類表現出的認知偏見和啟發法。 這些傾向在微調過程中得到進一步強化,特別是當人類回饋優先考慮合理的回應而不是理性的回應時。 在面對不明確的任務時,AI 傾向於傾向於人類的推理模式,而不是僅僅依靠直接邏輯。

駕馭 AI 的偏見

為了減輕與 AI 偏見相關的風險,研究人員提倡採取明智的應用方法。 他們建議 AI 應用於其優勢所在的領域,例如需要準確性和公正計算的任務,類似於計算機執行的任務。 然而,當結果取決於主觀或策略性輸入時,人類的監督就變得至關重要。

辰強調,「如果您想要準確、公正的決策支援,請在您已經信任計算機的領域中使用 GPT」。 他進一步建議,當 AI 用於需要細緻判斷和策略性思維的環境中時,人類干預(例如調整使用者提示以糾正已知的偏見)至關重要。

該研究的共同作者、加拿大 McMaster University 的人力資源和管理副教授 Meena Andiappan 提倡將 AI 視為做出重要決策的員工。 她強調需要監督和道德準則,以確保 AI 得到負責任和有效的使用。 如果未能提供此類指導,可能會導致有缺陷的思維自動化,而不是決策過程的預期改進。

影響和考慮

該研究的發現對 AI 系統在各個領域的開發和部署產生了深遠的影響。 AI 容易受到類人般的偏見的影響這一發現強調了仔細評估其對特定任務的適用性以及實施保障措施以減輕潛在風險的重要性。

依賴 AI 進行決策的組織應意識到存在偏見的可能性,並採取措施加以解決。 這可能涉及提供額外的訓練資料以減少偏見、使用不太容易產生偏見的演算法或實施人工監督以確保 AI 決策公平且準確。

該研究還強調需要進一步研究 AI 偏見的原因和後果。 透過更好地了解 AI 系統如何發展偏見,我們可以制定策略來從一開始就預防它們的發生。

負責任的 AI 實施建議

為了確保 AI 系統的負責任和有效實施,應考慮以下建議:

  • 在部署之前,徹底評估 AI 系統是否存在潛在的偏見。 這包括在各種資料集和情境中測試 AI 系統,以識別它可能容易產生偏見的任何領域。
  • 提供額外的訓練資料以減少偏見。 訓練資料越多元化和具有代表性,AI 系統就越不容易發展偏見。
  • 使用不太容易產生偏見的演算法。 有些演算法比其他演算法更容易產生偏見。 在為特定任務選擇演算法時,考慮其產生偏見的可能性非常重要。
  • 實施人工監督以確保 AI 決策公平且準確。 人工監督有助於識別和糾正 AI 決策中的任何偏見。
  • 建立明確的 AI 使用道德準則。 這些準則應解決公平性、問責制和透明度等問題。

透過遵循這些建議,組織可以確保 AI 系統以既有益又負責的方式使用。 從這項研究中獲得的見解是一個寶貴的提醒,即雖然 AI 具有巨大的希望,但重要的是要謹慎地對待其實施,並承諾遵守道德原則。 只有這樣,我們才能充分利用 AI 的潛力,同時防範其潛在的陷阱。