在情勢多變、資訊不全且缺乏時間深思熟慮的情況下,決策時最忌諱的是什麼?或者,阻礙有效決策的主要障礙是什麼?《決策時刻》一書從多個角度對這些問題進行了全面的分析。
通用人工智慧 (AGI) 的出現,預計將徹底改變許多產業。在未來的幾年內,AGI 可能會取代大多數客服中心員工,僅留下極少數的人力來處理機器無法解決的特殊問題。在 AGI 蓬勃發展的時代,這個預測似乎並非激進。然而,一個更重要的問題是:AGI 能夠有效地取代緊急調度員或緊急醫療服務人員嗎?在回答這個問題之前,我們必須更深入地探討這個命題的複雜性。緊急應變人員面臨著無數獨特且快速變化的情況,需要迅速的評估和判斷。我們能夠自信地將這些關鍵決策委託給機器嗎?
電車難題與道德選擇的複雜性
學者經常使用’電車難題’作為現實困境中固有倫理兩難的隱喻。電車難題的經典版本涉及一輛失控的電車衝向一群人。通過轉移電車,可以拯救這群人,但一位無辜的旁觀者將被致命地擊中。駕駛員應該採取什麼行動?古老的格言建議選擇兩害相權取其輕,但當在現實中遇到這樣的困境時,決策很少是簡單明瞭的。《決策時刻》的作者勞倫斯·艾莉森 (Laurence Alison) 認為,面對電車難題,應該努力做出損害最小的決策。當有多個選項,每個選項都會產生不利的結果時,目標應該是選擇造成最小傷害的選項。
電車難題是人類每天遇到的多方面挑戰的一個簡化表示。應對這些挑戰不僅涉及道德考量,還涉及對個人價值觀的深刻審視。我們所做的選擇反映了我們的價值判斷。不同的人總會做出不同的選擇——而且必須承認,不作為也是一種選擇——因為很少有明確的答案。
當我們驚嘆於 AI 能力的指數級進步時,《決策時刻》提醒我們,許多人在面對複雜和重大的事情時,難以做出果斷的判斷。面對動態環境,許多普通人缺乏權衡利弊、果斷行動和及時糾正方向的能力。我們怎麼能期望機器做得更好呢?這並不是說機器不能超越人類的能力,而是要強調,如果機器僅僅模仿人類的選擇,它們將不可避免地遇到大量有缺陷的決策。這種’有缺陷’或’正確’的概念並不意味著對於生活中的重大決策存在普遍適用的答案,而是意味著我們是否在決策過程中採用合理的推理來避免常見的心理陷阱。
有效決策的障礙
在以波動性、資訊不全和時間限制為特徵的情況下,有效決策的主要障礙是什麼?《決策時刻》確定了三個主要障礙:
- 害怕承擔責任: 厭惡承擔責任,導致不作為。通過保持被動,可以避免因特定選擇造成的任何不利後果承擔責任。除了害怕承擔責任之外,另一個擔憂是決策後悔——在獲得更多資訊後後悔一個決定。這些人傾向於設想不同的現實,在這些現實中,不同的選擇可能會產生更有利的結果。
- 選擇麻痺: 難以從眾多選項中進行選擇,尤其是在選擇需要犧牲時。在這種情況下,最重要的原則是做出損害最小的決策——選擇兩害相權取其輕。然而,說起來容易做起來難。人類的決策通常與情緒因素交織在一起,這解釋了退伍軍人中創傷後壓力症候群 (PTSD) 的現象。當衝突的價值觀發生衝突時,心理衝突最為嚴重,正如忠誠和孝道之間的經典困境所例證的那樣。理想的情況是使一個人的行為與根深蒂固的價值觀保持一致,但通常,個人被迫根據外部價值判斷做出決策,導致嚴重的心理困擾。
- 延遲執行: 決策和行動之間過度延遲。跳傘運動員會證明,最大的猶豫時刻發生在一個人準備跳躍但仍然可以撤退時。這種現象在許多改變人生的決定中普遍存在。一個被困在不幸婚姻中的女人可能會在她的孩子長大並離開家後考慮離婚。她可能會無休止地與她的知己討論她丈夫的優點和缺點,就像一個壞掉的唱片,反覆地權衡而沒有採取行動。與此相反的是害怕錯過 (FOMO),這導致由於害怕被拋在後面而做出倉促的決定,通常導致失敗。
戰略決策的 STAR 框架
那麼,可以做些什麼來克服這些障礙?《決策時刻》提出了 STAR 框架,這是一個包含以下內容的首字母縮寫:
- 情境 (Scenario): 培養情境意識首先要識別發生了什麼,然後理解為什麼會發生,最後,預測接下來可能發生的事情。為什麼經驗豐富的消防員對火災情況有直覺的理解?因為他們遇到了許多情境,並且可以迅速利用他們的經驗來做出正確的判斷並立即採取行動。馬爾科姆·格拉德威爾在《眨眼之間:不假思索的思考力量》中探討了類似的例子。
- 時機 (Timing): ‘時機’要素解決了在合理的時間範圍內行動的重要性。三思而後行的格言在這裡適用。一個有用的類比是狐步舞,它具有’慢,慢,快,快’的節奏。在決策的初始階段,謹慎行事、避免衝動以及抵制僅僅依靠直覺是明智的。相反,努力獲取充足的資訊。然而,在執行的後期階段,迅速採取行動至關重要,因為無法獲得完美的資訊,並且長時間收集資訊的邊際效益會降低。
- 假設 (Assumptions): 明確表達假設至關重要。通常,個人傾向於有選擇地感知與其先入為主的觀念相符的資訊,同時忽略矛盾的證據和其他可能性。2023 年哈馬斯對以色列的襲擊暴露了戰略假設的失敗。從總理內塔尼亞胡到軍事和情報官員,以色列領導人都未能預料到這次襲擊。這不是由於缺乏早期預警信號,而是未能充分考慮這種事件發生的可能性。我們選擇相信什麼通常不如我們選擇想像什麼重要。
- 修正 (Revision): 不斷調整和適應的能力至關重要。在某些情況下,需要韌性和堅定不移的毅力——對失敗的恐懼不應阻止一個人嘗試重要的努力。在其他情況下,及時調整和止損的能力對於防止沉沒成本影響後續選擇是必要的。然而,挑戰在於辨別如何在模糊的情況下做出這樣的判斷。常見的陷阱包括缺乏毅力,導致錯失機會,或者過度毅力,導致資源浪費。
將 AI 整合到決策過程中
在檢查了 STAR 框架之後,現在至關重要的是要考慮它對 AI 的影響,以及機器如何增強我們的決策能力。這將我們帶回了最初的問題:我們能將所有決策委託給 AGI 嗎?
在未來的幾年裡,AI 將越來越多地模組化工作。許多任務將由人類和機器共同執行,每個人都在四個關鍵領域利用各自的優勢:
- 複雜性 (Complexity): 複雜性越高,人類的適應能力就越強。複雜性體現在兩個維度:不確定性(資訊不全)和缺乏明確或最佳選擇。即使在資訊稀缺的情況下,經驗豐富的人也可以做出大膽的決定。人類擁有權衡取捨和做出價值判斷的自主權。
- 頻率 (Frequency): 類似任務發生的頻率越高,機器就越能勝任處理它們。即使在緊急調度情境中,機器也可以向經驗豐富的應變人員學習並做出正確的選擇,尤其是在處理高頻事件(例如車禍)時。
- 協調 (Coordination): 現實世界的任務很少是孤立的。它們涉及協作並需要廣泛的溝通。STAR 框架的每個要素都依賴於溝通。問題是,機器能否提高溝通的有效性和效率?雖然人類的溝通有其缺陷,但非正式和未計劃的互動可能至關重要。機器能理解這些細微之處嗎?
- 失敗成本 (Cost of Failure): 失敗的成本是多少,尤其是在 AI 出錯時?在組織中,問責制至關重要。即使在推廣 AI 應用程式時,決策者也必須考慮潛在的失敗成本。
AI 如何增強決策能力
AI 可以通過三種主要方式提供幫助:
- 打破認知瓶頸: AI 擅長處理大量數據,減輕了對認知超載的擔憂。AI 可以協助進行’狐步舞’,防止直覺和偏見限制我們對整體格局的理解。
- 利用集體智慧: AI 可以匯總來自不同來源的判斷,為新手提供決策支持。
- 減輕心理弱點: AI 可以提供行動指導並協助定義明確的規則和流程,減輕一些心理負擔。在需要果斷行動的情況下,AI 可以掌握主動權。
機器在缺乏明確答案以及基於自主性和價值判斷的選擇的複雜情況下仍然掙扎。他們也難以應對細微差別和權衡取捨。最終,最終決定權在於人類。我們可以學會做出更好的選擇,機器將成為不可或缺的盟友。