我们能将所有决策都托付给AGI吗?

面对瞬息万变的环境、不完整的信息和有限的思考时间,决策中最根本的错误是什么?或者说,阻碍有效决策的主要障碍是什么?’Decision Time’ 从多个角度对这些问题进行了全面的分析。

通用人工智能 (AGI) 的出现有望彻底改变众多行业。在未来几年内,AGI 可能会取代大多数呼叫中心员工,只留下少量人员来处理机器无法解决的特殊问题。在 AGI 蓬勃发展的时代,这种预测似乎并不激进。然而,一个更重要的问题是:AGI 真的可以有效地取代紧急调度员或紧急医疗服务人员吗?在回答之前,我们必须更深入地研究这个提议的复杂性。紧急救援人员面临着无数独特且快速变化的情况,需要迅速的评估和判断。我们能自信地将如此关键的决策委托给机器吗?

电车难题与道德选择的复杂性

学者们经常使用 ‘电车难题’ 作为现实困境中固有伦理困境的隐喻。经典的电车难题描述了一辆失控的电车正冲向一群人。通过改变电车的轨道,可以拯救这群人,但会有一名无辜的旁观者被撞死。司机应该采取什么行动?古老的格言建议选择两害相权取其轻,但当在现实中面对这样的困境时,这个决定很少是直截了当的。在 ‘Decision Time’ 中,作者 Laurence Alison 提出,面对电车难题,应该努力做出损害最小的决定。当面临多个选项,每个选项都会产生不利结果时,目标应该是选择造成伤害最小的选项。

电车难题是对人类每天遇到的多方面挑战的简化表示。应对这些挑战不仅涉及道德考量,还涉及对个人价值观的深刻审视。我们所做的选择反映了我们的价值判断。不同的人总会做出不同的选择——而且必须承认,不作为也是一种选择——因为很少有明确的答案。

当我们惊叹于人工智能能力的指数级进步时,’Decision Time’ 提醒我们,许多人在面对复杂和重要的事务时,难以做出果断的判断。面对动态环境,许多普通人缺乏权衡利弊、果断行动和及时纠正方向的能力。我们如何期望机器做得更好?这并不是说机器无法超越人类的能力,而是强调,如果机器仅仅模仿人类的选择,它们将不可避免地遇到大量有缺陷的决策。这种 ‘有缺陷’ 或 ‘正确’ 的概念并不意味着对生活中重要的决定存在普遍适用的答案,而是指我们在决策过程中是否运用了合理的推理,以避免常见的心理陷阱。

有效决策的障碍

在以波动性、不完整的信息和时间限制为特征的情况下,有效决策的主要障碍是什么?’Decision Time’ 确定了三个主要的障碍:

  • 害怕承担责任: 厌恶承担责任,导致不作为。通过保持被动,人们可以避免因特定选择造成的任何不利后果承担责任。除了害怕承担责任外,另一个担忧是决策后的后悔——在获得更多信息后后悔一个决定。这些人倾向于设想不同的现实,在这些现实中,不同的选择可能会产生更有利的结果。
  • 选择瘫痪: 难以从众多选项中进行选择,尤其是在选择涉及牺牲时。在这种情况下,最重要的原则是做出损害最小的决定——选择两害相权取其轻。然而,说起来容易做起来难。人类的决策往往与情感因素交织在一起,这解释了退伍军人中创伤后应激障碍 (PTSD) 的现象。当相互冲突的价值观发生冲突时,心理冲突最为激烈,例如在忠诚和孝道之间做出选择的经典困境。理想的情况是将一个人的行为与根深蒂固的价值观结合起来,但通常,个人被迫根据外部价值判断做出决定,从而导致严重的心理痛苦。
  • 延迟执行: 决策和行动之间的时间间隔过长。跳伞运动员会证明,当一个人准备跳跃但仍然可以选择撤退时,犹豫不决的时刻最为强烈。这种现象在许多改变生活的决定中普遍存在。一个陷入不幸婚姻的女人可能会在她的孩子长大离家后考虑离婚。她可能会没完没了地与她的密友讨论她丈夫的优点和缺点,就像一个坏掉的唱片,反复地考虑而不采取行动。与此相反的是害怕错过 (FOMO),这导致人们因害怕被抛在后面而做出仓促的决定,通常会导致失败。

用于战略决策的 STAR 框架

那么,可以做些什么来克服这些障碍呢?’Decision Time’ 提出了 STAR 框架,这是一个包含以下内容的缩写:

  • 情景 (Scenario): 培养情境意识首先涉及确定发生了什么,然后理解为什么会发生,最后预测接下来可能发生什么。为什么经验丰富的消防员对火灾情况具有直观的理解?因为他们遇到了无数的情景,并且可以迅速利用他们的经验做出合理的判断并立即采取行动。Malcolm Gladwell 在 ‘Blink: The Power of Thinking Without Thinking’ 中探讨了类似的例子。
  • 时机 (Timing): ‘时机’ 元素强调在合理的时间范围内行动的重要性。三思而后行的格言适用于此。一个有用的类比是狐步舞,其节奏为 ‘慢,慢,快,快’。在决策的初始阶段,谨慎行事、避免冲动以及避免仅仅依靠直觉是明智的。相反,努力获取充足的信息。然而,在执行的后期阶段,迅速采取行动至关重要,因为完美的信息是无法获得的,并且长期信息收集的边际效益会降低。
  • 假设 (Assumptions): 明确表达假设至关重要。通常,个人倾向于选择性地感知与他们先入为主的观念相一致的信息,同时忽略矛盾的证据和其他可能性。2023 年哈马斯对以色列的袭击暴露了战略假设的失败。从内塔尼亚胡总理到军事和情报官员,以色列领导人未能预料到这次袭击。这并不是因为缺乏早期预警信号,而是未能充分考虑发生此类事件的可能性。我们选择相信什么通常不如我们选择想象什么重要。
  • 修订 (Revision): 不断调整和适应的能力至关重要。在某些情况下,需要韧性和毫不动摇的坚持——对失败的恐惧不应阻止一个人尝试重要的努力。在其他情况下,及时的调整和止损的能力对于防止沉没成本影响后续选择是必要的。然而,挑战在于辨别如何在模糊的情况下做出这样的判断。常见的陷阱包括缺乏坚持,导致错失良机,或者过度坚持,导致资源的浪费。

将 AI 整合到决策过程中

在研究了 STAR 框架之后,现在必须考虑其对人工智能的影响,以及机器如何增强我们的决策能力。这使我们回到了最初的问题:我们能将所有决策都委托给 AGI 吗?

在未来几年,人工智能将越来越多地模块化工作。许多任务将由人类和机器共同执行,每个都在四个关键领域发挥各自的优势:

  1. 复杂性: 复杂性越高,人类的适应能力就越强。复杂性体现在两个维度:不确定性(信息不完整)和缺乏明确或最佳的选择。即使在信息稀缺的情况下,经验丰富的人也可以做出大胆的决定。人类拥有权衡取舍和做出价值判断的自主权。
  2. 频率: 相似任务发生的频率越高,机器就越能胜任处理它们。即使在紧急调度场景中,机器也可以向经验丰富的救援人员学习并做出合理的选择,尤其是在处理高频率事件(例如车祸)时。
  3. 协调: 现实世界的任务很少是孤立的。它们涉及协作并需要广泛的沟通。STAR 框架的每个元素都依赖于沟通。问题是,机器能否提高沟通的有效性和效率?虽然人类的沟通存在缺陷,但非正式和计划外的互动可能至关重要。机器能理解这些细微之处吗?
  4. 失败成本: 失败的成本是多少,尤其是在 AI 犯错时?在组织中,问责制至关重要。即使在推广 AI 应用程序时,决策者也必须考虑潜在的失败成本。

AI 如何增强决策能力

AI 可以通过三个关键方式提供帮助:

  1. 打破认知瓶颈: AI 擅长处理大量数据,缓解了对认知超载的担忧。AI 可以帮助进行 ‘狐步舞’,防止直觉和偏见限制我们对整体格局的理解。
  2. 利用集体智慧: AI 可以汇总来自不同来源的判断,为新手提供决策支持。
  3. 减轻心理弱点: AI 可以提供行动指导并协助定义明确的规则和流程,从而减轻一些心理负担。在需要果断行动的情况下,AI 可以接过缰绳。

机器仍然难以应对缺乏明确答案和基于自主性和价值判断的选择的复杂情况。它们也难以应对细微之处和权衡取舍。最终,最终决定权掌握在人类手中。我们可以学会做出更好的选择,机器可以成为不可或缺的盟友。