人工智能(AI):决策中人类缺陷的镜像
最近的调查揭示了人工智能(AI)一个引人入胜但又令人担忧的方面:它容易受到类似于人类决策中观察到的非理性倾向的影响。这一发现挑战了人们对AI作为客观和公正工具的传统认知,促使人们重新评估其在各种应用中的实际效用。
一项开创性的研究仔细审查了ChatGPT(一种著名的AI系统)在人类心理学中普遍存在的各种认知偏差下的行为。发表在著名期刊Manufacturing & Service Operations Management上的研究结果表明,ChatGPT在近一半的评估场景中表现出许多非理性的决策模式。这些模式包括众所周知的偏差,如热手谬误、基本比率谬误和沉没成本谬误,这引起了人们对AI在关键决策环境中的可靠性和适用性的重大担忧。
揭示AI中类人的缺陷
这项研究由来自加拿大和澳大利亚的五所著名学术机构的专家联盟进行,严格评估了OpenAI的GPT-3.5和GPT-4的性能,这些模型是为ChatGPT提供动力的基础大型语言模型(LLM)。该研究的全面分析表明,尽管这些LLM在其推理过程中表现出“令人印象深刻的一致性”,但它们远非免受类人缺陷和偏见的影响。
作者敏锐地强调,AI系统内部这种固有的 一致性既有优点也有缺点。虽然一致性可以简化具有清晰、公式化解决方案的任务,但当应用于主观或偏好驱动的决策时,它会带来潜在的风险。在这种情况下,AI复制人类偏见可能导致有缺陷的结果和有偏差的结果。
该研究的主要作者、著名毅伟商学院运营管理助理教授陈阳强调了辨别AI工具的适当应用的重要性。他告诫说,虽然AI擅长需要精确计算和逻辑推理的任务,但其在主观决策过程中的应用需要仔细考虑和警惕监控。
模拟AI中的人类偏见
为了深入研究AI系统中人类偏见的存在,研究人员设计了一系列实验,这些实验模仿了众所周知的人类偏见,包括风险规避、过度自信和禀赋效应。他们向ChatGPT提出了旨在触发这些偏见的提示,并仔细分析了AI的响应,以确定它是否会屈服于与人类相同的认知陷阱。
科学家们向LLM提出了假设性问题,这些问题是从传统的心理学实验中改编而来的。这些问题是在真实商业应用的背景下提出的,涵盖了库存管理和供应商谈判等领域。目的是确定AI是否会模仿人类的偏见,以及它对这些偏见的敏感性是否会在不同的业务领域中持续存在。
结果表明,GPT-4在解决具有明确数学解决方案的问题方面优于其前身GPT-3.5。GPT-4在需要概率计算和逻辑推理的场景中表现出较少的错误。然而,在主观模拟中,例如决定是否追求有风险的选择以确保收益,该聊天机器人经常模仿人类表现出的非理性偏好。
AI对确定性的偏好
值得注意的是,该研究表明“GPT-4对确定性的偏好甚至比人类更强。”这一观察结果突出了AI在面临模糊任务时倾向于选择更安全、更可预测的结果。在某些情况下,对确定性的偏好可能是有利的,但也可能限制AI探索创新解决方案或适应不可预见情况的能力。
重要的是,无论问题是作为抽象的心理问题还是作为可操作的业务流程提出,聊天机器人的行为都保持了惊人的一致性。这种一致性表明,观察到的偏见不仅仅是记忆的示例的结果,而是AI系统如何推理和处理信息的内在方面。该研究得出的结论是,AI表现出的偏见嵌入在其推理机制中。
该研究最令人震惊的发现之一是GPT-4偶尔会放大类人错误的方式。在确认偏见任务中,GPT-4始终如一地提供有偏见的响应。此外,它表现出比GPT 3.5更明显的对热手谬误的倾向,表明它更倾向于感知随机性中的模式。
避免偏见的实例
有趣的是,ChatGPT表现出规避某些常见人类偏见的能力,包括基本比率谬误和沉没成本谬误。当个人不顾统计事实而偏爱轶事或特定案例信息时,就会发生基本比率谬误。当决策受到已经发生的成本的不当影响时,沉没成本谬误就会出现,从而掩盖了理性的判断。
作者认为,ChatGPT的类人偏见源于它接触到的训练数据,其中包括人类表现出的认知偏见和启发式方法。在微调过程中,这些倾向会得到进一步加强,尤其是在人类反馈优先考虑合理的响应而不是理性的响应时。在面对模糊的任务时,AI倾向于倾向于人类的推理模式,而不是仅仅依赖直接逻辑。
应对AI的偏见
为了减轻与AI偏见相关的风险,研究人员提倡采取明智的方法来应用它。他们建议将AI应用于其优势所在领域,例如需要准确和无偏计算的任务,类似于计算器执行的任务。但是,当结果取决于主观或战略输入时,人的监督变得至关重要。
陈强调说:“如果您想要准确、公正的决策支持,请在您已经信任计算器的领域中使用GPT。”他进一步建议,当AI用于需要细致判断和战略思考的环境中时,人为干预(例如调整用户提示以纠正已知的偏见)至关重要。
该研究的合著者、加拿大麦克马斯特大学人力资源和管理学副教授米娜·安迪亚潘提倡将AI视为做出重要决策的员工。她强调需要进行监督和制定道德准则,以确保负责任和有效地使用AI。未能提供此类指导可能会导致有缺陷的思维自动化,而不是决策过程的期望改进。
影响和考虑因素
该研究的结果对跨多个领域开发和部署AI系统具有深远的影响。AI容易受到类人偏见的影响这一发现,凸显了仔细评估其对特定任务的适用性以及实施保障措施以减轻潜在风险的重要性。
依赖AI进行决策的组织应意识到存在偏见的可能性,并采取措施加以解决。这可能涉及提供额外的训练数据以减少偏见、使用不太容易产生偏见的算法,或实施人为监督以确保AI决策公平且准确。
该研究还强调需要进一步研究AI偏见的原因和后果。通过更好地了解AI系统如何产生偏见,我们可以制定策略来防止它们首先发生。
负责任的AI实施建议
为确保负责任和有效地实施AI系统,应考虑以下建议:
- 在部署之前彻底评估AI系统是否存在潜在的偏见。 这包括在各种数据集和场景中测试AI系统,以识别其可能容易产生偏见的任何领域。
- 提供额外的训练数据以减少偏见。 训练数据越多样化和具有代表性,AI系统就越不容易产生偏见。
- 使用不太容易产生偏见的算法。 有些算法比其他算法更容易产生偏见。在为特定任务选择算法时,重要的是要考虑其产生偏见的可能性。
- 实施人为监督以确保AI决策公平且准确。 人为监督可以帮助识别和纠正AI决策中的任何偏见。
- 为AI的使用建立明确的道德准则。 这些准则应解决诸如公平、问责制和透明度之类的问题。
通过遵循这些建议,组织可以确保以有益且负责任的方式使用AI系统。从这项研究中获得的见解是一个宝贵的提醒,即尽管AI具有巨大的希望,但至关重要的是要谨慎地进行实施并承诺遵守道德原则。只有这样,我们才能在防范其潜在陷阱的同时,充分利用AI的潜力。