최근 연구 결과는 인공지능(AI)이 인간의 의사 결정에서 나타나는 비합리적인 경향과 유사한 취약성을 보인다는 흥미로우면서도 우려스러운 측면을 밝혀냈습니다. 이러한 발견은 AI를 객관적이고 편향되지 않은 도구로 보는 기존의 인식을 깨고, 다양한 애플리케이션에서의 실용적인 유용성에 대한 재평가를 촉구합니다.
획기적인 연구는 저명한 AI 시스템인 ChatGPT의 행동을 인간 심리학에서 흔히 나타나는 인지적 편향의 스펙트럼에 걸쳐 세심하게 조사했습니다. Manufacturing & Service Operations Management 저널에 발표된 연구 결과에 따르면 ChatGPT는 평가된 시나리오의 거의 절반에서 수많은 비합리적인 의사 결정 패턴을 보였습니다. 이러한 패턴은 핫 핸드 오류(hot hand fallacy), 기준율 무시(base-rate neglect) 및 매몰 비용 오류(sunk cost fallacy)와 같이 잘 알려진 편향을 포함하며, 중요한 의사 결정 환경에서 AI의 신뢰성과 적합성에 대한 심각한 우려를 불러일으킵니다.
AI의 인간과 유사한 결함 공개
캐나다와 호주에 걸쳐 5개의 저명한 학술 기관의 전문가 컨소시엄이 수행한 이 연구는 OpenAI의 GPT-3.5와 GPT-4의 성능을 엄격하게 평가했습니다. 이들은 ChatGPT를 구동하는 기본 대규모 언어 모델(LLM)입니다. 이 연구의 포괄적인 분석은 이러한 LLM이 추론 과정에서 "인상적인 일관성"을 보임에도 불구하고 인간과 유사한 결함과 편향에 면역되지 않음을 보여주었습니다.
저자들은 AI 시스템 내에서 이러한 고유한 일관성이 장점과 단점을 모두 제시한다고 현명하게 강조했습니다. 일관성은 명확하고 공식적인 솔루션으로 작업을 간소화할 수 있지만 주관적이거나 선호도 기반 결정에 적용될 때 잠재적인 위험을 초래합니다. 이러한 시나리오에서 AI에 의한 인간 편향의 복제는 결함 있는 결과와 왜곡된 결과를 초래할 수 있습니다.
연구의 주 저자이자 Ivey Business School의 운영 관리 조교수인 Yang Chen은 AI 도구의 적절한 적용을 식별하는 것이 중요하다고 강조했습니다. 그는 AI가 정확한 계산과 논리적 추론이 필요한 작업에서 탁월하지만 주관적인 의사 결정 프로세스에 적용하려면 신중한 고려와 경계적인 모니터링이 필요하다고 경고했습니다.
AI에서 인간 편향 시뮬레이션
AI 시스템 내에서 인간 편향의 존재를 조사하기 위해 연구자들은 위험 회피, 과신 및 보유 효과를 포함하여 일반적으로 알려진 인간 편향을 미러링하는 일련의 실험을 고안했습니다. 그들은 이러한 편향을 유발하도록 설계된 프롬프트를 ChatGPT에 제시하고 AI의 응답을 세심하게 분석하여 인간과 동일한 인지적 함정에 빠지는지 확인했습니다.
과학자들은 전통적인 심리학 실험에서 각색한 가설적인 질문을 LLM에 제시했습니다. 이러한 질문은 재고 관리 및 공급업체 협상과 같은 영역에 걸쳐 실제 상업적 애플리케이션의 컨텍스트 내에서 구성되었습니다. 목표는 AI가 인간 편향을 모방하는지 여부와 이러한 편향에 대한 취약성이 다양한 비즈니스 영역에서 지속되는지 여부를 확인하는 것이었습니다.
결과에 따르면 GPT-4는 명시적인 수학적 솔루션으로 문제를 해결하는 데 있어 이전 버전인 GPT-3.5보다 뛰어난 성능을 보였습니다. GPT-4는 확률 계산과 논리적 추론이 필요한 시나리오에서 오류가 더 적었습니다. 그러나 이익을 확보하기 위해 위험한 옵션을 추구할지 여부를 결정하는 것과 같은 주관적인 시뮬레이션에서 챗봇은 종종 인간이 보이는 비합리적인 선호도를 미러링했습니다.
확실성에 대한 AI의 선호도
특히, 이 연구는 "GPT-4가 인간보다 확실성에 대한 더 강한 선호도를 보인다"는 것을 밝혔습니다. 이러한 관찰은 모호한 작업에 직면했을 때 더 안전하고 예측 가능한 결과를 선호하는 AI 경향을 강조합니다. 확실성에 대한 성향은 특정 상황에서 유리할 수 있지만 혁신적인 솔루션을 탐색하거나 예측할 수 없는 상황에 적응하는 AI의 능력을 제한할 수도 있습니다.
중요하게도 챗봇의 행동은 질문이 추상적인 심리적 문제 또는 운영 비즈니스 프로세스로 제시되는지에 관계없이 놀라울 정도로 일관성을 유지했습니다. 이러한 일관성은 관찰된 편향이 단순히 암기된 예의 결과가 아니라 AI 시스템이 추론하고 정보를 처리하는 방식의 본질적인 측면임을 시사합니다. 이 연구는 AI가 보이는 편향이 추론 메커니즘 내에 내장되어 있다고 결론지었습니다.
연구의 가장 놀라운 폭로 중 하나는 GPT-4가 때때로 인간과 유사한 오류를 증폭시키는 방식이었습니다. 확증 편향 작업에서 GPT-4는 일관되게 편향된 응답을 제공했습니다. 또한 핫 핸드 오류에 대한 경향이 GPT 3.5보다 더 뚜렷하게 나타나 무작위성에서 패턴을 인식하는 경향이 더 강하다는 것을 나타냅니다.
편향 회피 사례
흥미롭게도 ChatGPT는 기준율 무시 및 매몰 비용 오류를 포함하여 특정 일반적인 인간 편향을 우회하는 능력을 보여주었습니다. 기준율 무시는 개인이 일화적 또는 사례별 정보에 유리하게 통계적 사실을 무시할 때 발생합니다. 매몰 비용 오류는 의사 결정이 이미 발생한 비용에 부당하게 영향을 받아 합리적인 판단을 가릴 때 발생합니다.
저자들은 ChatGPT의 인간과 유사한 편향이 인간이 보이는 인지적 편향과 휴리스틱을 포함하는 학습 데이터에서 비롯된다고 가정합니다. 이러한 경향은 특히 인간 피드백이 합리적인 응답보다 그럴듯한 응답을 우선시할 때 미세 조정 과정에서 더욱 강화됩니다. 모호한 작업에 직면했을 때 AI는 직접적인 논리에만 의존하기보다는 인간 추론 패턴으로 향하는 경향이 있습니다.
AI 편향 탐색
AI 편향과 관련된 위험을 완화하기 위해 연구자들은 애플리케이션에 대한 신중한 접근 방식을 옹호합니다. 그들은 AI가 계산기와 유사하게 정확성과 편향되지 않은 계산이 필요한 작업과 같이 강점이 있는 영역에서 사용되도록 권장합니다. 그러나 결과가 주관적이거나 전략적인 입력에 달려 있는 경우 인간의 감독이 가장 중요해집니다.
Chen은 "정확하고 편향되지 않은 의사 결정 지원을 원한다면 이미 계산기를 신뢰할 수 있는 영역에서 GPT를 사용하십시오."라고 강조합니다. 그는 또한 AI가 미묘한 판단과 전략적 사고가 필요한 컨텍스트에서 사용될 때 알려진 편향을 수정하기 위해 사용자 프롬프트를 조정하는 것과 같은 인간의 개입이 필수적이라고 제안합니다.
연구의 공동 저자이자 캐나다 McMaster University의 인적 자원 및 관리 부교수인 Meena Andiappan은 AI를 중요한 결정을 내리는 직원으로 취급할 것을 옹호합니다. 그녀는 AI가 책임감 있고 효과적으로 사용되도록 감독 및 윤리적 지침이 필요하다고 강조합니다. 이러한 지침을 제공하지 않으면 의사 결정 프로세스의 원하는 개선이 아니라 결함 있는 사고의 자동화로 이어질 수 있습니다.
의미 및 고려 사항
이 연구 결과는 다양한 분야에서 AI 시스템의 개발 및 배포에 심오한 영향을 미칩니다. AI가 인간과 유사한 편향에 취약하다는 사실은 특정 작업에 대한 적합성을 신중하게 평가하고 잠재적인 위험을 완화하기 위한 안전 장치를 구현하는 것이 중요하다는 점을 강조합니다.
AI에 의존하여 의사 결정을 내리는 조직은 편향의 가능성을 인식하고 이를 해결하기 위한 조치를 취해야 합니다. 여기에는 편향을 줄이기 위해 추가 학습 데이터를 제공하거나 편향되기 쉬운 알고리즘을 사용하거나 AI 결정이 공정하고 정확한지 확인하기 위해 인간의 감독을 구현하는 것이 포함될 수 있습니다.
이 연구는 또한 AI 편향의 원인과 결과에 대한 추가 연구가 필요함을 강조합니다. AI 시스템이 편향을 개발하는 방식을 더 잘 이해함으로써 처음부터 발생하지 않도록 예방하는 전략을 개발할 수 있습니다.
책임감 있는 AI 구현을 위한 권장 사항
AI 시스템의 책임감 있고 효과적인 구현을 보장하려면 다음 권장 사항을 고려해야 합니다.
- 배포하기 전에 잠재적인 편향에 대해 AI 시스템을 철저히 평가합니다. 여기에는 AI 시스템이 편향되기 쉬운 영역을 식별하기 위해 다양한 데이터 세트와 시나리오에서 AI 시스템을 테스트하는 것이 포함됩니다.
- 편향을 줄이기 위해 추가 학습 데이터를 제공합니다. 학습 데이터가 더 다양하고 대표적일수록 AI 시스템이 편향을 개발할 가능성이 줄어듭니다.
- 편향되기 쉬운 알고리즘을 사용합니다. 일부 알고리즘은 다른 알고리즘보다 편향되기 쉽습니다. 특정 작업에 대한 알고리즘을 선택할 때 편향 가능성을 고려하는 것이 중요합니다.
- AI 결정이 공정하고 정확한지 확인하기 위해 인간의 감독을 구현합니다. 인간의 감독은 AI 결정의 편향을 식별하고 수정하는 데 도움이 될 수 있습니다.
- AI 사용에 대한 명확한 윤리적 지침을 설정합니다. 이러한 지침은 공정성, 책임성 및 투명성과 같은 문제를 다루어야 합니다.
이러한 권장 사항을 따르면 조직은 AI 시스템이 유익하고 책임감 있는 방식으로 사용되도록 할 수 있습니다. 이 연구에서 얻은 통찰력은 AI가 엄청난 약속을 가지고 있지만 윤리적 원칙에 대한 주의와 헌신으로 구현에 접근하는 것이 중요하다는 귀중한 알림 역할을 합니다. 그래야만 잠재적인 함정에 대한 안전 장치를 마련하면서 AI의 모든 잠재력을 활용할 수 있습니다.