ИИ: Отражение человеческих недостатков в решениях

Недавние исследования выявили интересный, но вызывающий беспокойство аспект искусственного интеллекта (ИИ): его подверженность иррациональным тенденциям, сходным с теми, которые наблюдаются в процессе принятия решений человеком. Это открытие ставит под сомнение общепринятое представление об ИИ как об объективном и непредвзятом инструменте, побуждая к переоценке его практической полезности в различных приложениях.

Новаторское исследование тщательно изучило поведение ChatGPT, известной системы ИИ, в отношении спектра когнитивных искажений, распространенных в психологии человека. Результаты, опубликованные в уважаемом журнале Manufacturing & Service Operations Management, показали, что ChatGPT демонстрирует многочисленные иррациональные модели принятия решений почти в половине оцененных сценариев. Эти модели включают в себя хорошо задокументированные предубеждения, такие как заблуждение о «горячей руке», пренебрежение базовой ставкой и заблуждение о невозвратных издержках, что вызывает серьезные опасения по поводу надежности и пригодности ИИ в контекстах принятия критически важных решений.

Выявление человеческих недостатков в ИИ

Исследование, проведенное консорциумом экспертов из пяти уважаемых академических учреждений Канады и Австралии, строго оценило производительность GPT-3.5 и GPT-4 от OpenAI, фундаментальных больших языковых моделей (LLM), которые питают ChatGPT. Комплексный анализ исследования показал, что, несмотря на "впечатляющую последовательность", демонстрируемую этими LLM в процессах рассуждения, они далеко не застрахованы от человеческих недостатков и предубеждений.

Авторы проницательно подчеркнули, что эта присущая системам ИИ последовательность имеет как преимущества, так и недостатки. Хотя последовательность может упростить задачи с четкими, формульными решениями, она создает потенциальные риски при применении к субъективным решениям или решениям, основанным на предпочтениях. В таких сценариях воспроизведение человеческих предубеждений ИИ может привести к ошибочным результатам и искаженным результатам.

Ян Чен, ведущий автор исследования и доцент кафедры управления операциями в уважаемой бизнес-школе Ivey, подчеркнул важность определения подходящих применений инструментов ИИ. Он предостерег, что, хотя ИИ преуспевает в задачах, требующих точных вычислений и логических рассуждений, его применение в процессах субъективного принятия решений требует тщательного рассмотрения и бдительного мониторинга.

Имитация человеческих предубеждений в ИИ

Чтобы углубиться в присутствие человеческих предубеждений в системах ИИ, исследователи разработали серию экспериментов, которые отражали общеизвестные человеческие предубеждения, включая неприятие риска, самоуверенность и эффект владения. Они представили ChatGPT запросы, предназначенные для запуска этих предубеждений, и тщательно проанализировали ответы ИИ, чтобы определить, поддастся ли он тем же когнитивным ловушкам, что и люди.

Ученые задавали гипотетические вопросы, адаптированные из традиционных психологических экспериментов, LLM. Эти вопросы были сформулированы в контексте реальных коммерческих приложений, охватывающих такие области, как управление запасами и переговоры с поставщиками. Цель состояла в том, чтобы выяснить, будет ли ИИ имитировать человеческие предубеждения и сохранится ли его восприимчивость к этим предубеждениям в различных бизнес-доменах.

Результаты показали, что GPT-4 превзошел своего предшественника, GPT-3.5, в решении проблем с явными математическими решениями. GPT-4 демонстрировал меньше ошибок в сценариях, которые требовали вычислений вероятностей и логических рассуждений. Однако в субъективных симуляциях, таких как решение о том, следует ли преследовать рискованный вариант для обеспечения выгоды, чат-бот часто отражал иррациональные предпочтения, проявляемые людьми.

Предпочтение ИИ определенности

Примечательно, что исследование показало, что "GPT-4 демонстрирует более сильное предпочтение определенности, чем даже люди". Это наблюдение подчеркивает тенденцию ИИ отдавать предпочтение более безопасным и предсказуемым результатам при столкновении с неоднозначными задачами. Склонность к определенности может быть выгодной в определенных ситуациях, но она также может ограничить способность ИИ исследовать инновационные решения или адаптироваться к непредвиденным обстоятельствам.

Примечательно, что поведение чат-ботов оставалось на удивление последовательным, независимо от того, были ли вопросы представлены как абстрактные психологические проблемы или операционные бизнес-процессы. Эта последовательность предполагает, что наблюдаемые предубеждения были не просто результатом запомненных примеров, а скорее неотъемлемым аспектом того, как системы ИИ рассуждают и обрабатывают информацию. Исследование пришло к выводу, что предубеждения, проявляемые ИИ, встроены в его механизмы рассуждения.

Одним из самых поразительных откровений исследования был способ, которым GPT-4 иногда усиливал человеческие ошибки. В задачах подтверждения предвзятости GPT-4 неизменно давал предвзятые ответы. Кроме того, он демонстрировал более выраженную склонность к заблуждению о "горячей руке", чем GPT 3.5, что указывает на более сильную тенденцию воспринимать закономерности в случайности.

Случаи избегания предвзятости

Интригующе, ChatGPT продемонстрировал способность обходить определенные распространенные человеческие предубеждения, включая пренебрежение базовой ставкой и заблуждение о невозвратных издержках. Пренебрежение базовой ставкой происходит, когда люди игнорируют статистические факты в пользу анекдотической или специфической для конкретного случая информации. Заблуждение о невозвратных издержках возникает, когда на принятие решений чрезмерно влияют затраты, которые уже были понесены, что затемняет рациональное суждение.

Авторы полагают, что человеческие предубеждения ChatGPT проистекают из обучающих данных, которым он подвергается, которые охватывают когнитивные предубеждения и эвристики, которые проявляют люди. Эти тенденции еще больше усиливаются в процессе тонкой настройки, особенно когда отзывы людей отдают приоритет правдоподобным ответам, а не рациональным. Перед лицом неоднозначных задач ИИ имеет тенденцию тяготеть к схемам человеческого мышления, а не полагаться исключительно на прямую логику.

Навигация по предубеждениям ИИ

Чтобы смягчить риски, связанные с предубеждениями ИИ, исследователи выступают за разумный подход к его применению. Они рекомендуют использовать ИИ в тех областях, где его сильные стороны, таких как задачи, требующие точности и непредвзятых вычислений, аналогичные тем, которые выполняет калькулятор. Однако, когда результат зависит от субъективных или стратегических входных данных, человеческий надзор становится первостепенным.

Чен подчеркивает, что "Если вам нужна точная, непредвзятая поддержка принятия решений, используйте GPT в областях, где вы бы уже доверяли калькулятору". Он также предполагает, что человеческое вмешательство, такое как корректировка пользовательских запросов для исправления известных предубеждений, необходимо, когда ИИ используется в контекстах, которые требуют нюансированного суждения и стратегического мышления.

Мина Андиаппан, соавтор исследования и доцент кафедры управления человеческими ресурсами и менеджмента в Университете Макмастера в Канаде, выступает за то, чтобы рассматривать ИИ как сотрудника, который принимает важные решения. Она подчеркивает необходимость надзора и этических руководств, чтобы гарантировать, что ИИ используется ответственно и эффективно. Неспособность предоставить такие рекомендации может привести к автоматизации ошибочного мышления, а не к желаемому улучшению процессов принятия решений.

Последствия и соображения

Результаты исследования имеют серьезные последствия для разработки и развертывания систем ИИ в различных секторах. Открытие того, что ИИ восприимчив к человеческим предубеждениям, подчеркивает важность тщательной оценки его пригодности для конкретных задач и реализации гарантий для смягчения потенциальных рисков.

Организации, которые полагаются на ИИ для принятия решений, должны знать о потенциальной предвзятости и принимать меры для ее устранения. Это может включать в себя предоставление дополнительных обучающих данных для уменьшения предвзятости, использование алгоритмов, которые менее подвержены предвзятости, или внедрение человеческого надзора для обеспечения справедливости и точности решений ИИ.

Исследование также подчеркивает необходимость дальнейших исследований причин и последствий предвзятости ИИ. Получив лучшее понимание того, как системы ИИ развивают предубеждения, мы можем разработать стратегии для предотвращения их возникновения в первую очередь.

Рекомендации по ответственному внедрению ИИ

Чтобы обеспечить ответственное и эффективное внедрение систем ИИ, следует учитывать следующие рекомендации:

  • Тщательно оценивайте системы ИИ на наличие потенциальных предубеждений перед развертыванием. Это включает в себя тестирование системы ИИ на различных наборах данных и сценариях, чтобы выявить любые области, где она может быть подвержена предвзятости.
  • Предоставьте дополнительные обучающие данные для уменьшения предвзятости. Чем более разнообразны и репрезентативны обучающие данные, тем меньше вероятность того, что система ИИ разработает предубеждения.
  • Используйте алгоритмы, которые менее подвержены предвзятости. Некоторые алгоритмы более восприимчивы к предвзятости, чем другие. При выборе алгоритма для конкретной задачи важно учитывать его потенциал для предвзятости.
  • Внедрите человеческий надзор для обеспечения справедливости и точности решений ИИ. Человеческий надзор может помочь выявить и исправить любые предубеждения в решениях ИИ.
  • Установите четкие этические руководства для использования ИИ. Эти руководства должны касаться таких вопросов, как справедливость, подотчетность и прозрачность.

Следуя этим рекомендациям, организации могут гарантировать, что системы ИИ используются таким образом, чтобы быть как полезными, так и ответственными. Выводы, полученные в результате этого исследования, служат ценным напоминанием о том, что, хотя ИИ имеет огромный потенциал, крайне важно подходить к его реализации с осторожностью и приверженностью этическим принципам. Только тогда мы сможем использовать весь потенциал ИИ, защищаясь от его потенциальных недостатков.