AI: Огледало на Човешките Несъвършенства

Неотдавнашни проучвания извадиха на показ завладяващ, но и тревожен аспект на изкуствения интелект (AI): неговата податливост към ирационални тенденции, подобни на тези, наблюдавани при вземането на решения от хората. Това разкритие оспорва общоприетата представа за AI като обективен и безпристрастен инструмент, което подтиква към преоценка на неговата практическа полезност в различни приложения.

Ново проучване щателно изследва поведението на ChatGPT, видна AI система, в спектър от когнитивни отклонения, преобладаващи в човешката психология. Резултатите, публикувани в уважаваното списание Manufacturing & Service Operations Management, разкриха, че ChatGPT проявява множество ирационални модели на вземане на решения в почти половината от оценените сценарии. Тези модели обхващат добре документирани отклонения, като заблудата за щастливата ръка (hot hand fallacy), пренебрегването на базовата честота (base-rate neglect) и заблудата за потъналите разходи (sunk cost fallacy), което поражда значителни опасения относно надеждността и пригодността на AI в критични контексти на вземане на решения.

Разкриване на Човешки Подобни Недостатъци в AI

Изследването, проведено от консорциум от експерти от пет изтъкнати академични институции в Канада и Австралия, строго оцени работата на GPT-3.5 и GPT-4 на OpenAI, основните големи езикови модели (LLM), които задвижват ChatGPT. Подробният анализ на проучването показа, че въпреки "впечатляващата последователност", проявена от тези LLM в техните процеси на разсъждение, те далеч не са имунизирани срещу човешки подобни несъвършенства и отклонения.

Авторите умело подчертаха, че тази присъща последователност в рамките на AI системите представлява както предимства, така и недостатъци. Докато последователността може да рационализира задачите с ясни, формулни решения, тя крие потенциални рискове, когато се прилага към субективни или основани на предпочитания решения. В такива сценарии възпроизвеждането на човешките отклонения от AI може да доведе до погрешни резултати и изкривени резултати.

Янг Чен, водещият автор на изследването и асистент професор по управление на операциите в уважаваното Ivey Business School, подчерта важността на разграничаването на подходящите приложения на AI инструменти. Той предупреди, че докато AI се отличава в задачи, изискващи прецизни изчисления и логическо разсъждение, прилагането му в субективни процеси на вземане на решения изисква внимателно обмисляне и бдително наблюдение.

Симулиране на Човешки Отклонения в AI

За да се задълбочат в наличието на човешки отклонения в рамките на AI системите, изследователите разработиха серия от експерименти, които отразяват общоизвестни човешки отклонения, включително избягване на риска, прекомерна самоувереност и ефекта на надареността. Те представиха на ChatGPT подкани, предназначени да предизвикат тези отклонения, и щателно анализираха отговорите на AI, за да определят дали тя ще се поддаде на същите когнитивни капани като хората.

Учените зададоха хипотетични въпроси, адаптирани от традиционни психологически експерименти, на LLM. Тези въпроси бяха формулирани в контекста на реални търговски приложения, обхващащи области като управление на запасите и преговори с доставчици. Целта беше да се установи дали AI ще подражава на човешките отклонения и дали нейната податливост към тези отклонения ще се запази в различни бизнес области.

Резултатите разкриха, че GPT-4 се представя по-добре от своя предшественик, GPT-3.5, при решаване на проблеми с ясни математически решения. GPT-4 показа по-малко грешки в сценарии, които изискваха изчисления на вероятности и логическо разсъждение. Въпреки това, в субективни симулации, като например решаване дали да се преследва рискова опция за осигуряване на печалба, чатботът често отразяваше ирационалните предпочитания, показвани от хората.

Предпочитанието на AI към Сигурност

По-специално, проучването разкри, че "GPT-4 показва по-силно предпочитание към сигурност, отколкото дори хората." Това наблюдение подчертава тенденцията на AI да благоприятства по-безопасни и по-предсказуеми резултати, когато е изправен пред двусмислени задачи. Склонността към сигурност може да бъде предимство в определени ситуации, но може също така да ограничи способността на AI да изследва иновативни решения или да се адаптира към непредвидени обстоятелства.

Важно е да се отбележи, че поведението на чатботите остава забележително последователно, независимо дали въпросите са представени като абстрактни психологически проблеми или оперативни бизнес процеси. Тази последователност предполага, че наблюдаваните отклонения не са просто резултат от запаметени примери, а по-скоро присъщ аспект на това как AI системите разсъждават и обработват информация. Проучването заключи, че отклоненията, проявени от AI, са вградени в неговите механизми за разсъждение.

Едно от най-изненадващите разкрития на проучването беше начинът, по който GPT-4 понякога усилваше човешки подобни грешки. В задачи за отклонение за потвърждение, GPT-4 последователно предоставяше пристрастни отговори. Освен това, той прояви по-изразена склонност към заблудата за щастливата ръка от GPT 3.5, което показва по-силна тенденция да се възприемат модели в случайността.

Случаи на Избягване на Отклонения

Интересното е, че ChatGPT демонстрира способността да заобикаля определени общи човешки отклонения, включително пренебрегването на базовата честота и заблудата за потъналите разходи. Пренебрегването на базовата честота възниква, когато хората пренебрегват статистическите факти в полза на анекдотична или специфична за случая информация. Заблудата за потъналите разходи възниква, когато вземането на решения е неоправдано повлияно от разходи, които вече са направени, замъглявайки рационалната преценка.

Авторите смятат, че човешките подобни отклонения на ChatGPT произтичат от данните за обучение, на които е изложен, което обхваща когнитивните отклонения и евристики, които хората проявяват. Тези тенденции се засилват допълнително по време на процеса на фина настройка, особено когато човешката обратна връзка дава приоритет на правдоподобните отговори пред рационалните. В лицето на двусмислени задачи AI има тенденция да се ориентира към моделите на човешко разсъждение, вместо да разчита единствено на пряка логика.

Навигиране в Отклоненията на AI

За да се смекчат рисковете, свързани с отклоненията на AI, изследователите се застъпват за разумен подход към неговото приложение. Те препоръчват AI да се използва в области, където се крият неговите силни страни, като например задачи, които изискват точност и безпристрастни изчисления, подобно на тези, извършвани от калкулатор. Въпреки това, когато резултатът зависи от субективни или стратегически входни данни, човешкият надзор става първостепенен.

Чен подчертава, че "Ако искате точна, безпристрастна подкрепа за вземане на решения, използвайте GPT в области, където вече бихте се доверили на калкулатор." Той също така предполага, че човешката намеса, като например коригиране на потребителски подкани за коригиране на известни отклонения, е от съществено значение, когато AI се използва в контексти, които изискват нюансирана преценка и стратегическо мислене.

Мина Андиапан, съавтор на изследването и доцент по човешки ресурси и управление в университета Макмастър в Канада, се застъпва за третирането на AI като служител, който взема важни решения. Тя подчертава необходимостта от надзор и етични насоки, за да се гарантира, че AI се използва отговорно и ефективно. Непредоставянето на такива насоки може да доведе до автоматизация на погрешно мислене, а не до желаното подобрение в процесите на вземане на решения.

Последици и Съображения

Резултатите от изследването имат дълбоки последици за разработването и внедряването на AI системи в различни сектори. Разкритието, че AI е податлив на човешки подобни отклонения, подчертава важността на внимателната оценка на неговата пригодност за конкретни задачи и прилагането на предпазни мерки за смекчаване на потенциалните рискове.

Организациите, които разчитат на AI за вземане на решения, трябва да бъдат наясно с потенциала за отклонения и да предприемат стъпки за справяне с него. Това може да включва предоставяне на допълнителни данни за обучение за намаляване на отклоненията, използване на алгоритми, които са по-малко склонни към отклонения, или прилагане на човешки надзор, за да се гарантира, че AI решенията са справедливи и точни.

Проучването също така подчертава необходимостта от по-нататъшни изследвания на причините и последиците от отклоненията на AI. Като получим по-добро разбиране за това как AI системите развиват отклонения, можем да разработим стратегии за предотвратяване на възникването им от самото начало.

Препоръки за Отговорно Внедряване на AI

За да се осигури отговорното и ефективно внедряване на AI системи, трябва да се имат предвид следните препоръки:

  • Оценете щателно AI системите за потенциални отклонения преди внедряване. Това включва тестване на AI системата върху различни набори от данни и сценарии, за да се идентифицират всички области, където тя може да бъде склонна към отклонения.
  • Предоставете допълнителни данни за обучение за намаляване на отклоненията. Колкото по-разнообразни и представителни са данните за обучение, толкова по-малко вероятно е AI системата да развие отклонения.
  • Използвайте алгоритми, които са по-малко склонни към отклонения. Някои алгоритми са по-податливи на отклонения от други. Когато избирате алгоритъм за конкретна задача, е важно да се има предвид неговият потенциал за отклонения.
  • Приложете човешки надзор, за да се гарантира, че AI решенията са справедливи и точни. Човешкият надзор може да помогне за идентифициране и коригиране на всички отклонения в AI решенията.
  • Установете ясни етични насоки за използването на AI. Тези насоки трябва да разглеждат въпроси като справедливост, отчетност и прозрачност.

Като следват тези препоръки, организациите могат да гарантират, че AI системите се използват по начин, който е едновременно полезен и отговорен. Прозренията, събрани от това изследване, служат като ценно напомняне, че въпреки че AI крие огромни обещания, е от решаващо значение да се подходи към неговото внедряване с повишено внимание и ангажимент към етичните принципи. Само тогава можем да използваме пълния потенциал на AI, като същевременно се предпазваме от потенциалните му клопки.