Niedawne badania rzuciły światło na fascynujący, a zarazem niepokojący aspekt sztucznej inteligencji (AI): jej podatność na irracjonalne tendencje, podobne do tych obserwowanych w ludzkim procesie podejmowania decyzji. To odkrycie podważa konwencjonalne postrzeganie AI jako obiektywnego i bezstronnego narzędzia, skłaniając do ponownej oceny jego praktycznej użyteczności w różnych zastosowaniach.
Przełomowe badanie drobiazgowo przeanalizowało zachowanie ChatGPT, prominentnego systemu AI, w spektrum uprzedzeń poznawczych powszechnych w psychologii człowieka. Wyniki, opublikowane w renomowanym czasopiśmie Manufacturing & Service Operations Management, ujawniły, że ChatGPT wykazywał liczne irracjonalne wzorce podejmowania decyzji w prawie połowie ocenianych scenariuszy. Wzorce te obejmują dobrze udokumentowane uprzedzenia, takie jak złudzenie gorącej ręki, ignorowanie prawdopodobieństwa bazowego i błąd utopionych kosztów, co budzi poważne obawy dotyczące niezawodności i przydatności AI w krytycznych kontekstach decyzyjnych.
Ujawnianie Ludzkich Wad w AI
Badania, przeprowadzone przez konsorcjum ekspertów z pięciu znakomitych instytucji akademickich z Kanady i Australii, rygorystycznie oceniły wydajność GPT-3.5 i GPT-4 OpenAI, fundamentalnych dużych modeli językowych (LLM), które napędzają ChatGPT. Kompleksowa analiza badania ujawniła, że pomimo „imponującej spójności” wykazywanej przez te LLM w ich procesach rozumowania, są one dalekie od odporności na ludzkie niedoskonałości i uprzedzenia.
Autorzy trafnie podkreślili, że ta nieodłączna spójność w systemach AI stwarza zarówno zalety, jak i wady. Podczas gdy spójność może usprawnić zadania z jasnymi, schematycznymi rozwiązaniami, stwarza potencjalne ryzyko, gdy jest stosowana do decyzji subiektywnych lub opartych na preferencjach. W takich scenariuszach powielanie ludzkich uprzedzeń przez AI może prowadzić do wadliwych wyników i zniekształconych rezultatów.
Yang Chen, główny autor badania i adiunkt zarządzania operacyjnego w renomowanej Ivey Business School, podkreślił znaczenie rozeznania odpowiednich zastosowań narzędzi AI. Ostrzegł, że chociaż AI przoduje w zadaniach wymagających precyzyjnych obliczeń i logicznego rozumowania, jego zastosowanie w subiektywnych procesach decyzyjnych wymaga ostrożnego rozważenia i czujnego monitorowania.
Symulowanie Ludzkich Uprzedzeń w AI
Aby zgłębić obecność ludzkich uprzedzeń w systemach AI, naukowcy opracowali serię eksperymentów, które odzwierciedlały powszechnie znane ludzkie uprzedzenia, w tym awersję do ryzyka, nadmierną pewność siebie i efekt posiadania. Przedstawili ChatGPT monity zaprojektowane w celu wywołania tych uprzedzeń i drobiazgowo przeanalizowali odpowiedzi AI, aby ustalić, czy ulegnie ona tym samym pułapkom poznawczym, co ludzie.
Naukowcy zadawali hipotetyczne pytania, zaadaptowane z tradycyjnych eksperymentów psychologicznych, LLM. Pytania te zostały sformułowane w kontekście rzeczywistych zastosowań komercyjnych, obejmujących obszary takie jak zarządzanie zapasami i negocjacje z dostawcami. Celem było ustalenie, czy AI będzie emulować ludzkie uprzedzenia i czy jego podatność na te uprzedzenia utrzyma się w różnych dziedzinach biznesu.
Wyniki ujawniły, że GPT-4 przewyższał swojego poprzednika, GPT-3.5, w rozwiązywaniu problemów z wyraźnymi rozwiązaniami matematycznymi. GPT-4 wykazywał mniej błędów w scenariuszach wymagających obliczeń prawdopodobieństwa i logicznego rozumowania. Jednak w subiektywnych symulacjach, takich jak decydowanie, czy realizować ryzykowną opcję w celu zabezpieczenia zysku, chatbot często odzwierciedlał irracjonalne preferencje wykazywane przez ludzi.
Preferencja AI dla Pewności
Warto zauważyć, że badanie ujawniło, że „GPT-4 wykazuje silniejszą preferencję dla pewności niż nawet ludzie”. Ta obserwacja podkreśla tendencję AI do faworyzowania bezpieczniejszych i bardziej przewidywalnych wyników w konfrontacji z niejednoznacznymi zadaniami. Skłonność do pewności może być korzystna w pewnych sytuacjach, ale może również ograniczyć zdolność AI do eksplorowania innowacyjnych rozwiązań lub dostosowywania się do nieprzewidzianych okoliczności.
Co istotne, zachowania chatbotów pozostały niezwykle spójne, niezależnie od tego, czy pytania były prezentowane jako abstrakcyjne problemy psychologiczne, czy operacyjne procesy biznesowe. Ta spójność sugeruje, że obserwowane uprzedzenia nie były jedynie wynikiem zapamiętanych przykładów, ale raczej nieodłącznym aspektem sposobu, w jaki systemy AI rozumują i przetwarzają informacje. Badanie wykazało, że uprzedzenia wykazywane przez AI są osadzone w jego mechanizmach rozumowania.
Jednym z najbardziej zaskakujących odkryć badania był sposób, w jaki GPT-4 okazjonalnie wzmacniał ludzkie błędy. W zadaniach związanych z uprzedzeniem potwierdzającym GPT-4 konsekwentnie dostarczał stronnicze odpowiedzi. Ponadto wykazywał bardziej wyraźną skłonność do złudzenia gorącej ręki niż GPT 3.5, co wskazuje na silniejszą tendencję do postrzegania wzorców w losowości.
Przypadki Unikania Uprzedzeń
Co ciekawe, ChatGPT zademonstrował zdolność do omijania niektórych powszechnych ludzkich uprzedzeń, w tym ignorowania prawdopodobieństwa bazowego i błędu utopionych kosztów. Ignorowanie prawdopodobieństwa bazowego występuje, gdy jednostki lekceważą fakty statystyczne na korzyść anegdotycznych lub specyficznych dla danego przypadku informacji. Błąd utopionych kosztów pojawia się, gdy na podejmowanie decyzji nadmierny wpływ mają koszty, które zostały już poniesione, zaciemniając racjonalny osąd.
Autorzy postulują, że ludzkie uprzedzenia ChatGPT wynikają z danych treningowych, na które jest narażony, które obejmują uprzedzenia poznawcze i heurystyki, które wykazują ludzie. Tendencje te są dodatkowo wzmacniane podczas procesu dostrajania, szczególnie gdy ludzkie opinie priorytetowo traktują wiarygodne odpowiedzi nad racjonalnymi. W obliczu niejednoznacznych zadań AI ma tendencję do grawitowania w kierunku ludzkich wzorców rozumowania, zamiast polegać wyłącznie na bezpośredniej logice.
Nawigacja po Uprzedzeniach AI
Aby złagodzić ryzyko związane z uprzedzeniami AI, naukowcy opowiadają się za rozważnym podejściem do jego zastosowania. Zalecają, aby AI był wykorzystywany w obszarach, w których leżą jego mocne strony, takich jak zadania wymagające dokładności i bezstronnych obliczeń, podobne do tych wykonywanych przez kalkulator. Jednak gdy wynik zależy od subiektywnych lub strategicznych danych wejściowych, nadzór człowieka staje się najważniejszy.
Chen podkreśla, że „Jeśli chcesz dokładnego, bezstronnego wsparcia w podejmowaniu decyzji, użyj GPT w obszarach, w których już zaufałbyś kalkulatorowi”. Sugeruje ponadto, że interwencja człowieka, taka jak dostosowywanie monitów użytkownika w celu skorygowania znanych uprzedzeń, jest niezbędna, gdy AI jest używany w kontekstach, które wymagają subtelnego osądu i strategicznego myślenia.
Meena Andiappan, współautorka badania i profesor nadzwyczajny ds. zasobów ludzkich i zarządzania na Uniwersytecie McMaster w Kanadzie, opowiada się za traktowaniem AI jako pracownika, który podejmuje ważne decyzje. Podkreśla potrzebę nadzoru i wytycznych etycznych, aby zapewnić, że AI jest używany w sposób odpowiedzialny i skuteczny. Brak takich wytycznych może prowadzić do automatyzacji wadliwego myślenia, a nie do pożądanej poprawy w procesach podejmowania decyzji.
Implikacje i Rozważania
Odkrycia badania mają głębokie implikacje dla rozwoju i wdrażania systemów AI w różnych sektorach. Ujawnienie, że AI jest podatny na ludzkie uprzedzenia, podkreśla znaczenie starannej oceny jego przydatności do określonych zadań i wdrażania zabezpieczeń w celu złagodzenia potencjalnego ryzyka.
Organizacje, które polegają na AI w podejmowaniu decyzji, powinny być świadome potencjału uprzedzeń i podjąć kroki w celu ich rozwiązania. Może to obejmować dostarczanie dodatkowych danych treningowych w celu zmniejszenia uprzedzeń, używanie algorytmów, które są mniej podatne na uprzedzenia, lub wdrażanie nadzoru człowieka w celu zapewnienia, że decyzje AI są sprawiedliwe i dokładne.
Badanie podkreśla również potrzebę dalszych badań nad przyczynami i konsekwencjami uprzedzeń AI. Zdobywając lepsze zrozumienie tego, jak systemy AI rozwijają uprzedzenia, możemy opracować strategie, aby zapobiec ich występowaniu w pierwszej kolejności.
Zalecenia dotyczące Odpowiedzialnego Wdrażania AI
Aby zapewnić odpowiedzialne i skuteczne wdrażanie systemów AI, należy rozważyć następujące zalecenia:
- Dokładnie oceniaj systemy AI pod kątem potencjalnych uprzedzeń przed wdrożeniem. Obejmuje to testowanie systemu AI na różnych zbiorach danych i scenariuszach, aby zidentyfikować obszary, w których może być podatny na uprzedzenia.
- Zapewnij dodatkowe dane treningowe w celu zmniejszenia uprzedzeń. Im bardziej zróżnicowane i reprezentatywne są dane treningowe, tym mniej prawdopodobne jest, że system AI rozwinie uprzedzenia.
- Używaj algorytmów, które są mniej podatne na uprzedzenia. Niektóre algorytmy są bardziej podatne na uprzedzenia niż inne. Wybierając algorytm do określonego zadania, ważne jest, aby wziąć pod uwagę jego potencjał do uprzedzeń.
- Wdróż nadzór człowieka, aby zapewnić, że decyzje AI są sprawiedliwe i dokładne. Nadzór człowieka może pomóc w identyfikacji i korygowaniu wszelkich uprzedzeń w decyzjach AI.
- Ustanów jasne wytyczne etyczne dotyczące korzystania z AI. Wytyczne te powinny dotyczyć kwestii takich jak sprawiedliwość, odpowiedzialność i przejrzystość.
Postępując zgodnie z tymi zaleceniami, organizacje mogą zapewnić, że systemy AI są wykorzystywane w sposób, który jest zarówno korzystny, jak i odpowiedzialny. Spostrzeżenia zebrane z tych badań stanowią cenne przypomnienie, że chociaż AI ma ogromny potencjał, kluczowe jest podejście do jego wdrażania z ostrożnością i zaangażowaniem w zasady etyczne. Tylko wtedy możemy wykorzystać pełny potencjał AI, jednocześnie chroniąc się przed jego potencjalnymi pułapkami.