Uchunguzi wa hivi majuzi umeangazia kipengele cha kuvutia lakini cha kutia wasiwasi cha akili bandia (AI): uwezekano wake wa tabia zisizo na mantiki zinazofanana na zile zinazoonekana katika kufanya maamuzi ya kibinadamu. Ufunuo huu unapinga dhana ya kawaida ya AI kama chombo chenye malengo na kisichoegemea upande wowote, na hivyo kusababisha tathmini mpya ya manufaa yake ya kivitendo katika matumizi mbalimbali.
Utafiti wa msingi ulichungua kwa makini tabia ya ChatGPT, mfumo mashuhuri wa AI, katika wigo wa mielekeo ya utambuzi iliyoenea katika saikolojia ya binadamu. Matokeo hayo, yaliyochapishwa katika jarida linaloheshimika la Manufacturing & Service Operations Management, yalionyesha kuwa ChatGPT ilionyesha mifumo mingi ya maamuzi yasiyo na mantiki katika karibu nusu ya matukio yaliyotathminiwa. Mifumo hii inajumuisha mielekeo iliyoandikwa vizuri kama vile dhana ya mkono moto, kupuuzwa kwa kiwango cha msingi, na dhana ya gharama iliyozama, na hivyo kuibua wasiwasi mkubwa kuhusu uaminifu na ufaafu wa AI katika muktadha muhimu wa kufanya maamuzi.
Kufichua Kasoro Kama za Kibinadamu katika AI
Utafiti huo, uliofanywa na muungano wa wataalamu kutoka taasisi tano mashuhuri za kitaaluma zinazoenea Kanada na Australia, ulitathmini kwa ukali utendaji wa GPT-3.5 na GPT-4 ya OpenAI, mifumo mikuu ya lugha kubwa (LLMs) inayoendesha ChatGPT. Uchambuzi wa kina wa utafiti ulifichua kwamba licha ya "uthabiti wa kuvutia" ulioonyeshwa na LLM hizi katika michakato yao ya kufikiri, ziko mbali na kinga dhidi ya kasoro na mielekeo kama ya kibinadamu.
Waandishi walieleza kwa ustadi kwamba uthabiti huu wa asili ndani ya mifumo ya AI huleta faida na hasara. Ingawa uthabiti unaweza kurahisisha kazi zenye suluhu zilizo wazi na za kimfumo, huleta hatari zinazoweza kutokea zinapotumiwa kwa maamuzi ya kibinafsi au yanayoendeshwa na mapendeleo. Katika hali kama hizo, uigaji wa mielekeo ya kibinadamu na AI unaweza kusababisha matokeo yenye kasoro na matokeo yaliyopotoka.
Yang Chen, mwandishi mkuu wa utafiti na profesa msaidizi wa usimamizi wa utendaji katika Shule ya Biashara inayoheshimika ya Ivey, alisisitiza umuhimu wa kutambua matumizi yanayofaa ya zana za AI. Alionya kwamba ingawa AI inafanya vyema katika kazi zinazohitaji hesabu sahihi na hoja za kimantiki, matumizi yake katika michakato ya kufanya maamuzi ya kibinafsi yanahitaji kuzingatiwa kwa makini na ufuatiliaji waangalifu.
Kuiga Mielekeo ya Kibinadamu katika AI
Ili kuchunguza uwepo wa mielekeo ya kibinadamu ndani ya mifumo ya AI, watafiti walibuni mfululizo wa majaribio ambayo yalionyesha mielekeo ya kibinadamu inayojulikana, ikiwa ni pamoja na kukataa hatari, kujiamini kupita kiasi, na athari ya ruzuku. Waliwasilisha ChatGPT na vidokezo vilivyoundwa ili kuchochea mielekeo hii na kuchambua kwa makini majibu ya AI ili kubaini ikiwa ingeshindwa na mitego sawa ya utambuzi kama wanadamu.
Wanasayansi waliuliza maswali ya nadharia, yaliyochukuliwa kutoka kwa majaribio ya jadi ya kisaikolojia, kwa LLM. Maswali haya yaliandaliwa katika muktadha wa matumizi ya kibiashara ya ulimwengu halisi, yanayoenea katika maeneo kama vile usimamizi wa hesabu na mazungumzo ya wauzaji. Lengo lilikuwa kubaini kama AI itaiga mielekeo ya kibinadamu na ikiwa uwezekano wake wa mielekeo hii utaendelea katika vikoa tofauti vya biashara.
Matokeo yalionyesha kuwa GPT-4 ilizidi mtangulizi wake, GPT-3.5, katika kutatua matatizo kwa suluhu za wazi za hisabati. GPT-4 ilionyesha makosa machache katika matukio yaliyohitaji hesabu za uwezekano na hoja za kimantiki. Hata hivyo, katika uigaji wa kibinafsi, kama vile kuamua kama kufuata chaguo hatari ili kupata faida, chatbot mara nyingi ilionyesha mapendeleo yasiyo na mantiki yaliyoonyeshwa na wanadamu.
Mapendeleo ya AI kwa Uhakika
Hasa, utafiti ulifichua kuwa "GPT-4 inaonyesha mapendeleo makubwa zaidi kwa uhakika kuliko hata wanadamu." Uchunguzi huu unasisitiza mwelekeo wa AI kupendelea matokeo salama na yanayotabirika zaidi inapokabiliwa na kazi zisizo wazi. Mwelekeo kuelekea uhakika unaweza kuwa na faida katika hali fulani, lakini pia unaweza kupunguza uwezo wa AI wa kuchunguza suluhisho za kibunifu au kuzoea hali zisizotarajiwa.
Muhimu, tabia za chatbots zilibaki thabiti sana, bila kujali kama maswali yaliwasilishwa kama matatizo ya kisaikolojia ya dhahania au michakato ya biashara ya uendeshaji. Uthabiti huu unaonyesha kwamba mielekeo iliyoonekana haikuwa tu matokeo ya mifano iliyokaririwa lakini badala yake ni kipengele cha asili cha jinsi mifumo ya AI inavyofikiri na kuchakata taarifa. Utafiti ulihitimisha kuwa mielekeo iliyoonyeshwa na AI imejikita ndani ya mifumo yake ya kufikiri.
Moja ya ufunuo wa kushangaza zaidi wa utafiti huo ulikuwa jinsi GPT-4 mara kwa mara iliongeza makosa kama ya kibinadamu. Katika kazi za uthibitisho wa upendeleo, GPT-4 ilitoa majibu yenye upendeleo mara kwa mara. Zaidi ya hayo, ilionyesha mwelekeo mkubwa zaidi kuelekea dhana ya mkono moto kuliko GPT 3.5, kuonyesha mwelekeo mkubwa wa kutambua mifumo katika nasibu.
Matukio ya Kuepuka Upendeleo
Kwa kushangaza, ChatGPT ilionyesha uwezo wa kukwepa mielekeo fulani ya kawaida ya kibinadamu, ikiwa ni pamoja na kupuuzwa kwa kiwango cha msingi na dhana ya gharama iliyozama. Kupuuzwa kwa kiwango cha msingi hutokea wakati watu wanapuuza ukweli wa kitakwimu kwa ajili ya taarifa za hadithi au mahususi kwa kesi. Dhana ya gharama iliyozama hutokea wakati kufanya maamuzi kunaathiriwa isivyofaa na gharama ambazo tayari zimetumika, na hivyo kuficha uamuzi wa busara.
Waandishi wanadai kwamba mielekeo ya ChatGPT kama ya kibinadamu inatokana na data ya mafunzo ambayo imefichuliwa, ambayo inajumuisha mielekeo ya utambuzi na heuristics ambazo wanadamu huonyesha. Mielekeo hii huimarishwa zaidi wakati wa mchakato wa urekebishaji, haswa wakati maoni ya kibinadamu yanatoa kipaumbele kwa majibu yanayowezekana kuliko yale ya busara. Katika uso wa kazi zisizo wazi, AI huelekea kuelekea mifumo ya kufikiri ya kibinadamu badala ya kutegemea tu mantiki ya moja kwa moja.
Kuabiri Mielekeo ya AI
Ili kupunguza hatari zinazohusiana na mielekeo ya AI, watafiti wanatetea mbinu ya busara ya matumizi yake. Wanapendekeza kwamba AI itumike katika maeneo ambayo nguvu zake ziko, kama vile kazi zinazohitaji usahihi na hesabu zisizo na upendeleo, sawa na zile zinazofanywa na kikokotozi. Hata hivyo, wakati matokeo yanategemea pembejeo za kibinafsi au za kimkakati, usimamizi wa kibinadamu unakuwa muhimu sana.
Chen anasisitiza kwamba "Ikiwa unataka usaidizi sahihi, usioegemea upande wowote, tumia GPT katika maeneo ambayo tayari ungeamini kikokotozi." Anapendekeza zaidi kwamba uingiliaji kati wa binadamu, kama vile kurekebisha vidokezo vya mtumiaji ili kusahihisha mielekeo inayojulikana, ni muhimu wakati AI inatumiwa katika miktadha ambayo inahitaji uamuzi uliopangwa na mawazo ya kimkakati.
Meena Andiappan, mwandishi mwenza wa utafiti na profesa mshiriki wa rasilimali watu na usimamizi katika Chuo Kikuu cha McMaster huko Kanada, anawatetea kumtendea AI kama mfanyakazi anayefanya maamuzi muhimu. Anasisitiza haja ya usimamizi na miongozo ya kimaadili ili kuhakikisha kwamba AI inatumiwa kwa uwajibikaji na kwa ufanisi. Kukosa kutoa mwongozo kama huo kunaweza kusababisha uendeshaji wa mawazo yenye kasoro, badala ya uboreshaji unaotakiwa katika michakato ya kufanya maamuzi.
Athari na M considerations
Matokeo ya utafiti yana athari kubwa kwa maendeleo na utumiaji wa mifumo ya AI katika sekta mbalimbali. Ufunuo kwamba AI inaweza kuathiriwa na mielekeo kama ya kibinadamu inasisitiza umuhimu wa kutathmini kwa makini ufaafu wake kwa kazi maalum na kutekeleza ulinzi ili kupunguza hatari zinazoweza kutokea.
Mashirika yanayotegemea AI kwa ajili ya kufanya maamuzi yanapaswa kufahamu uwezekano wa upendeleo na kuchukua hatua za kuushughulikia. Hii inaweza kuhusisha kutoa data ya ziada ya mafunzo ili kupunguza upendeleo, kutumia algoriti ambazo hazina uwezekano wa upendeleo, au kutekeleza usimamizi wa binadamu ili kuhakikisha kwamba maamuzi ya AI ni ya haki na sahihi.
Utafiti pia unaangazia haja ya utafiti zaidi katika sababu na matokeo ya upendeleo wa AI. Kwa kupata uelewa bora wa jinsi mifumo ya AI inavyoendeleza mielekeo, tunaweza kuendeleza mikakati ya kuizuia kutokea tangu mwanzo.
Mapendekezo ya Utekelezaji wa AI kwa Uwajibikaji
Ili kuhakikisha utekelezaji wa uwajibikaji na ufanisi wa mifumo ya AI, mapendekezo yafuatayo yanapaswa kuzingatiwa:
- Tathmini kwa makini mifumo ya AI kwa mielekeo inayoweza kutokea kabla ya kupelekwa. Hii inajumuisha kujaribu mfumo wa AI kwenye aina mbalimbali za seti za data na matukio ili kutambua maeneo yoyote ambayo yanaweza kukabiliwa na upendeleo.
- Toa data ya ziada ya mafunzo ili kupunguza upendeleo. Kadiri data ya mafunzo inavyokuwa tofauti na ya uwakilishi, ndivyo uwezekano mdogo wa mfumo wa AI kuendeleza mielekeo.
- Tumia algoriti ambazo hazina uwezekano wa upendeleo. Baadhi ya algoriti zinaweza kukabiliwa na upendeleo kuliko nyingine. Wakati wa kuchagua algorithm kwa kazi fulani, ni muhimu kuzingatia uwezekano wake wa upendeleo.
- Tekeleza usimamizi wa binadamu ili kuhakikisha kwamba maamuzi ya AI ni ya haki na sahihi. Usimamizi wa binadamu unaweza kusaidia kutambua na kurekebisha mielekeo yoyote katika maamuzi ya AI.
- Weka miongozo wazi ya kimaadili ya matumizi ya AI. Miongozo hii inapaswa kushughulikia masuala kama vile haki, uwajibikaji na uwazi.
Kwa kufuata mapendekezo haya, mashirika yanaweza kuhakikisha kwamba mifumo ya AI inatumiwa kwa njia ambayo ni ya manufaa na ya kuwajibika. Maarifa yaliyokusanywa kutoka kwa utafiti huu yanatumika kama kikumbusho muhimu kwamba ingawa AI ina ahadi kubwa, ni muhimu kukaribia utekelezaji wake kwa tahadhari na kujitolea kwa kanuni za kimaadili. Ni hapo tu tunaweza kutumia uwezo kamili wa AI huku tukilinda dhidi ya hatari zake zinazoweza kutokea.