Mifumo ya ChatGPT: Tatizo la Kuongezeka kwa Uongo

Kuelewa Hali Hii

Majaribio ya ndani ya OpenAI, kama ilivyoainishwa katika karatasi ya hivi majuzi, yanaangazia ongezeko kubwa la viwango vya uongo katika mifumo kama o3 na o4-mini. Mifumo hii, iliyoundwa na uwezo wa hali ya juu wa kufikiri na multimodal, inawakilisha makali ya teknolojia ya AI. Wanaweza kutoa picha, kufanya utaftaji wa wavuti, kuendesha kazi kiotomatiki, kukumbuka mazungumzo ya zamani, na kutatua shida ngumu. Walakini, maendeleo haya yanaonekana kuja kwa gharama.

Ili kupima ukubwa wa uongo huu, OpenAI hutumia jaribio maalum linaloitwa PersonQA. Jaribio hili linajumuisha kulisha mfumo seti ya ukweli kuhusu watu mbalimbali na kisha kuuliza maswali kuhusu watu hao. Usahihi wa mfumo kisha hutathminiwa kulingana na uwezo wake wa kutoa majibu sahihi.

Katika tathmini za awali, mfumo wa o1 ulifikia kiwango cha usahihi kinachostahili sifa cha 47% na kiwango cha uongo cha 16% tu. Walakini, wakati o3 na o4-mini zilipofanyiwa tathmini sawa, matokeo yalikuwa tofauti sana.

Mfumo wa o4-mini, kuwa lahaja ndogo na ujuzi mdogo wa ulimwengu, ulitarajiwa kuonyesha kiwango cha juu cha uongo. Hata hivyo, kiwango halisi cha 48% kilikuwa cha juu kwa kushangaza, ikizingatiwa kuwa o4-mini ni bidhaa inayopatikana kibiashara inayotumika sana kwa utaftaji wa wavuti na upataji habari.

Mfumo kamili wa o3 pia ulionyesha mwelekeo wa wasiwasi wa kutoa uongo. Katika 33% ya majibu yake, mfumo ulibuni habari, na kuongeza mara mbili kiwango cha uongo cha mfumo wa o1. Licha ya hayo, o3 pia ilifikia kiwango cha juu cha usahihi, ambayo OpenAI inahusisha na mwelekeo wake wa kutoa madai zaidi kwa ujumla.

Kufafanua Uongo

Neno ‘uongo,’ katika muktadha wa AI, linarejelea mwelekeo wa mfumo wa kutoa majibu ambayo si sahihi kiuhalisia au hayana maana bila chanzo dhahiri au uhalali wowote. Haya si makosa tu yanayotokana na data mbaya au tafsiri potofu. Badala yake, uongo huwakilisha kasoro ya msingi zaidi katika mchakato wa kufikiri wa mfumo.

Ingawa habari isiyo sahihi hakika inaweza kutoka kwa vyanzo mbalimbali, kama vile maingizo ya Wikipedia au nyuzi za Reddit, matukio haya yanafanana zaidi na makosa yanayoweza kufuatiliwa ambayo yanaweza kuhusishwa na pointi maalum za data. Uongo, kwa upande mwingine, una sifa ya uvumbuzi wa ukweli wa mfumo wa AI katika nyakati za kutokuwa na uhakika, jambo ambalo wataalam wengine wameliita ‘ujazaji wa pengo la ubunifu.’

Ili kuonyesha jambo hili, fikiria swali, ‘Ni mifumo gani saba ya iPhone 16 inayopatikana sasa hivi?’ Kwa kuwa Apple pekee ndiye anayejua iPhone inayofuata itakuwa nini, LLM ina uwezekano wa kutoa majibu halisi - na kisha kubuni mifumo ya ziada ili kumaliza kazi. Huu ni mfano wazi wa uongo, ambapo mfumo hubuni habari ili kukamilisha kazi, au kile kinachojulikana kama ‘ujazaji wa pengo la ubunifu.’

Jukumu la Data ya Mafunzo

Chatbot kama ChatGPT zimefunzwa kwa kiasi kikubwa cha data ya mtandao. Data hii inajulisha maudhui ya majibu yao lakini pia huunda jinsi wanavyojibu. Mifumo huonyeshwa kwa mifano isiyohesabika ya maswali na majibu bora yanayolingana, ambayo huimarisha toni, mitazamo na viwango maalum vya adabu.

Mchakato huu wa mafunzo unaweza kuchangia bila kukusudia shida ya uongo. Mifumo inahimizwa kutoa majibu ya ujasiri ambayo yanashughulikia swali moja kwa moja. Hii inaweza kuwafanya wape kipaumbele kujibu swali, hata kama wanapaswa kubuni habari ili kufanya hivyo, badala ya kukubali kwamba hawajui jibu.

Kimsingi, mchakato wa mafunzo unaweza kuwatuza bila kukusudia majibu ya ujasiri na yanayoonekana kuwa na ujuzi, hata kama si sahihi kiuhalisia. Hii inaweza kuunda upendeleo kuelekea kutoa majibu, bila kujali usahihi wao, ambayo inaweza kuzidisha shida ya uongo.

Asili ya Makosa ya AI

Inashawishiwa kulinganisha makosa ya AI na makosa ya kibinadamu. Baada ya yote, wanadamu si wasio na makosa, na hatupaswi kutarajia AI kuwa kamilifu pia. Hata hivyo, ni muhimu kutambua kwamba makosa ya AI yanatokana na michakato tofauti kabisa kuliko makosa ya kibinadamu.

Mifumo ya AI haisemi uongo, kukuza kutoelewana, au kukumbuka vibaya habari kwa njia sawa na wanadamu. Hawana uwezo wa utambuzi na ufahamu wa muktadha ambao unaunga mkono hoja ya kibinadamu. Badala yake, hufanya kazi kulingana na uwezekano, wakitabiri neno linalofuata katika sentensi kulingana na mifumo iliyoonekana katika data yao ya mafunzo.

Mbinu hii ya uwezekano inamaanisha kuwa mifumo ya AI haimiliki uelewa wa kweli wa usahihi au usahihi. Wanazalisha tu mlolongo unaowezekana zaidi wa maneno kulingana na mahusiano ya takwimu ambayo wamejifunza kutoka kwa data yao ya mafunzo. Hii inaweza kusababisha uzalishaji wa majibu yanayoonekana kuwa yanalingana ambayo, kwa kweli, si sahihi kiuhalisia.

Ingawa mifumo huliswa thamani ya mtandao mzima ya habari, hawaambiwi ni habari gani nzuri au mbaya, sahihi au isiyo sahihi - hawaambiwi chochote. Hawana ujuzi wa msingi uliopo au seti ya kanuni za msingi za kuwasaidia kupanga habari wenyewe pia. Yote ni mchezo wa nambari tu - mifumo ya maneno ambayo ipo mara nyingi zaidi katika muktadha fulani inakuwa ‘ukweli’ wa LLM.

Kushughulikia Changamoto

Kiwango kinachoongezeka cha uongo katika mifumo ya hali ya juu ya AI kinatoa changamoto kubwa. OpenAI na wasanidi wengine wa AI wanafanya kazi kikamilifu kuelewa na kupunguza shida hii. Walakini, sababu za msingi za uongo hazieleweki kikamilifu, na kupata suluhisho bora kunabaki kuwa juhudi inayoendelea.

Njia moja inayowezekana ni kuboresha ubora na utofauti wa data ya mafunzo. Kwa kufichua mifumo kwa habari sahihi na kamili zaidi, wasanidi wanaweza kupunguza uwezekano wa wao kujifunza na kuendeleza habari za uwongo.

Njia nyingine ni kukuza mbinu za kisasa zaidi za kugundua na kuzuia uongo. Hii inaweza kuhusisha kufunza mifumo kutambua wakati hawana uhakika kuhusu kipande fulani cha habari na kuacha kutoa madai bila ushahidi wa kutosha.

Wakati huo huo, OpenAI inaweza kuhitaji kutekeleza suluhisho la muda mfupi na pia kuendelea na utafiti wake katika sababu ya msingi. Baada ya yote, mifumo hii ni bidhaa za kutengeneza pesa na zinahitaji kuwa katika hali inayoweza kutumika. Wazo moja litakuwa kuunda aina fulani ya bidhaa ya jumla - kiolesura cha gumzo ambacho kina ufikiaji wa mifumo tofauti ya OpenAI.

Wakati swali linahitaji hoja ya hali ya juu, ingeita GPT-4o, na wakati inataka kupunguza nafasi za uongo, ingeita mfumo wa zamani kama o1. Labda kampuni itaweza kwenda hata maridadi zaidi na kutumia mifumo tofauti kutunza vitu tofauti vya swali moja, na kisha kutumia mfumo wa ziada kuishona yote pamoja mwishoni. Kwa kuwa hii kimsingi itakuwa kazi ya pamoja kati ya mifumo mingi ya AI, labda aina fulani ya mfumo wa ukaguzi wa ukweli inaweza kutekelezwa pia.

Kuinua viwango vya usahihi si lengo kuu. Lengo kuu ni kupunguza viwango vya uongo, ambayo inamaanisha tunahitaji kuthamini majibu ambayo yanasema ‘Sijui’ na pia majibu yenye majibu sahihi.

Umuhimu wa Ukaguzi wa Ukweli

Kuongezeka kwa uenezi wa uongo katika mifumo ya AI kunasisitiza umuhimu wa ukaguzi wa ukweli. Ingawa mifumo hii inaweza kuwa zana muhimu za kupata habari na kuendesha kazi kiotomatiki, haipaswi kuchukuliwa kama vyanzo visivyoweza kukosea vya ukweli.

Watumiaji wanapaswa kuwa waangalifu kila wakati wanapotafsiri matokeo ya mifumo ya AI na wanapaswa kuthibitisha kwa uhuru habari yoyote wanayopokea. Hii ni muhimu sana wakati wa kushughulika na mambo nyeti au muhimu.

Kwa kupitisha mbinu muhimu na ya shaka kwa maudhui yanayotokana na AI, tunaweza kupunguza hatari zinazohusiana na uongo na kuhakikisha kwamba tunafanya maamuzi sahihi kulingana na habari sahihi. Ikiwa una nia kubwa ya LLM, hakuna haja ya kuacha kuzitumia - lakini usiruhusu hamu ya kuokoa muda kushinda juu ya hitaji la kukagua ukweli matokeo. Kagua ukweli kila wakati!

Athari kwa Mustakabali wa AI

Changamoto ya uongo ina athari kubwa kwa mustakabali wa AI. Kadiri mifumo ya AI inavyozidi kuunganishwa katika maisha yetu, ni muhimu kwamba iwe ya kuaminika na ya kuaminika. Ikiwa mifumo ya AI ina uwezekano wa kutoa habari za uwongo au za kupotosha, inaweza kudhoofisha uaminifu wa umma na kuzuia kupitishwa kwao kote.

Kushughulikia tatizo la uongo si muhimu tu kwa kuboresha usahihi wa mifumo ya AI bali pia kwa kuhakikisha matumizi yao ya kimaadili na ya kuwajibika. Kwa kuendeleza mifumo ya AI ambayo ina uwezekano mdogo wa kutoa uongo, tunaweza kutumia uwezo wao kwa mema huku tukipunguza hatari za upotoshaji na udanganyifu.