Watumiaji X Wafanya Grok Mdhibiti, Hofu Yaenea

Kuongezeka kwa AI katika Uthibitishaji wa Habari

Ujumuishaji wa akili bandia (AI) katika majukwaa ya mitandao ya kijamii si jambo geni. Hatua ya X kuruhusu watumiaji kuingiliana na Grok ya xAI, kwa namna fulani, inafuata mkondo. Hii inaakisi mbinu ya Perplexity, ambayo huendesha akaunti ya kiotomatiki kwenye X ili kutoa uzoefu sawa.

Baada ya xAI kuanzisha uwepo wa kiotomatiki wa Grok kwenye X, watumiaji walianza kuchunguza uwezo wake kwa haraka, wakiuliza maswali na kutafuta majibu. Katika maeneo kama India, mtindo wa kutia wasiwasi uliibuka: watu walianza kutumia Grok kuhakiki maoni na maswali, mengi yakilenga itikadi maalum za kisiasa.

Wasiwasi wa Wahakiki wa Habari wa Kibinadamu

Utegemezi huu kwa Grok, na kwa kweli msaidizi yeyote wa AI wa aina yake, kwa ajili ya uhakiki wa habari ni sababu ya wasiwasi mkubwa. Asili ya roboti hizi za AI ni kwamba zinaweza kuunda majibu ambayo yanasikika ya kushawishi, bila kujali usahihi wao wa kweli. Huu si wasiwasi wa kinadharia; Grok ina historia iliyoandikwa ya kusambaza habari bandia na upotoshaji.

Tukio moja mashuhuri lilitokea, ambapo makatibu kadhaa wa serikali walimsihi Musk kutekeleza marekebisho muhimu kwa Grok. Ombi hili la dharura lilifuatia kuibuka kwa taarifa za kupotosha, zilizotolewa na msaidizi wa AI, kwenye mitandao ya kijamii, na kuzua taharuki katika kuelekea uchaguzi.

Grok haiko peke yake katika hili. Chatbots nyingine maarufu, ikiwa ni pamoja na ChatGPT ya OpenAI na Gemini ya Google, pia ziligunduliwa kuwa zinatoa taarifa zisizo sahihi kuhusiana na chaguzi. Watafiti wa taarifa potofu walisisitiza zaidi uwezekano wa matumizi mabaya, wakifichua mwaka wa 2023 kwamba chatbots za AI kama ChatGPT zinaweza kutumiwa kwa urahisi kuzalisha maandishi ya kushawishi yenye masimulizi ya kupotosha.

Udanganyifu wa Uhalisi

Angie Holan, mkurugenzi wa International Fact-Checking Network (IFCN) huko Poynter, alieleza suala la msingi, akisema, “Wasaidizi wa AI, kama Grok, ni wazuri sana katika kutumia lugha asilia na kutoa jibu ambalo linasikika kama mwanadamu amelisema. Na kwa njia hiyo, bidhaa za AI zina dai hili la asili na majibu yanayosikika kuwa ya kweli, hata wakati yanaweza kuwa na makosa sana. Hiyo ndiyo ingekuwa hatari hapa.”

Hatari, kama Holan anavyoangazia, iko katika mwonekano wa udanganyifu wa uhalisi. Uwezo wa AI kuiga lugha ya binadamu huleta udanganyifu wa uaminifu, hata wakati taarifa ya msingi ina kasoro au imetungwa kabisa.

Tofauti ya Msingi: AI dhidi ya Wahakiki wa Habari wa Kibinadamu

Tofauti kati ya wasaidizi wa AI na wahakiki wa habari wa kibinadamu ni kubwa. Wahakiki wa habari wa kibinadamu huthibitisha taarifa kwa uangalifu, wakitumia vyanzo vingi, vya kuaminika. Wanafanya kazi kwa uwazi, wakiambatanisha majina yao na uhusiano wa shirika lao na matokeo yao, na hivyo kuhakikisha uwajibikaji na kuimarisha uaminifu.

Pratik Sinha, mwanzilishi mwenza wa tovuti ya uhakiki wa habari isiyo ya faida ya India Alt News, alieleza kuwa ingawa majibu ya Grok yanaweza kuonekana kuwa ya kushawishi kwa sasa, usahihi wake kimsingi una mipaka kutokana na data inayoipokea. “Nani ataamua ni data gani itakayopewa, na hapo ndipo kuingiliwa na serikali, nk, kutakuja,” alibainisha, akiangazia suala muhimu la uwazi wa chanzo cha data.

Ukosefu wa uwazi, Sinha alisisitiza, ni uwanja wa kuzaliana kwa madhara yanayoweza kutokea. “Chochote ambacho kinakosa uwazi kitasababisha madhara kwa sababu chochote kinachokosa uwazi kinaweza kuumbwa kwa njia yoyote ile.”

Kukiri kwa Grok Mwenyewe: Uwezekano wa Matumizi Mabaya

Katika hali ya kejeli, akaunti ya Grok kwenye X, katika moja ya majibu yake yaliyochapishwa, ilikiri kwamba “inaweza kutumiwa vibaya - kueneza habari potofu na kukiuka faragha.”

Licha ya kukiri huku, akaunti ya kiotomatiki inashindwa kutoa kanusho zozote kwa watumiaji wanaopokea majibu yake. Upungufu huu huwaacha watumiaji katika hatari ya kupotoshwa, hasa katika kesi ambapo AI “imeota” jibu, jambo lililoandikwa vizuri katika ulimwengu wa AI ambapo mfumo hutoa taarifa za uongo au zisizo na maana.

Anushka Jain, mshirika wa utafiti katika Digital Futures Lab, alifafanua juu ya jambo hili, akisema, “Inaweza kutunga taarifa ili kutoa jibu.” Mwelekeo huu wa kutunga taarifa unasisitiza mapungufu ya asili ya AI katika muktadha wa uhakiki wa habari.

Tatizo la Data ya Mafunzo

Safu nyingine ya utata hutokana na swali la data ya mafunzo ya Grok. Kuna kutokuwa na uhakika kuhusu kiwango ambacho Grok hutumia machapisho kwenye X kama nyenzo ya mafunzo, na hatua za udhibiti wa ubora, ikiwa zipo, zinazotumiwa kuhakiki machapisho hayo. Mabadiliko yaliyotekelezwa hapo awali yalionekana kuipa Grok ufikiaji wa chaguo-msingi kwa data ya watumiaji wa X, na kuzua wasiwasi kuhusu uwezekano wa AI kunyonya na kueneza taarifa potofu zilizopo kwenye jukwaa.

Matumizi ya Umma dhidi ya Matumizi ya Kibinafsi ya Taarifa Zilizozalishwa na AI

Wasiwasi mwingine mkubwa unahusu asili ya umma ya wasaidizi wa AI kama Grok kwenye majukwaa ya mitandao ya kijamii. Tofauti na mwingiliano na chatbots kama ChatGPT, ambayo kwa kawaida hutokea katika mazingira ya faragha, majibu ya Grok hutolewa hadharani.

Usambazaji huu wa hadharani huleta hali ambapo, hata kama mtumiaji mmoja anafahamu kuwa taarifa iliyotolewa na AI inaweza kuwa si sahihi, watumiaji wengine kwenye jukwaa bado wanaweza kuikubali kama ukweli. Hii inaweza kusababisha madhara makubwa ya kijamii.

Mifano ya kihistoria ipo. India, kwa mfano, ilishuhudia matukio ya kusikitisha ya mauaji ya watu kwa makundi yaliyochochewa na taarifa potofu zilizosambazwa kupitia WhatsApp. Matukio haya, ingawa yanatangulia upatikanaji mkubwa wa Generative AI, yanatumika kama ukumbusho mkali wa hatari za ulimwengu halisi za taarifa potofu zisizodhibitiwa. Ujio wa GenAI, pamoja na uwezo wake wa kuzalisha maudhui ya sintetiki ambayo yanaonekana kuwa ya kweli, umeongeza tu hatari hizi.

Kiwango cha Makosa cha AI

Holan wa IFCN alionya kwamba, “Ukiona majibu mengi ya Grok, utasema, hey, mengi yao ni sahihi, na inaweza kuwa hivyo, lakini kutakuwa na baadhi ambayo si sahihi. Na ni mangapi? Sio sehemu ndogo. Baadhi ya tafiti zimeonyesha kuwa mifumo ya AI inakabiliwa na viwango vya makosa vya 20%… na inapokosea, inaweza kwenda vibaya sana na matokeo ya ulimwengu halisi.”

Kiwango cha makosa cha 20%, kama kilivyoangaziwa na Holan, ni takwimu kubwa. Inasisitiza kutokuwa na uhakika kwa AI katika hali zinazohitaji usahihi wa kweli. Na, kama anavyosisitiza, matokeo ya makosa haya yanaweza kuwa makubwa, yakiongezeka zaidi ya ulimwengu wa kidijitali.

AI: Chombo, Sio Mbadala wa Hukumu ya Kibinadamu

Wakati kampuni za AI, ikiwa ni pamoja na xAI, zinaendelea kuboresha mifumo yao ili kufikia mawasiliano zaidi kama ya binadamu, ukweli wa msingi unabaki: AI haiwezi, na haipaswi, kuchukua nafasi ya hukumu ya binadamu, hasa katika uwanja muhimu wa uhakiki wa habari.

Mwelekeo miongoni mwa kampuni za teknolojia kuchunguza njia za kupunguza utegemezi kwa wahakiki wa habari wa kibinadamu ni sababu ya wasiwasi. Majukwaa kama X na Meta yamekubali dhana ya uhakiki wa habari wa watu wengi, unaoonyeshwa na mipango kama ‘Community Notes’. Mabadiliko haya, ingawa yanaweza kutoa faida fulani, pia yanazua maswali kuhusu uwezekano wa mmomonyoko wa viwango vikali vya uhakiki wa habari.

Kurudi Nyuma kwa Uhakiki wa Habari wa Kibinadamu?

Sinha wa Alt News alieleza mtazamo wa matumaini, akipendekeza kwamba watu hatimaye watajifunza kutofautisha kati ya matokeo ya mashine na kazi ya wahakiki wa habari wa kibinadamu, hatimaye wakithamini usahihi na uaminifu wa mwisho.

“Tutaona pendulum ikirudi nyuma hatimaye kuelekea uhakiki zaidi wa habari,” Holan wa IFCN alitabiri.

Hata hivyo, alionya kwamba kwa sasa, wahakiki wa habari wana uwezekano wa kukabiliana na ongezeko la mzigo wa kazi kutokana na kuenea kwa haraka kwa taarifa zinazozalishwa na AI. Changamoto itakuwa kukabiliana na wimbi la taarifa potofu kwa ufanisi, kuhakikisha kwamba umma unabaki kufahamishwa na ukweli, si kwa udanganyifu wa kushawishi.

Swali la Msingi: Kujali Kuhusu Ukweli

Kiini cha suala hili ni swali la msingi: “Je, unajali kweli kuhusu kile ambacho ni kweli au la? Je, unatafuta tu mwonekano wa kitu ambacho kinasikika na kuhisi kuwa kweli bila kuwa kweli? Kwa sababu ndivyo msaada wa AI utakavyokupa,” Holan alisema.

Swali hili linajumuisha tatizo muhimu linaloletwa na kuongezeka kwa AI katika usambazaji wa taarifa. Je, sisi, kama jamii, tuko tayari kuweka kipaumbele urahisi na mwonekano wa ukweli juu ya mchakato wa kuchosha wa kuthibitisha ukweli? Jibu la swali hili hatimaye litaunda mustakabali wa taarifa, likiamua kama tutashindwa na ulimwengu wa uhalisia uliotengenezwa au tutashikilia kanuni za ukweli na usahihi.