Ripoti isiyotarajiwa inaonyesha kuwa mipango ya Idara ya Ufanisi wa Serikali (Department of Government Efficiency - DOGE) ilitumia mfumo wa zamani wa akili bandia (AI) wa Meta, yaani Llama 2, badala ya mfumo wa AI wa Elon Musk, Grok.
Barua ya “Fork in the Road” na Jukumu la Llama 2
Kulingana na uchunguzi uliofanywa na Wired, washirika wa DOGE, wakifanya kazi ndani ya Ofisi ya Usimamizi wa Utumishi (Office of Personnel Management), walitumia mfumo wa Llama 2 wa Meta kuchanganua na kuainisha majibu kutoka kwa wafanyakazi wa serikali kuhusu barua pepe ya utata ya “Fork in the Road” iliyotumwa kote serikalini mwishoni mwa Januari.
Barua pepe ya “Fork in the Road”, ambayo ilifanana sana na mawasiliano ya awali ambayo Musk alikuwa amewatuma wafanyakazi wa Twitter, iliwapa wafanyakazi wa serikali chaguo: kuonyesha "uaminifu" kwa kukubali sera iliyorekebishwa ya serikali ya kurudi kazini, au kuchagua kujiuzulu. Wakati huo, uvumi ulikuwa umeenea kwamba DOGE ilikuwa ikitumia AI kuchakata data ya wafanyakazi wa serikali. Uthibitisho umejitokeza tangu wakati huo, na kuhalalisha matumizi ya Llama 2 kuchuja majibu ya wafanyakazi na kuhesabu idadi ya wanaojiuzulu.
Historia Tata ya Llama 2: Matumizi ya Kijeshi na Majibu ya Meta
Historia ya Llama 2 haikosi utata. Hasa, mnamo Novemba, watafiti Wachina walitumia Llama 2 kama msingi wa mfumo wa AI uliotumiwa na jeshi la China. Ufunuo huu ulizua majibu makali, na kuifanya Meta awali kulaani utegemezi "usiokubalika" wa watafiti kwenye mfumo "mmoja" na "uliopitwa na wakati". Hata hivyo, Meta baadaye ilibatilisha sera zake zilizokataza matumizi ya kijeshi na kupanua ufikiaji wa mifumo yake ya AI kwa madhumuni ya usalama wa taifa wa Marekani.
Meta ilitangaza hadharani kujitolea kwake kuifanya Llama ipatikane kwa mashirika ya serikali ya Marekani, ikiwa ni pamoja na yale yanayohusika katika ulinzi na matumizi ya usalama wa taifa, pamoja na washirika wa sekta binafsi wanaounga mkono juhudi zao. Walitangaza ushirikiano na makampuni kama vile Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI, na Snowflake ili kuwezesha usambazaji wa Llama katika mashirika ya serikali.
Wired inadokeza kwamba asili huria ya mifumo ya Meta inaruhusu serikali kuajiri kwa urahisi katika kusaidia malengo ya Musk, uwezekano bila idhini ya wazi ya kampuni. Kubainisha kiwango cha usambazaji wa mifumo ya Meta ndani ya serikali bado ni changamoto. Mantiki ya utegemezi wa DOGE kwa Llama 2, hasa kutokana na maendeleo ya Meta na Llama 3 na 4, haijulikani.
Ujuzi Mdogo wa Matumizi ya DOGE ya Llama 2
Maelezo kuhusu matumizi maalum ya DOGE ya Llama 2 bado ni machache. Uchunguzi wa Wired ulifichua kwamba DOGE ilisambaza mfumo huo ndani ya nchi, ikionyesha kwamba data haikuwa na uwezekano wa kupitishwa kupitia mtandao (Internet), hivyo basi kupunguza wasiwasi wa faragha uliotolewa na wafanyakazi wengi wa serikali.
Wasiwasi wa Bunge na Wito wa Uchunguzi
Katika barua ya Aprili iliyotumwa kwa Russell Vought, mkurugenzi wa Ofisi ya Usimamizi na Bajeti (Office of Management and Budget), zaidi ya wabunge 40 walidai uchunguzi wa kina kuhusu matumizi ya DOGE ya AI. Walieleza wasiwasi kwamba matumizi kama hayo, pamoja na hatari za kiusalama, yanaweza kudhoofisha matumizi yenye mafanikio na yanayofaa ya AI ndani ya serikali.
Barua hiyo ilitaja haswa mfanyakazi wa DOGE na mfanyakazi wa zamani wa SpaceX ambaye alidaiwa kutumia mfumo wa xAI Grok-2 wa Musk kuunda "msaidizi wa AI." Pia ilitaja matumizi ya chatbot inayoitwa "GSAi," kulingana na mifumo ya Anthropic na Meta, kuchanganua data ya kandarasi na ununuzi. Zaidi ya hayo, DOGE imeunganishwa na programu inayoitwa AutoRIF, inayodaiwa iliyoundwa ili kuharakisha kufukuzwa kwa watu wengi kote serikalini.
Wabunge walisisitiza "wasiwasi mkuu kuhusu usalama" unaozunguka matumizi ya DOGE ya "mifumo ya AI kuchanganua barua pepe kutoka sehemu kubwa ya wafanyakazi wa shirikisho milioni mbili wakielezea mafanikio yao ya wiki iliyopita," wakitaja ukosefu wa uwazi.
Barua pepe hizi zilifuata barua pepe za "Fork in the Road", zikiwataka wafanyakazi kueleza mafanikio ya kila wiki katika hoja tano. Wafanyakazi walionyesha hofu kuhusu asili ya majibu, wakiogopa kwamba DOGE inaweza kuwa inaomba taarifa nyeti bila vibali vya usalama vinavyofaa.
Wired haikuweza kuthibitisha kwa uhakika kama Llama 2 pia ilitumika kuchanganua majibu haya ya barua pepe. Hata hivyo, wafanyakazi wa shirikisho walionyesha kwa Wired kwamba DOGE ingeweza "kutumia tena kanuni zao" kutoka kwa jaribio la barua pepe la "Fork in the Road", ikiwa ilikuwa uamuzi wa busara.
Kwanini Grok Haikutumika
Swali linazuka: kwa nini DOGE haikutumia Grok?
Maelezo yanayowezekana ni kwamba Grok, ikiwa mfumo wa umiliki wakati huo, haikuweza kupatikana kwa kazi ya DOGE mnamo Januari. Kulingana na Wired, DOGE inaweza kuongeza utegemezi wake kwa Grok kwenda mbele, haswa ikizingatiwa tangazo la Microsoft kwamba itaanza kupangisha mifumo ya xAI Grok 3 katika Kitengo chake cha Azure AI wiki hii, na hivyo kupanua matumizi yanayowezekana ya mfumo huo.
Wasiwasi wa Wabunge: Migongano ya Maslahi na Uvunjaji wa Takwimu
Katika barua yao, wabunge walimsihi Vought kuchunguza migongano inayoweza kutokea ya maslahi inayohusisha Musk, huku pia wakionya dhidi ya uwezekano wa uvunjaji wa data. Walidai kwamba AI, kama inavyotumiwa na DOGE, haikuwa bado inafaa kwa matumizi ya serikali.
Walibishana kwamba "bila ulinzi sahihi, kulisha data nyeti kwenye mfumo wa AI huiweka kwenye milki ya opereta wa mfumo - uvunjaji mkubwa wa uaminifu wa umma na mfanyakazi na ongezeko la hatari za usalama wa mtandao zinazozunguka data hiyo." Walibainisha zaidi kwamba "mifumo ya AI ya uzalishaji pia hufanya makosa mara kwa mara na inaonyesha upendeleo mkubwa - teknolojia haiko tayari kwa matumizi katika kufanya maamuzi ya hatari kubwa bila uchunguzi sahihi, uwazi, usimamizi, na vizuizi vilivyowekwa."
Wakati ripoti ya Wired inapendekeza kwamba DOGE haikupitisha data nyeti kutoka kwa barua pepe za "Fork in the Road" hadi chanzo cha nje, wabunge wanatetea uchunguzi mkali zaidi wa mifumo ya AI ili kupunguza "hatari ya kushiriki habari inayoweza kumtambua mtu binafsi au vinginevyo nyeti na watoaji wa mfumo wa AI."
Wasiwasi mkuu ni kwamba Musk anaweza kuongeza matumizi ya mifumo yake mwenyewe, uwezekano wa kufaidika kutokana na data ya serikali isiyoweza kufikiwa na washindani wake, huku wakati huo huo akifichua data hiyo kwa hatari za uvunjaji. Wabunge wanatumai kwamba DOGE italazimika kukomesha mifumo yake ya AI. Hata hivyo, Vought anaonekana kupatana zaidi na mbinu ya DOGE, kama inavyothibitishwa na mwongozo wake wa AI kwa matumizi ya shirikisho, ambayo inahimiza mashirika "kuondoa vizuizi kwa uvumbuzi na kutoa thamani bora kwa mlipa kodi."
Barua ya wabunge inasisitiza kwamba "wakati tunaunga mkono serikali ya shirikisho kuunganisha teknolojia mpya, zilizoidhinishwa za AI ambazo zinaweza kuboresha ufanisi au ufanisi, hatuwezi kutoa sadaka usalama, faragha, na viwango vya matumizi vinavyofaa wakati wa kuingiliana na data ya shirikisho." Pia wanasema kwamba "hatuwezi kukubali matumizi ya mifumo ya AI, ambayo mara nyingi hujulikana kwa ndoto na upendeleo, katika maamuzi kuhusu kusitishwa kwa ajira ya shirikisho au ufadhili wa shirikisho bila uwazi wa kutosha na usimamizi wa mifumo hiyo - hatari ya kupoteza talanta na utafiti muhimu kwa sababu ya teknolojia yenye kasoro au matumizi yaliyoharibiwa ya teknolojia kama hiyo ni kubwa sana."
Uchambuzi wa Kina wa Matokeo ya Matumizi ya AI katika Mipango ya Ufanisi wa Serikali
Saga inayoendelea ya matumizi ya Idara ya Ufanisi wa Serikali (DOGE) ya akili bandia (artificial intelligence) katika juhudi zake za kurahisisha utendakazi imeanzisha mjadala mkali na uchunguzi. Ufunuo kwamba shirika lilitumia Llama 2 ya Meta - AI ya chanzo huria - badala ya Grok AI ya Elon Musk imeongeza safu ya utata kwa simulizi tayari ngumu. Hali hii inaleta uchunguzi wa kina wa matokeo mengi ya kuunganisha AI katika shughuli za serikali, kuchunguza faida na hatari za asili, masuala ya kimaadili, na uwezekano wa migongano ya maslahi.
Mvuto na Hatari za AI Serikalini
Ujumuishaji wa AI katika kazi za serikali unaahidi maendeleo ya mabadiliko katika ufanisi, uchambuzi wa data, na kufanya maamuzi. Kuanzia kuendesha kazi za kawaida kiotomatiki hadi kuchuja seti kubwa za data, AI ina uwezo wa kufungua viwango ambavyo havijawahi kushuhudiwa vya uzalishaji na kuboresha utoaji wa huduma za umma. Fikiria algoriti ambazo zinaweza kutabiri kushindwa kwa miundombinu, kubinafsisha elimu, au kuboresha mgao wa rasilimali katika juhudi za misaada ya maafa. Uwezekano unaonekana kuwa hauna mwisho.
Hata hivyo, mapinduzi haya ya kiteknolojia hayakosi hatari zake. Utegemezi kwa mifumo ya AI unaanzisha mtandao tata wa usuluhishi wa kimaadili, udhaifu wa usalama, na upendeleo unaowezekana. Mifumo ya AI imezoezwa kwenye data, na ikiwa data hiyo inaonyesha ubaguzi wa kijamii, AI itaendeleza na hata kuongeza upendeleo huo. Hii inaleta tishio kubwa kwa usawa na usawa katika huduma za serikali, uwezekano wa kusababisha matokeo ya ubaguzi katika maeneo kama vile utekelezaji wa sheria, ustawi wa jamii, na elimu.
Zaidi ya hayo, matumizi ya AI yanaibua maswali mazito kuhusu uwazi na uwajibikaji. Wakati maamuzi yanafanywa na algoriti, inakuwa changamoto kuelewa mantiki nyuma ya maamuzi hayo, na kuifanya iwe vigumu kuwawajibisha mashirika ya serikali kwa matendo yao.
Kitendawili cha Llama 2 dhidi ya Grok
Chaguo la Llama 2 badala ya Grok huleta seti yake ya masuala. Asili huria ya Llama 2 inafanya ipatikane kwa urahisi na kubadilishwa kukufaa, kuruhusu mashirika ya serikali kuirekebisha kwa mahitaji yao maalum bila kufungiwa katika mfumo ikolojia wa umiliki. Hata hivyo, hii pia inamaanisha kuwa haina msaada maalum na matengenezo ambayo huja na suluhu za AI za umiliki.
Kwa upande mwingine, Grok, kama AI ya umiliki, inatoa ahadi ya utendakazi wa kisasa sana na utaalamu maalum. Hata hivyo, pia inaibua wasiwasi kuhusu uwezekano wa kufungiwa kwa muuzaji, faragha ya data, na upendeleo unaotokana na data ya mafunzo ya AI. Inaangazia wasiwasi kuhusu uwezekano wa chombo chochote cha kibinafsi, haswa kile kinachohusishwa na mtu mashuhuri aliyeunganishwa kwa karibu na malengo ya serikali, kutumia ushawishi usiofaa juu ya michakato ya kufanya maamuzi.
Taswira ya Migongano ya Maslahi
Uhusika wa taasisi za Elon Musk (SpaceX na xAI) katika mipango ya serikali ya AI unaibua taswira ya migongano ya maslahi. Kama mtu mashuhuri aliye na maslahi yaliyowekezwa katika sekta mbalimbali, ushiriki wa Musk unaibua maswali kuhusu ushawishi unaowezekana ambao anaweza kutumia juu ya sera ya serikali na utoaji wa kandarasi.
Je, serikali itatoa upendeleo kwa makampuni ya Musk? Je, kuna ulinzi wa kutosha ili kuhakikisha kwamba maamuzi yanafanywa kwa usawa na kwa maslahi bora ya umma? Haya ni maswali halali ambayo yanahitaji uchunguzi mkali.
Usalama wa Data na Wasiwasi wa Faragha
Matumizi ya AI katika shughuli za serikali huepukika kuhusisha kukusanya, kuhifadhi, na kuchakata data nyeti ya raia. Hii inaunda lengo la kuvutia kwa mashambulizi ya mtandao na uvunjaji wa data. Serikali lazima itekeleze hatua thabiti za usalama ili kulinda data hii dhidi ya ufikiaji usioidhinishwa na matumizi mabaya. Hii inajumuisha sio tu kulinda data dhidi ya vitisho vya nje lakini pia kuanzisha udhibiti mkali wa ufikiaji na mifumo ya uwajibikaji ili kuzuia matumizi mabaya ya ndani.
Wasiwasi juu ya faragha ya data huongezeka kwa asili isiyo wazi ya algoriti za AI. Raia mara nyingi hawana wazo jinsi data zao zinachakatwa au kutumiwa kufanya maamuzi ambayo yanaathiri maisha yao. Ukosefu huu wa uwazi unadhoofisha uaminifu katika serikali na unaweza kusababisha upinzani dhidi ya mipango inayoendeshwa na AI.
Matokeo kwa Mustakabali wa Serikali
Mjadala juu ya matumizi ya DOGE ya AI hauhusu tu mfano maalum, lakini kuhusu mustakabali mpana wa serikali katika enzi ya akili bandia. Je, serikali inawezaje kutumia nguvu ya AI kuboresha huduma za umma huku ikipunguza hatari? Tunawezaje kuhakikisha kwamba AI inatumiwa kwa maadili, uwazi, na uwajibikaji?
Majibu kwa maswali haya yanahitaji mbinu mbalimbali:
Weka Miongozo Wazi ya Kimaadili: Andika seti wazi ya kanuni za kimaadili zinazoongoza matumizi ya AI serikalini. Kanuni hizi zinapaswa kuweka kipaumbele usawa, uwazi, uwajibikaji, na heshima kwa faragha.
Kukuza Uwazi na Uwazi: Fanya algoriti za AI na michakato ya kufanya maamuzi iwe wazi zaidi. Chapisha ripoti zinazoeleza jinsi AI inatumiwa serikalini na toa njia kwa raia kutoa maoni.
Linda Usalama wa Data: Tekeleza hatua thabiti za usalama ili kulinda data nyeti ya raia dhidi ya vitisho vya mtandao na matumizi mabaya ya ndani.
Hakikisha Uwajibikaji: Weka mistari wazi ya uwajibikaji kwa maamuzi yanayoendeshwa na AI. Teua maafisa wa serikali ambao wanawajibika kwa kusimamia matumizi ya AI na kushughulikia matatizo yoyote ambayo yanaweza kutokea.
Kukuza Uaminifu wa Umma: Elimisha umma kuhusu faida na hatari za AI serikalini. Shirikisha raia ili kushughulikia wasiwasi wao na kujenga uaminifu katika matumizi yanayowajibika ya teknolojia hii.
Kwa kukumbatia mbinu makini na ya busara, serikali inaweza kutumia nguvu ya mabadiliko ya AI huku ikilinda maslahi ya umma. Utata wa DOGE hutumika kama ukumbusho muhimu wa umuhimu wa upangaji makini, mazungumzo ya wazi, na kujitolea kwa kanuni za kimaadili katika enzi ya akili bandia.
Simulizi Inayoendelea
Drama inayozunguka matumizi ya AI ya DOGE haijaisha kabisa. Uchunguzi unapoendelea na maelezo zaidi yanajitokeza, tukio hilo bila shaka litakuwa na matokeo kwa mustakabali wa upelekaji wa AI ndani ya serikali. Tunatumahi, hali hii itasababisha ujumuishaji wa teknolojia wenye mawazo zaidi.