Gemini 2.5 Pro: Ripoti ya Usalama Haipo

Ahadi Zilizovunjika na Makubaliano Yasiyotimizwa

Kushindwa kwa Google kutoa ripoti ya utafiti wa usalama pamoja na toleo la Gemini 2.5 Pro kunaonekana kama ukiukaji wa ahadi za awali. Mnamo Julai 2023, Google ilishiriki katika mkutano wa Ikulu ya White House ulioitishwa na utawala wa Biden, ambapo iliungana na kampuni zingine maarufu za AI katika kusaini mfululizo wa ahadi. Ahadi muhimu ilikuwa uchapishaji wa ripoti za matoleo yote makuu ya umma ya modeli ambayo yalizidi hali ya sasa ya AI ya kisasa wakati huo. Kutokana na maendeleo yake, Gemini 2.5 Pro ingeangukia chini ya wigo wa Ahadi hizi za Ikulu ya White House.

Wakati huo, Google ilikubali kwamba ripoti hizi zinapaswa kujumuisha:

  • Tathmini za usalama zilizofanywa, ikiwa ni pamoja na tathmini za uwezo hatari.
  • Mapungufu makubwa ya utendaji ambayo yanaweza kuathiri kesi zinazofaa za matumizi.
  • Majadiliano ya athari za modeli kwenye hatari za kijamii kama vile usawa na ubaguzi.
  • Matokeo ya majaribio ya uhasama ili kutathmini ufaaji wa modeli kwa ajili ya kupelekwa.

Kufuatia mkutano wa G7 huko Hiroshima, Japan, mnamo Oktoba 2023, Google na kampuni zingine ziliahidi kuzingatia kanuni za hiari za mwenendo kwa ajili ya maendeleo ya AI ya hali ya juu. Kanuni hii ya G7 ilisisitiza umuhimu wa kuripoti hadharani uwezo, mapungufu na matumizi yanayofaa na yasiyofaa ya mifumo ya AI ya hali ya juu. Lengo lilikuwa kuongeza uwazi na uwajibikaji katika uwanja wa AI.

Mnamo Mei 2024, katika mkutano wa kimataifa juu ya usalama wa AI uliofanyika Seoul, Korea Kusini, Google ilisisitiza tena ahadi zake. Kampuni hiyo iliahidi kufichua hadharani uwezo wa modeli, mapungufu, kesi za matumizi zinazofaa na zisizofaa, na kutoa uwazi kuhusu tathmini zake za hatari na matokeo.

Majibu ya Google na Uwazi Uliocheleweshwa

Katika kukabiliana na maswali kuhusu ripoti ya usalama iliyokosekana, msemaji wa Google DeepMind, kitengo kinachohusika na kuendeleza modeli za Gemini, alisema kuwa Gemini ya hivi karibuni imefanyiwa majaribio ya kabla ya kutolewa. Hii ilijumuisha tathmini za maendeleo ya ndani na tathmini za uhakika zilizofanywa kabla ya kutolewa kwa modeli. Msemaji huyo pia alionyesha kuwa ripoti yenye maelezo ya ziada ya usalama na kadi za modeli ilikuwa ‘inakuja’. Hata hivyo, licha ya taarifa ya awali kutolewa mnamo Aprili 2, hakuna kadi ya modeli iliyochapishwa hadi sasa.

Mwenendo Mpana wa Kupuuza Ripoti za Usalama

Google haiko peke yake katika kukabiliwa na ukosoaji kuhusu kujitolea kwake kwa usalama wa AI. Mapema mwaka huu, OpenAI pia ilikabiliwa na ukaguzi kwa kushindwa kutoa kadi ya modeli kwa wakati kwa modeli yake ya Utafiti wa Kina. Badala yake, walichapisha kadi ya mfumo wiki kadhaa baada ya kutolewa kwa mradi huo. Vile vile, ripoti ya hivi karibuni ya usalama ya Meta kwa Llama 4 imekosolewa kwa kuwa fupi sana na kukosa maelezo.

Matukio haya yanaangazia mwenendo wa wasiwasi ndani ya tasnia ya AI, ambapo maabara zingine kubwa hazitoi kipaumbele kuripoti usalama sanjari na matoleo ya modeli zao. Hii inasumbua sana kutokana na ahadi za hiari ambazo kampuni hizi zilitoa kwa serikali ya Marekani na jumuiya ya kimataifa kuzalisha ripoti hizo. Ahadi hizi zilitolewa hapo awali kwa utawala wa Biden mnamo 2023 na baadaye kuimarishwa kupitia ahadi za kuzingatia kanuni za maadili za AI zilizopitishwa na mataifa ya G7 katika mkutano wao wa AI huko Hiroshima.

Kevin Bankston, mshauri wa utawala wa AI katika Kituo cha Demokrasia na Teknolojia, alielezea kukata tamaa kwake, akisema kwamba kushindwa huku kunadhoofisha uaminifu wa kampuni zinazohusika na kuibua maswali kuhusu kujitolea kwao kwa maendeleo ya AI yenye kuwajibika.

Maswali Yasiyojibiwa na Tathmini ya Nje

Taarifa ya msemaji wa Google pia ilishindwa kushughulikia maswali maalum kuhusu kama Gemini 2.5 Pro imewasilishwa kwa tathmini ya nje na Taasisi ya Usalama ya AI ya Uingereza au Taasisi ya Usalama ya AI ya Marekani. Hapo awali, Google ilikuwa imetoa vizazi vya awali vya modeli zake za Gemini kwa Taasisi ya Usalama ya AI ya Uingereza kwa tathmini.

Katika Mkutano wa Usalama wa Seoul, Google ilijiandikisha kwa ‘Ahadi za Usalama wa AI za Frontier,’ ambazo zilijumuisha ahadi ya kutoa uwazi wa umma juu ya utekelezaji wa tathmini za usalama. Isipokuwa tu zilikuwa kesi ambapo kufanya hivyo kungeongeza hatari au kufichua habari nyeti za kibiashara kwa kiwango kisicholingana na faida ya kijamii. Ahadi hiyo pia ilisema kwamba maelezo ya kina zaidi ambayo hayangeweza kushirikiwa hadharani bado yanapaswa kushirikiwa na serikali za nchi ambazo kampuni hizo ziko, ambayo itakuwa Marekani katika kesi ya Google.

Kampuni hizo pia ziliahidi kueleza jinsi wahusika wa nje, kama vile serikali, mashirika ya kiraia, wasomi na umma, wanavyoshiriki katika mchakato wa kutathmini hatari za modeli zao za AI. Kushindwa kwa Google kujibu maswali ya moja kwa moja juu ya kama imewasilisha Gemini 2.5 Pro kwa wathmini wa serikali ya Marekani au Uingereza kunaweza kukiuka ahadi hii pia.

Kutoa Kipaumbele Utoaji Juu ya Uwazi

Ukosefu wa ripoti ya usalama umeibua wasiwasi kwamba Google inaweza kuwa inatoa kipaumbele kwa utoaji wa haraka kuliko uwazi na tathmini kamili za usalama. Sandra Wachter, profesa na mtafiti mwandamizi katika Taasisi ya Mtandao ya Oxford, alisisitiza umuhimu wa uwazi katika utafiti na uvumbuzi unaowajibika. Alitoa mfano kwa tasnia zingine, akisema kwamba ‘Ikiwa hii ilikuwa gari au ndege, hatungesema: hebu tuilete hii sokoni haraka iwezekanavyo na tutaangalia masuala ya usalama baadaye.’ Wachter alielezea wasiwasi kwamba kuna mtazamo uliopo ndani ya uwanja wa AI wa kuzalisha wa ‘kuweka hii huko nje na kuwa na wasiwasi, kuchunguza na kurekebisha masuala nayo baadaye.’

Mabadiliko ya Kisiasa na Shinikizo za Ushindani

Mabadiliko ya hivi majuzi ya kisiasa, pamoja na ushindani unaozidi kati ya kampuni kubwa za teknolojia, yanaweza kuchangia kuhama kutoka kwa ahadi za usalama za awali huku kampuni zikishindana kupeleka modeli za AI. Wachter alibainisha kuwa ‘Sehemu ya shinikizo kwa kampuni hizi za kuwa haraka, kuwa wepesi, kuwa wa kwanza, kuwa bora, kuwa watawala, inaenea zaidi kuliko ilivyokuwa,’ akiongeza kuwa viwango vya usalama vilikuwa vinapungua katika tasnia nzima.

Viwango hivi vinavyoteleza vinaweza kuendeshwa na wasiwasi unaokua miongoni mwa nchi za teknolojia na serikali zingine kwamba taratibu za usalama za AI zinazuia uvumbuzi. Nchini Marekani, utawala wa Trump umeashiria nia yake ya kupitisha mbinu isiyo kali sana kwa udhibiti wa AI ikilinganishwa na utawala wa Biden. Utawala mpya tayari umebatilisha agizo la utendaji la enzi ya Biden juu ya AI na umekuwa ukiendeleza uhusiano wa karibu na viongozi wa teknolojia. Katika mkutano wa hivi majuzi wa AI huko Paris, Makamu wa Rais wa Marekani JD Vance alisema kwamba ‘sera za AI zinazounga mkono ukuaji’ zinapaswa kupewa kipaumbele kuliko usalama, na kwamba AI ilikuwa ‘fursa ambayo utawala wa Trump hautapoteza.’

Katika mkutano huo huo, Uingereza na Marekani zilikataa kusaini makubaliano ya kimataifa kuhusu akili bandia ambayo yalihimiza mbinu ‘wazi,’ ‘jumuishi,’ na ‘kimaadili’ kwa maendeleo ya teknolojia hiyo.

Haja ya Mahitaji ya Uwazi Yaliyo wazi

Bankston alisisitiza kwamba ‘Ikiwa hatuwezi kutegemea kampuni hizi kutimiza hata ahadi zao za msingi za usalama na uwazi wakati wa kutoa modeli mpya - ahadi ambazo zenyewe zilitolewa kwa hiari - basi waziwazi wanatoa modeli haraka sana katika mbio zao za ushindani kutawala uwanja.’ Aliongeza kuwa huku watengenezaji wa AI wanaendelea kuyumba katika ahadi hizi, itakuwa jukumu la watunga sheria kuendeleza na kutekeleza mahitaji ya uwazi yaliyo wazi ambayo kampuni haziwezi kukwepa.

Athari pana kwa Utawala wa AI

Utata unaozunguka Gemini 2.5 Pro ya Google na ripoti ya usalama iliyokosekana inasisitiza haja muhimu ya mifumo madhubuti ya utawala wa AI. Mifumo hii inapaswa kushughulikia masuala muhimu kama vile:

  • Uwazi: Kuhakikisha kwamba watengenezaji wa AI wako wazi kuhusu uwezo, mapungufu na hatari zinazowezekana za modeli zao.
  • Uwajibikaji: Kuweka mistari ya wazi ya uwajibikaji kwa ajili ya maendeleo na upelekaji wa mifumo ya AI.
  • Usalama: Kutekeleza majaribio madhubuti ya usalama na taratibu za tathmini ili kupunguza hatari ya madhara.
  • Mazingatio ya kimaadili: Kuunganisha kanuni za kimaadili katika muundo na maendeleo ya mifumo ya AI.
  • Ushirikishwaji wa umma: Kushirikiana na umma ili kukuza uelewa mpana wa AI na athari zake.
  • Ushirikiano wa kimataifa: Kushirikiana kimataifa ili kuendeleza viwango vya kawaida na mazoea bora kwa ajili ya utawala wa AI.

Ukosefu wa uwazi unaozunguka Gemini 2.5 Pro unaangazia matokeo yanayowezekana ya kupuuza vipengele hivi muhimu vya utawala wa AI. Bila uwazi na uwajibikaji wa kutosha, inakuwa vigumu kutathmini athari halisi za mifumo ya AI na kuhakikisha kwamba inatengenezwa na kupelekwa kwa njia inayowajibika na ya kimaadili.

Kusonga Mbele: Wito wa Uwajibikaji Mkubwa

Tasnia ya AI iko katika hatua muhimu. Huku teknolojia za AI zinazidi kuwa na nguvu na kuenea, ni muhimu kwamba watengenezaji watoe kipaumbele usalama, uwazi na mazingatio ya kimaadili. Utata unaozunguka Gemini 2.5 Pro unatumika kama ukumbusho kwamba ahadi za hiari hazitoshi kila wakati. Serikali na miili ya udhibiti lazima ichukue jukumu kubwa zaidi katika kuweka viwango vilivyo wazi na kutekeleza utiifu.

Zaidi ya hayo, ni muhimu kwa watengenezaji wa AI kushirikiana na umma na kukuza uelewa mpana wa AI na athari zake. Hii inajumuisha kuwa wazi kuhusu mapungufu na hatari zinazowezekana za mifumo ya AI, pamoja na hatua zinazochukuliwa ili kupunguza hatari hizo. Kwa kufanya kazi pamoja, tasnia ya AI, serikali na umma wanaweza kuhakikisha kwamba teknolojia za AI zinatengenezwa na kupelekwa kwa njia ambayo inanufaisha jamii nzima.