Mafunzo ya GPT-4.5 ya OpenAI: Changamoto na Mafanikio

Uundaji wa GPT-4.5, mradi ulioanzishwa miaka miwili iliyopita, unawakilisha jitihada kubwa zaidi za OpenAI hadi sasa. Mradi huu mkubwa ulihusisha juhudi za ushirikiano wa mamia ya watu, na Sam Altman, Mkurugenzi Mkuu wa OpenAI, akibainisha kuwa mradi huo ulihitaji ushiriki wa karibu kabisa wa shirika.

Kushinda ‘Matatizo Makubwa’ katika Mafunzo Makubwa

Safari ya kuunda GPT-4.5 haikuwa bila vikwazo. Timu ilikutana na ‘matatizo makubwa’ mengi wakati wa awamu ya utafiti na maendeleo. Kutumia nguzo ya 100,000 GPUs kulifichua matatizo ya miundombinu ambayo hayajaonekana hapo awali, ya uwezekano mdogo, lakini makubwa. Ili kusawazisha uharaka na utendaji bora, timu ya mfumo ya OpenAI ililazimika kupitisha mbinu ya ‘kurekebisha tunapoendelea’. Mdudu mmoja hasa aliyekuwa akisumbua nguzo hiyo na makosa ya mara kwa mara, alibaki bila kutambuliwa hadi takriban 40% ya mchakato wa mafunzo ulikuwa umepita.

Licha ya changamoto hizi, mradi wa GPT-4.5 ulichochea uundaji wa mkusanyiko wa teknolojia thabiti zaidi. Leo, timu ndogo ya watu 5-10 pekee inaweza kuiga modeli kubwa inayofanana na GPT-4. Faida za utendaji kutoka GPT-4 hadi GPT-4.5 zilikuwa takriban mara kumi, zikitoa ‘akili ambayo ni ngumu kuhesabu lakini imeimarishwa katika nyanja zote’, matokeo ambayo yaliwashangaza hata wafanyikazi wa OpenAI wenyewe.

Kubadilisha Mtazamo: Kutoka Nguvu ya Kikokotozi hadi Ufanisi wa Data

OpenAI imetambua kuwa kufikia hatua inayofuata ya mara kumi au mia moja katika utendaji haitegemei nguvu ya kikokotozi lakini juu ya ufanisi wa data - haswa, uwezo wa kutoa maarifa zaidi kutoka kwa kiwango sawa cha data wakati unatumia rasilimali kubwa za kikokotozi.

Usanifu pia unabadilika kutoka nguzo moja hadi dhana ya nguzo nyingi. Marudio ya mafunzo ya baadaye yanaweza kuhusisha ujifunzaji shirikishi katika hadi milioni 10 GPUs, ikihitaji uvumilivu ulioimarishwa wa hitilafu.

Majadiliano ya Sam Altman na Timu ya GPT-4.5

Ifuatayo ni mkusanyiko uliotengenezwa wa majadiliano kati ya Sam Altman na timu ya OpenAI GPT-4.5:

Sam Altman: Inachukua nini kujenga modeli kubwa kama GPT-4.5?

Alex Paino: Tulianza mradi huu takriban miaka miwili iliyopita. Wakati huo, OpenAI ilikuwa karibu kuzindua nguzo mpya kubwa ya kompyuta, na timu yetu iliona hii kama fursa ya kufanya mfululizo wa shughuli za kubaini kazi ambazo modeli ilihitaji kujumuisha, na kufanya idadi kubwa ya majaribio ya kupunguza hatari.

Tumeunda mpango mrefu wa hii, unaohusisha mkusanyiko mzima wa teknolojia kutoka kwa mfumo hadi ujifunzaji wa mashine. Kupunguza hatari na kujiandaa kwa mafunzo ni mchakato mrefu wa utekelezaji, na mafunzo yenyewe ni mradi mkubwa sana.

Amin Tootoonchian: Nadhani mchakato huu unahitaji ushirikiano wa karibu kati ya timu ya ujifunzaji wa mashine na timu ya mfumo tangu mwanzo, hadi tuweze kufafanua modeli tunayotaka kufunza, na kisha tuanze mafunzo.

Tumefanya utabiri katika nyanja zote za ujifunzaji wa mashine na mfumo, tukijaribu kupunguza pengo kati ya matarajio na uhalisia iwezekanavyo. Lakini kwa sababu mdundo wetu wa kazi ni wa haraka na tunapaswa kutumia rasilimali za hivi karibuni za kompyuta, mafunzo ya modeli yamekuwa kitu ambacho ni ngumu kupanga kikamilifu mapema.

Karibu kila wakati tunaanza mafunzo na shida nyingi ambazo hazijasuluhishwa na kujaribu kushinda changamoto na kufanya maendeleo wakati wa operesheni. Suluhisho kuu ni kuongeza rasilimali zaidi za kompyuta.

Hatua ya mwisho ni utekelezaji, ambayo inahitaji watu wengi kuwekeza nguvu nyingi na motisha kwa muda mrefu kukamilisha mchakato wa mafunzo.

Sam Altman: Unafikiri pengo kati ya matarajio yetu na uhalisia ni kiasi gani?

Amin Tootoonchian: Kwa upande wa mfumo, sisi huwa mbali na hali inayotarajiwa mwanzoni. Sisi hupewa chaguo kila wakati: iwe kuahirisha mwanzo na subiri tatizo litatuliwe, au anza mapema na usuluhishe tatizo katika mchakato. Hii inahitaji kila wakati biashara ili kuepuka ucheleweshaji usio na maana katika mchakato.

Lakini karibu kila wakati kuna shida zingine zisizotarajiwa, na tunachopaswa kufanya ni kushughulika na nodi hizi iwezekanavyo, kushughulika na sababu zisizojulikana, na kuunda mpango wa mafunzo ya modeli.

Alex Paino: Katika mradi huu, lengo letu ni kutengeneza GPT-4.5, ambayo inamaanisha kuwa uwezo wake unapaswa kuwa mara 10 bora kuliko GPT-4. Hili ndilo lengo la awali tulijiwekea takriban miaka 2 iliyopita.

Mambo mengi yalitokea wakati wa mchakato huu. Tulikuwa tunafikiria ikiwa tunaweza kufanya vizuri zaidi au itakuwa mbaya kuliko ilivyotarajiwa? Huu ni mchakato mgumu sana, lakini mwishowe, kwa upande wa mahesabu madhubuti tuliyowekeza, tulipata modeli ambayo tunafikiri imefikia mara 10 bora kuliko GPT-4.

Amin Tootoonchian: Kwa upande wa utekelezaji, wakati uliotumika kwenye mradi wa GPT-4.5 uko mbali na tulivyotarajia mwanzoni.

Sam Altman: Kwa nini ulikutana na shida nyingi wakati nguzo ilipanuka kutoka kadi 10,000 hadi kadi 100,000?

Amin Tootoonchian: Nadhani ikiwa watengenezaji wa mfumo wana hisia za kutosha, shida nyingi zinaweza kuzingatiwa katika hatua ndogo.

Shida zingine sio za kipekee kwa hatua kubwa ya mafunzo, lakini mara nyingi zimetokea hapo awali, lakini zitakuwa shida kubwa baada ya kiwango kuongezeka, haswa wakati timu haijatarajia kuwa shida hizi zitazidi kuwa mbaya hadi kiwango kama hicho.

Sam Altman: Ni vitu gani vimesababisha matokeo mabaya?

Amin Tootoonchian: Nadhani shida za miundombinu zinajulikana sana, iwe kiwango cha kushindwa, aina ya kushindwa au jumla ya kushindwa ni kubwa sana. Nguzo ya kadi 100,000 ni hifadhi kubwa ya sampuli, kwa hivyo pia tuligundua shida ambazo mtoa huduma wa nguvu ya kompyuta hakuzizingatia.

Mtandao ni moja wapo, na viharakishaji vya kibinafsi vinaweza pia kuwa na shida. Lakini hii pia ni uzuri wa mfumo huu - karibu vifaa vyote vinahitaji kufanya kazi kama inavyotarajiwa ili kutoa matokeo yanayotarajiwa. Kazi yetu ni kupunguza shida hii iwezekanavyo.

Sam Altman: Ni kweli ni ngumu kufanya kazi kwa kikomo cha ukubwa wa nguzo, lakini pia nimegundua kuwa imekuwa rahisi sana kufanya mambo ambayo hayako tena mstari wa mbele wa teknolojia. Mafunzo ya GPT-4.5 yanahitaji mamia ya watu, na OpenAI ina karibu kila mtu ndani.

Lakini leo, ikiwa ungechagua timu ndogo zaidi kutoka OpenAI na kufunza tena GPT-4 kutoka mwanzo na maarifa yote na kazi ya mfumo tunayojua, ingechukua watu wangapi?

Alex Paino: Nadhani inaweza kuchukua kama watu 5 hadi 10 kutengeneza modeli ya kiwango cha GPT-4 sasa. Mkusanyiko wa teknolojia umeboreshwa sana katika mchakato wa kukamilisha GPT-4.5.

Kwa kweli, tumefanya vitu sawa katika mchakato wa mafunzo ya GPT-4.5 - tulifunza GPT-4o, ambayo ni modeli ya kiwango cha GPT-4, na kuifunza tena kwa kutumia yaliyomo mengi sawa kutoka kwa mradi wa utafiti wa GPT-4.5. Watu wachache walitumiwa kwa mafunzo hayo.

Sam Altman: Kwa mtazamo wako, Dan? Kwa nini ni ngumu kufunza modeli kubwa?

Daniel Selsam: Nadhani ni ngumu kufanya kitu chochote kipya. Nadhani hata kugundua tu kwamba mtu mwingine amefanya kitu hufanya iwe rahisi zaidi, kwa sababu sehemu ngumu zaidi ni kuwa na imani ya kufanya kitu hicho kwanza. Nadhani kujua tu kwamba kitu kinawezekana ni nambari ya siri ambayo inafanya mambo kuwa rahisi sana.

Alex Paino: Tunaongeza uendeshaji wa mafunzo ya awali ya GPT kwa mara 10 ukubwa wake wa awali, na kila wakati tunapata vitu vipya vya kupendeza ambavyo huwezi kutabiri kila wakati.

Sam Altman: Ni nini kinachohitajika kufikia ukuaji unaofuata wa 10x au 100x katika kiwango cha mafunzo ya awali?

Daniel Selsam: Ufanisi wa data. Usanifu wa Transformer (yaani GPT) unafaa sana katika kutumia data. Inaweza kunyonya na kubana habari vizuri na kufikia ujumuishaji. Sifa yake kubwa zaidi ni kwamba inaweza kunyonya habari kwa ufanisi na rasilimali za kompyuta.

Walakini, kina cha ufahamu inachopata kutoka kwa data ni mdogo. Wakati nguvu ya kompyuta inakua haraka na data inakua polepole kiasi, data inakuwa kikwazo kwa modeli hii ya kawaida. Hii inahitaji uvumbuzi wa algorithm kuendeleza njia ambazo zinaweza kutumia nguvu zaidi ya kompyuta kujifunza maarifa zaidi kutoka kwa kiwango sawa cha data.

Sam Altman: Ni nini kingine unachofikiria tunahitaji kudumisha upanuzi?

Amin Tootoonchian: Jibu langu linahusu mfumo. Nadhani kiwango kikubwa cha kazi kinachohitajika kwa GPT-4.5 kimsingi ni matokeo ya lazima ya uainishaji wa modeli. Hatuwezi kufunza GPT-4.5 na usanifu sawa wa kiufundi kama GPT-4.

Kwa upande wa usimamizi wa serikali, kwa sababu rasilimali za kompyuta zinazohitajika zimezidi uwezo wa nguzo moja, lazima tugeukie usanifu wa mafunzo ya nguzo nyingi. Ili kufikia lengo hili, lazima tuunganishe mtiririko wa kazi tofauti kwa muda mfupi.

Ingawa hii imetusaidia kweli kufikia mafanikio ya hatua, ili kufikia kiwango kinachofuata cha uboreshaji wa utendaji, bado tunahitaji kutatua shida kadhaa zinazojulikana lakini zilizoahirishwa kwa muda - shida hizi haziwezi kuepukwa. Ni aina hii ya biashara ya kiufundi ambayo huongeza kila wakati mzunguko wa R&D wa mfumo kamili, na sisi hufanya biashara za kimkakati katika mchakato wa kutafuta mpango bora wa utekelezaji.

Inahitaji kuwa wazi kuwa mfumo yenyewe sio lengo la mwisho, na thamani yake halisi ya pato ndio jambo kuu la kuzingatia. Kwa uboreshaji wa utendaji wa 10x unaofuata, nadhani mafanikio katika uvumilivu wa hitilafu ni muhimu. Tunahitaji kujenga utaratibu wa uvumilivu wa hitilafu ambayo inalingana sana na mzigo wa kazi ili kupunguza sana wasiwasi wa uendeshaji na matengenezo. Ugumu wa uendeshaji na matengenezo wa mifumo ya sasa ya kiwango cha juu ni tofauti kimsingi na mifumo ya awali.

Sam Altman: Unajua ni asilimia ngapi ya kushindwa ilisababishwa na vifaa fulani wakati wa mafunzo ya GPT-4.5?

Amin Tootoonchian: Sina nambari maalum za kushiriki, lakini kwa ujumla, katika hatua za mwanzo za kupeleka kizazi kipya cha vifaa, uendeshaji wa mfumo mara nyingi hukabiliwa na changamoto nyingi za kiufundi ambazo hazieleweki kikamilifu. Tulichagua kuendeleza mradi kabla ya shida kufafanuliwa kikamilifu, ambayo ilisababisha kiwango cha juu cha kushindwa kwa awali.

Lakini uzoefu umeonyesha kuwa kadiri mzizi unavyotambuliwa na kutatuliwa, kiwango cha kushindwa kitapungua sana. Jambo hili kimsingi linaonyesha uelewa wetu wa kina wa miundombinu - watu wengine huita kusafisha miundombinu au kuelewa shida za kimsingi za miundombinu.

Hatua za mwanzo za utekelezaji karibu kila wakati huwa chungu sana. Wakati tunaendeleza mradi, pia tunaendelea kugundua na kutatua njia mpya za kushindwa, lakini kiwango cha kushindwa kitapungua polepole na wakati wa operesheni ya kawaida utakuwa mrefu.

Hili kimsingi ni suala la biashara za kipaumbele: Katika hatua za mwanzo za mzunguko wa maisha ya miundombinu, hatari yake ya kushindwa mara nyingi ni ngumu kukadiria kwa usahihi; na ikiwa tunafuatilia kupita kiasi hali bora ya mwisho (asili ni ‘City Estate’, muundo bora wa jiji-jimbo), inaweza kusababisha utendaji wa upatikanaji wa mfumo katika hatua za mwanzo kuwa mbaya sana.

Sam Altman: Ingawa modeli ya hoja ni sehemu muhimu ya mkusanyiko wetu wa teknolojia wa baadaye, hebu tuzingatie kwa muda kikomo cha maendeleo cha modeli ya jadi ya mafunzo ya awali. Tuseme tuna nguvu ya kikokotozi isiyo na kikomo ya GPU, upeo wa mtandao usio na kikomo, na usambazaji wa umeme usio na kikomo, lakini badotunazuiliwa na vikwazo vya kiufundi vilivyopo - pamoja na shida za kuaminika kwa mfumo, ukosefu wa njia za mafunzo za uvumilivu wa hitilafu, na mapungufu ya hifadhi zilizopo za data.

Kulingana na sheria yetu ya mageuzi ya kufikia ongezeko la kiwango cha mara 100 katika kila nambari kuu ya toleo la GPT, kulingana na mipaka ya kiufundi ya sasa, maendeleo ya modeli ya mafunzo ya awali yanaweza kufikia kiwango gani? Hasa kwa modeli za mfululizo wa GPT, na mfumo wetu wa maarifa uliopo, tunaweza kufunza modeli ya aina gani kinadharia? Je, GPT-5.5 inaweza kufanywa?

Alex Paino: Kwa mtazamo wa ujifunzaji wa mashine na maendeleo ya algorithm, bado hatujafikia kikomo cha juu cha kinadharia wazi. Kwa kweli, tunaanza tu kuchunguza algorithms zilizo na ufanisi wa data ya juu na jinsi ya kutumia kikamilifu rasilimali zilizopo za data. Hali hii inavutia sana - hata modeli kama GPT-4 zimetengenezwa sana chini ya vikwazo vya rasilimali ndogo za kompyuta, ambayo pia huamua mwelekeo wa utafiti mwingi wa awali.

Lakini hali ni tofauti kabisa sasa. Tangu GPT-4.5, katika vipimo muhimu, data badala ya kompyuta inakuwa kikwazo kikuu. Mabadiliko haya hufanya utafiti unaohusiana kuwa hauvutii sana.

Sam Altman: Lakini hii ni maendeleo ya kushangaza kweli, na ulimwengu hauwezi kutambua kikamilifu kuwa rasilimali za kompyuta sio tena kikwazo kikuu katika modeli bora tunayoweza kujenga. Mabadiliko haya yana kina, baada ya yote, tumeishi katika mazingira yenye vikwazo vya kompyuta kwa muda mrefu sana.

Sam Altman: Uzoefu gani wa kupendeza zaidi wa ujifunzaji wa mashine ambao tumejifunza katika mchakato wa mafunzo ya GPT-4.5? Zungumza tu juu ya kile unachotaka kushiriki.

Amin Tootoonchian: Kwa ujumla, mambo ya kuchochea fikira zaidi ni yale ambayo yanaacha utabiri wetu - haswa wakati tunajaribu kuelewa kwa nini utendaji halisi unaacha curve inayotarajiwa.

Alex Paino: Mojawapo ya matokeo ya kushangaza zaidi kwetu ni kwamba utendaji wa upanuzi wa vifaa tofauti vya ujifunzaji wa mashine unatofautiana sana. Sehemu zingine zinaweza kuongezwa vizuri, wakati zingine haziwezi. Hiki ndicho tuligundua kweli katika mchakato halisi wa mafunzo. Uzoefu huu ulitupa msukumo mwingi.

Daniel Selsam: Nadhani sifa mbili za msingi za dhana ya GPT ni: kwanza, upotezaji wa mtihani (metric ya kupima jinsi modeli inavyofanya vizuri kwenye data ya mtihani isiyoonekana) inaweza kutabiriwa kwa usahihi; pili, utendaji wa modeli unaonyesha uboreshaji unaotabirika na upanuzi wa kiwango. Kwa uchawi zaidi, upunguzaji wa upotezaji wa mtihani utabadilika kuwa kiwango kilichoimarishwa pande zote za akili kwa njia anuwai ambazo ni ngumu kuhesabu lakini za kushangaza.

Sam Altman: Je, una matumaini kabisa kuhusu hili? Je, unakubaliana kikamilifu na mtazamo huu?

Daniel Selsam: Kwa kweli, ninachotaka kusema ni kwamba tulipata matukio ya kupendeza sana katika mtihani wa GPT-4.5 - baada ya kujaribu tena, modeli ilionyesha uwezo mwingi wa hila ambao ulizidi matarajio ya kila mtu.

Tuna hakika kwamba itakuwa nadhifu kwa njia anuwai ambazo haziwezi kufafanuliwa mapema, na baada ya kupelekwa halisi, tunaweza kuzingatia viwango hivi vya hila vya uboreshaji kutoka kwa kuridhika kwa watumiaji: hifadhi kali za akili za kawaida, uwezo sahihi zaidi wa uelewa wa muktadha, na uelewa zaidi wa semantic - hii ndio haswa uchawi ulioletwa na upotezaji huo wa ziada wa mtihani. Kwa maoni yangu, Sheria ya Kuongeza imethibitishwa kikamilifu katika mwelekeo huu.

Sam Altman: Wakati gani mzuri zaidi wakati wa mchakato mzima wa mafunzo? Kumbukumbu yako unayoipenda ni nini? Ni wazi kuna maumivu mengi, lakini natumai maumivu hayo yamepunguzwa.

Alex Paino: Nina wakati kama huo. Tulifanya kazi nyingi za ujifunzaji wa mashine wakati wa mafunzo. Nadhani baadhi ya mabadiliko tuliyoyafanya wakati wa operesheni yalikuwa na athari nzuri, labda bora kuliko ilivyotarajiwa, ambayo ilikuwa wakati wa kusisimua sana kwetu.

Amin Tootoonchian: Kwangu mimi, wakati huo huo na mafunzo, pia tunajenga miundombinu. Tunaamini kabisa kwamba tunaweza kuvuka mwamba huu wa utendaji, na tuna mpango, na kila mtu anautekeleza, lakini inachukua muda mrefu. Hii ni kazi ngumu na hakika ni ngumu kuliko nilivyofikiria. Utabiri wangu ulikuwa mbaya, na nimepunguza wakati ambao ingechukua kutatua shida hizi.

Wakati timu ilishinda shida hizo muhimu na utendaji ulionekana wazi bado ni safi katika kumbukumbu yangu. Unaweza kuhisi wazi mabadiliko ya nishati ya timu nzima - kila mtu ghafla amejaa nguvu na anakimbilia lengo la mwisho na motisha mpya.

Jambo la kichawi zaidi ni kwamba wakati uliokadiriwa wa kukamilika ulioonyeshwa kwenye tracker yetu ya hali uliendelea kufupisha kutoka miaka miwili ya awali, na mwishowe ukafungiwa kwenye nodi ya wakati wazi. Maendeleo haya yanayoonekana yanaongeza sana ari ya timu. Nadhani hii ndio uzuri wake.

Ningependa kusisitiza kwamba kazi ya ujifunzaji wa mashine haijawahi kusimama. Hata baada ya mafunzo kuanza, mchakato huu wa ushirikiano wa mashine unaendelea. Timu ya ujifunzaji wa mashine haifuatilii tu masuala yale ambayo yaliwekwa alama kama ‘usindikaji unaofuata’, lakini pia inaendelea kutoa maboresho ambayo yanaongeza muda wa mafunzo.

Hii inaonyesha kikamilifu roho yetu ya timu - hakuna mpaka wa kazi wa ‘kila mtu anafagia theluji mbele ya mlango wake mwenyewe’ hapa, lakini ushirikiano usio na mshono kweli, na mshikamano huu ndio nguvu yetu kubwa.

Sam Altman: Ulimwengu wa nje umejadili sana kuhusu changamoto na usahihi wa utabiri wa mafunzo haya yenyewe. Lakini kwa kweli, haya yote yanategemea upangaji kamili sana - unaweza kuzungumza zaidi juu ya hili kwa undani?

Alex Paino: Huu hakika ndio mpango wetu kamili zaidi hadi sasa. Kama nilivyosema, tulianza kujiandaa kwa mradi huu mwaka mmoja kabla ya kuanza rasmi kwa mafunzo. Katika kipindi hiki, tulifanya majaribio mengi ya udhibiti wa hatari.

Tunalipa kipaumbele maalum kwa kuanzisha hatua kwa hatua maboresho yote: kuanzia usanidi wa msingi wa ujasiri mkubwa - ambayo inaweza kueleweka kama usanifu uliokomaa sawa na GPT-4, tumemiliki kikamilifu usanidi huu katika kiwango cha ujifunzaji wa mashine - na kisha kuongeza vipengele vipya safu kwa safu kama vizuizi vya ujenzi.

Muhimu ni kuthibitisha kwa ukali upanuzi wa kila uboreshaji kwa viwango tofauti: sio tu kuona maboresho ya utendaji, lakini pia kuhakikisha kuwa maboresho haya yanaendelea kuwa na ufanisi kadri kiwango cha modeli kinavyopanuka. Maboresho mengi hufanya vizuri katika majaribio madogo, lakini yatafeli katika matumizi makubwa.

Kwa hivyo, tumedumisha kiwango cha juu cha umakini katika mchakato mzima na tunaendelea kurudia na kuboresha mbinu yetu ya sheria ya upanuzi. Kupitia mazoezi haya ya udhibiti wa hatari, tumekusanya uzoefu mwingi muhimu ambao utaendelea kuongoza maendeleo ya modeli za mfululizo wa GPT za baadaye.

Amin Tootoonchian: Nakumbuka wakati wa kupendeza sana ambao nakosa sana. Unajua, karibu kila wakati tunakutana na mende mbalimbali kila wakati tunapoanza kazi ya mafunzo. Hii tayari ni jambo la kawaida. Lakini muhimu ni kuhakikisha kuwa maendeleo hayazuiwi na kila wakati kuthibitisha kuwa maendeleo ya sasa yanaendelea kwa usahihi na ikiwa mende hizi zitakuwa na athari mbaya kwa afya ya mafunzo.

Ingawa mwanzoni tulikuwa na uhakika sana kwamba kulikuwa na kasoro kubwa, kupitia mfumo mzima wa ufuatiliaji tulioujenga, tumeweza kutofautisha kwa usahihi sababu ya tatizo: Je, ni kushindwa kwa vifaa? Aina gani ya kushindwa kwa vifaa? Je, ni uharibifu wa data? Au ni mdudu katika modeli ya ujifunzaji wa mashine yenyewe? Au ni hali ya mbio katika msimbo?

Wakati huo, tulikuwa na maeneo mengi ya majadiliano ya tatizo wazi kwa wakati mmoja, na dalili mbalimbali. Baada ya mfululizo wa marekebisho ya mdudu, tulikwama: kulikuwa na matatizo mengi ambayo hayajatatuliwa mbele yetu, na kila mtu alikuwa akiumiza akili zao - haya yalisababishwa na mende tofauti? Au ni mdudu kazini?

Baadaye, tulifanya kura ya maoni ili kuwaruhusu wanachama wa timu kupiga kura kwa sababu inayowezekana zaidi. Chaguo lisiloahidi zaidi liligonga ukweli: iligeuka kuwa kulikuwa na tatizo na kazi ya torch.sum upstream ya PyTorch, operesheni rahisi ya jumla.

Mdudu huyu anavutia sana. Unajua, sisi hutumia kernel ya Triton hasa, na tutarudi tu kwenye shughuli za tochi katika baadhi ya matukio yasiyo muhimu ya makali. Na mdudu wa kazi ya torch.sum iliyosababishwa na njia yetu maalum ya msimbo itasababisha ajali isiyo halali ya ufikiaji wa kumbukumbu kwa sababu ya sifa za usambazaji wa data - ilifanya makosa wakati wa kuhesabu offset ya kumbukumbu.

Jambo la kushangaza zaidi ni kwamba wakati mhandisi hatimaye alipoanzisha tatizo na kuwasilisha marekebisho, ripoti zote za makosa zilizo na dalili tofauti zilitoweka. Kila mtu alibadilisha kwa furaha kituo cha Slack kutoka ‘nadharia ya mende nyingi’ hadi ‘nadharia ya mdudu mmoja’, na eneo hilo lilikuwa la furaha sana.

Mdudu huyu amekuwa akiota kwa muda gani? Imekuwepo tangu hatua za mwanzo za mafunzo na haikutambuliwa hadi mbar ya maendeleo ilipopita karibu 40%. Mchakato wa ugunduzi pia ulikuwa umejaa drama: wakati huo, kernel tata ilifuatana kwa mlolongo, na simu ya pili ilisababisha ufikiaji usio halali wa kumbukumbu.

Ingawa marudio haya ya ajali ni ya chini sana (inatokea mara moja tu kila hatua chache za mafunzo au hata elfu), ni rahisi kupuuzwa kama kushindwa kwa mara kwa mara, lakini mwongozo wa timu yetu ni: usiwahi kuachilia kasoro yoyote. Sehemu bora zaidi ya hadithi hii iko katika uvumilivu huu wa kutokata tamaa kwa urahisi.

Sam Altman: Ni nini kingine unachohitaji kufanya baada ya mafunzo ya awali ya GPT-4.5 kuanza?

Alex Paino: Sote tunahitaji kuzingatia curve ya kupoteza mara kwa mara. Kwa kuongeza, tunahitaji kuendelea kuboresha mfumo na kuboresha ushirikiano ambao haujakamilika kabla ya mafunzo kuanza. Tunafuatilia kwa karibu takwimu mbalimbali wakati wa mchakato wa mafunzo ili kuhakikisha kuwa hakuna mwenendo usiotarajiwa. Wakati huo huo, tunachunguza mipango inayowezekana ya uboreshaji kutoka kwa mtazamo wa ujifunzaji wa mashine. Ingawa kazi ya kiwango cha data itapunguzwa kwa muda baada ya mafunzo ya awali kuanza, bado kuna kazi nyingi za kuchakatwa.

Amin Tootoonchian: Nadhani ujifunzaji wa mashine unategemea sana hukumu ya usahihi. Baada ya mafunzo ya awali kuanza, tukikabiliwa na ishara nyingi za kelele, sisi ni kama wapiga ramli wanaotafsiri taka za chai, na tunahitaji kuhukumu ikiwa mfumo una afya. Hii ndiyo jukumu letu.

Sam Altman: Katika ngazi ya mfumo, ni nini kitatuzuia kufanya mafunzo ya modeli? Je, ni chip, processor, kumbukumbu, mtandao au usambazaji wa umeme?

Amin Tootoonchian: Uzuri wa mfumo ni kwamba, wakati wa kufanya muundo shirikishi, mzigo wa kazi unaweza kuzoea miundombinu unayojenga. Hakuna msemo wa ulimwengu wote kwamba mtandao ndio kikwazo, au bandwidth ya kumbukumbu ndio kikwazo, nk. Hata kwa modeli za uainishaji sawa, tunaweza kuchagua kuhamisha mahitaji ya rasilimali. Tunaweza kuchagua kuunda mfumo ulio sawa zaidi, lakini kuwa na bandwidth zaidi ya kumbukumbu daima ni ya manufaa. Ni vigumu kujibu swali hili bila kuzuia masharti.

Wakati wa kubuni GPT-4.5, tunaweza kuhitaji kuwa na sifa fulani katika mfumo, ambayo inahitaji kuzalishwa kupitia mwongozo wa binadamu. Kwa hiyo, muundo shirikishi ni muhimu sana kwa kuunda usanifu wa modeli na vipengele vya usanifu, na kwa kiasi fulani huunganisha mfumo na vipengele vya ujifunzaji wa mashine. Ikiwa mfumo una sifa ambayo hatutaki kuwa nayo sana. Hali yangu bora ni kwamba kila kitu kinapaswa kuondolewa ili kutoa nafasi kubwa zaidi kwa kila mmoja.

Wakati mwingine mambo yanaunganishwa pamoja, na tunahitaji kukidhi mahitaji ya miundombinu, au mambo yanapaswa kuwa kama hii. Mara nyingi, tunahitaji mfumo uli