Mafunzo ya GPT-4.5: GPU 100K na Matatizo

OpenAI hivi karibuni imeshirikisha maelezo kuhusu maendeleo ya modeli yake kabambe zaidi hadi sasa, GPT-4.5. Ufunuo huu ulitokea zaidi ya mwezi mmoja baada ya kutolewa kwa modeli hiyo, katika mazungumzo ya wazi ya dakika 45 yaliyoshirikisha mwanzilishi mwenza na Mkurugenzi Mtendaji wa OpenAI, Sam Altman, pamoja na watu wakuu watatu wa kiufundi kutoka mradi wa GPT-4.5. Majadiliano hayo yalifunua msururu wa changamoto ambazo hazikujulikana hapo awali, pamoja na ucheleweshaji mkubwa wa ratiba, kushindwa mara kwa mara katika nguzo ya kompyuta, na njia zisizotabirika za uboreshaji wa utendaji.

Mwanzo wa GPT-4.5: Safari ya Miaka Miwili

Mpango wa GPT-4.5, uliobuniwa miaka miwili kabla ya uzinduzi wake, uliwakilisha juhudi zilizopangwa kwa uangalifu zaidi za OpenAI hadi sasa. Ilihitaji juhudi za pamoja za mamia ya watu, huku Altman akibainisha kuwa mradi huo uliwashirikisha “karibu kila mtu” katika OpenAI. Ushiriki huu ulioenea unaashiria umuhimu wa kimkakati wa GPT-4.5 ndani ya dhamira pana ya shirika.

Wakati wa awamu ya ukuzaji, timu ya OpenAI ilikutana na kile walichokiita “matatizo makubwa”. Upelekaji wa nguzo ya GPU 100,000 ulifichua udhaifu wa miundombinu fiche ambao ulidhihirika kama kushindwa kwa nadra lakini kwa kina. Ili kupata uwiano kati ya ulazima na utendaji bora, wahandisi wa mfumo walipitisha mbinu ya marudio, kimsingi “kujenga na kurekebisha” kwa wakati mmoja. Mdudu mmoja mgumu haswa uliikumba nguzo hiyo kwa makosa ya mara kwa mara, ukisalia bila kugunduliwa hadi mchakato wa mafunzo ulipofikia takriban 40% ya kukamilika.

Kinyume chake, majaribio haya yalichangia kuimarisha msingi wa kiufundi wa OpenAI. Utaalamu uliopatikana sasa unawezesha timu ndogo ya watu 5-10 tu kuiga modeli ya ukubwa wa GPT-4. Kuruka kwa utendaji kutoka GPT-4 hadi GPT-4.5, kunakadiriwa kuwa karibu mara kumi, kulidhihirishwa na “akili iliyoimarishwa kwa kina lakini ni ngumu kuhesabu,” kuwashangaza hata wale walio ndani ya OpenAI. Kuruka huku kwa ubora kunapendekeza maendeleo zaidi ya kuongeza ukubwa tu, kuashiria uboreshaji wa kimsingi katika uwezo wa modeli wa kufikiri na kuelewa.

Tukiangalia mbeleni, OpenAI inatambua kwamba kufikia mpangilio unaofuata wa ukubwa katika utendaji hautategemea nguvu ya kompyuta pekee, lakini badala yake juu ya ufanisi wa data. Mtazamo unabadilika kuelekea ukuzaji wa algoriti ambazo zinaweza kutoa maarifa zaidi kutoka kwa seti data zilizopo, na hivyo kuongeza matumizi ya rasilimali za kompyuta zinazopatikana.

Zaidi ya hayo, usanifu unabadilika kutoka nguzo moja hadi muundo wa nguzo nyingi, kuwazia hali za mafunzo za siku zijazo zinazohusisha ujifunzaji shirikishi katika hadi GPU milioni 10. Mabadiliko haya yanahitaji uboreshaji mkubwa katika uvumilivu wa makosa ili kuhakikisha utulivu na kuegemea kwa mifumo kama hiyo mikubwa iliyosambazwa.

Mazungumzo hayo pia yaliangazia uhusiano kati ya “mkia mrefu” wa data na sheria za upimaji, faida za ushirikiano wa karibu kati ya kujifunza kwa mashine na timu za mifumo (usanifu mwenza), kiini cha ujifunzaji usiosimamiwa, na utamaduni wa utatuzi wa matatizo kwa uangalifu.

Sam Altman: Inachukua nini hasa kujenga modeli kubwa kama GPT-4.5?

Alex Paino: Tulianzisha mradi huu takriban miaka miwili iliyopita. Wakati huo, OpenAI ilikuwa karibu kuzindua nguzo mpya kubwa ya kompyuta, na timu yetu iliona fursa hii na kufanya mfululizo wa kazi za kubaini kazi ambazo modeli ilihitaji kujumuisha, na kufanya idadi kubwa ya vipimo vya uendeshaji wa kupunguza hatari.

Tuliendeleza mpango mrefu wa hili, unaohusisha safu nzima ya teknolojia kutoka mfumo hadi kujifunza kwa mashine. Kupunguza hatari na kujiandaa kwa mafunzo ni mchakato mrefu wa utekelezaji, na mafunzo yenyewe pia ni mradi mkubwa sana.

Amin Tootoonchian: Nadhani mchakato huu unahitaji ushirikiano wa karibu kati ya timu ya kujifunza kwa mashine na timu ya mfumo tangu mwanzo, hadi tujue wazi ni modeli gani tunataka kufunza, na kisha tuanze mafunzo.

Tumefanya utabiri katika kujifunza kwa mashine na mifumo, tukijaribu kupunguza pengo kati ya matarajio na uhalisia. Hata hivyo, kwa sababu mdundo wetu wa kazi ni wa haraka sana na tunapaswa kutumia rasilimali za hivi karibuni za kompyuta, mafunzo ya modeli yamekuwa kitu ambacho ni vigumu kupanga kikamilifu mapema.

Karibu kila wakati tunaanza mafunzo na matatizo mengi ambayo hayajatatuliwa na kujaribu kushinda changamoto na kufanya maendeleo wakati wa mchakato. Suluhisho kuu ni kuongeza rasilimali zaidi za kompyuta.

Hatua ya mwisho ni utekelezaji, ambayo inahitaji watu wengi kuwekeza nguvu nyingi na motisha kwa muda mrefu ili kukamilisha mchakato wa mafunzo.

Sam Altman: Unafikiri pengo kati ya matarajio yetu na uhalisia ni kiasi gani?

Amin Tootoonchian: Kwa upande wa mfumo, mwanzoni, kwa kawaida tuko mbali na hali inayotarajiwa. Siku zote tunakabiliwa na chaguo: ama kuahirisha uzinduzi na kusubiri tatizo litatuliwe, au kuanza mapema na kutatua tatizo katika mchakato. Hii daima inahitaji maelewano ili kuepuka ucheleweshaji usio na maana katika mchakato.

Lakini karibu kila wakati kuna matatizo yasiyotarajiwa, na tunachopaswa kufanya ni kushughulikia ncha hizi iwezekanavyo, kushughulikia mambo yasiyojulikana, na kuandaa mpango wa mafunzo ya modeli.

Alex Paino: Katika mradi huu, lengo letu ni kutengeneza GPT-4.5, ambayo ina maana kwamba uwezo wake unapaswa kuwa werevu mara 10 kuliko GPT-4. Hili ndilo lengo la awali tuliloanzisha takriban miaka 2 iliyopita.

Mambo mengi yalitokea katika mchakato huu. Tulikuwa tukifikiria kuhusu kama tunaweza kufanya vizuri zaidi au vibaya kuliko inavyotarajiwa? Huu ni mchakato mgumu sana, lakini mwishowe, kwa upande wa hesabu bora tulizoziweka, tulipata modeli ambayo tunafikiri ni werevu mara 10 kuliko GPT-4.

Amin Tootoonchian: Kwa upande wa utekelezaji, muda uliotumika kwenye mradi wa GPT-4.5 ni mbali na kile tulichotarajia mwanzoni.

Mapinduzi ya Timu Ndogo: Kufunza GPT-4 kwa Rasilimali Ndogo

Sam Altman: Nguzo ilipopanuka kutoka kadi 10,000 hadi kadi 100,000, kwa nini ulikumbana na matatizo mengi sana?

Amin Tootoonchian: Nadhani kama watengenezaji wa mfumo wana hisia za kutosha, matatizo mengi yanaweza kuzingatiwa katika hatua ndogo.

Pia kuna matatizo mengine ambayo si ya kipekee kwa hatua kubwa ya mafunzo, lakini yalitokea mara kwa mara hapo awali, lakini yatakuwa matatizo makubwa baada ya kiwango kuongezeka, hasa wakati timu haikutarajia kwamba matatizo haya yataharibika kiasi hicho mapema.

Sam Altman: Ni mambo gani yamesababisha matokeo mabaya?

Amin Tootoonchian: Nadhani matatizo ya miundombinu yanajulikana sana. Kiwango cha kushindwa, aina ya kushindwa, na jumla ya kushindwa ni ya juu sana. Nguzo ya kadi 100,000 ni hifadhi kubwa ya sampuli, kwa hivyo pia tuligundua matatizo ambayo mtoa huduma wa nguvu ya kompyuta hakuyazingatia.

Mtandao ni sehemu moja yake, na vichochezi vya mtu binafsi vinaweza pia kuwa na matatizo. Lakini hii pia ni uzuri wa mfumo huu - karibu vipengele vyote vinahitaji kufanya kazi kama inavyotarajiwa ili kutoa matokeo yanayotarajiwa. Kazi yetu ni kupunguza tatizo hili iwezekanavyo.

Sam Altman: Kwa hakika ni vigumu kufanya kazi katika kikomo cha kiwango cha nguzo, lakini pia niligundua kwamba kufanya mambo ambayo hayako tena mstari wa mbele wa teknolojia imekuwa rahisi sana. Kufunza GPT-4.5 kunahitaji mamia ya watu, na karibu kila mtu katika OpenAI anahusika.

Lakini leo, ikiwa utakuacha uchague timu ndogo zaidi kutoka OpenAI na kufunza tena GPT-4 kutoka mwanzo na ujuzi wote tunaoufahamu na kazi zote za mfumo, itachukua watu wangapi?

Alex Paino: Nadhani inaweza kuchukua watu kama 5 hadi 10 kutengeneza modeli ya kiwango cha GPT-4 sasa. Safu ya teknolojia imeboreshwa sana katika mchakato wa kukamilisha GPT-4.5.

Kwa kweli, tumefanya mambo kama hayo katika mchakato wa kufunza GPT-4.5 - tulifunza GPT-4o, ambayo ni modeli ya kiwango cha GPT-4, na kuifunza tena kwa kutumia maudhui mengi sawa kutoka mradi wa utafiti wa GPT-4.5. Watu wachache walitumika kwa mafunzo hayo.

Ufanisi wa Data: Ufunguo wa Kufungua Kizazi Kijacho cha Modeli

Sam Altman: Kutoka kwa mtazamo wako, Dan? Kwa nini ni vigumu kufunza modeli kubwa?

Daniel Selsam: Nadhani ni vigumu kufanya kitu chochote kipya. Nadhani hata kugundua tu kwamba mtu mwingine amefanya kitu hufanya iwe rahisi zaidi, kwa sababu sehemu ngumu zaidi ni kuwa na imani kwamba unaweza kufanya kitu hicho kwanza. Nadhani kujua tu kwamba kitu kinawezekana ni nambari ya kudanganya sana, na kufanya mambo iwe rahisi sana.

Alex Paino: Tunaongeza uendeshaji wa mafunzo ya awali ya GPT hadi mara 10 kuliko ilivyokuwa hapo awali, na tutapata mambo mapya ya kuvutia ambayo huwezi kutabiri kila wakati.

Sam Altman: Ni nini kinachohitajika ili kufikia ukuaji unaofuata wa 10x au 100x katika kiwango cha mafunzo ya awali?

Daniel Selsam: Ufanisi wa data. Usanifu wa Transformer (ambao ni GPT) una ufanisi sana katika kutumia data. Unaweza kunyonya na kubana habari vizuri na kufikia ujumlishaji. Kipengele chake kikubwa zaidi ni kwamba kinaweza kunyonya habari kwa ufanisi na rasilimali za kompyuta.

Hata hivyo, kina cha ufahamu kinachopata kutoka kwa data ni mdogo. Nguvu ya kompyuta inapokua kwa kasi huku data ikikua polepole, data inakuwa kikwazo katika modeli hii sanifu. Hii inahitaji uvumbuzi wa algoriti, kuendeleza mbinu ambazo zinaweza kutumia nguvu zaidi ya kompyuta kujifunza ujuzi zaidi kutoka kwa kiasi sawa cha data.

Sam Altman: Unafikiri tunahitaji nini kingine ili kudumisha upanuzi mbali na hili?

Amin Tootoonchian: Jibu langu linahusu mfumo. Nadhani kiasi kikubwa cha kazi kinachohitajika kwa GPT-4.5 kimsingi ni matokeo yasiyoepukika ya vipimo vya modeli. Hatuwezi kufunza GPT-4.5 na usanifu sawa wa kiufundi kama GPT-4.

Kwa upande wa usimamizi wa hali, kwa sababu rasilimali za kompyuta zinazohitajika zimezidi uwezo wa kubeba wa nguzo moja, tunapaswa kubadili usanifu wa mafunzo ya nguzo nyingi. Ili kufikia lengo hili, lazima tuunganishe mtiririko wa kazi tofauti kwa muda mfupi.

Ingawa hii ilitusaidia kufikia mafanikio ya awamu, ili kufikia mpangilio unaofuata wa ukubwa wa uboreshaji wa utendaji, bado tunahitaji kutatua matatizo kadhaa ya kiufundi yanayojulikana lakini yaliyowekwa kando kwa muda - matatizo haya hayawezi kuepukwa. Ni biashara hii ya kiufundi ambayo huongeza muda wa mzunguko wa maendeleo ya mfumo kamili. Daima tunafanya maelewano ya kimkakati katika mchakato wa kutafuta mpango bora wa utekelezaji.

Inahitaji kuwa wazi kuwa mfumo wenyewe si lengo la mwisho. Thamani yake halisi ya pato ndiyo jambo kuu la kuzingatia. Kwa uboreshaji wa utendaji wa 10x unaofuata, nadhani mafanikio katika uvumilivu wa makosa ni muhimu. Tunahitaji kujenga utaratibu wa uvumilivu wa makosa ambao unashirikiana sana na mzigo wa kazi ili kupunguza sana wasiwasi wa uendeshaji na matengenezo. Uendeshaji na ugumu wa matengenezo ya mfumo mkuu wa sasa ni tofauti kimsingi na mifumo ya awali.

Sam Altman: Unajua ni asilimia ngapi ya kushindwa ilisababishwa na vipengele fulani wakati wa mafunzo ya GPT-4.5?

Amin Tootoonchian: Sina takwimu maalum za kushiriki, lakini kwa ujumla, upelekaji wa awali wa kizazi kipya cha maunzi mara nyingi hukabiliwa na changamoto nyingi za kiufundi ambazo hazijaeleweka kikamilifu. Tulichagua kuendeleza mradi kabla ya tatizo kuelezwa kikamilifu, jambo ambalo lilisababisha kiwango cha juu cha kushindwa kwa awali.

Lakini uzoefu unaonyesha kuwa sababu kuu inapotambuliwa na kutatuliwa, kiwango cha kushindwa kitapungua kwa kiasi kikubwa. Jambo hili kimsingi linaonyesha uelewa wetu wa kina wa miundombinu - watu wengine huita kusafisha miundombinu au kuelewa matatizo ya msingi ya miundombinu.

Hatua za mwanzo za utekelezaji karibu kila wakati huwa chungu sana. Wakati tunaendeleza mradi, pia tunaendelea kugundua na kutatua njia mpya za kushindwa, lakini hatimaye kiwango cha kushindwa kitazidi kupungua na muda wa kawaida wa uendeshaji utaongezeka.

Hili kimsingi ni suala la maelewano ya kipaumbele: Katika hatua za mwanzo za mzunguko wa maisha ya miundombinu, hatari yake ya kushindwa mara nyingi ni vigumu kukadiria kwa usahihi; na ikiwa tunafuata kupita kiasi hali bora ya mwisho (asili ni “City Estate”, muundo bora wa mji-dola), inaweza kusababisha mfumo Utendaji wa awali wa upatikanaji ni duni sana.

Zaidi ya Kompyuta: Uvumbuzi wa Algoriti na Uwezo Usiotumiwa wa Data

Sam Altman: Ingawa modeli ya hitimisho ni sehemu muhimu ya safu yetu ya teknolojia ya siku zijazo, hebu kwa muda tuzingatie mipaka ya maendeleo ya modeli za mafunzo ya awali za kitamaduni. Tukidhani tuna nguvu isiyo na kikomo ya kompyuta ya GPU, bandwidth ya mtandao isiyo na kikomo, na usambazaji wa nguvu usio na kikomo, lakini bado tunazuiwa na vikwazo vya kiufundi vilivyopo - ikiwa ni pamoja na masuala ya kuaminika kwa mfumo, ukosefu wa mbinu za mafunzo zinazostahimili makosa, na mapungufu ya seti data zilizopo.

Kulingana na sheria yetu ya mageuzi ya kufikia ongezeko la kiwango mara 100 kwa kila nambari kuu ya toleo la GPT, kulingana na mipaka ya sasa ya kiufundi, maendeleo ya modeli za mafunzo ya awali yanaweza kufikia kiwango gani? Hasa, kwa modeli za mfululizo wa GPT, kulingana na mfumo wetu wa ujuzi uliopo, ni aina gani ya modeli ambayo inaweza kufunzwa kinadharia? Je, tunaweza kutengeneza GPT-5.5?

Alex Paino: Kutoka kwa mtazamo wa kujifunza kwa mashine na ukuzaji wa algoriti, bado hatujafikia kikomo wazi cha kinadharia. Kwa kweli, tumeanza tu kuchunguza algoriti zenye ufanisi mkubwa wa data na jinsi ya kutumia kikamilifu rasilimali zilizopo za data. Hali hii inavutia sana - hata modeli kama GPT-4 zimeundwa kwa kiasi kikubwa chini ya masharti ya rasilimali ndogo za kompyuta, ambayo imeamua mwelekeo wa utafiti mwingi wa awali.

Lakini hali ni tofauti kabisa sasa. Tangu GPT-4.5, katika vipimo muhimu, data badala ya kompyuta inakuwa kikwazo kikuu. Mabadiliko haya hufanya utafiti unaohusiana usisisimue sana.

Sam Altman: Lakini huu kwa kweli ni maendeleo ya kushangaza, na ulimwengu unaweza usitambue kikamilifu kuwa rasilimali za kompyuta haziko tena kikwazo kikuu kwenye modeli bora zaidi tunayoweza kujenga. Mabadiliko haya yana maana sana, baada ya yote, tumeishi katika mazingira yenye kikomo cha kompyuta kwa muda mrefu sana.

Kufunua Mshangao: Utabirika dhidi ya Akili Isiyotarajiwa

Sam Altman: Ni uzoefu gani wa kuvutia zaidi wa kujifunza kwa mashine ambao tumejifunza wakati wa mafunzo ya GPT-4.5? Sema tu unachotaka kushiriki.

Amin Tootoonchian: Kwa ujumla, mambo ya kuchochea fikira zaidi ni yale yanayoenda kinyume na utabiri wetu - hasa tunapojaribu kuelewa kwa nini utendaji halisi unapotoka kwenye mkondo unaotarajiwa.

Alex Paino: Moja ya uvumbuzi wa kushangaza zaidi kwetu ni kwamba vipengele tofauti vya kujifunza kwa mashine vina ufanisi tofauti sana wa upimaji. Sehemu zingine zinaweza kupanuliwa vizuri sana, wakati zingine haziwezi. Hili ndilo tuliligundua wakati wa mchakato halisi wa mafunzo. Uzoefu huu ulitupa msukumo mwingi.

Daniel Selsam: Nadhani sifa kuu mbili za dhana ya GPT ni: kwanza, upotezaji wa majaribio (kipimo ambacho hupima jinsi modeli inavyofanya vizuri kwenye data ya majaribio isiyoonekana) inaweza kutabiriwa kwa usahihi; pili, utendaji wa modeli unaonyesha uboreshaji unaotabirika na ongezeko la kiwango. Kinachoshangaza zaidi ni kwamba kupungua kwa upotezaji wa majaribio kutabadilishwa kuwa kiwango cha akili kilichoimarishwa kwa pande zote katika njia mbalimbali ngumu kuhesabu lakini za kushangaza na za ajabu.

Sam Altman: Je, una matumaini kabisa kuhusu hili? Je, unakubaliana kikamilifu na mtazamo huu?

Daniel Selsam: Kwa kweli, ninachotaka kusema ni kwamba tulipata jambo la kuvutia hasa katika jaribio la GPT-4.5 - baada ya kujaribu tena, uwezo mwingi wa kisasa ulioonyeshwa na modeli ulizidi matarajio ya kila mtu kabisa.

Tuna hakika kwamba itakuwa werevu zaidi katika njia mbalimbali ambazo ni ngumu kuzieleza mapema, na uboreshaji huu mdogo unaweza kuzingatiwa kutoka kwa kuridhika kwa mtumiaji baada ya upelekaji halisi: hifadhi kali ya akili ya kawaida, uwezo sahihi zaidi wa uelewa wa muktadha, na uelewa mdogo zaidi wa semantic - huu ndio uchawi unaoletwa na upotezaji huo wa ziada wa majaribio. Kwa maoni yangu, Sheria ya Upimaji imethibitishwa kikamilifu katika kipimo hiki.

Nguvu ya Ushirikiano: Mashine ya Kujifunza na Timu za Mifumo Zikifanya Kazi kwa Upatano

Sam Altman: Ni wakati gani mzuri zaidi wakati wa mchakato mzima wa mafunzo? Kumbukumbu yako unayoipenda ni ipi? Ni wazi kuna maumivu mengi, lakini natumai kuwa maumivu hayo yamepunguzwa.

Alex Paino: Nina wakati kama huo. Tulifanya kazi nyingi za kujifunza kwa mashine wakati wa mafunzo, na nadhani baadhi ya mabadiliko tuliyoyafanya wakati wa mchakato yalikuwa na athari nzuri, labda hata bora kuliko ilivyotarajiwa, ambayo ilikuwa wakati wa kusisimua sana kwetu.

Amin Tootoonchian: Kwangu, wakati huo huo na mafunzo, pia tunajenga miundombinu. Tunaamini kabisa kwamba tunaweza kuvuka mwamba huu wa utendaji, na tuna mpango, na kila mtu anautekeleza, lakini inachukua muda mrefu. Hii ni kazi ngumu na hakika ni ngumu kuliko nilivyofikiria. Utabiri wangu ulikuwa mbaya, na nilidharau muda utakaohitajika kutatua matatizo haya.

Wakati ambapo timu hatimaye ilishinda matatizo hayo muhimu na utendaji uliboreshwa kwa kiasi kikubwa bado ni mpya katika kumbukumbu yangu. Unaweza kuhisi wazi mabadiliko ya nishati katika timu nzima - kila mtu ghafla amejaa nishati na anakimbilia kuelekea lengo la mwisho na motisha mpya.

Jambo la kushangaza zaidi ni kwamba muda uliokadiriwa wa kukamilika ulioonyeshwa kwenye kifuatiliaji chetu cha hali uliendelea kufupishwa kutoka miaka miwili ya awali, na hatimaye ukafungwa kwenye ncha ya wakati iliyo wazi. Maendeleo haya yanayoonekana hayawezi kupimika kwa ongezeko la ari ya timu. Nadhani hii ndio uzuri wake.

Ningependa kusisitiza kwamba kazi ya kujifunza kwa mashine haijawahi kusimama. Hata baada ya mafunzo kuanza, mchakato huu wa muundo mwenza wa kujifunza kwa mashine bado unaendelea. Timu ya kujifunza kwa mashine haikufuatilia tu matatizo ambayo yalikuwa yamewekwa alama kama “uchakataji unaofuata”, lakini pia iliendelea kutoa maboresho ambayo yameboresha kweli muda wa mafunzo.

Hii inaonyesha kikamilifu ari ya timu yetu - hakuna mpaka wa kazi wa “kufagia theluji mbele ya mlango wako mwenyewe” hapa, lakini ushirikiano usio na mshono kweli. Ushirikiano huu ndio faida yetu kubwa zaidi.

Upangaji wa Makini na Utafutaji Usiochoka wa Hitilafu katika Mafunzo ya Awali ya GPT-4.5

Daniel Selsam: Ulimwengu wa nje umejadili sana kuhusu changamoto na usahihi wa kutabiri wa mafunzo haya yenyewe. Lakini kwa kweli, haya yote yamejengwa juu ya upangaji wa makini sana - unaweza kuzungumza zaidi kuhusu hili kwa undani?

Alex Paino: Huu hakika ni mpango wa makini zaidi ambao tumefanya hadi sasa. Kama nilivyosema, tulianza kujiandaa kwa mradi huu mwaka mmoja kabla ya uzinduzi rasmi wa mafunzo. Katika kipindi hiki, tulifanya uendeshaji mbalimbali wa vipimo vikubwa vya udhibiti wa hatari.

Tunatoa kipaumbele maalum kwa kuanzisha maboresho yote hatua kwa hatua: kuanzia usanidi wa msingi wa ujasiri wa juu - ambao unaweza kueleweka kama usanifu uliokomaa sawa na GPT-4, tumemudu kikamilifu usanidi huu katika ngazi ya kujifunza kwa mashine - na kisha kuweka vipengele vipya kama vitalu vya ujenzi.

Muhimu ni kuthibitisha kwa ukali upimaji wa kila uboreshaji katika viwango tofauti: sio tu kuona maboresho ya utendaji, lakini pia kuhakikisha kwamba maboresho haya yanaweza kuendelea kuwa yenye ufanisi kadiri ukubwa wa modeli unavyoongezeka. Maboresho mengi hufanya vizuri katika majaribio madogo, lakini yatashindwa katika matumizi makubwa.

Kwa hivyo, tumedumisha kiwango cha juu cha umakini katika mchakato wote na tunaendelea kurudia na kuboresha mbinu yetu ya sheria ya upimaji. Kupitia mazoezi haya ya udhibiti wa hatari, tumekusanya uzoefu mwingi muhimu, ambao utaendelea kuongoza ukuzaji wa modeli za mfululizo wa GPT za siku zijazo.

Amin Tootoonchian: Nakumbuka wakati wa kuvutia sana ambao nimeukosa sana. Unajua, karibu kuepukika tunakutana na mende mbalimbali kila tunapoanzisha kazi ya mafunzo, ambayo ni jambo la kawaida. Lakini muhimu ni kuhakikisha kwamba maendeleo hayazuiwi, na lazima tuhakikishe kila wakati kama maendeleo ya sasa yako kwenye mstari sahihi na kama mende hizi zitakuwa na athari mbaya kwa afya ya mafunzo.

Ingawa mwanzoni tulikuwa na uhakika sana kwamba kulikuwa na kasoro kubwa, kupitia mfumo mzima wa ufuatiliaji tuliojenga, tuliweza kutofautisha kwa usahihi sababu kuu ya tatizo: Je, ni kushindwa kwa maunzi? Ni aina gani ya kushindwa kwa maunzi? Je, ni uharibifu wa data? Au ni mende katika modeli ya kujifunza kwa mashine yenyewe? Au ni hali ya mbio katika msimbo?

Wakati huo, tulikuwa na maeneo mengi ya majadiliano ya tatizo wazi kwa wakati mmoja, yenye dalili mbalimbali. Baada ya mfululizo wa marekebisho ya mende, tuliingia katika mkwamo: matatizo mengi ambayo hayajatatuliwa yalikuwa yamewekwa mbele yetu, na kila mtu alikuwa akivunja akili zao - je, hizi zilisababishwa na mende tofauti? Au ni mende ambayo inasababisha shida?

Baadaye, tulifanya kura na kuwaomba washiriki wa timu kupiga kura kwa sababu inayowezekana zaidi. Kama matokeo, chaguo lisilo la matumaini liligonga ukweli: ilionekana kwamba kulikuwa na tatizo na kazi ya torch.sum huko juu ya PyTorch, operesheni rahisi ya kujumlisha.

Mende hii inavutia sana. Unajua kwamba tunatumia hasa kernel ya Triton, na tu katika baadhi ya matukio madogo yasiyo na maana tutaanguka nyuma kwa operesheni za tochi. Mende ya kazi ya torch.sum iliyoanzishwa na njia yetu maalum ya msimbo mara kwa mara itasababisha ufikiaji haramu wa kumbukumbu kutokana na sifa za usambazaji wa data - ilifanya makosa wakati wa kuhesabu kukabiliana na kumbukumbu.

Jambo la kushangaza zaidi ni kwamba mhandisi alipogundua tatizo na kuwasilisha marekebisho, makosa yote yenye dalili tofauti yalitoweka. Kila mtu alibadilisha kwa msisimko kituo cha Slack kutoka “nadharia ya mende nyingi” hadi “nadharia ya mende moja”, na eneo hilo lilikuwa la furaha sana.

Mende hii imejificha kwa muda gani? Imekuwepo tangu hatua za mwanzo za mafunzo na haikupatikana hadi upau wa maendeleo ulipopita takriban 40%. Mchakato wa ugunduzi pia ulijaa drama: Wakati huo, kernel tata iliita mfululizo mfululizo, na simu ya pili ilianzisha ufikiaji haramu wa kumbukumbu.

Ingawa mzunguko huu wa ajali ni mdogo sana (hutokea mara moja tu kila mamia au hata maelfu ya hatua za mafunzo), ni rahisi kupuuzwa kama kushindwa kwa mara kwa mara, lakini kanuni ya timu yetu ni: kamwe usitoe ubaguzi wowote. Sehemu bora ya hadithi hii inategemea usisitizaji huu wa kutokata tamaa kirahisi.

Utafutaji wa Mifumo Bora: Upeo wa Mbali

Sam Altman: Baada ya mafunzo ya awali ya GPT-4.5 kuanza, unafanya nini kingine?

Alex Paino: Sote tunahitaji kuchunguza mkondo wa hasara mara kwa mara. Zaidi ya hayo, tunahitaji kuendelea kuboresha mfumo na kuboresha muundo mwenza ambao haukukamilika kabla ya mafunzo kuanza. Tunafuatilia kwa karibu viashiria mbalimbali vya takwimu wakati wa mchakato wa mafunzo ili kuhakikisha kuwa hakuna mwenendo usiotarajiwa usio wa kawaida. Wakati huo huo, tunachunguza mipango inayowezekana ya uboreshaji kutoka kwa mtazamo wa kujifunza kwa mashine. Ingawa kazi ya kiwango cha data itapunguzwa kwa muda baada ya mafunzo ya awali kuanza, bado kuna idadi kubwa ya kazi za kushughulikia.

Amin Tootoonchian: Nadhani kujifunza kwa mashine kunategemea sana usahihi wa hukumu. Baada ya mafunzo ya awali kuanza, tukikabiliwa na idadi kubwa ya ishara za kelele, sisi ni kama wasemaji bahati wanaotafsiri majani ya chai, na tunahitaji kuhukumu kama mfumo una afya. Hii ndiyo jukumu letu.

Sam Altman: Katika ngazi ya mfumo, ni nini kinatuzuia kufanya mafunzo ya modeli? Je, ni chips, vichakataji, kumbukumbu, mtandao, au nguvu?

Amin Tootoonchian: Uzuri wa mfumo ni kwamba wakati wa kufanya muundo mwenza, mzigo wa kazi unaweza kukabiliana na miundombinu unayojenga. Hakuna msemo wa jumla hapa kwamba mtandao ndio kikwazo, au bandwidth ya kumbukumbu ndio kikwazo, na kadhalika. Hata kwa modeli za uainishaji sawa, tunaweza kuchagua kuhamisha mahitaji ya rasilimali, na tunaweza kuchagua kuunda mfumo uli