Nvidia na Google: Ubunifu wa AI na Gemini/Blackwell

Models za Gemini On-Premise na Nvidia Blackwell

Google Gemini sasa inaweza kuendeshwa on-premises kwa kutumia Nvidia Blackwell kupitia Google Distributed Cloud. Uendeshaji huu unawezesha mashirika kutumia model za Gemini kwa usalama ndani ya vituo vyao vya data, na kuwapa uwezo wa AI wa kipekee.

Kuelewa Models za Gemini

Familia ya models za Gemini inawakilisha models za AI za hali ya juu zaidi za Google hadi sasa. Models hizi zimeundwa kwa ajili ya hoja tata, uandishi wa msimbo, na uelewa wa multimodal, na kuzifanya zana nyingi kwa matumizi mbalimbali.

Google Distributed Cloud

Google Distributed Cloud hutoa suluhisho lililosimamiwa kikamilifu kwa mazingira ya on-premises, yaliyofungwa hewa, na kompyuta ya edge. Hii inaruhusu wateja kudumisha udhibiti juu ya data zao huku wakitumia nguvu za teknolojia za AI za Google.

Faida za Uendeshaji wa On-Premise

Udhibiti Ulioimarishwa: Mashirika hudumisha udhibiti kamili juu ya data zao, kuhakikisha kufuata kanuni za faragha na sera za ndani.
Usalama: Kuendesha models za Gemini ndani ya vituo vyao vya data hutoa usalama mkubwa na ulinzi wa habari nyeti.
Ugeuzaji kukufaa: Uendeshaji wa on-premise unaruhusu ugeuzaji kukufaa zaidi wa suluhisho za AI ili kukidhi mahitaji maalum ya biashara.

Ushirikiano huu unahakikisha kwamba wateja wanaweza kubuni na Gemini huku wakizingatia sera kali za utawala wa data.

Kuboresha Gemini na Gemma kwa Nvidia GPUs

Nvidia na Google wameshirikiana ili kuboresha utendaji wa mizigo ya kazi ya inference inayotokana na Gemini kwenye Nvidia GPUs, haswa ndani ya jukwaa la Vertex AI la Google Cloud. Uboreshaji huu unaruhusu Google kushughulikia kwa ufanisi idadi kubwa ya maswali ya watumiaji kwa models za Gemini kwenye miundombinu iliyoharakishwa ya Nvidia katika Vertex AI na Google Distributed Cloud.

Jukwaa la Vertex AI

Vertex AI ni jukwaa pana la Google Cloud kwa ajili ya kujifunza kwa mashine, linalotoa zana na huduma za kufunza, kuendesha na kudhibiti models za AI. Uboreshaji wa Gemini kwa Nvidia GPUs ndani ya Vertex AI huongeza uwezo wa jukwaa na kuifanya iwe rahisi kwa wasanidi programu kujenga na kuendesha suluhisho za AI.

Familia ya Models za Gemma

Familia ya Gemma ya models nyepesi, wazi imeboreshwa kwa inference kwa kutumia maktaba ya Nvidia TensorRT-LLM. Models hizi zinatarajiwa kutolewa kama microservice za Nvidia NIM ambazo ni rahisi kuendesha, na kuzifanya zipatikane kwa anuwai kubwa ya wasanidi programu.

Nvidia TensorRT-LLM

Nvidia TensorRT-LLM ni maktaba ya kuboresha na kuendesha models kubwa za lugha (LLMs) kwenye Nvidia GPUs. Kwa kuboresha models za Gemma na TensorRT-LLM, Nvidia na Google zinafanya iwe rahisi kwa wasanidi programu kutumia nguvu za LLMs katika matumizi yao.

Upatikanaji kwa Wasanidi Programu

Uboreshaji huu huongeza utendaji na kufanya AI ya hali ya juu ipatikane zaidi kwa wasanidi programu, na kuwawezesha kuendesha mizigo yao ya kazi kwenye usanifu mbalimbali katika vituo vya data na Kompyuta za mkononi za Nvidia RTX zinazoendeshwa na RTX na workstations za ndani.

Uzinduzi wa Jumuiya ya Wasanidi Programu ya Google Cloud na Nvidia

Google Cloud na Nvidia wamezindua jumuiya mpya ya pamoja ya wasanidi programu ili kuharakisha ujuzi mtambuka na uvumbuzi. Jumuiya hii inawaleta pamoja wataalamu na rika ili kushirikiana na kubadilishana maarifa, na kuifanya iwe rahisi kwa wasanidi programu kujenga, kupanua na kuendesha kizazi kijacho cha matumizi ya AI.

Faida za Jumuiya ya Wasanidi Programu

Kubadilishana Maarifa: Jumuiya hutoa jukwaa kwa wasanidi programu kushiriki utaalam wao na kujifunza kutoka kwa wengine.
Ushirikiano: Wasanidi programu wanaweza kushirikiana katika miradi na kushiriki msimbo, kuharakisha mchakato wa maendeleo.
Usaidizi: Jumuiya inatoa usaidizi na mwongozo kwa wasanidi programu ambao wanajenga matumizi ya AI.

Mpango huu unachanganya ubora wa uhandisi, uongozi wa chanzo huria, na mfumo mzuri wa ikolojia wa wasanidi programu ili kuwawezesha wasanidi programu na kuchochea uvumbuzi katika nafasi ya AI.

Mifumo ya Chanzo Huria

Kampuni zinaunga mkono jumuiya ya wasanidi programu kwa kuboresha mifumo ya chanzo huria, kama vile JAX, kwa upanuzi usio na mshono kwenye Blackwell GPUs. Hii inawezesha mizigo ya kazi ya AI kuendeshwa kwa ufanisi katika makumi ya maelfu ya nodi, na kuifanya iwe rahisi kufunza na kuendesha models kubwa za AI.

Uboreshaji wa JAX

JAX ni maktaba ya hali ya juu ya hesabu ya nambari iliyoandaliwa na Google. Kwa kuboresha JAX kwa Blackwell GPUs, Nvidia na Google zinafanya iwe rahisi kwa wasanidi programu kutumia nguvu za JAX katika matumizi yao ya AI.

VMs za Siri na Nodi za GKE zilizo na Nvidia H100 GPUs

Virtual Machines (VMs) za Siri za Google Cloud kwenye mfululizo wa mashine ya A3 iliyoboreshwa kwa accelerator na Nvidia H100 GPUs sasa zinapatikana katika hakikisho. Vile vile, nodi zake za Siri za Google Kubernetes Engine (GKE) pia zinatolewa. Suluhisho hizi za kompyuta za siri huhakikisha usiri na uadilifu wa AI, kujifunza kwa mashine, na mizigo ya kazi ya uigaji ya kisayansi kwa kutumia GPUs zilizolindwa wakati data inatumiwa.

Virtual Machines za Siri

VMs za Siri husimba data inayotumika, kutoa safu ya ziada ya usalama kwa mizigo ya kazi nyeti. Hii inahakikisha kwamba data inabaki kulindwa hata wakati wa usindikaji, kupunguza hatari ya ufikiaji usioidhinishwa.

Google Kubernetes Engine

Google Kubernetes Engine (GKE) ni huduma ya Kubernetes iliyosimamiwa ambayo hurahisisha uendeshaji na usimamizi wa matumizi yaliyomo. Nodi za Siri za GKE hutoa kiwango sawa cha usalama kama VMs za Siri, kuhakikisha kwamba mizigo ya kazi iliyomo inalindwa.

Faida za Usalama

Ulinzi wa Data: VMs za Siri na nodi za GKE hulinda data inayotumika, kupunguza hatari ya ukiukaji wa data.
Uzingatiaji: Suluhisho hizi husaidia mashirika kuzingatia kanuni za faragha na viwango vya tasnia.
Imani: Kompyuta ya siri hujenga imani kwa kuhakikisha kwamba data inabaki ya siri na kulindwa katika mzunguko mzima wa maisha.

Hii inawawezesha wamiliki wa data na model kudumisha udhibiti wa moja kwa moja juu ya safari ya data zao, huku Nvidia Confidential Computing ikileta usalama wa hali ya juu unaoungwa mkono na maunzi kwa kompyuta iliyoharakishwa. Hii hutoa ujasiri zaidi wakati wa kuunda na kupitisha suluhisho na huduma za AI za ubunifu.

VMs Mpya za A4 za Google Zinapatikana Kwa Ujumla kwenye Nvidia Blackwell GPUs

Mnamo Februari, Google Cloud ilizindua mashine zake mpya za virtual za A4 ambazo zinaangazia GPU nane za Blackwell zilizounganishwa na Nvidia NVLink. Hii inatoa ongezeko kubwa la utendaji juu ya kizazi kilichopita, na kuifanya iwe rahisi kufunza na kuendesha models kubwa za AI. VMs mpya za A4 za Google Cloud kwenye Nvidia HGX B200 sasa zinapatikana kwa ujumla, kuwapa wateja ufikiaji wa vifaa vya hivi karibuni vya AI.

Nvidia NVLink ni teknolojia ya kuunganisha yenye kasi ya juu ambayo inawezesha mawasiliano ya haraka kati ya GPUs. Kwa kuunganisha GPU nane za Blackwell na NVLink, VMs za A4 za Google Cloud hutoa utendaji usio na kifani kwa mizigo ya kazi ya AI.

Ongezeko la Utendaji

VMs za A4 hutoa ongezeko kubwa la utendaji juu ya kizazi kilichopita, na kuzifanya zifaate kwa ufundishaji na uendeshaji wa models kubwa za AI. Hii inaruhusu wasanidi programu kurudia haraka na kupata matokeo bora na matumizi yao ya AI.

Upatikanaji kupitia Vertex AI na GKE

VMs mpya za Google na usanifu wa AI Hypercomputer zinapatikana kupitia huduma kama vile Vertex AI na GKE, kuwawezesha wateja kuchagua njia ya kuunda na kuendesha matumizi ya AI kwa kiwango kikubwa. Hii inafanya iwe rahisi kwa mashirika kutumia nguvu za AI katika matumizi yao.

Kuchunguza Usanifu wa Blackwell GPU kwa Undani zaidi

Usanifu wa Nvidia wa Blackwell GPU unaashiria hatua kubwa katika nguvu ya hesabu, ukibadilisha kimsingi mandhari ya AI na kompyuta ya utendaji wa hali ya juu. Ili kuthamini kikamilifu uwezo wa VMs za A4 na athari zake kwenye uvumbuzi wa AI, ni muhimu kuelewa teknolojia ya msingi ya Blackwell GPUs.

Uwezo wa Kubadilisha wa Hesabu

Usanifu wa Blackwell umeundwa kushughulikia mizigo ya kazi ya AI inayohitaji sana, ikijumuisha kufunza models kubwa za lugha (LLMs) na kuendesha uigaji tata. Vipengele vyake muhimu ni pamoja na:

  • Injini ya Transformer ya Kizazi cha Pili: Injini hii imeboreshwa mahsusi kwa models za transformer, ambazo ndio msingi wa matumizi mengi ya kisasa ya AI. Inaharakisha sana mafunzo na inference ya models hizi.
  • NVLink ya Kizazi cha Tano: Kama ilivyotajwa hapo awali, NVLink inawezesha mawasiliano ya kasi ya juu kati ya GPUs, na kuziruhusu kufanya kazi pamoja bila mshono kwenye kazi ngumu. Hii ni muhimu sana kwa kufundisha models kubwa sana ambazo zinahitaji nguvu ya pamoja ya usindikaji ya GPUs nyingi.
  • Usaidizi wa Kompyuta ya Siri: Blackwell GPUs zinajumuisha vipengele vya usalama vinavyotegemea maunzi ambavyo huwezesha kompyuta ya siri, kuhakikisha faragha na uadilifu wa data nyeti.
  • Teknolojia ya Kumbukumbu ya Juu: Blackwell GPUs hutumia teknolojia ya hivi karibuni ya kumbukumbu, kutoa bandwidth ya juu na uwezo wa kushughulikia seti kubwa za data zinazotumiwa katika matumizi ya AI.

Athari kwenye Mizigo ya Kazi ya AI

Mchanganyiko wa vipengele hivi husababisha uboreshaji mkubwa wa utendaji kwa anuwai pana ya mizigo ya kazi ya AI. Blackwell GPUs huwawezesha wasanidi programu:

  • Kufundisha Models Kubwa: Nguvu ya hesabu iliyoongezeka na uwezo wa kumbukumbu huruhusu ufundishaji wa models za AI kubwa na ngumu zaidi, na kusababisha usahihi na utendaji ulioboreshwa.
  • Kupunguza Muda wa Mafunzo: Usanifu ulioboreshwa na viunganisho vya kasi ya juu hupunguza sana wakati unaohitajika kufundisha models za AI, kuharakisha mchakato wa maendeleo.
  • Kuendesha kwa Ufanisi Zaidi: Blackwell GPUs zimeundwa kwa ufanisi wa nishati, kuruhusu uendeshaji wa models za AI kwa kiwango kikubwa bila matumizi ya nguvu nyingi.
  • Kufungua Matumizi Mapya ya AI: Utendaji usio na kifani wa Blackwell GPUs hufungua uwezekano wa matumizi mapya ya AI ambayo hapo awali hayakuwezekana kwa sababu ya mapungufu ya hesabu.

Maana za Kimkakati kwa Google Cloud na Wateja Wake

Ushirikiano ulioimarishwa kati ya Google Cloud na Nvidia, ukiangazia Gemini, Blackwell na miundombinu inayounga mkono, unatoa maana muhimu za kimkakati kwa kampuni zote mbili na wateja wao.

Faida ya Ushindani kwa Google Cloud

  • Kuvutia Biashara Zinazolenga AI: Kwa kutoa miundombinu ya kisasa ya AI inayotumia Nvidia Blackwell GPUs, Google Cloud inaweza kuvutia biashara ambazo zimewekeza sana katika utafiti na maendeleo ya AI.
  • Kutofautisha kutoka kwa Washindani: Ujumuishaji wa Gemini na utendaji ulioboreshwa wa VMs za Google Cloud huiweka kando na watoa huduma wengine wa wingu.
  • Kuimarisha Mfumo wake wa AI: Ushirikiano huu unachangia mfumo thabiti wa AI kwa kuwawezesha wasanidi programu, kuchochea uvumbuzi, na kutoa ufikiaji wa zana na rasilimali za hali ya juu.

Faida kwa Wateja

  • Uvumbuzi wa AI Ulioharakishwa: Wateja wanaweza kutumia nguvu za Gemini na Blackwell GPUs kuharakisha mipango yao ya AI, kuwawezesha kutengeneza na kuendesha suluhisho za ubunifu haraka.
  • Utendaji na Upanuzi Ulioboreshwa: Miundombinu iliyoboreshwa inahakikisha kwamba mizigo ya kazi ya AI inaendeshwa kwa ufanisi na inaweza kupanuka ili kukidhi mahitaji yanayoongezeka.
  • Usalama na Uzingatiaji Ulioimarishwa: VMs za Siri na nodi za GKE hutoa usalama na vipengele vya uzingatiaji muhimu ili kulinda data nyeti.
  • Gharama Zilizopunguzwa: Kwa kuboresha mizigo ya kazi ya AI kwa Nvidia GPUs, wateja wanaweza kupunguza gharama zao za hesabu.

Mustakabali wa Maendeleo ya AI

Ushirikiano huu unawakilisha hatua muhimu mbele katika mageuzi ya maendeleo ya AI. Kwa kuchanganya utaalam wa Google katika models za AI na uongozi wa Nvidia katika teknolojia ya GPU, kampuni hizo mbili zinaendesha uvumbuzi na kufanya zana za AI za hali ya juu zipatikane zaidi kwa wasanidi programu. Hii bila shaka itasababisha uundaji wa matumizi mapya na ya kusisimua ya AI ambayo yatabadilisha tasnia na kuboresha maisha.

Kuelewa Jukumu la Microservice za Nvidia NIM

Sehemu muhimu ya mpango wa pamoja ni utangulizi wa microservice za Nvidia NIM. Ili kuelewa umuhimu wao, tunapaswa kuzichunguza kwa karibu zaidi.

Ufafanuzi na Utendaji

Nvidia NIM (Nvidia Inference Microservice) ni suluhisho la programu iliyoundwa ili kurahisisha uendeshaji wa models za AI. Inajumuisha models zilizofunzwa tayari, injini za inference, na utegemezi muhimu katika microservice iliyoandaliwa. Hiyo inamaanisha NIM inatoa njia sanifu ya kuendesha models za AI, bila kujali mfumo au maunzi.

Faida muhimu za Nvidia NIM:

  • Uendeshaji Uliorahisishwa: NIM inapunguza sana utata wa kuendesha models za AI, kuruhusu wasanidi programu kuzingatia kujenga matumizi badala ya kusimamia miundombinu.
  • Uharakishaji wa Maunzi: NIM imeboreshwa kwa Nvidia GPUs, kwa kutumia uwezo wao wa uharakishaji kutoa inference ya utendaji wa hali ya juu.
  • Upanuzi: NIM imeundwa kupanuka kwa usawa, kuruhusu wasanidi programu kushughulikia mahitaji yanayoongezeka bila kuathiri utendaji.
  • Uadilifu: NIM inaruhusu uadilifu na usasishaji wa haraka wa models tofauti bila usumbufu kwa models zingine.

Jinsi NIM Inavyowanufaisha Wasanidi Programu na Mashirika:

  • Muda wa Haraka wa Kuleta Bidhaa Sokoni: Kwa kurahisisha uendeshaji, NIM inasaidia wasanidi programu kuleta matumizi yanayoendeshwa na AI sokoni haraka.
  • Gharama Zilizopunguzwa: NIM inapunguza miundombinu na gharama za uendeshaji kwa kuboresha matumizi ya rasilimali.
  • Utendaji Ulioboreshwa: Uharakishaji wa maunzi kupitia NIM hutoa upeo wa juu na latency ya chini, kuimarisha uzoefu wa mtumiaji.
  • Unyumbufu Ulioongezeka: Uendeshaji sanifu na NIM hutoa unyumbufu zaidi na kuruhusu wasanidi programu kubadili kwa urahisi kati ya models tofauti za AI.

Hitimisho

Ushirikiano ulioongezwa kati ya Google Cloud na Nvidia unaonyesha maendeleo makubwa katika maendeleo ya AI. Kuunganisha models za Gemini za Google na Blackwell GPUs za Nvidia kunaweka vigezo vipya vya uboreshaji wa mzigo wa kazi wa AI. Ushirikiano huu sio tu unaharakisha uvumbuzi lakini pia unaimarisha usalama, upanuzi, na upatikanaji kwa wasanidi programu na mashirika yanayohusika katika AI. Kwa kuongezea, uzinduzi wa VMs za A4 za Google na microservice za NIM za Nvidia huashiria wakati muhimu katika kuwawezesha matumizi ya AI, kukuza siku zijazo ambapo suluhisho za AI zinaendeshwa kwa ufanisi na kwa ufanisi kwa kiwango kikubwa.