Стремежите на Google все повече наподобяват тези на Apple, особено в областта на големите езикови модели с генеративен AI (GenAI). Наскоро проведената конференция Google Cloud Next демонстрира амбициозната визия на Google. Тя включва иновации, вариращи от TPU v7 Ironwood чипа, проектиран да съперничи на Nvidia GB200, до протокола Agent2Agent (A2A), насочен към надминаване на MCP на Anthropic, и средата за изпълнение Pathways, предназначена за внедряване на GenAI.
Google също така активно разработва инструменти като ADK и Agentspace, за да даде възможност на разработчиците да създават AI агенти. Централно място в тези усилия заема Vertex AI, облачната платформа на Google за разработка и внедряване на AI. Vertex AI вече предлага разнообразен набор от услуги за генериране на съдържание, включващи Veo 2 за видео, Imagen 3 за изображения, Chirp 3 за аудио и Lyria за музика. Ясно е, че Google Cloud се позиционира да предостави на разработчиците и потребителите цялостен пакет от приложения за разработка на GenAI големи езикови модели.
Въпреки че реалната използваемост на тези услуги и преживявания предстои да бъде видяна, Google създаде цялостна, мултимодална AI хардуерна и софтуерна екосистема, която е разработена от компанията, със затворен код и е лесно достъпна.
Този всеобхватен подход очертава Google като Apple на AI ерата.
Ironwood TPU: Мощен конкурент
Представянето на чипа TPU от седмо поколение, Ironwood, е особено забележително.
- Всеки TPU е оборудван с 192GB HBM памет, с честотна лента, варираща от 7.2 до 7.4TB/s, вероятно използваща HBM3E технология. Това се сравнява благоприятно с чипа B200 на Nvidia, който предлага честотна лента от 8TB/s.
- Всеки TPU v7 с течно охлаждане може да постигне 4.6 Petaflops на плътна FP8 изчислителна мощност. Това е малко по-малко от 20-те Petaflops на B200.
- Мрежата на центъра за данни Jupiter на Google обаче позволява мащабиране за поддръжка на до 400 000 чипа или 43 TPU v7x клъстера. Експертният опит на Google в сървърните технологии му позволява да не акцентира върху показателите за производителност на един чип.
- Най-важното е, че Google въведе Pathways, специализирана среда за изпълнение на AI, която повишава гъвкавостта на внедряването на GenAI модели, допълнително затвърждавайки предимствата си в областта на клъстерите за услуги.
- Ironwood се предлага в две конфигурации на клъстери: 256 чипа или 9216 чипа, пригодени за конкретни работни натоварвания. Един клъстер може да постигне изчислителна мощност от 42.5 Exaflops. Google твърди, че тази производителност надминава най-големия суперкомпютър в света, El Capitan, с коефициент 24. Тази цифра обаче е измерена с FP8 прецизност, а AMD El Capitan все още не е предоставила данни за FP8 прецизност. Google призна това, което затруднява прякото сравнение.
Възприемане на GenAI екосистема със затворен код
Google преследва цялостна екосистема със затворен код в областта на GenAI. Въпреки че Gemma с отворен код има своите предимства, Google насочва ресурси към своите решения със затворен код.
С нарастването на интереса към AI агентите, Google обяви протокола A2A на конференцията, привличайки 50 основни доставчици, за да се конкурират с MCP на Anthropic.
Докато OpenAI направи своя Agents SDK с отворен код, интегрирайки възможностите на големите си езикови модели, Google разширява Vertex AI с ADK, Agentspace, AutoML, AIPlatform и Kubeflow, инжектирайки различни възможности на моделите.
Въпреки това, когато сравним генерирането на изображения на GPT-4o с еквивалентните функции на Gemini 2.0 Flash, предложенията на Google, макар и амбициозни, може да не са толкова изпипани. Интегрирането на множество модели, услуги и инструменти, макар и полезно за конкуренцията, може да изглежда преждевременно. Пазарът се нуждае от зрели, добре интегрирани мултимодални големи модели и услуги в модела.
Възпроизвеждане на модела Gmail, Chrome и Google в AI
Успехът на Google с Gmail, Chrome и нейният подход ‘тристепенна ракета’ й позволи да доминира на световния технологичен пазар. Тази стратегия се прилага бързо в областта на GenAI. За разлика от предишната си подкрепа за отворен код, Google все повече възприема разработката със затворен код.
Google ефективно трансформира отворения код във форма на затворен код, като консолидира ресурсите си, за да установи доминираща екосистема в определена област, след което събира такси. Този подход е изправен пред нарастваща критика от разработчиците.
Машиннообучаващите рамки с отворен код на Google, TensorFlow и Jax, постигнаха световен успех. Новата среда за изпълнение Pathways обаче е със затворен код, дори изолира инструментите за разработка CUDA на Nvidia.
Google срещу Nvidia: Битката за AI доминиране
Тъй като Nvidia защитава Physical AI и представя хуманоидния робот с общ модел Isaac GR00T N1 с отворен код, Google DeepMind навлиза на пазара с Gemini Robotics и Gemini Robotics-ER, базирани на Gemini 2.0.
В момента на Google липсва присъствие само на пазара на настолни AI компютри. Как ще се конкурират DGX Spark на Nvidia (преди Project DIGITS) и DGX Station, заедно с Mac Studio на Apple, с облачните услуги на Google? Този въпрос се превърна във фокусна точка в индустрията след конференцията.
Зависимостта на Apple от Google Cloud и чипа M3 Ultra
Съобщава се, че Apple използва TPU клъстери на Google Cloud, за да обучи своите големи модели, като дори изоставя решенията за обучение с чипове Nvidia поради съображения за разходи! Докато е изправена пред софтуерни слабости, Apple се фокусира върху своите чипове от серия M. Най-новият Mac Studio, оборудван с чипа M3 Ultra, вече разполага с до 512 GB унифицирана памет. Потенциалното ранно приемане на Apple на технологията Pathways на Google Cloud може да я е приравнило с Google.
Антитръстовият фактор
В основата на проблема стоят антитръстовите опасения. В момента бизнес моделът на Apple е уникално позициониран да се справи с глобални антитръстови дела, за разлика от Microsoft и Google, които са изправени пред потенциални разпадания. Размерът на Google я излага на риск от принудително отделяне на основните й операционни системи Android и бизнеса с браузъра Chrome.
Google наскоро прекрати поддръжката на проекта Android Open Source Project (AOSP), което прави преминаването към модела на Apple неизбежно в AI ерата. С появата на AI пробиви, стратегическата промяна на Google става все по-очевидна.
Разширяване на TPU v7 Ironwood на Google
По-задълбоченото вникване в спецификациите на TPU v7 Ironwood разкрива щателно проектиран хардуерен компонент. 192 GB High Bandwidth Memory (HBM) е критичен компонент, позволяващ бърз достъп до данни, което е от съществено значение за обучението и изпълнението на сложни AI модели. Прогнозираното използване на HBM3E технология подчертава ангажимента на Google да използва най-съвременните постижения в технологията на паметта. Честотната лента от 7.2-7.4TB/s не е просто впечатляващо число; тя се превръща директно в по-бързи времена за обработка и способност за работа с по-големи и по-сложни набори от данни.
Сравнението с B200 на Nvidia е неизбежно, предвид доминацията на Nvidia на пазара на графични процесори. Въпреки че B200 предлага малко по-висока честотна лента от 8TB/s, цялостната системна архитектура и интеграцията в екосистемата на Google са мястото, където Ironwood се стреми да се разграничи.
4.6 Petaflops на плътна FP8 изчислителна мощност е мярка за способността на чипа да извършва операции с плаваща запетая, които са основни за AI изчисленията. Разликата в сравнение с 20-те Petaflops на B200 подчертава различните дизайнерски философии. Google набляга на мащабируемостта и интеграцията на своите TPU в инфраструктурата на своя център за данни, докато Nvidia се фокусира върху суровата изчислителна мощност на ниво чип.
Значението на мрежата на центъра за данни Jupiter на Google
Мрежата на центъра за данни Jupiter на Google е значителен актив, позволяващ безпроблемното свързване на огромен брой TPU чипове. Способността да се поддържат до 400 000 чипове или 43 TPU v7x клъстера подчертава мащаба, в който Google оперира. Тази мащабируемост е ключов отличител, тъй като позволява на Google да разпределя работни натоварвания в огромна инфраструктура, оптимизирайки производителността и ефективността.
Експертният опит на Google в сървърните технологии е решаващ фактор в нейната AI стратегия. Като дава приоритет на производителността на системно ниво пред спецификациите на отделните чипове, Google може да използва своята инфраструктура, за да постигне превъзходни резултати. Този подход е особено уместен в контекста на обучение на широкомащабни AI модели, където способността за разпределяне на изчисленията в мрежа от взаимосвързани процесори е от съществено значение.
Разкриване на средата за изпълнение Pathways AI
Въвеждането на Pathways е стратегически ход, който повишава гъвкавостта и ефективността на внедряването на GenAI модели. Тази специализирана среда за изпълнение на AI позволява на разработчиците да оптимизират своите модели за инфраструктурата на Google, използвайки пълноценно наличните хардуерни и софтуерни ресурси.
Pathways представлява значителна инвестиция в AI софтуерния стек, предоставяйки унифицирана платформа за внедряване и управление на AI модели. Чрез рационализиране на процеса на внедряване, Google има за цел да понижи бариерата за навлизане за разработчиците и да насърчи приемането на своите AI услуги. Това, от своя страна, ще стимулира иновациите и ще създаде жизнена екосистема около AI платформата на Google.
По-дълбок поглед върху стратегията на Google със затворен код
Прегръдката на Google на стратегия със затворен код в областта на GenAI е съзнателен избор, който отразява нейната дългосрочна визия за AI. Въпреки че Gemma с отворен код е ценен принос към AI общността, Google ясно дава приоритет на своите решения със затворен код, признавайки, че те предлагат по-голям контрол и персонализиране.
Като се фокусира върху разработката със затворен код, Google може да оптимизира своите AI модели и инфраструктура за конкретни задачи, осигурявайки максимална производителност и ефективност. Този подход също така позволява на Google да защити своята интелектуална собственост и да поддържа конкурентно предимство в бързо развиващия се AI пейзаж.
Подходът със затворен код не е без своите критици, които твърдят, че той задушава иновациите и ограничава сътрудничеството. Google обаче поддържа, че е необходимо да се гарантира качеството, сигурността и надеждността на нейните AI услуги.
Протоколът A2A и битката за AI доминиране на агентите
Появата на AI агенти създаде ново бойно поле в AI индустрията и Google е решена да бъде лидер в това пространство. Обявяването на протокола A2A на конференцията Google Cloud Next е ясна индикация за амбициите на Google.
Чрез привличането на 50 основни доставчици да подкрепят протокола A2A, Google се опитва да създаде унифициран стандарт за комуникация на AI агенти. Това ще позволи на AI агенти от различни платформи да взаимодействат безпроблемно, създавайки по-взаимосвързана и съвместна AI екосистема.
Конкуренцията с MCP на Anthropic е ключов аспект от AI стратегията на Google за агенти. Anthropic е уважавана компания за AI изследвания и нейният MCP протокол спечели сцепление в индустрията. Протоколът A2A на Google представлява директно предизвикателство към MCP и резултатът от тази конкуренция ще има значително въздействие върху бъдещето на AI агентите.
Vertex AI: Цялостна платформа за AI разработка
Vertex AI на Google е цялостна платформа за AI разработка, която предоставя на разработчиците широка гама от инструменти и услуги. Чрез интегриране на ADK, Agentspace, AutoML, AIPlatform и Kubeflow, Google създава обслужване на едно гише за AI разработка.
Vertex AI има за цел да опрости процеса на AI разработка, улеснявайки разработчиците да изграждат, обучават и внедряват AI модели. Платформата също така осигурява достъп до огромна библиотека от предварително обучени модели, което позволява на разработчиците бързо да включат AI възможности в своите приложения.
Интегрирането на различни възможности на моделите е ключово предимство на Vertex AI. Като предлага разнообразен набор от модели, Google обслужва широк спектър от случаи на употреба, от разпознаване на изображения до обработка на естествен език. Този цялостен подход прави Vertex AI убедителен избор за разработчиците, търсещи гъвкава и мощна платформа за AI разработка.
Интеграцията на модели на Google: Амбиция срещу изпълнение
Въпреки че амбицията на Google да интегрира множество модели, услуги и инструменти е похвална, изпълнението може да изисква по-нататъшно усъвършенстване. Пазарът изисква зрели, добре интегрирани мултимодални големи модели и услуги в модела. Настоящите предложения на Google, макар и обещаващи, може да се нуждаят от по-нататъшно изглаждане, за да отговорят на тези очаквания.
Интегрирането на различни AI възможности е сложно начинание и Google е изправена пред предизвикателството да гарантира, че различните й модели и услуги работят безпроблемно заедно. Това изисква внимателно внимание към детайлите и ангажимент за непрекъснато подобряване.
В крайна сметка успехът на усилията на Google за интегриране на модели ще зависи от способността й да предостави потребителско изживяване, което е едновременно мощно и интуитивно. Това ще изисква дълбоко разбиране на нуждите на потребителите и безмилостен фокус върху качеството.