Google’s ambities lijken steeds meer op die van Apple, vooral op het gebied van Generative AI (GenAI) grote modellen. Tijdens de recente Google Cloud Next-conferentie werd Google’s ambitieuze visie getoond. Dit omvat innovaties variërend van de TPU v7 Ironwood-chip, ontworpen om te concurreren met Nvidia’s GB200, tot het Agent2Agent (A2A) protocol gericht op het overtreffen van Anthropic’s MCP, en de Pathways runtime-omgeving voor GenAI-implementatie.
Google ontwikkelt ook actief tools zoals ADK en Agentspace om ontwikkelaars in staat te stellen AI Agents te creëren. Centraal in deze inspanning staat Vertex AI, Google’s AI cloud-native ontwikkel- en implementatieplatform. Vertex AI biedt nu een divers aanbod van contentgeneratiediensten, waaronder Veo 2 voor video, Imagen 3 voor afbeeldingen, Chirp 3 voor audio en Lyria voor muziek. Het is duidelijk dat Google Cloud zichzelf positioneert om ontwikkelaars en gebruikers te voorzien van een uitgebreide suite van GenAI grote model ontwikkeltoepassingen.
Hoewel de daadwerkelijke bruikbaarheid van deze diensten en ervaringen nog moet blijken, heeft Google een compleet, multi-modaal AI hardware- en software-ecosysteem gecreëerd dat zelf ontwikkeld, closed-source en direct beschikbaar is.
Deze uitgebreide aanpak schetst een beeld van Google als de Apple van het AI-tijdperk.
De Ironwood TPU: Een Krachtige Mededinger
De onthulling van de zevende generatie TPU-chip, Ironwood, is bijzonder opmerkelijk.
- Elke TPU is uitgerust met 192GB HBM-geheugen, met een bandbreedte van 7,2 tot 7,4TB/s, waarschijnlijk met behulp van HBM3E-technologie. Dit is gunstig in vergelijking met Nvidia’s B200-chip, die een bandbreedte van 8TB/s biedt.
- Elke vloeistofgekoelde TPU v7 kan 4,6 Petaflops aan dense FP8 computerkracht bereiken. Dit is iets minder dan de 20 Petaflops van de B200.
- Google’s Jupiter datacenter netwerk maakt echter schaling mogelijk om tot 400.000 chips of 43 TPU v7x clusters te ondersteunen. Google’s expertise in servertechnologie stelt het in staat om single-chip prestatiecijfers te de-emphaseren.
- Cruciaal is dat Google Pathways heeft geïntroduceerd, een speciale AI runtime-omgeving die de flexibiliteit van GenAI-modelimplementatie verbetert, waardoor de voordelen in het serviceclusterdomein verder worden versterkt.
- Ironwood is beschikbaar in twee clusterconfiguraties: 256 chips of 9216 chips, afgestemd op specifieke workloads. Een enkel cluster kan een computerkracht van 42,5 Exaflops bereiken. Google beweert dat deze prestaties de grootste supercomputer ter wereld, El Capitan, met een factor 24 overtreffen. Dit cijfer wordt echter gemeten met FP8-precisie, en AMD’s El Capitan heeft nog geen FP8-precisiegegevens verstrekt. Google heeft dit erkend, waardoor een directe vergelijking moeilijk is.
Een Closed-Source GenAI-Ecosysteem Omarmen
Google streeft naar een uitgebreid closed-source ecosysteem op het gebied van GenAI. Hoewel de open-source Gemma zijn verdiensten heeft, kanaliseert Google middelen naar zijn closed-source oplossingen.
Met de toename van de interesse in AI Agents kondigde Google het A2A-protocol aan op de conferentie, waarbij 50 mainstream leveranciers werden ingeschreven om te concurreren met Anthropic’s MCP.
Terwijl OpenAI zijn Agents SDK open-source maakte, waarbij zijn grote modelmogelijkheden werden geïntegreerd, breidt Google Vertex AI uit met ADK, Agentspace, AutoML, AIPlatform en Kubeflow, waarbij verschillende modelmogelijkheden worden geïnjecteerd.
Echter, bij het vergelijken van GPT-4o’s beeldgeneratie met Gemini 2.0 Flash’s equivalente functies, kunnen Google’s aanbiedingen, hoewel ambitieus, polish missen. De integratie van talrijke modellen, diensten en tools, hoewel gunstig voor concurrentie, kan prematuur lijken. De markt heeft volwassen, goed geïntegreerde multi-modale grote modellen en in-model diensten nodig.
De Gmail, Chrome en Google Model Repliseren in AI
Google’s succes met Gmail, Chrome en zijn ‘drietrapsraket’-aanpak heeft het in staat gesteld de wereldwijde techmarkt te domineren. Deze strategie wordt snel geïmplementeerd op het gebied van GenAI. Echter, in tegenstelling tot zijn eerdere pleidooi voor open source, omarmt Google steeds meer closed-source ontwikkeling.
Google transformeert open source effectief in een vorm van closed source door zijn middelen te consolideren om een dominant ecosysteem in een specifiek gebied te vestigen, en vervolgens tol te heffen. Deze aanpak ondervindt steeds meer kritiek van ontwikkelaars.
Google’s open-source machine learning frameworks, TensorFlow en Jax, hebben wereldwijd succes geboekt. De nieuwe Pathways runtime-omgeving is echter closed-source, en isoleert zelfs Nvidia’s CUDA ontwikkeltools.
Google vs. Nvidia: De Strijd om AI Dominantie
Terwijl Nvidia Physical AI verdedigt en het open-source humanoïde robot generaal model Isaac GR00T N1 introduceert, betreedt Google DeepMind de markt met Gemini Robotics en Gemini Robotics-ER, gebaseerd op Gemini 2.0.
Momenteel ontbreekt Google’s aanwezigheid alleen nog in de desktop AI computer markt. Hoe zullen Nvidia’s DGX Spark (voorheen Project DIGITS) en DGX Station, samen met Apple’s Mac Studio, concurreren met Google’s clouddiensten? Deze vraag is een centraal punt in de industrie geworden na de conferentie.
Apple’s Vertrouwen op Google Cloud en de M3 Ultra Chip
Apple maakt naar verluidt gebruik van Google Cloud’s TPU-clusters om zijn grote modellen te trainen, en laat zelfs Nvidia-chip trainingsoplossingen achterwege vanwege kostenoverwegingen! Hoewel het te maken heeft met softwarezwakheden, richt Apple zich op zijn M-serie chips. De nieuwste Mac Studio, uitgerust met de M3 Ultra-chip, beschikt nu over maximaal 512GB aan unified geheugen. Apple’s potentiële vroege adoptie van Google Cloud’s Pathways-technologie kan het op één lijn hebben gebracht met Google.
De Antitrust Factor
De onderliggende kwestie draait om antitrustbezwaren. Momenteel is Apple’s bedrijfsmodel uniek gepositioneerd om wereldwijde antitrustrechtszaken te doorstaan, in tegenstelling tot Microsoft en Google, die het risico lopen te worden opgesplitst. Google’s omvang stelt het bloot aan het risico van gedwongen afstoting van zijn kern Android besturingssysteem en Chrome browser activiteiten.
Google is onlangs gestopt met het onderhouden van het Android Open Source Project (AOSP), waardoor een verschuiving naar het Apple-model onvermijdelijk wordt in het AI-tijdperk. Naarmate AI-doorbraken ontstaan, wordt Google’s strategische verschuiving steeds duidelijker.
Uitbreiding op Google’s TPU v7 Ironwood
Dieper ingaan op de specificaties van de TPU v7 Ironwood onthult een nauwgezet ontworpen stuk hardware. De 192GB High Bandwidth Memory (HBM) is een cruciaal onderdeel, dat zorgt voor snelle datatoegang die essentieel is voor het trainen en uitvoeren van complexe AI-modellen. Het verwachte gebruik van HBM3E-technologie onderstreept Google’s toewijding aan het benutten van geavanceerde ontwikkelingen in geheugentechnologie. De bandbreedte van 7,2-7,4TB/s is niet zomaar een indrukwekkend cijfer; het vertaalt zich direct in snellere verwerkingstijden en het vermogen om grotere, meer ingewikkelde datasets te verwerken.
De vergelijking met Nvidia’s B200 is onvermijdelijk, gezien Nvidia’s dominantie in de GPU-markt. Hoewel de B200 een iets hogere bandbreedte van 8TB/s biedt, wil Ironwood zich onderscheiden door de algehele systeemarchitectuur en integratie binnen Google’s ecosysteem.
De 4,6 Petaflops aan dense FP8 computerkracht is een maatstaf voor het vermogen van de chip om floating-point operaties uit te voeren, die fundamenteel zijn voor AI-berekeningen. Het verschil in vergelijking met de 20 Petaflops van de B200 benadrukt de verschillende ontwerpfilosofieën. Google benadrukt de schaalbaarheid en integratie van zijn TPU’s binnen zijn datacenterinfrastructuur, terwijl Nvidia zich richt op brute rekenkracht op chipniveau.
De Betekenis van Google’s Jupiter Datacenter Netwerk
Google’s Jupiter datacenter netwerk is een aanzienlijke troef, die de naadloze verbinding van een groot aantal TPU-chips mogelijk maakt. Het vermogen om tot 400.000 chips of 43 TPU v7x clusters te ondersteunen onderstreept de schaal waarop Google opereert. Deze schaalbaarheid is een belangrijk onderscheidend vermogen, omdat het Google in staat stelt om workloads over een enorme infrastructuur te verdelen, waardoor prestaties en efficiëntie worden geoptimaliseerd.
Google’s expertise in servertechnologie is een cruciale factor in zijn AI-strategie. Door systeemniveau prestaties te prioriteren boven individuele chipspecificaties, kan Google zijn infrastructuur benutten om superieure resultaten te behalen. Deze aanpak is met name relevant in de context van grootschalige AI-model training, waarbij het vermogen om berekeningen te verdelen over een netwerk van onderling verbonden processors essentieel is.
Onthulling van de Pathways AI Runtime Omgeving
De introductie van Pathways is een strategische zet die de flexibiliteit en efficiëntie van GenAI-modelimplementatie verbetert. Deze speciale AI runtime-omgeving stelt ontwikkelaars in staat om hun modellen te optimaliseren voor Google’s infrastructuur, waarbij ze optimaal profiteren van de beschikbare hardware- en softwarebronnen.
Pathways vertegenwoordigt een aanzienlijke investering in de AI-softwarestack, die een uniform platform biedt voor het implementeren en beheren van AI-modellen. Door het implementatieproces te stroomlijnen, wil Google de drempel verlagen voor ontwikkelaars en de adoptie van zijn AI-diensten aanmoedigen. Dit zal op zijn beurt innovatie stimuleren en een levendig ecosysteem creëren rond Google’s AI-platform.
Dieper Inzicht in Google’s Closed-Source Strategie
Google’s omarming van een closed-source strategie op het gebied van GenAI is een bewuste keuze die zijn langetermijnvisie op AI weerspiegelt. Hoewel de open-source Gemma een waardevolle bijdrage is geweest aan de AI-gemeenschap, geeft Google duidelijk prioriteit aan zijn closed-source oplossingen, in de wetenschap dat ze meer controle en aanpassing bieden.
Door zich te richten op closed-source ontwikkeling kan Google zijn AI-modellen en infrastructuur optimaliseren voor specifieke taken, waardoor maximale prestaties en efficiëntie worden gegarandeerd. Deze aanpak stelt Google ook in staat om zijn intellectuele eigendom te beschermen en een concurrentievoordeel te behouden in het snel evoluerende AI-landschap.
De closed-source aanpak is niet zonder critici, die beweren dat het innovatie onderdrukt en samenwerking beperkt. Google houdt echter vol dat het noodzakelijk is om de kwaliteit, veiligheid en betrouwbaarheid van zijn AI-diensten te waarborgen.
Het A2A Protocol en de Strijd om AI Agent Dominantie
De opkomst van AI Agents heeft een nieuw strijdperk gecreëerd in de AI-industrie, en Google is vastbesloten om een leider te zijn in deze ruimte. De aankondiging van het A2A-protocol tijdens de Google Cloud Next-conferentie is een duidelijke indicatie van Google’s ambities.
Door 50 mainstream leveranciers in te schakelen om het A2A-protocol te ondersteunen, probeert Google een uniforme standaard te creëren voor AI Agent communicatie. Dit zou AI Agents van verschillende platforms in staat stellen om naadloos te interageren, waardoor een meer onderling verbonden en collaboratief AI-ecosysteem ontstaat.
De concurrentie met Anthropic’s MCP is een belangrijk aspect van Google’s AI Agent strategie. Anthropic is een gerespecteerd AI-onderzoeksbedrijf en zijn MCP-protocol heeft aan populariteit gewonnen in de industrie. Google’s A2A-protocol vertegenwoordigt een directe uitdaging voor MCP, en de uitkomst van deze concurrentie zal een aanzienlijke impact hebben op de toekomst van AI Agents.
Vertex AI: Een Uitgebreid AI Ontwikkelplatform
Google’s Vertex AI is een uitgebreid AI-ontwikkelplatform dat ontwikkelaars een breed scala aan tools en diensten biedt. Door ADK, Agentspace, AutoML, AIPlatform en Kubeflow te integreren, creëert Google een one-stop shop voor AI-ontwikkeling.
Vertex AI is gericht op het vereenvoudigen van het AI-ontwikkelproces, waardoor het voor ontwikkelaars gemakkelijker wordt om AI-modellen te bouwen, trainen en implementeren. Het platform biedt ook toegang tot een uitgebreide bibliotheek van vooraf getrainde modellen, waardoor ontwikkelaars snel AI-mogelijkheden in hun applicaties kunnen integreren.
De integratie van verschillende modelmogelijkheden is een belangrijk voordeel van Vertex AI. Door een divers scala aan modellen aan te bieden, speelt Google in op een breed scala aan use cases, van beeldherkenning tot natuurlijke taalverwerking. Deze uitgebreide aanpak maakt Vertex AI een aantrekkelijke keuze voor ontwikkelaars die op zoek zijn naar een veelzijdig en krachtig AI-ontwikkelplatform.
Google’s Model Integratie: Ambitie vs. Uitvoering
Hoewel Google’s ambitie om talrijke modellen, diensten en tools te integreren lovenswaardig is, vereist de uitvoering mogelijk verdere verfijning. De markt vraagt om volwassen, goed geïntegreerde multi-modale grote modellen en in-model diensten. Google’s huidige aanbod is weliswaar veelbelovend, maar vereist mogelijk verdere polish om aan deze verwachtingen te voldoen.
De integratie van verschillende AI-mogelijkheden is een complexe onderneming, en Google staat voor de uitdaging om ervoor te zorgen dat zijn verschillende modellen en diensten naadloos samenwerken. Dit vereist nauwkeurige aandacht voor detail en een toewijding aan continue verbetering.
Uiteindelijk zal het succes van Google’s modelintegratie-inspanningen afhangen van zijn vermogen om een gebruikerservaring te leveren die zowel krachtig als intuïtief is. Dit vereist een diep begrip van gebruikersbehoeften en een meedogenloze focus op kwaliteit.