As aspirações da Google assemelham-se cada vez mais às da Apple, particularmente no domínio dos modelos grandes de IA Generativa (GenAI). A recente conferência Google Cloud Next apresentou a ambiciosa visão da Google. Isto inclui inovações que vão desde o chip TPU v7 Ironwood, concebido para rivalizar com o GB200 da Nvidia, até ao protocolo Agent2Agent (A2A) destinado a ultrapassar o MCP da Anthropic, e ao ambiente de tempo de execução Pathways para a implementação de GenAI.
A Google também está a desenvolver ativamente ferramentas como o ADK e o Agentspace para capacitar os desenvolvedores na criação de Agentes de IA. Central para este esforço é o Vertex AI, a plataforma de desenvolvimento e implementação nativa da nuvem de IA da Google. O Vertex AI oferece agora uma gama diversificada de serviços de geração de conteúdo, abrangendo o Veo 2 para vídeo, o Imagen 3 para imagens, o Chirp 3 para áudio e o Lyria para música. É claro que o Google Cloud está a posicionar-se para fornecer aos desenvolvedores e utilizadores um conjunto abrangente de aplicações de desenvolvimento de modelos grandes de GenAI.
Embora a usabilidade real destes serviços e experiências ainda esteja por ser vista, a Google estabeleceu um ecossistema completo, multimodal de hardware e software de IA que é autodesenvolvido, de código fechado e prontamente disponível.
Esta abordagem abrangente pinta um quadro da Google como a Apple da era da IA.
O Ironwood TPU: Um Poderoso Concorrente
A revelação do chip TPU de sétima geração, o Ironwood, é particularmente notável.
- Cada TPU está equipado com 192GB de memória HBM, com largura de banda variando de 7.2 a 7.4TB/s, provavelmente utilizando tecnologia HBM3E. Isto compara-se favoravelmente com o chip B200 da Nvidia, que oferece uma largura de banda de 8TB/s.
- Cada TPU v7 arrefecido a líquido pode atingir 4.6 Petaflops de potência de computação FP8 densa. Isto é um pouco menos do que os 20 Petaflops do B200.
- No entanto, a rede de data center Jupiter da Google permite dimensionar para suportar até 400.000 chips ou 43 clusters TPU v7x. A experiência da Google em tecnologia de servidores permite-lhe desvalorizar as métricas de desempenho de chip único.
- Crucialmente, a Google introduziu o Pathways, um ambiente de tempo de execução de IA dedicado que melhora a flexibilidade da implementação de modelos GenAI, solidificando ainda mais as suas vantagens no domínio dos clusters de serviços.
- O Ironwood está disponível em duas configurações de cluster: 256 chips ou 9216 chips, adaptados a cargas de trabalho específicas. Um único cluster pode atingir uma potência de computação de 42.5 Exaflops. A Google afirma que este desempenho ultrapassa o maior supercomputador do mundo, El Capitan, por um fator de 24. No entanto, este número é medido com precisão FP8, e o El Capitan da AMD ainda não forneceu dados de precisão FP8. A Google reconheceu isto, tornando difícil uma comparação direta.
Adotando um Ecossistema GenAI de Código Fechado
A Google está a seguir um ecossistema abrangente de código fechado no campo GenAI. Embora o Gemma de código aberto tenha os seus méritos, a Google está a canalizar recursos para as suas soluções de código fechado.
Com o aumento do interesse em Agentes de IA, a Google anunciou o protocolo A2A na conferência, alistando 50 fornecedores tradicionais para competir com o MCP da Anthropic.
Enquanto a OpenAI abriu o código do seu Agents SDK, integrando as suas grandes capacidades de modelo, a Google está a expandir o Vertex AI com ADK, Agentspace, AutoML, AIPlatform e Kubeflow, injetando várias capacidades de modelo.
No entanto, ao comparar a geração de imagens do GPT-4o com as funcionalidades equivalentes do Gemini 2.0 Flash, as ofertas da Google, embora ambiciosas, podem carecer de polimento. A integração de inúmeros modelos, serviços e ferramentas, embora benéfica para a concorrência, pode parecer prematura. O mercado precisa de modelos grandes multimodais maduros e bem integrados e de serviços no modelo.
Replicando o Modelo Gmail, Chrome e Google em IA
O sucesso da Google com o Gmail, o Chrome e a sua abordagem de ‘foguete de três estágios’ permitiu-lhe dominar o mercado tecnológico global. Esta estratégia está a ser rapidamente implementada no campo GenAI. No entanto, ao contrário da sua anterior defesa do código aberto, a Google está a abraçar cada vez mais o desenvolvimento de código fechado.
A Google está a transformar eficazmente o código aberto numa forma de código fechado, consolidando os seus recursos para estabelecer um ecossistema dominante numa área específica, depois cobrando portagens. Esta abordagem está a enfrentar críticas crescentes por parte dos desenvolvedores.
As estruturas de machine learning de código aberto da Google, TensorFlow e Jax, alcançaram sucesso global. No entanto, o novo ambiente de tempo de execução Pathways é de código fechado, isolando até mesmo as ferramentas de desenvolvimento CUDA da Nvidia.
Google vs. Nvidia: A Batalha pelo Domínio da IA
À medida que a Nvidia defende a IA Física e introduz o modelo geral de robô humanoide de código aberto Isaac GR00T N1, a Google DeepMind está a entrar no mercado com o Gemini Robotics e o Gemini Robotics-ER, baseados no Gemini 2.0.
Atualmente, a presença da Google só está a faltar no mercado de computadores de IA de desktop. Como é que o DGX Spark da Nvidia (anteriormente Projeto DIGITS) e o DGX Station, juntamente com o Mac Studio da Apple, vão competir com os serviços de nuvem da Google? Esta questão tornou-se um ponto focal na indústria após a conferência.
A Dependência da Apple no Google Cloud e no Chip M3 Ultra
A Apple está, segundo consta, a utilizar os clusters TPU do Google Cloud para treinar os seus grandes modelos, abandonando até mesmo as soluções de treino de chips da Nvidia devido a considerações de custo! Embora enfrente fraquezas de software, a Apple está a concentrar-se nos seus chips da série M. O mais recente Mac Studio, equipado com o chip M3 Ultra, possui agora até 512GB de memória unificada. A potencial adoção precoce da tecnologia Pathways do Google Cloud pela Apple pode tê-la alinhado com a Google.
O Fator Antitruste
A questão subjacente gira em torno de preocupações antitruste. Atualmente, o modelo de negócios da Apple está numa posição única para navegar em processos antitruste globais, ao contrário da Microsoft e da Google, que enfrentam potenciais cisões. O tamanho da Google expõe-na ao risco de desinvestimento forçado dos seus principais negócios de sistema operacional Android e navegador Chrome.
A Google cessou recentemente a manutenção do Projeto de Código Aberto Android (AOSP), tornando inevitável uma mudança para o modelo da Apple na era da IA. À medida que surgem avanços na IA, a mudança estratégica da Google torna-se cada vez mais evidente.
Expandindo sobre o Google TPU v7 Ironwood
Aprofundando as especificações do TPU v7 Ironwood, revela-se uma peça de hardware meticulosamente projetada. Os 192 GB de memória de alta largura de banda (HBM) são um componente crítico, permitindo o acesso rápido a dados essenciais para treinar e executar modelos de IA complexos. O uso projetado da tecnologia HBM3E sublinha o compromisso do Google em alavancar os avanços de ponta na tecnologia de memória. A largura de banda de 7,2-7,4 TB/s não é apenas um número impressionante; traduz-se diretamente em tempos de processamento mais rápidos e na capacidade de lidar com conjuntos de dados maiores e mais complexos.
A comparação com o B200 da Nvidia é inevitável, dada a dominância da Nvidia no mercado de GPU. Embora o B200 ofereça uma largura de banda ligeiramente superior de 8 TB/s, a arquitetura geral do sistema e a integração no ecossistema do Google são onde o Ironwood pretende se diferenciar.
Os 4,6 Petaflops de potência de computação FP8 densa são uma medida da capacidade do chip de executar operações de ponto flutuante, que são fundamentais para os cálculos de IA. A diferença em comparação com os 20 Petaflops do B200 destaca as distintas filosofias de design. O Google enfatiza a escalabilidade e a integração de seus TPUs dentro de sua infraestrutura de data center, enquanto a Nvidia se concentra na potência computacional bruta no nível do chip.
A Importância da Rede de Data Center Jupiter do Google
A rede de data center Jupiter do Google é um ativo significativo, permitindo a conexão perfeita de um grande número de chips TPU. A capacidade de suportar até 400.000 chips ou 43 clusters TPU v7x sublinha a escala em que o Google opera. Esta escalabilidade é um fator diferenciador chave, pois permite ao Google distribuir cargas de trabalho por uma infraestrutura massiva, otimizando o desempenho e a eficiência.
A experiência do Google em tecnologia de servidor é um fator crucial em sua estratégia de IA. Ao priorizar o desempenho em nível de sistema em vez das especificações de chip individual, o Google pode aproveitar sua infraestrutura para obter resultados superiores. Esta abordagem é particularmente relevante no contexto do treinamento de modelos de IA em grande escala, onde a capacidade de distribuir cálculos por uma rede de processadores interconectados é essencial.
Revelando o Ambiente de Tempo de Execução de IA Pathways
A introdução do Pathways é uma jogada estratégica que melhora a flexibilidade e a eficiência da implantação de modelos GenAI. Este ambiente de tempo de execução de IA dedicado permite que os desenvolvedores otimizem seus modelos para a infraestrutura do Google, aproveitando ao máximo os recursos de hardware e software disponíveis.
O Pathways representa um investimento significativo na pilha de software de IA, fornecendo uma plataforma unificada para implantar e gerenciar modelos de IA. Ao simplificar o processo de implantação, o Google visa diminuir a barreira de entrada para os desenvolvedores e incentivar a adoção de seus serviços de IA. Isso, por sua vez, impulsionará a inovação e criará um ecossistema vibrante em torno da plataforma de IA do Google.
Uma Visão Mais Profunda da Estratégia de Código Fechado do Google
A adoção pelo Google de uma estratégia de código fechado no campo GenAI é uma escolha deliberada que reflete sua visão de longo prazo para a IA. Embora o Gemma de código aberto tenha sido uma contribuição valiosa para a comunidade de IA, o Google está claramente priorizando suas soluções de código fechado, reconhecendo que elas oferecem maior controle e personalização.
Ao se concentrar no desenvolvimento de código fechado, o Google pode otimizar seus modelos e infraestrutura de IA para tarefas específicas, garantindo o máximo desempenho e eficiência. Esta abordagem também permite que o Google proteja sua propriedade intelectual e mantenha uma vantagem competitiva no cenário de IA em rápida evolução.
A abordagem de código fechado não está isenta de críticas, que argumentam que ela sufoca a inovação e limita a colaboração. No entanto, o Google mantém que é necessário garantir a qualidade, segurança e confiabilidade de seus serviços de IA.
O Protocolo A2A e a Batalha pelo Domínio do Agente de IA
O surgimento de Agentes de IA criou um novo campo de batalha na indústria de IA, e o Google está determinado a ser um líder neste espaço. O anúncio do protocolo A2A na conferência Google Cloud Next é uma indicação clara das ambições do Google.
Ao alistar 50 fornecedores tradicionais para suportar o protocolo A2A, o Google está tentando criar um padrão unificado para a comunicação do Agente de IA. Isso permitiria que Agentes de IA de diferentes plataformas interagissem perfeitamente, criando um ecossistema de IA mais interconectado e colaborativo.
A competição com o MCP da Anthropic é um aspecto chave da estratégia do Agente de IA do Google. A Anthropic é uma empresa de pesquisa de IA bem respeitada, e seu protocolo MCP ganhou força na indústria. O protocolo A2A do Google representa um desafio direto ao MCP, e o resultado desta competição terá um impacto significativo no futuro dos Agentes de IA.
Vertex AI: Uma Plataforma Abrangente de Desenvolvimento de IA
O Vertex AI do Google é uma plataforma abrangente de desenvolvimento de IA que fornece aos desenvolvedores uma ampla gama de ferramentas e serviços. Ao integrar ADK, Agentspace, AutoML, AIPlatform e Kubeflow, o Google está criando um balcão único para o desenvolvimento de IA.
O Vertex AI visa simplificar o processo de desenvolvimento de IA, tornando mais fácil para os desenvolvedores construir, treinar e implantar modelos de IA. A plataforma também fornece acesso a uma vasta biblioteca de modelos pré-treinados, permitindo que os desenvolvedores incorporem rapidamente recursos de IA em seus aplicativos.
A integração de vários recursos de modelo é uma vantagem chave do Vertex AI. Ao oferecer uma gama diversificada de modelos, o Google está atendendo a uma ampla gama de casos de uso, desde reconhecimento de imagem até processamento de linguagem natural. Esta abordagem abrangente torna o Vertex AI uma escolha atraente para desenvolvedores que buscam uma plataforma de desenvolvimento de IA versátil e poderosa.
Integração de Modelos do Google: Ambição vs. Execução
Embora a ambição do Google de integrar vários modelos, serviços e ferramentas seja louvável, a execução pode exigir mais refinamento. O mercado está exigindo modelos grandes multimodais maduros e bem integrados e serviços no modelo. As ofertas atuais do Google, embora promissoras, podem precisar de mais polimento para atender a essas expectativas.
A integração de vários recursos de IA é uma tarefa complexa, e o Google enfrenta o desafio de garantir que seus diferentes modelos e serviços funcionem perfeitamente juntos. Isso requer atenção cuidadosa aos detalhes e um compromisso com a melhoria contínua.
Em última análise, o sucesso dos esforços de integração de modelos do Google dependerá de sua capacidade de oferecer uma experiência de usuário que seja poderosa e intuitiva. Isso exigirá uma compreensão profunda das necessidades do usuário e um foco implacável na qualidade.