Repensando Gastos em IA: Demanda Supera Eficiência

O Tremor Inicial: DeepSeek e a Miragem da Eficiência

O surgimento da IA chinesa DeepSeek no início deste ano enviou ondas de choque pelo cenário de investimento em tecnologia. Sua abordagem aparentemente inovadora, prometendo inteligência artificial poderosa com sobrecarga computacional significativamente menor, gerou especulação imediata. Uma narrativa rapidamente se formou: talvez a expansão implacável e cara da infraestrutura de IA, caracterizada por compras massivas de chips e sistemas especializados, estivesse prestes a desacelerar. O mercado reagiu, refletindo a crença de que uma nova era de IA econômica poderia reduzir drasticamente o esperado boom de gastos.

No entanto, insights de uma recente reunião de alto nível de mentes da indústria pintam um quadro totalmente diferente. Uma conferência de IA generativa convocada em Nova York pela Bloomberg Intelligence sugeriu que a interpretação inicial, focada apenas em potenciais economias de custo, perdeu a história maior. Longe de sinalizar uma desaceleração nos gastos, o evento destacou uma fome quase insaciável por maior capacidade de IA. O consenso não era sobre cortar custos; era sobre descobrir como alimentar um apetite exponencialmente crescente por sistemas inteligentes, mesmo desejando desesperadamente que o menu fosse menos caro.

Vozes das Trincheiras: Uma Sede Insaciável por Capacidade

As discussões ao longo do evento de um dia, que reuniu desenvolvedores, estrategistas e investidores, consistentemente voltaram ao tema da demanda crescente impulsionando investimentos monumentais. Mandeep Singh, analista sênior de tecnologia da Bloomberg Intelligence e um dos organizadores do evento, capturou o sentimento predominante de forma sucinta. Refletindo sobre os numerosos painéis e discussões de especialistas, ele notou um refrão universal: ninguém envolvido sentia que possuía capacidade de IA suficiente. O sentimento avassalador era de precisar de mais, não de ter demais.

Crucialmente, Singh acrescentou, o espectro de uma ‘bolha de infraestrutura’, um medo comum em setores de tecnologia em rápida expansão, estava notavelmente ausente da conversa. O foco permaneceu firmemente no desafio fundamental enfrentado por toda a indústria. Anurag Rana, colega de Singh e analista sênior de serviços de TI e software da Bloomberg Intelligence, enquadrou isso como a questão primordial: ‘Onde estamos nesse ciclo [de construção de infraestrutura de IA]?’

Embora reconhecendo que determinar o estágio exato dessa construção massiva permanece elusivo (‘Ninguém sabe’ ao certo, admitiu Rana), o fenômeno DeepSeek inegavelmente mudou perspectivas. Ele injetou uma potente dose de esperança de que cargas de trabalho significativas de IA poderiam potencialmente ser tratadas de forma mais econômica. ‘DeepSeek abalou muita gente’, observou Rana. A implicação era clara: se modelos sofisticados de IA pudessem de fato rodar eficientemente em hardware menos exigente, talvez projetos gigantescos, como as iniciativas de várias centenas de bilhões de dólares que rumores indicam estarem sendo planejadas por consórcios envolvendo grandes players de tecnologia, pudessem ser reavaliados ou dimensionados de forma diferente.

O sonho, ecoado em toda a indústria segundo Rana, é que os custos operacionais da IA, particularmente para inferência (o estágio em que modelos treinados geram previsões ou conteúdo), sigam a trajetória descendente dramática testemunhada no armazenamento em nuvem na última década. Ele lembrou como a economia de armazenar grandes quantidades de dados em plataformas como Amazon Web Services (AWS) melhorou drasticamente ao longo de aproximadamente oito anos. ‘Aquela queda na curva de custo… a economia era boa’, afirmou ele. ‘E é isso que todo mundo está esperando, que no lado da inferência… se a curva cair para esse nível, oh meu deus, a taxa de adoção de IA… será espetacular.’ Singh concordou, observando que a chegada do DeepSeek mudou fundamentalmente ‘a mentalidade de todos sobre alcançar eficiência’.

Esse anseio por eficiência era palpável durante as sessões da conferência. Enquanto numerosos painéis mergulhavam nos aspectos práticos de mover projetos empresariais de IA de estágios conceituais para produção ao vivo, uma discussão paralela enfatizava constantemente a necessidade crítica de cortar os custos associados à implantação e execução desses modelos de IA. O objetivo é claro: democratizar o acesso tornando a IA economicamente viável para uma gama mais ampla de aplicações e usuários. Shawn Edwards, o próprio tecnólogo chefe da Bloomberg, sugeriu que o DeepSeek não foi necessariamente uma surpresa completa, mas sim uma ilustração poderosa de um desejo universal. ‘O que me fez pensar é que seria ótimo se você pudesse agitar uma varinha mágica e fazer esses modelos rodarem incrivelmente eficientemente’, comentou ele, estendendo o desejo a todo o espectro de modelos de IA, não apenas a um avanço específico.

O Princípio da Proliferação: Alimentando a Demanda Computacional

Uma das principais razões pelas quais os especialistas antecipam investimentos contínuos e substanciais em infraestrutura de IA, apesar da busca por eficiência, reside na pura proliferação de modelos de IA. Um tema recorrente ao longo da conferência de Nova York foi o afastamento decisivo da noção de um único modelo de IA monolítico capaz de lidar com todas as tarefas.

  • Uma Questão de Família: Como disse Edwards da Bloomberg, ‘Usamos uma família de modelos. Não existe um modelo melhor.’ Isso reflete um entendimento crescente de que diferentes arquiteturas de IA se destacam em diferentes tarefas – geração de linguagem, análise de dados, reconhecimento de imagem, completude de código, e assim por diante.
  • Customização Empresarial: Os painelistas concordaram amplamente que, embora modelos grandes de propósito geral, ‘fundacionais’ ou ‘de fronteira’, continuem a ser desenvolvidos e refinados pelos principais laboratórios de IA, a ação real dentro das empresas envolve a implantação de potencialmente centenas ou até milhares de modelos de IA especializados.
  • Ajuste Fino e Dados Proprietários: Muitos desses modelos empresariais serão adaptados de modelos base através de um processo chamado ajuste fino (fine-tuning). Isso envolve retreinar uma rede neural pré-treinada nos dados específicos e muitas vezes proprietários de uma empresa. Isso permite que a IA entenda contextos de negócios únicos, terminologia e interações com clientes, entregando resultados muito mais relevantes e valiosos do que um modelo genérico poderia.
  • Democratizando o Desenvolvimento: Jed Dougherty, representando a plataforma de ciência de dados Dataiku, destacou a necessidade de ‘opcionalidade entre os modelos’ para agentes de IA empresariais. Ele enfatizou a importância de dar às empresas controle, capacidades de criação e auditabilidade sobre suas ferramentas de IA. ‘Queremos colocar as ferramentas para construir essas coisas nas mãos das pessoas’, afirmou Dougherty. ‘Não queremos dez PhDs construindo todos os agentes.’ Esse impulso em direção a uma maior acessibilidade no próprio desenvolvimento implica uma necessidade de mais infraestrutura subjacente para apoiar esses esforços de criação distribuídos.
  • IA Específica da Marca: As indústrias criativas oferecem um exemplo primordial. Hannah Elsakr, liderando novos empreendimentos de negócios na Adobe, explicou sua estratégia apostando em modelos personalizados como um diferencial chave. ‘Podemos treinar extensões de modelo personalizadas para sua marca que podem ajudar em uma nova campanha publicitária’, ilustrou ela, mostrando como a IA pode ser adaptada para manter a estética e as mensagens específicas da marca.

Além da diversificação de modelos, a crescente implantação de agentes de IA dentro dos fluxos de trabalho corporativos é outro motor significativo da demanda de processamento. Esses agentes são imaginados não apenas como ferramentas passivas, mas como participantes ativos capazes de executar tarefas de múltiplos passos.

Ray Smith, que lidera os esforços de agentes e automação do Copilot Studio da Microsoft, previu um futuro onde os usuários interagem com potencialmente centenas de agentes especializados através de uma interface unificada como o Copilot. ‘Você não vai enfiar um processo inteiro em um agente, você vai dividi-lo em partes’, explicou ele. Esses agentes, sugeriu ele, são essencialmente ‘aplicativos no novo mundo’ da programação. A visão é uma onde os usuários simplesmente declaram seu objetivo – ‘dizer a ele o que queremos realizar’ – e o agente orquestra os passos necessários. ‘Aplicativos agênticos são apenas uma nova forma de fluxo de trabalho’, afirmou Smith, enfatizando que realizar essa visão é menos uma questão de possibilidade tecnológica (‘é tudo tecnologicamente possível’) e mais sobre o ‘ritmo em que a construímos’.

Esse impulso para incorporar agentes de IA mais profundamente nos processos organizacionais diários intensifica ainda mais a pressão por redução de custos e implantação eficiente. James McNiven, chefe de gerenciamento de produtos na gigante de microprocessadores ARM Holdings, enquadrou o desafio em termos de acessibilidade. ‘Como fornecemos acesso em mais e mais dispositivos?’, ponderou ele. Observando modelos alcançando capacidades de nível ‘PhD’ em tarefas específicas, ele traçou um paralelo com o impacto transformador de levar sistemas de pagamento móvel para nações em desenvolvimento anos atrás. A questão central permanece: ‘Como levamos essa [capacidade de IA] para pessoas que podem usar essa habilidade?’ Disponibilizar agentes de IA sofisticados como assistentes para uma ampla faixa da força de trabalho necessita não apenas de software inteligente, mas também de hardware eficiente e, inevitavelmente, mais investimento em infraestrutura subjacente, mesmo que a eficiência por computação melhore.

Obstáculos de Escala: Silício, Energia e os Gigantes da Nuvem

Mesmo os modelos de fundação genéricos mais amplamente utilizados estão se multiplicando a um ritmo estonteante, colocando uma pressão imensa sobre a infraestrutura existente. Dave Brown, que supervisiona a computação e rede para a Amazon Web Services (AWS), revelou que sua plataforma sozinha oferece aos clientes acesso a cerca de 1.800 modelos de IA diferentes. Ele ressaltou o foco intenso da AWS em ‘fazer muito para reduzir o custo’ de executar essas ferramentas poderosas.

Uma estratégia chave para provedores de nuvem como a AWS envolve o desenvolvimento de seu próprio silício personalizado. Brown destacou o uso crescente de chips projetados pela AWS, como seus processadores Trainium otimizados para treinamento de IA, afirmando: ‘A AWS está usando mais de nossos próprios processadores do que processadores de outras empresas.’ Este movimento em direção a hardware especializado e interno visa lutar pelo controle sobre desempenho e custo, reduzindo a dependência de fornecedores de chips de propósito geral como Nvidia, AMD e Intel. Apesar desses esforços, Brown reconheceu candidamente a realidade fundamental: ‘Os clientes fariam mais se o custo fosse menor.’ O teto da demanda é atualmente definido mais por restrições orçamentárias do que pela falta de aplicações potenciais.

A escala de recursos exigida pelos principais desenvolvedores de IA é imensa. Brown observou a colaboração diária da AWS com a Anthropic, os criadores da sofisticada família Claude de modelos de linguagem. Michael Gerstenhaber, chefe de interfaces de programação de aplicativos da Anthropic, falando ao lado de Brown, apontou a intensidade computacional da IA moderna, particularmente modelos projetados para raciocínio complexo ou ‘pensamento’. Esses modelos frequentemente geram explicações detalhadas passo a passo para suas respostas, consumindo poder de processamento significativo. ‘Modelos de pensamento causam o uso de muita capacidade’, afirmou Gerstenhaber.

Embora a Anthropic trabalhe ativamente com a AWS em técnicas de otimização como ‘prompt caching’ (armazenar e reutilizar computações de interações anteriores para economizar recursos), o requisito fundamental de hardware permanece enorme. Gerstenhaber afirmou sem rodeios que a Anthropic precisa de ‘centenas de milhares de aceleradores’ – chips de IA especializados – distribuídos ‘por muitos data centers’ simplesmente para executar seu conjunto atual de modelos. Isso fornece uma noção concreta da escala pura de recursos computacionais que sustentam apenas um grande player de IA.

Compondo o desafio de adquirir e gerenciar vastas frotas de silício está o consumo de energia em espiral associado à IA. Brown destacou isso como uma preocupação crítica e rapidamente crescente. Os data centers atuais que suportam cargas de trabalho intensivas de IA já estão consumindo energia medida em centenas de megawatts. As projeções sugerem que os requisitos futuros inevitavelmente subirão para a faixa de gigawatts – a produção de grandes usinas de energia. ‘A energia que consome’, alertou Brown, referindo-se à IA, ‘é grande, e a pegada é grande em muitos data centers.’ Essa demanda crescente de energia apresenta não apenas custos operacionais imensos, mas também desafios ambientais e logísticos significativos para localizar e alimentar a próxima geração de infraestrutura de IA.

O Curinga Econômico: Uma Sombra Sobre os Planos de Crescimento

Apesar da perspectiva otimista impulsionada por avanços tecnológicos e casos de uso florescentes, uma variável significativa paira sobre todas as projeções de investimento em IA: o clima econômico mais amplo. À medida que a conferência da Bloomberg Intelligence terminava, os participantes já observavam nervosismo no mercado decorrente de pacotes de tarifas globais recém-anunciados, percebidos como mais extensos do que o previsto.

Isso serve como um lembrete potente de que roteiros tecnológicos ambiciosos podem ser rapidamente interrompidos por ventos contrários macroeconômicos. Rana, da Bloomberg, alertou que, embora os gastos com IA possam estar um pouco isolados inicialmente, áreas tradicionais de investimento em TI corporativa, como servidores e armazenamento não relacionados à IA, poderiam ser as primeiras vítimas em uma contração econômica. ‘A outra grande coisa em que estamos focados são os gastos com tecnologia não relacionados à IA’, observou ele, expressando preocupação sobre o impacto potencial nos principais provedores de serviços de tecnologia antes da temporada de resultados, mesmo antes de considerar especificamente os orçamentos de IA.

Existe uma teoria predominante, no entanto, de que a IA pode se provar excepcionalmente resiliente. Rana sugeriu que os Diretores Financeiros (CFOs) das grandes corporações, enfrentando restrições orçamentárias devido à incerteza econômica ou mesmo a uma recessão, poderiam optar por priorizar iniciativas de IA. Eles poderiam potencialmente realocar fundos de áreas menos críticas para proteger investimentos estratégicos em IA percebidos como cruciais para a competitividade futura.

No entanto, essa visão otimista está longe de ser garantida. O teste final, segundo Rana, será se as grandes corporações manterão suas metas agressivas de despesas de capital, particularmente para a construção de data centers de IA, diante da crescente incerteza econômica. A questão crítica permanece: ‘Eles vão dizer: ‘Sabe de uma coisa? Está muito incerto.’’ A resposta determinará se o impulso aparentemente imparável por trás dos gastos com infraestrutura de IA continuará sua escalada implacável ou enfrentará uma pausa inesperada ditada pelas realidades econômicas globais.