O avanço incessante da inovação em inteligência artificial (AI) tem levado ao desenvolvimento de modelos de linguagem grandes (LLMs) cada vez mais sofisticados. Embora esses modelos demonstrem capacidades impressionantes em vários domínios, as consequências ambientais associadas ao seu treinamento e implantação permaneceram amplamente obscurecidas. As empresas que desenvolvem modelos de AI compartilham prontamente dados de desempenho em benchmarks, mas tendem a evitar o impacto ambiental. Uma pesquisa recente lança luz sobre os custos frequentemente negligenciados de energia, água e carbono associados a essas poderosas ferramentas de AI.
Um Novo Benchmark para Avaliar o Impacto Ambiental
Na busca por quantificar o impacto ambiental da AI, uma equipe de pesquisadores da Universidade de Rhode Island, do Providence College e da Universidade de Tunis introduziu um benchmark com reconhecimento da infraestrutura para inferência de AI. Esta pesquisa, disponível no servidor de pré-impressão arXiv da Cornell University, oferece uma avaliação mais precisa dos efeitos ecológicos da AI. O benchmark combina dados de latência da API pública com informações sobre as GPUs subjacentes e as composições regionais da rede elétrica para calcular a pegada ambiental por prompt para 30 modelos de AI convencionais. Essa abordagem abrangente considera o consumo de energia, o uso de água e as emissões de carbono, culminando em uma pontuação de "ecoeficiência".
Abdeltawab Hendawi, professor assistente da Universidade de Rhode Island, explica a motivação por trás do estudo: "Começamos a pensar em comparar esses modelos em termos de recursos ambientais, água, energia e pegada de carbono." As descobertas revelam disparidades significativas no impacto ambiental de diferentes modelos de AI.
Disparidades no Consumo de Energia: OpenAI, DeepSeek e Anthropic
O estudo destaca diferenças substanciais no consumo de energia entre os principais modelos de AI. O modelo o3 da OpenAI e o modelo de raciocínio principal da DeepSeek consomem mais de 33 watt-horas (Wh) para uma única resposta estendida. Isso contrasta fortemente com o GPT-4.1 nano da OpenAI, menor, que requer mais de 70 vezes menos energia. O Claude-3.7 Sonnet da Anthropic surge como o modelo mais ecoeficiente do estudo.
Os pesquisadores enfatizam o papel crucial do hardware na determinação do impacto ambiental dos modelos de AI. Por exemplo, o GPT-4o mini, que usa GPUs A100 mais antigas, consome mais energia por consulta do que o GPT-4o maior, que opera em chips H100 mais avançados. Isso reforça a importância de alavancar hardware de ponta para minimizar a pegada ambiental da AI.
O Custo Ambiental do Comprimento da Consulta
O estudo revela uma correlação direta entre o comprimento da consulta e o impacto ambiental. Consultas mais longas invariavelmente levam a um maior consumo de recursos. Mesmo prompts curtos aparentemente insignificantes contribuem para a carga ambiental geral. Um único prompt GPT-4o breve consome aproximadamente 0,43 Wh de energia. Os pesquisadores estimam que, nas 700 milhões de chamadas GPT-4o projetadas pela OpenAI por dia, o consumo total de energia anual pode variar de 392 a 463 gigawatt-horas (GWh). Para colocar isso em perspectiva, essa é energia suficiente para abastecer entre 35.000 casas americanas anualmente.
O Impacto Cumulativo da Adoção de AI
O estudo enfatiza que a adoção de AI por usuários individuais pode rapidamente aumentar para custos ambientais substanciais. Nidhal Jegham, pesquisador da Universidade de Rhode Island e autor principal do estudo, explica que "Usar o ChatGPT-4o anualmente consome tanta água quanto as necessidades de consumo de 1,2 milhão de pessoas anualmente." Jegham adverte que, embora o impacto ambiental de uma única mensagem ou prompt pareça insignificante, "uma vez que você aumenta a escala, especialmente o quanto a AI está se expandindo em todos os índices, está realmente se tornando um problema crescente."
Analisando Mais Profundamente as Métricas de Impacto Ambiental
Para apreciar totalmente as implicações das descobertas do estudo, é essencial um exame mais detalhado das métricas ambientais usadas para avaliar os modelos de AI. As seções a seguir fornecem uma análise das principais métricas:
Consumo de Energia
O consumo de energia é uma medida fundamental da energia elétrica necessária para operar os modelos de AI. O estudo quantifica o consumo de energia em watt-horas (Wh) por consulta, permitindo uma comparação direta da eficiência energética de diferentes modelos. Minimizar o consumo de energia é fundamental para reduzir a pegada de carbono e o impacto ambiental geral da AI.
Fatores que Influenciam o Consumo de Energia:
- Tamanho e Complexidade do Modelo: Modelos maiores e mais complexos normalmente requerem mais energia para operar do que modelos menores e mais simples.
- Eficiência do Hardware: As GPUs e outros componentes de hardware usados para executar modelos de AI desempenham um papel significativo no consumo de energia. Hardware mais avançado e com baixo consumo de energia pode reduzir substancialmente a pegada energética da AI.
- Comprimento e Complexidade da Consulta: Consultas mais longas e complexas geralmente exigem mais recursos computacionais e, portanto, consomem mais energia.
- Técnicas de Otimização: Várias técnicas de otimização, como compressão e quantização de modelos, podem reduzir o consumo de energia de modelos de AI sem sacrificar a precisão.
Uso de Água
O uso de água é um aspecto frequentemente negligenciado do impacto ambiental da AI. Os data centers, que abrigam os servidores que executam os modelos de AI, exigem grandes quantidades de água para resfriamento. O estudo estima o uso de água com base no consumo de energia dos data centers e na intensidade hídrica das redes elétricas regionais que fornecem eletricidade a esses data centers.
Fatores que Influenciam o Uso de Água:
- Requisitos de Resfriamento: Os data centers geram calor significativo e exigem sistemas de resfriamento para manter temperaturas operacionais ideais. A água é frequentemente usada como refrigerante, direta ou indiretamente, por meio de torres de resfriamento.
- Intensidade Hídrica da Rede Elétrica: A intensidade hídrica da rede elétrica se refere à quantidade de água necessária para gerar uma unidade de eletricidade. As redes elétricas que dependem fortemente de usinas termelétricas, que usam água para resfriamento, têm intensidades hídricas mais altas.
- Localização do Data Center: Data centers localizados em regiões áridas ou regiões com problemas de escassez de água podem exacerbar o impacto ambiental da AI.
Emissões de Carbono
As emissões de carbono são um dos principais impulsionadores das mudanças climáticas. O estudo calcula as emissões de carbono com base no consumo de energia dos modelos de AI e na intensidade de carbono das redes elétricas regionais. A intensidade de carbono se refere à quantidade de dióxido de carbono emitida por unidade de eletricidade gerada.
Fatores que Influenciam as Emissões de Carbono:
- Fonte de Energia: O tipo de energia usado para alimentar os data centers tem um impacto significativo nas emissões de carbono. Fontes de energia renováveis, como energia solar e eólica, têm intensidades de carbono muito mais baixas do que combustíveis fósseis como carvão e gás natural.
- Intensidade de Carbono da Rede Elétrica: A intensidade de carbono da rede elétrica varia dependendo da combinação de fontes de energia usadas para gerar eletricidade. Regiões com uma proporção maior de fontes de energia renováveis têm intensidades de carbono mais baixas.
- Eficiência Energética: Reduzir o consumo de energia é a maneira mais eficaz de diminuir as emissões de carbono.
Implicações e Recomendações
As descobertas do estudo têm implicações significativas para desenvolvedores de AI, formuladores de políticas e usuários finais. O impacto ambiental da AI não é insignificante e precisa ser cuidadosamente considerado à medida que a tecnologia de AI continua a avançar e proliferar.
Recomendações para Desenvolvedores de AI:
- Priorizar a Eficiência Energética: Os desenvolvedores de AI devem priorizar a eficiência energética ao projetar e treinar modelos de AI. Isso inclui o uso de modelos menores, otimização de código e alavancando hardware eficiente.
- Explorar Fontes de Energia Renovável: As empresas de AI devem explorar oportunidades para alimentar seus data centers com fontes de energia renovável. Isso pode reduzir significativamente a pegada de carbono da AI.
- Investir na Conservação da Água: Os data centers devem investir em tecnologias de conservação da água para minimizar o uso de água. Isso inclui o uso de sistemas de resfriamento de circuito fechado e coleta de água da chuva.
- Transparência e Relato: As empresas de AI devem ser transparentes sobre o impacto ambiental de seus modelos e relatar métricas importantes, como consumo de energia, uso de água e emissões de carbono.
Recomendações para Formuladores de Políticas:
- Incentivar a AI Verde: Os formuladores de políticas devem incentivar o desenvolvimento e a implantação de tecnologias de AI verde por meio de créditos fiscais, subsídios e outros incentivos.
- Regular o Consumo de Energia do Data Center: Os formuladores de políticas devem regular o consumo de energia do data center para garantir que os data centers estejam operando da forma mais eficiente possível.
- Promover a Adoção de Energia Renovável: Os formuladores de políticas devem promover a adoção de fontes de energia renovável para reduzir a intensidade de carbono das redes elétricas.
- Apoiar a Pesquisa e o Desenvolvimento: Os formuladores de políticas devem apoiar a pesquisa e o desenvolvimento de novas tecnologias que possam reduzir o impacto ambiental da AI.
Recomendações para Usuários Finais:
- Estar Ciente do Uso de AI: Os usuários finais devem estar cientes de seu uso de AI e evitar consultas desnecessárias ou frívolas.
- Escolher Modelos de AI Ecológicos: Quando possível, os usuários finais devem escolher modelos de AI que sejam conhecidos por serem mais eficientes em termos de energia.
- Apoiar Práticas Sustentáveis de AI: Os usuários finais podem apoiar práticas sustentáveis de AI escolhendo produtos e serviços de AI de empresas que estão comprometidas com a responsabilidade ambiental.
Direções para Pesquisas Futuras
O estudo destaca a necessidade de mais pesquisas sobre o impacto ambiental da AI. As pesquisas futuras devem se concentrar nas seguintes áreas:
- Avaliação do Ciclo de Vida: Realizar uma avaliação abrangente do ciclo de vida dos modelos de AI, desde o desenvolvimento até o descarte, para identificar todos os impactos ambientais potenciais.
- Impacto do Treinamento: Investigar o impacto ambiental do treinamento de modelos de AI, que pode ser significativamente maior do que o impacto da inferência.
- Impacto da AI em Outros Setores: Examinar o impacto da AI em outros setores da economia, como transporte e manufatura, para entender as consequências ambientais gerais da adoção da AI.
- Desenvolvimento de Novas Métricas: Desenvolver novas métricas para avaliar o impacto ambiental da AI, como métricas que contabilizem a energia incorporada e os materiais no hardware da AI.
Conclusão
O impacto ambiental dos LLMs é uma questão complexa e multifacetada que requer consideração cuidadosa. As descobertas deste estudo fornecem informações valiosas sobre os custos de energia, água e carbono associados às ferramentas de AI populares. Ao compreender esses custos, desenvolvedores de AI, formuladores de políticas e usuários finais podem tomar medidas para minimizar a pegada ambiental da AI e garantir que a tecnologia de AI seja desenvolvida e implantada de forma sustentável. À medida que a AI se torna mais integrada em nossas vidas, é crucial priorizar a sustentabilidade e trabalhar juntos para criar um futuro onde a AI beneficie a sociedade sem prejudicar o meio ambiente.