Custo energético da IA cresce com expansão de modelos de raciocínio

Siga o Olhar Digital no Google Discover

Inteligência artificial

Tudo sobre Inteligência Artificial

O avanço dos modelos de inteligência artificial (IA) focados em raciocínio vem transformando a forma como soluções tecnológicas lidam com problemas complexos. No entanto, um novo relatório destaca que essa evolução tem um preço alto: o custo energético da IA. A pesquisa, conduzida pelo projeto AI Energy Score, mostra que sistemas capazes de raciocinar de forma semelhante a humanos podem consumir até 100 vezes mais energia do que modelos tradicionais. As informações são da Bloomberg.

Os pesquisadores analisaram 40 modelos de IA abertos, incluindo tecnologias de OpenAI, Google e Microsoft. O levantamento demonstrou disparidades significativas no consumo de energia entre modelos com e sem recursos de raciocínio. Um exemplo extremo foi observado em uma versão compacta do modelo R1 da DeepSeek, que consumiu apenas 50 watt-hora sem o raciocínio ativado, mas saltou para 308.186 watt-hora quando esse recurso foi habilitado.

Segundo os autores, grande parte do aumento no custo energético está relacionada ao volume de texto gerado por sistemas avançados de raciocínio. Essa característica, embora aumente a precisão em tarefas complexas, impõe maior carga às máquinas responsáveis pelo processamento.

IA
Pesquisadores analisaram 40 modelos de IA abertos, incluindo tecnologias de OpenAI, Google e Microsoft (Imagem: Gumbariya/Shutterstock)

Impactos na infraestrutura e desafios ambientais

A intensificação do uso de IA ocorre paralelamente à expansão de data centers ao redor do mundo. A competição entre empresas de tecnologia por estruturas cada vez maiores já provoca efeitos perceptíveis. Uma investigação anterior da Bloomberg apontou que regiões próximas à data centers registraram aumentos de até 267% no preço da energia ao longo de cinco anos.

Os modelos de raciocínio vêm ganhando destaque desde que a OpenAI lançou o o1, seu primeiro modelo dedicado a essa habilidade. No entanto, apesar da popularização dessas ferramentas, ainda há poucas pesquisas sobre o impacto energético da inferência — o processo de execução dos modelos após o treinamento.

Para ilustrar essa diferença, o estudo testou todos os modelos no mesmo hardware, usando desde perguntas simples até problemas matemáticos complexos, enquanto monitorava o consumo de energia em tempo real com a ferramenta CodeCarbon. Os resultados mostram variações amplas: um dos modelos Phi 4, da Microsoft, saltou de 18 para 9.462 watt-hora quando o raciocínio foi ativado, enquanto o maior modelo gpt-oss da OpenAI variou entre 5.313 e 8.504 watt-hora, dependendo da intensidade configurada.

Principais pontos destacados pelo estudo:

  • Modelos de IA com raciocínio consomem até 100 vezes mais energia.
  • DeepSeek apresenta as maiores discrepâncias entre modos com e sem raciocínio.
  • Data centers impulsionam aumentos no custo energético em várias regiões.
  • A inferência vem sendo reconhecida como principal fonte de consumo em IA avançada.
  • Especialistas defendem o uso de modelos mais adequados a cada tarefa, evitando desperdício.
Especialistas destacam empresas líderes e desafios no avanço da inteligência artificial
Modelos de IA com raciocínio consomem até 100 vezes mais energia (Imagem: khunkornStudio / Shutterstock)

Os autores reforçam que o estudo busca ampliar a compreensão sobre a evolução das necessidades energéticas da IA, além de alertar que nem toda tarefa exige o uso de modelos altamente intensivos. Para eles, saber escolher a IA certa pode reduzir significativamente o impacto ambiental e operacional.

Leia mais:

Satya Nadella, CEO da Microsoft, reconheceu recentemente que o setor precisa conquistar a “permissão social para consumir energia”. Segundo ele, isso só será possível se a IA gerar benefícios amplos à sociedade e acelerar o crescimento econômico.