Pplware

Afinal, o custo energético do ChatGPT não é tão grande como se pensava

Em outubro de 2023, um estudo realizado por Alex de Vries indicou que uma consulta no ChatGPT tinha um consumo energético estimado de 3 Wh. Essa estimativa derivou de declarações da Google, cujos responsáveis mencionaram que o consumo do ChatGPT era “provavelmente” 10 vezes maior do que o de uma simples pesquisa. Contudo, não é bem assim…


ChatGPT consome 10 vezes menos do que se pensava

No seu estudo, De Vries considerou consultas médias de cerca de 4000 tokens de input e 2000 de output, correspondendo a perguntas e respostas bastante extensas, embora consultas mais curtas sejam mais comuns.

Desde então, muitas mudanças ocorreram tanto para a Google – cujo sistema e infraestrutura são significativamente diferentes de há 15 anos atrás – quanto para o ChatGPT, que também melhorou em termos de eficiência. É muito provável que as consultas da Google sejam agora mais eficientes, assim como as do ChatGPT e de outros chatbots.

A Epoch AI, uma organização sem fins lucrativos conhecida pela criação do benchmark FrontierMath, publicou um estudo onde estima o consumo energético de uma consulta no ChatGPT.

Segundo as suas conclusões, consultas no ChatGPT com o GPT-4o consomem aproximadamente 0,3 watts-hora, o que representa uma redução de dez vezes em relação às estimativas anteriores. O cálculo de 0,3 Wh “é na verdade relativamente pessimista, sendo possível que muitas ou a maioria das consultas sejam ainda mais económicas”.

A Epoch baseou os seus cálculos em dados conhecidos, como a informação de que um token da OpenAI equivale a aproximadamente 0,75 palavras e que a geração de um token custa cerca de 2 FLOPs.

Considerando a capacidade de computação das GPUs NVIDIA H100 (989 TFLOPS em operações TF32 e 67 TFLOPS em operações FP32) e o seu consumo energético (1500 W, embora com um consumo real médio de 70% dessa potência), chegaram ao resultado mencionado.

A Epoch AI destaca que a diferença entre esta nova estimativa e a anterior reflete os avanços nos modelos e hardware utilizados pelo ChatGPT desde o início de 2023. Há espaço para melhorias adicionais. Além disso, a estimativa anterior “exagerava na contagem dos tokens necessários”.

Este consumo de 0,3 Wh equivale a menos eletricidade do que a consumida por uma lâmpada LED ou um PC em poucos minutos.

Modelos de raciocínio requerem mais energia

Embora tenham usado o GPT-4o como referência, os investigadores observam que o uso de modelos de raciocínio como o1 ou o3-mini aumenta significativamente o consumo energético, embora esses modelos sejam menos populares no momento.

Além disso, destacaram o alto consumo energético associado ao treino de modelos como o GPT-4o, estimando entre 20 e 25 MW durante um período de três meses.

Embora os dados deste estudo indiquem que o uso do ChatGPT não consome tanta energia quanto se pensava anteriormente, os custos energéticos gerais da IA continuam a ser substanciais e devem aumentar significativamente a curto prazo, dado o investimento maciço das Big Tech na construção de centros de dados.

Esses centros terão necessidades energéticas extremamente altas, sem contar com o consumo adicional de ar condicionado.

 

Leia também:

Exit mobile version