Modelos de IA mais potentes emitem mais gases estufa – 20/06/2025 – Tec

Desde resultados não solicitados no topo das suas consultas em mecanismos de busca até ofertas para escrever seus emails e ajudar estudantes a fazer lição de casa, a inteligência artificial generativa está rapidamente se tornando parte do cotidiano enquanto gigantes da tecnologia competem para desenvolver os modelos mais avançados e atrair usuários.

Todos esses comandos vêm com um custo ambiental: um relatório do ano passado do Departamento de Energia dos Estados Unidos concluiu que a IA poderia ajudar a aumentar a fatia da energia elétrica nacional consumida por centros de dados de 4,4% para 12% até 2028. Para atender a essa demanda, espera-se que algumas usinas de energia queimem mais carvão e gás natural.

Alguns chatbots estão ligados a mais emissões de gases de efeito estufa do que outros. Um estudo publicado nesta quinta-feira (19) na revista Frontiers in Communication analisou as capacidades de diferentes chatbots de IA generativa e as emissões geradas ao usá-los.

Os pesquisadores descobriram que chatbots com “cérebros” maiores usavam exponencialmente mais energia e respondiam às perguntas com mais precisão —até certo ponto.

“Nem sempre precisamos do maior modelo, mais intensamente treinado, para responder a perguntas simples. Modelos menores também são capazes de fazer coisas específicas bem”, disse Maximilian Dauner, estudante de doutorado na Universidade de Ciências Aplicadas de Munique e autor principal do artigo. “O objetivo deve ser escolher o modelo certo para a tarefa certa.”

O estudo avaliou 14 grandes modelos de linguagem, uma forma comum de IA generativa frequentemente referida pela sigla LLMs, perguntando a cada um 500 questões de múltipla escolha e 500 questões de resposta livre em cinco assuntos diferentes.

Dauner então mediu a energia usada para executar cada modelo e converteu os resultados em equivalentes de dióxido de carbono com base em médias globais.

Na maioria dos modelos testados, questões sobre assuntos baseados em lógica, como álgebra, produziram as respostas mais longas —o que provavelmente significa que usaram mais energia para gerar em comparação com assuntos baseados em fatos, como história, disse Dauner.

Chatbots de IA que mostram seu raciocínio passo a passo ao responder tendem a usar muito mais energia por pergunta do que chatbots que não o fazem. Os cinco modelos de raciocínio testados no estudo não responderam às perguntas com muito mais precisão do que os outros nove modelos estudados.

O modelo que mais emitiu, DeepSeek-R1, ofereceu respostas de precisão comparável àqueles que geraram um quarto da quantidade de emissões.

Há informações importantes não capturadas pelo estudo, que incluiu apenas LLMs de código aberto: alguns dos programas de IA mais populares feitos por grandes corporações de tecnologia, como o ChatGPT da OpenAI e o Gemini do Google, não foram incluídos nos resultados.

E como o artigo converteu a energia medida em emissões com base em uma média global de CO2, ele ofereceu apenas uma estimativa; não indicou as emissões reais geradas pelo uso desses modelos, que podem variar enormemente dependendo de qual país o centro de dados que o executa está localizado.

“Algumas regiões serão alimentadas por eletricidade de fontes renováveis, e algumas funcionarão principalmente com combustíveis fósseis”, disse Jesse Dodge, cientista sênior de pesquisa no Instituto Allen para IA, que não estava afiliado à nova pesquisa.

Em 2022, Dodge liderou um estudo comparando a diferença nas emissões de gases de efeito estufa geradas pelo treinamento de um LLM em 16 diferentes regiões do mundo. Dependendo da época do ano, algumas das áreas mais emissoras, como o centro dos Estados Unidos, tinham aproximadamente três vezes a intensidade de carbono das menos emissoras, como a Noruega.

Mas mesmo com essa limitação, o novo estudo preenche uma lacuna na pesquisa sobre o equilíbrio entre custo de energia e precisão do modelo, disse Dodge.

“Todo mundo sabe que à medida que você aumenta o tamanho do modelo, tipicamente os modelos se tornam mais capazes, usam mais eletricidade e têm mais emissões”, disse ele.

Modelos de raciocínio, que têm sido cada vez mais populares, provavelmente estão aumentando ainda mais os custos de energia, devido às suas respostas mais longas.

“Para assuntos específicos, um LLM precisa usar mais palavras para chegar a uma resposta mais precisa”, disse Dauner. “Respostas mais longas e aquelas que usam um processo de raciocínio geram mais emissões.”

Sasha Luccioni, líder de IA e clima na Hugging Face, uma empresa de IA, disse que o tema é menos importante do que o tamanho da resposta, que é determinado pela forma como o modelo foi treinado. Ela também enfatizou que o tamanho da amostra do estudo é muito pequeno para criar um quadro completo das emissões da IA.

“O que é relevante aqui não é o fato de ser matemática e filosofia, é o tamanho da entrada e da saída”, disse.

No ano passado, Luccioni publicou um estudo que comparou 88 LLMs e também descobriu que modelos maiores geralmente tinham emissões mais altas. Seus resultados também indicaram que a geração de texto por IA —que é o que os chatbots fazem— usava 10 vezes mais energia em comparação com tarefas simples de classificação, como organizar emails em pastas.

Luccioni disse que esses tipos de ferramentas de IA “da velha guarda”, incluindo funções clássicas de mecanismos de busca, foram negligenciados à medida que os modelos generativos se tornaram mais difundidos. Na maioria das vezes, disse, o usuário médio não precisa usar um LLM.

Dodge acrescentou que pessoas que procuram fatos estão melhor apenas usando um mecanismo de busca, já que a IA generativa pode “alucinar” informações falsas.

“Estamos reinventando a roda”, disse Luccioni. As pessoas não precisam usar IA generativa como uma calculadora, disse. “Use uma calculadora como calculadora.”

Consultor Júridico

Facebook
Twitter
LinkedIn
plugins premium WordPress

Entraremos em Contato

Deixe seu seu assunto para explicar melhor