Publicado em
29/10/2025
Com o aumento causado sobretudo pela explosão do uso da inteligência artificial, o número de data centers gigantes aumentou de cerca de 500, em 2012, para 8.000 em 2025. Essas tecnologias consomem uma quantidade absurda de recursos naturais, algo que pode impactar, de forma muito negativa, o nosso Planeta.
Darlei Zanon*
|
Getting your Trinity Audio player ready...
|

Não há dúvidas de que as novas tecnologias estão revolucionando o monitoramento e a conservação dos ecossistemas, sendo uma grande ajuda na defesa da ecologia. Por meio de soluções inovadoras, oferecem suporte para combater desafios como o desmatamento, a mineração e a caça ilegal, a pesca predatória e as mudanças climáticas. Os famosos algoritmos da inteligência artificial (IA) podem, por exemplo, monitorar, de forma contínua, milhares de dados e imagens de satélite e alertar as autoridades praticamente em tempo real sobre atividades suspeitas, além de identificar padrões comportamentais que ameacem a Natureza.
Há, porém, o outro lado da moeda, que não recebe o enfoque necessário e que é cada vez mais preocupante: para poderem funcionar, essas tecnologias consomem uma quantidade absurda de recursos naturais, algo que pode impactar, de forma muito negativa, o nosso Planeta. “Ainda há muito que não sabemos sobre o impacto ambiental da IA, mas alguns dos dados que temos são preocupantes”, afirmou Golestan Radwan, diretor do Programa das Nações Unidas para o Meio Ambiente (PNUMA), em nota divulgada em 2024.
A ONU tem tentado cobrar as grandes companhias para utilizarem unicamente energias renováveis para a manutenção de seus data centers, mas a questão é bastante complexa. Um centro de processamento de dados é uma instalação física que reúne servidores, sistemas de armazenamento de dados e equipamentos de rede para processar, armazenar e distribuir informações e aplicações. Na prática, trata-se de espaços repletos de supercomputadores, usados para manter o funcionamento de aplicativos, redes sociais e ferramentas como o ChatGPT. Tais instalações são essenciais para a infraestrutura de tecnologias da informação de governos e empresas, contando com sistemas de segurança, energia redundante e climatização para garantir a operação contínua e a integridade de seus dados.
Com o aumento causado sobretudo pela explosão do uso da inteligência artificial, o número de data centers gigantes aumentou de cerca de 500, em 2012, para 8.000 em 2025. Outras fontes estimam que existem, hoje, cerca de 13.000 no total, com os Estados Unidos liderando a lista com quase 6.000 instalações. No Brasil, estima-se que sejam 188 centros, ocupando o 12º lugar no mundo, segundo dados do site Data Center Map.
Cada data center exige uma quantidade enorme de recursos naturais para poderem operar. Estamos falando de minerais para a sua construção; da energia, essencial para o funcionamento dos equipamentos; e da água, necessária para o resfriamento das máquinas. Isso sem mencionar a gigantesca poluição que geram.
Para fabricar um computador de dois quilos, por exemplo, são necessários 800 kg de matérias-primas, muitas delas minerais essenciais e elementos raros, que normalmente são extraídos de forma insustentável. Em um data center de grande porte, são milhares os componentes necessários, dentre eles os servidores, racks e equipamentos de rede, além de todos os sistemas de armazenamento, alimentação, resfriamento, monitoramento e segurança.
Uma vez construídos, os data centers necessitam de energia e água para operarem. Para termos uma pequena noção, uma solicitação feita no ChatGPT consome 10 vezes mais eletricidade do que uma pesquisa no Google, ou seja, cerca de 2,9 Wh (watt-hora – unidade básica para consumo) de eletricidade, segundo dados da Agência Internacional de Energia.
Atualmente, somente a OpenAI – empresa de pesquisa em inteligência artificial responsável pela criação do ChatGPT, entre outras iniciativas – tem 300 milhões de usuários semanais, com cerca de um bilhão de solicitações enviadas diariamente. Alguns estudos indicam que, em 2022, esses centros tecnológicos consumiram 460 TWh, sobretudo pela alta demanda da IA e da mineração de criptomoedas. Isso equivale a 90% do consumo total de energia do Brasil no mesmo ano, ou ao consumo de um grande país como a França ou a Inglaterra.
Para o ano de 2026, é previsto que os data centers consumirão cerca de 1.000 TWh ao ano (mil terawatts-horas de energia consumida ou gerada ao longo de um ano, sendo uma unidade de energia elétrica que representa uma quantidade extremamente grande, equivalente a um trilhão de watts-horas), energia equivalente ao consumo atual de toda a América Latina. Alguns mais pessimistas estimam que o consumo triplique até 2030, visto a crescente demanda por IA. Considerando apenas os data centers das quatro maiores companhias de tecnologia (Microsoft, Google, Amazon e Meta), estamos falando da energia produzida por 50 usinas nucleares (previsão feita pela BloombergNEF).
A segunda grande demanda é por água, usada para resfriar os componentes elétricos, uma vez que, para o bom desempenho, os computadores precisam estar entre 15°C e 25°C. Pesquisadores estimam que, para cada 100 perguntas e respostas simples do ChatGPT, é consumido um litro de água. Estamos falando de cerca de 6,6 bilhões de metros cúbicos de água por ano, um volume quatro vezes maior do que o total consumido na América Latina, segundo a FAO Aquastat.
Por fim, há a questão da poluição. Apenas para o treinamento de um modelo de IA como o ChatGPT, são emitidas cerca de 500 toneladas de dióxido de carbono (o CO2, um dos principais gases de efeito estufa), o equivalente a 300 voos entre EUA e Europa. A expansão de data centers para ferramentas de IA fez as emissões de gases de efeito estufa do Google aumentarem em 48% em cinco anos, como a própria empresa reconheceu no seu relatório anual de 2024, divulgado no começo de julho deste ano. Trata-se de 14,3 milhões de toneladas de dióxido de carbono equivalente* produzidas em um único ano. Estima-se que 2% dos gases de efeito estufa atuais são emitidos pelos data centers.
*Segundo o Instituto de Pesquisa Ambiental da Amazônia (IPAM), o dióxido de carbono equivalente (CO2e) é uma medida métrica utilizada para comparar as emissões de vários gases de efeito estufa baseado no potencial de aquecimento global de cada um. O potencial do gás metano, por exemplo, é 21 vezes maior do que o potencial do gás carbônico (CO2). Então, o CO2 equivalente do metano é igual a 21.
>>Saiba mais: bit.ly/RCC_14_072
Além desses gases, esses centros de processamento produzem grandes quantidades de lixo eletrônico (como placas gráficas, servidores ou cartões de memória), que geralmente contêm substâncias perigosas, como mercúrio e chumbo. De acordo com um estudo publicado na revista Nature Computation Science, esse lixo pode chegar a 2,5 milhões de toneladas até 2030, uma quantidade equivalente a 13,3 bilhões de
smartphones, de acordo com tal estudo.
Com a tendência atual do uso sempre maior das tecnologias e da IA, a situação se torna extremamente delicada e preocupante. A ONU já se pronunciou oficialmente, dando um ultimato para as grandes empresas da tecnologia para que busquem utilizar 100% de energia renovável até 2030. O Google, por exemplo, assinou um acordo com a startup Kairos para que ela forneça energia nuclear a suas instalações. A previsão é que entre 2030 e 2035 sejam construídos pequenos reatores que produzirão cerca de 500MW de “energia limpa”, mas entidades como o Greenpeace já manifestaram sua apreensão, pois não consideram a energia nuclear como verdadeiramente “limpa”. De fato, nenhuma energia é 100% limpa ou renovável, havendo sempre um impacto para a ecologia.
Outras empresas têm ampliado o uso de fontes renováveis, como a energia solar e a eólica, ou procurado soluções alternativas, como construir seus data centers em países nórdicos, para gastarem menos com resfriamento, ou optado pelo reúso de água da chuva e tecnologias como a chamada free cooling, que libera o ar quente para o ambiente externo, diminuindo o gasto de recursos. São tentativas, mas para alcançar a sustentabilidade, algo muito maior deve ser feito, evitando, sobretudo, uma nova forma de “colonização” dos países pobres, que tendem, uma vez mais, a ter seus recursos explorados para sustentar o estilo de vida dos países ricos.
Fique por dentro
| *Darlei Zanon é jornalista, bacharel em Filosofia e mestre em Comunicação, Cultura e Tecnologias da Informação pelo Instituto Universitário de Lisboa (ISCTE). Tem ampla experiência no campo editorial, como autor e editor, desenvolvendo atividades no Brasil, em Portugal e na Itália. |
