Cada vez que você faz uma pergunta ao Gemini do Google, isso consome a mesma quantidade de energia de assistir nove segundos de TV.

Bom, é o que diz a direção do Google em um novo relatório detalhando sobre o consumo de energia, as emissões de gases e o uso de água de sua inteligência artificial generativa, à qual os usuários recorrem todos os dias para tudo, desde dicas de escrita até verificação de fatos.

Uma única consulta de texto no Gemini emite 0,03 gramas de dióxido de carbono e consome cerca de cinco gotas de água, de acordo com o Google.

O Google, que incluiu sua metodologia no relatório e as fórmulas que usou, informa ainda que outras empresas de tecnologia não divulgam as demandas de energia de seus modelos de IA que consomem muita energia com tantos detalhes, mas espera que isso mude. “Como comunidade, como indústria, não somos muito consistentes sobre como medimos energia”, disse Parthasarathy Ranganathan, que ajudou a conduzir a pesquisa do Google.

Google e o meio ambiente

Mas a gigante da tecnologia também parece estar tentando aliviar as crescentes ansiedades sobre as pesquisas de IA: o uso frequente de IA generativa, como o Gemini, pode ser prejudicial ao meio ambiente. O relatório do Google aponta que a análise de energia do seu Gemini é inferior às estimativas públicas.

Neste verão, o Google relatou em um relatório ambiental que suas emissões aumentaram 51% desde 2019 devido às necessidades da IA.

Mas o relatório de agosto, focado em IA, mostra que os sistemas de IA do Google estão se tornando mais eficientes e que a energia usada para alimentar um prompt de texto médio do Gemini é 33 vezes menor hoje do que há 12 meses.

A demanda global por IA está aumentando rapidamente.  A demanda por eletricidade de data centers no mundo todo deve mais que dobrar até 2030, para cerca de 945 terawatts-hora, o que é mais do que o consumo total de eletricidade do Japão, de acordo com a Agência Internacional de Energia.

“Um único data center focado em IA pode usar tanta eletricidade quanto uma pequena cidade e tanta água quanto um grande bairro”, afirma a Union of Concerned Scientists em seu site.

Um data center que alimenta IA pode consumir tanta eletricidade quanto 100 mil residências, mas os maiores que ainda não foram concluídos podem consumir 20 vezes mais. É um problema específico nos EUA, onde os data centers representarão quase metade do crescimento da demanda de eletricidade nos próximos cinco anos, de acordo com a AIE.

Também há uma preocupação crescente sobre a quantidade de água necessária para resfriar equipamentos elétricos em data centers.

Há apenas algumas semanas, a empresa francesa Mistral AI divulgou um relatório detalhando a pegada ambiental do treinamento de seu modelo de linguagem Mistral Large 2, incluindo a quantidade de água que ele consome. O consumo de água para gerar uma página de texto é de 0,05 litro, o suficiente para cultivar um pequeno rabanete, diz o relatório.

O presidente-executivo da OpenAI, Sam Altman, disse em uma postagem recente que “as pessoas geralmente ficam curiosas sobre quanta energia uma consulta do ChatGPT usa”. Em resposta, ele disse que o consumo médio usa aproximadamente a quantidade que um forno usaria em pouco mais de um segundo. Mas ele não informou qual metodologia usou.

Redução de energia

Há maneiras de reduzir as demandas de energia da IA, por exemplo, que retarda a resposta da IA ​​em apenas alguns milissegundos para solicitações não urgentes. Há várias maneiras de reduzir o uso de água em data centers, incluindo o uso de água reciclada ou água que não é segura para beber.

O tipo de consulta que você fornece à IA generativa também importa.

“As demandas de energia podem ser reduzidas se você puder reduzir um pouco desse bate e volta, e tornar seu prompt um pouco mais simples e fácil de entender“, disse Vijay Gadepally, cientista sênior do Instituto de Tecnologia de Massachusetts, onde pesquisa sobre IA e computação ecologicamente corretas. Ele disse que é melhor usar essas ferramentas com moderação.

Um estudo da Unesco informou que avisos mais curtos e concisos, juntamente com o uso de modelos de IA menores, podem reduzir drasticamente o consumo de energia.

O uso de energia da IA ​​generativa de uma empresa ao responder a uma pergunta padrão pode parecer completamente diferente daquele de outra empresa, disse Gadepally.

Uma empresa de tecnologia poderia dizer que, “para uma consulta típica, ela usa esta quantidade de quilowatts-hora. Bem, qual é a sua definição de uma consulta típica?”, disse ele.

Energia limpa

As gigantes da tecnologia estão anunciando muitos novos acordos de energia limpa para alimentar suas ambições de IA, incluindo o Google, que anunciou recentemente novos acordos de energia, desde geotérmica até hidrelétrica.

No início desta semana, a empresa de tecnologia anunciou um projeto de reator nuclear avançado no Tennessee com a Kairos Power.

Mas há obstáculos políticos que prejudicam os planos das indústrias de tecnologia. Grandes empresas de tecnologia — as maiores compradoras de energia limpa, que também estão enfrentando pressão para cumprir suas metas de redução de emissões de carbono — pressionaram o governo Trump a não cortar os subsídios à energia limpa.

“É importante que as empresas de tecnologia também divulguem com que frequência se sua IA recebe consultas”, disse Gadepally.

“Se estiver sendo usado por uma pessoa, as emissões serão menores, mas isso é diferente se forem bilhões de pessoas em 30 data centers ao redor do mundo”, disse ele.

O Google também já entendeu isso.

“Embora o impacto de um único prompt seja baixo em comparação com muitas atividades diárias, a imensa escala de adoção pelos usuários globalmente significa que o foco contínuo na redução do custo ambiental da IA ​​é fundamental”, disse o relatório.

Traduzido do inglês por InvestNews

Presented by