A visão tradicional do sucesso de todo negócio está mudando rapidamente mundo afora, ante à implacável lógica de que é imprescindível o planeta manter-se minimamente habitável para alguém obter algum lucro.
O consumo de energia pelos sistemas de Inteligência Artificial, em função do gigantesco número de dados por eles processados, tem sido um dos principais alvos dessas preocupações.
A outra é a quantidade igualmente espantosa de hardware requerida pelos grandes sistemas desse tipo, um exército de equipamentos cuja pegada de carbono talvez nunca se apague.
Questionamentos assim vêm tirando o sono – ou pelo menos deveria – das chamadas Big Techs, desafiadas a resolver uma equação nada simples: multiplicar a capacidade dos seus datacenters sem perder o controle das emissões de CO² e da água utilizada para arrefecer essas máquinas.
Não por acaso, já existem instalações assim no fundo do mar, devidamente blindadas para não mandar literalmente por água abaixo dados que hoje valem mais que dinheiro, dependendo do caso.
No entanto, acaba de surgir na China um alento em meio a tudo isso, que atende pelo nome de DeepSeek, uma nova concepção de IA dispensando grandes infraestruturas, justamente em nome da sustentabilidade.
O Modelo se chama R1, e segundo a startup chinesa responsável por ele, apresenta desempenho compatível ao dos líderes de mercado, mas com um custo de treinamento bem menor e consumo de recursos naturais, idem.
Com GPUS – Unidades de Processamento Gráfico, por exemplo, os investimentos caem em nada menos que 98%, nestes que são chips especializados fundamentais para o treinamento e a execução de modelos de Inteligência Artificial para cálculos complexos em alta velocidade.
Diante da novidade, o mercado foi mais rápido ainda que a própria IA e desvalorizou em quase um trilhão de dólares, em apenas um dia, toda a cadeia de valor do segmento, atingindo desde fabricantes de GPUs até fornecedores de máquinas especializadas para linhas de montagem.
Uso responsável
O lado humano também importa – e muito – quando os ganhos ambientais se colocam à frente dos financeiros neste frenético mundo da Inteligência Artificial.
A influência dos desenvolvedores é grande, ao definir locais e horários ambientalmente menos impactantes para o treinamento dos modelos, momento em que a IA funciona a plena carga.
Outra estratégia possível é a ’quantização’, pois ela reduz a precisão numérica dos modelos para diminuir a carga computacional, mas sem comprometer significativamente a precisão dos dados, garantem os especialistas.
Há ainda o ‘pruning’, que elimina conexões neurais redundantes, tornando os modelos mais leves e eficientes.
O reuso de infraestrutura já existente também é fruto do uso responsável, a exemplo do treinamento distribuído em múltiplas regiões e o processamento na borda – ’edge computing’ -, como forma de diminuir as emissões associadas.
