
São Paulo — InkDesign News — A utilização crescente de inteligência artificial (IA) em ambientes corporativos está impulsionando a necessidade de modelos mais eficientes e sustentáveis, especialmente em relação ao consumo de recursos computacionais. A busca por soluções que além de poderosas sejam também estratégicas é cada vez mais urgente frente ao crescente custo de infraestrutura associado a grandes modelos de aprendizado profundo (deep learning).
Tecnologia e abordagem
Modelos de linguagem de grande porte (LLMs) como os da Hugging Face estão explorando novas arquiteturas mais específicas e a utilização de modelos destilados, os quais oferecem desempenho comparável com menor consumo energético. Sasha Luccioni, líder em IA e clima na Hugging Face, destaca que “um modelo específico para a tarefa consome de 20 a 30 vezes menos energia do que um modelo de uso geral” ("A task-specific model uses 20 to 30 times less energy than a general-purpose one").
A destilação dos modelos permite que grandes arquétipos sejam refinados para tarefas específicas, oferecendo uma alternativa viável para empresas que não podem investir em recursos computacionais massivos. Isso é crucial em um cenário onde, muitas vezes, “o maior poder computacional disponível não é necessariamente o que se necessita” ("I think that people probably don’t need as many GPUs as they think they do").
Aplicação e desempenho
As empresas, portanto, precisam repensar como e quando utilizar a computação. Uma abordagem recomendada é a implementação de “teoria do nudge” para sistemas, onde os usuários são induzidos a optarem por modos computacionais menos onerosos. Luccioni afirma que essa mudança de mentalidade pode reduzir significativamente o uso desnecessário de recursos: “Só o fato de as pessoas optarem por algo, em vez de saírem de algo, é um poderoso mecanismo de mudança de comportamento” ("Just getting people to opt into something versus opting out of something is actually a very powerful mechanism for changing people’s behavior").
Além disso, ajustar o tamanho dos lotes de dados processados e a precisão de processamento de acordo com o hardware disponível pode gerar melhorias significativas na eficiência energética e no desempenho dos modelos, minimizando o desperdício de memória e energia.
Impacto e mercado
Com a crescente pressão para reduzir custos e aumentar a eficiência, estruturas como a AI Energy Score foram criadas para promover a transparência no uso de energia por modelos de IA. Eloquente em sua proposta, Luccioni descreve isso como “uma espécie de Energy Star para IA” ("It could be considered the ‘Energy Star for AI’"). Essa abordagem busca incentivar a adoção de modelos que não apenas desempenhem bem suas tarefas, mas que também sejam energeticamente eficientes, criando assim um padrão de excelência neste setor.
Conforme as empresas buscam implementar práticas de IA mais eficientes, é vital começar com o entendimento de que mais recursos não necessariamente resultam em melhores desempenhos. O foco deve ser na utilização inteligente e no ajuste fino dos modelos existentes.
Neste contexto, o futuro se apresentará como uma demanda crescente por uma IA mais sustentável, capaz de entregar resultados robustos sem recorrência a gráficos de escalabilidade infinitos. As empresas que adotarem essas novas abordagens estarão posicionadas à frente no competitivo mercado de inteligência artificial.
Fonte: (VentureBeat – AI)