
São Paulo — InkDesign News —
A pesquisa recente sugere que a inteligência artificial (AI) pode se tornar mais sustentável por meio de ajustes práticos, como a redução do número de casas decimais em modelos de AI, o encurtamento das respostas e a utilização de modelos menores, segundo estudos da UCL.
Contexto da pesquisa
Com o crescimento do uso de modelos de linguagem de grande porte (LLMs), como o ChatGPT da OpenAI, a demanda por recursos como eletricidade e água nas instalações de dados tem aumentado exponencialmente. O relatório, que será apresentado na AI for Good Global Summit em Genebra, avalia soluções para reduzir o consumo energético dos modelos de AI.
Método proposto
Os pesquisadores da UCL Computer Science realizaram uma série de experimentos com o modelo LLaMA 3.1 8B da Meta para medir o impacto de alterações na configuração dos modelos de AI em sua eficiência energética. Utilizando a técnica de quantização, os pesquisadores reduziram o uso energético do modelo em até 44%, mantendo pelo menos 97% de precisão em tarefas comuns.
“Nossa pesquisa mostra que há passos relativamente simples que podemos tomar para reduzir drasticamente as demandas de energia e recursos da AI generativa, sem sacrificar a precisão e sem inventar soluções inteiramente novas.”
(“Our research shows that there are relatively simple steps we can take to drastically reduce the energy and resource demands of generative AI, without sacrificing accuracy and without inventing entirely new solutions.”)— Ivana Drobnjak, Professora e Pesquisadora, UCL Computer Science
Resultados e impacto
Os resultados indicaram que a combinação de redução de quantidade de palavras em prompts e respostas, junto à implementação de modelos menores para tarefas específicas, poderia resultar em uma economia de energia de até 90%, o que equivale ao consumo elétrico de 30.000 lares no Reino Unido em um único dia. O estudo também sugeriu que, para tarefas repetitivas, o uso de modelos especializados em vez de grandes modelos abrangentes poderia oferecer vantagens significativas em eficiência energética.
“Os maiores ganhos em eficiência energética podem ser obtidos ao mudar de grandes modelos para modelos menores e especializados em determinadas tarefas.”
(“The biggest gains in energy efficiency can be achieved by switching from large models to smaller, specialized models in certain tasks.”)— Hristijan Bosilkovski, Autor e Graduado, UCL
A pesquisa sublinha a importância de alinhar o tamanho dos modelos às necessidades específicas das tarefas a serem realizadas, visando uma revolução da AI mais acessível e sustentável.
Fonte: (TechXplore – Machine Learning & AI)