- Publicidade -
- Publicidade -
- Publicidade -
Inteligência Artificial

Estudo revela que LLMs com raciocínio curto aumentam AI em 34%

- Publicidade -
- Publicidade -

São Paulo — InkDesign News — Pesquisadores da Meta e da Universidade Hebraica de Jerusalém descobriram que encurtar o processo de raciocínio em modelos de linguagem grandes (LLMs) resulta em maior precisão em tarefas complexas, desafiando crenças predominantes na área de inteligência artificial.

Tecnologia e abordagem

O estudo recente testou a eficácia de cadeias de raciocínio mais curtas em sistemas de inteligência artificial, promovendo uma mudança no paradigma que tipicamente favorecia processos longos e detalhados. Os relatos indicam que os sistemas que adotaram essa nova abordagem, nomeada “short-m@k”, foram capazes de realizar tentativas de raciocínio em paralelo, interrompendo o processo ao completar as primeiras etapas. Isso resultou em uma votação final que selecionou a resposta correta entre as cadeias mais curtas.

Aplicação e desempenho

Os resultados mostraram que as cadeias de raciocínio mais curtas podem ser até 34,5% mais precisas que as mais longas para a mesma questão. “Em nosso trabalho, desafiamos a suposição de que longos processos de raciocínio resultam em melhores capacidades de raciocínio” fala Michael Hassid, autor principal do estudo. Além disso, a nova abordagem reduz os custos computacionais em até 40%, mantendo a performance equivalente às metodologias padrão.

Impacto e mercado

Nas atuais condições do mercado de IA, onde empresas buscam incessantemente por eficiência, esses achados demandam uma reavaliação das práticas de desenvolvimento. A pesquisa sugere que a ênfase em métodos que priorizem a eficiência pode otimizar não só custos, mas também a eficácia das implementações de IA. Segundo os autores, “nossos achados sugerem repensar os métodos atuais de computação em tempo de teste em LLMs de raciocínio”, mostrando que prolongar o “pensar” pode, contraintuitivamente, degradar os resultados.

Esse movimento pode acarretar economias significativas para as grandes empresas que dependem de modelos pesados, indicando que a inteligência artificial, ao abraçar a concisão, não apenas economiza recursos, mas também aprimora suas capacidades cognitivas.

Para profissionais de tecnologia avaliando investimentos em IA, considerações sobre a eficiência, em vez da mera potência computacional, tornam-se cada vez mais relevantes.

Fonte: (VentureBeat – AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!