- Publicidade -
- Publicidade -
- Publicidade -
AI, ML & Deep Learning

Modelos de machine learning mostram limites na janela de contexto

- Publicidade -
- Publicidade -

São Paulo — InkDesign News — Um novo estudo investiga os limites de capacidade de memória de trabalho em modelos de linguagem (LLMs), mostrando que sua eficácia pode ser prejudicada mesmo antes de atingirem a capacidade total de janela de contexto.

Arquitetura de modelo

O trabalho apresenta um modelo teórico de computação que explica as falhas observadas em LLMs, como a dificuldade em lidar com enredos complexos, identificar buracos de trama e responder perguntas corretamente quando os documentos são semelhantes.

Treinamento e otimização

A pesquisa revela que, embora LLMs como Claude e Gemini 1.5 Pro tenham janelas de contexto que variam entre 200K e 2M de tokens, o “conjunto de trabalho” necessário para resolver tarefas complexas pode ser maior do que esses limites. Os modelos tendem a falhar quando precisam rastrear mais de cinco a dez variáveis simultaneamente, resultando em um desempenho semelhante ao de adivinhações aleatórias.

“As tarefas que exigem muito contexto para responder corretamente também requerem que o LLM rastreie muitas informações.” (Tasks that require a lot of context to answer a question correctly also require the LLM to track a lot of information.)— Pesquisador no estudo.

Resultados e métricas

O estudo classifica tarefas em duas categorias principais: aquelas que requerem alta memória de trabalho, chamadas de BAPO-difíceis, e aquelas que não exigem tanto, as BAPO-fáceis. Exemplos de tarefas BAPO-difíceis incluem a “acessibilidade em grafos” e a “classificação de opiniões”, enquanto tarefas mais simples, como encontrar o valor mínimo ou máximo em uma lista, são consideradas BAPO-fáceis.

Se tarefas não se encaixam nessas categorias, os pesquisadores sugerem usar métodos de decomposição para reduzir a carga de memória de trabalho. “Se a sua tarefa precisa de muita memória de trabalho e está falhando com frequência, considere decompor seu problema.” (If your task needs a lot of working memory and is failing often, consider decomposing your problem.)— Especialista em inteligência artificial.

Próximos passos em pesquisa

Compreender os limites da memória de trabalho pode orientar melhorias futuras em arquiteturas de LLMs. Novas abordagens em pesquisa focam em tokenização de raciocínio e alternativas para lidar com tarefas BAPO-difíceis. As descobertas destacam a necessidade de considerar a viabilidade das soluções propostas à medida que as demandas dos usuários aumentam.

Para mais informações sobre machine learning, confira nossa seção sobre machine learning e deep learning.

Fonte: (Towards Data Science – AI, ML & Deep Learning)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!