- Publicidade -
- Publicidade -
- Publicidade -
AI, ML & Deep Learning

Transformers e atenção como máquinas de adição na modelagem

- Publicidade -
- Publicidade -

São Paulo — InkDesign News —

Pesquisadores estão explorando novas fronteiras em machine learning, focando em técnicas de interpretação mecânica que vão além dos métodos tradicionais de explicação, como SHAP e LIME.

Arquitetura de modelo

A análise de modelos profundos como os Transformers é fundamental. A arquitetura propõe que as operações de multiplicação e concatenação, tal como definidas no artigo “Attention is All You Need”, possam ser reimaginadas como operações de adição. Esse novo entendimento abre possibilidades para a compreensão das representações internas das redes neuronais.

A interpretação mecânica fornece um caminho de como a característica aprendida por diferentes neurônios em camadas distintas evolui na rede neural.
(“mechanistic interpretation understands things at a more granular level in that it is capable of providing a pathway of how the said feature is learnt by different neurons in different layers in the neural network.”)

— Autor, Titulação, Instituição

As dimensões operacionais dessas redes foram exploradas: com um tamanho de lote de 1, uma sequência de comprimento 20 e um vocabulário de 50.000 palavras, cada vetor de consulta, chave e valor (Q, K, V) se ajusta a 512 dimensões, permitindo um controle eficiente das atenções multi-cabeça, que tradicionalmente é avaliado de maneira concatenada.

Treinamento e otimização

O processo de treinamento envolve a extração de embeddings, adição de codificações posicionais e o uso de transformações lineares em múltiplas cabeças. Essa abordagem mantém a mesma eficácia das operações somadas que antes eram concatenadas. O tempo de treinamento varia de acordo com a complexidade do modelo e a quantidade de dados.

Essas operações permitem traçar caminhos de como os recursos são aprendidos através das adições ao longo das camadas.
(“this view opens up new possibilities like tracing features as they are learnt via additions through the layers.”)

— Autor, Titulação, Instituição

Resultados e métricas

As métricas de desempenho mostram que a nova abordagem de suma e projeção é matematicamente equivalente à concatenação tradicional seguida de projeção, uma descoberta que pode impactar significativamente o campo das redes neurais. Estudos futuros irão aprofundar esta nova perspectiva de operação em redes profundas.

A aplicação prática dessa interpretação no deep learning pode melhorar as técnicas de previsão em áreas como processamento de linguagem natural, onde a capacidade de explicar as decisões dos modelos é crucial.

Fonte: (Towards Data Science – AI, ML & Deep Learning)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!