Novo algoritmo otimiza machine learning com estruturas simétricas

São Paulo — InkDesign News —
Pesquisadores do MIT desenvolveram um novo algoritmo que melhora a eficiência de modelos de machine learning ao lidar com dados simétricos, potencializando aplicações em diversas áreas, como descoberta de novos materiais e análise de padrões climáticos.
Contexto da pesquisa
Estudos anteriores mostraram que modelos de machine learning podem falhar ao interpretar dados simétricos, levando a previsões imprecisas sobre propriedades moleculares. O entendimento da simetria é crucial para a acurácia em diversos domínios científicos. “Essas simetrias são importantes porque são uma sorte de informação que a natureza está nos dizendo sobre os dados, e devemos levá-las em conta em nossos modelos de machine learning. Agora mostramos que é possível realizar machine learning com dados simétricos de forma eficiente” (”These symmetries are important because they are some sort of information that nature is telling us about the data, and we should take it into account in our machine-learning models. We’ve now shown that it is possible to do machine-learning with symmetric data in an efficient way.”)
— Behrooz Tahmasebi, Graduate Student, MIT
Método proposto
A nova abordagem combinou conceitos de álgebra e geometria para criar um algoritmo eficiente que lida diretamente com a simetria. Ao invés de usar técnicas tradicionais, como data augmentation, que podem ser computacionalmente onerosas, o novo método formula um problema de otimização que requer menos dados para treinamento, aumentando a eficiência em comparação aos métodos clássicos.
Resultados e impacto
O estudo provou que é possível desenvolver algoritmos eficientes para machine learning com simetria, aumentando a acurácia e a adaptabilidade dos modelos em aplicações práticas. Com prováveis melhorias nos modelos de redes neurais, os pesquisadores esperam que suas descobertas resultem em arquitecturas mais robustas e interpretáveis para machine learning. “Uma vez que entendermos melhor isso, podemos projetar arquiteturas de redes neurais mais interpretáveis, robustas e eficientes” (”Once we know that better, we can design more interpretable, more robust, and more efficient neural network architectures.”)
— Ashkan Soleymani, Graduate Student, MIT
Essas inovações têm o potencial de transformar práticas em campos que vão desde a química até a astrofísica, simplificando a análise de dados simétricos e levando a descobertas significativas.
Fonte: (TechXplore – Machine Learning & AI)