
São Paulo — InkDesign News — A crescente adoção de machine learning traz desafios inesperados, como a necessidade de garantir que as previsões de modelos sejam intuitivas e lógicas. Este artigo explora a importância de imposições de monotonicidade em modelos de previsão.
Arquitetura de modelo
Modelos preditivos, como o XGBoost, têm se mostrado eficazes em diversas aplicações. No entanto, Alan e Aida, dois especialistas na área, perceberam que mesmo um modelo com forte desempenho, medido pelo coeficiente de determinação R², pode produzir resultados ilógicos. Por exemplo, uma casa de 2.000 pés quadrados sendo avaliada abaixo de uma de 1.500 pés quadrados.
“Isso não faz sentido.”
(“Wait a second… Why is this 2,000 sq. ft. home predicted cheaper than a 1,500 sq. ft. home? That doesn’t make sense.”)— Aida, Cientista, Instituição
Treinamento e otimização
A solução para esse problema é a introdução de restrições de monotonicidade. Essas restrições garantem que, ao aumentar a metragem quadrada de uma casa, o preço previsto nunca diminua. O treinamento do modelo também envolve a preparação de um conjunto de dados robusto, onde a relação entre as variáveis é mantida e testada.
“Precisamos de uma garantia. Isso é um problema de monotonicidade.”
(“We need a guarantee. This is a monotonicity problem.”)— Aida, Cientista, Instituição
Resultados e métricas
Após a implementação de restrições de monotonicidade, o modelo mostrou resultados mais confiáveis. Para uma casa de 1.500 pés quadrados, a previsão foi de R$ 300.000, enquanto uma de 2.000 pés quadrados foi avaliada em R$ 350.000. As métricas de desempenho melhoraram substancialmente, refletindo uma correlação direta entre o aumento da metragem e o preço.
“Agora, as previsões estão alinhadas com o conhecimento do domínio.”
(“Now the model respects domain knowledge.”)— Alan, Engenheiro, Instituição
A aplicação de restrições de monotonicidade não se limita apenas ao setor imobiliário, sendo igualmente crucial em áreas como aprovações de empréstimos e pontuações de crédito. Isso promove uma maior confiança por parte dos usuários e regulações, reforçando a necessidade de modelos que sejam tanto precisos quanto intuitivos. O próximo passo é continuar a pesquisa sobre como essas regras podem ser implementadas em diferentes contextos de negócios e melhorar a explicabilidade de modelos de deep learning.
Fonte: (Towards Data Science – AI, ML & Deep Learning)