
São Paulo — InkDesign News —
A pesquisa recente sobre “machine learning” (ML) revelou um novo sistema, o FairSense, que promete mitigar os impactos de vieses em modelos de inteligência artificial antes que consequências graves ocorram, especialmente em decisões como concessão de empréstimos bancários.
Contexto da pesquisa
Desenvolvedores têm enfrentado desafios ao integrar padrões de equidade em sistemas de ML, uma vez que pequenas distorções em conjuntos de dados podem amplificar injustiças. O estudo foi realizado por pesquisadores da Carnegie Mellon University, que propuseram métodos para analisar a evolução da equidade em sistemas que operam em ambientes dinâmicos.
Método proposto
O FairSense, ferramenta desenvolvida pelo grupo, permite que desenvolvedores simulem sistemas de ML ao longo do tempo, capturando variáveis relevantes, como mudanças no comportamento de crédito dos usuários. Ao introduzir uma modelagem do ambiente de funcionamento do sistema, os pesquisadores estabeleceram métricas específicas de equidade, como a paridade nas aprovações de empréstimos entre diferentes grupos demográficos.
“O importante é pensar sobre feedback loops”
(“The key is to think about feedback loops”)— Christian Kästner, Professor Associado, Carnegie Mellon University
Resultados e impacto
Os testes afetaram a metodologia tradicional, que geralmente analisa a equidade em um ponto fixo no tempo. Com o FairSense, é possível monitorar mudanças ao longo do tempo, prevenindo o que pode ser um ciclo vicioso de viés. O trabalho demonstrou que, ao identificar fatores que impactam a equidade, como o impacto de novos solicitantes de crédito, desenvolvedores podem agir proativamente para ajustar os modelos antes que atrasos de decisão causem desvantagens aos grupos afetados.
“Se observarmos um aumento na injustiça ao longo do tempo, o próximo passo é identificar os fatores centrais que afetam essa equidade”
(“If we observe an increase in unfairness over time, the next step is identifying the core factors affecting this fairness”)— Yining She, Estudante de Doutorado, Carnegie Mellon University
Com a aplicação contínua do FairSense, espera-se que a monitorização da equidade em sistemas de ML seja uma prática comum, abordando questões fundamentais antes que se manifestem no mundo real. Pesquisadores planejam expandir as funções da ferramenta para incluir um monitoramento constante e um guia sobre como os sistemas podem se tornar injustos.
Fonte: (TechXplore – Machine Learning & AI)