- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

Ferramenta de fairness detecta viés em modelos de IA

- Publicidade -
- Publicidade -

São Paulo — InkDesign News —

A pesquisa recente sobre “machine learning” (ML) revelou um novo sistema, o FairSense, que promete mitigar os impactos de vieses em modelos de inteligência artificial antes que consequências graves ocorram, especialmente em decisões como concessão de empréstimos bancários.

Contexto da pesquisa

Desenvolvedores têm enfrentado desafios ao integrar padrões de equidade em sistemas de ML, uma vez que pequenas distorções em conjuntos de dados podem amplificar injustiças. O estudo foi realizado por pesquisadores da Carnegie Mellon University, que propuseram métodos para analisar a evolução da equidade em sistemas que operam em ambientes dinâmicos.

Método proposto

O FairSense, ferramenta desenvolvida pelo grupo, permite que desenvolvedores simulem sistemas de ML ao longo do tempo, capturando variáveis relevantes, como mudanças no comportamento de crédito dos usuários. Ao introduzir uma modelagem do ambiente de funcionamento do sistema, os pesquisadores estabeleceram métricas específicas de equidade, como a paridade nas aprovações de empréstimos entre diferentes grupos demográficos.

“O importante é pensar sobre feedback loops”
(“The key is to think about feedback loops”)

— Christian Kästner, Professor Associado, Carnegie Mellon University

Resultados e impacto

Os testes afetaram a metodologia tradicional, que geralmente analisa a equidade em um ponto fixo no tempo. Com o FairSense, é possível monitorar mudanças ao longo do tempo, prevenindo o que pode ser um ciclo vicioso de viés. O trabalho demonstrou que, ao identificar fatores que impactam a equidade, como o impacto de novos solicitantes de crédito, desenvolvedores podem agir proativamente para ajustar os modelos antes que atrasos de decisão causem desvantagens aos grupos afetados.

“Se observarmos um aumento na injustiça ao longo do tempo, o próximo passo é identificar os fatores centrais que afetam essa equidade”
(“If we observe an increase in unfairness over time, the next step is identifying the core factors affecting this fairness”)

— Yining She, Estudante de Doutorado, Carnegie Mellon University

Com a aplicação contínua do FairSense, espera-se que a monitorização da equidade em sistemas de ML seja uma prática comum, abordando questões fundamentais antes que se manifestem no mundo real. Pesquisadores planejam expandir as funções da ferramenta para incluir um monitoramento constante e um guia sobre como os sistemas podem se tornar injustos.

Fonte: (TechXplore – Machine Learning & AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!