Novo conjunto de dados auxilia detecção de estereótipos em modelos de IA

Cambridge, EUA — InkDesign News — Pesquisadores desenvolveram um conjunto de dados multilíngue para identificar estereótipos prejudiciais em modelos de inteligência artificial de linguagem, buscando aprimorar a avaliação e a correção dessas falhas e, assim, aumentar a precisão e justiça desses modelos.
Contexto da pesquisa
O avanço dos modelos de machine learning para processamento de linguagem natural tem levantado preocupações sobre vieses sociais e culturais embutidos nesses sistemas. Estereótipos incorporados em dados de treinamento podem comprometer a atuação dos modelos e perpetuar discriminações. Inserido nesse desafio, o projeto SHADES surgiu da necessidade de uma ferramenta diagnóstica capaz de mapear vieses por meio de dados culturais diversificados, abrangendo múltiplas línguas e regiões. Essa iniciativa conta com a colaboração de falantes nativos e fluentes de idiomas como árabe, chinês, holandês, entre outros, contribuindo para preencher lacunas deixadas por estudos anteriores, muitas vezes restritos ao inglês ou poucas línguas ocidentais.
Método e resultados
O processo envolveu tradução e anotação rigorosas: os participantes relataram estereótipos prevalentes em suas línguas, os quais foram verificados por outros falantes nativos para assegurar autenticidade. Cada estereótipo foi rotulado segundo a região de reconhecimento, o grupo social alvo e a categoria de viés presente. Posteriormente, as frases foram traduzidas para o inglês — línguagem comum entre os colaboradores — e, em seguida, traduzidas de volta para outras línguas para validar sua abrangência cultural. Ao todo, foram catalogados 304 estereótipos relacionados a características físicas, identidades pessoais e fatores sociais como ocupação.
“I hope that people use [SHADES] as a diagnostic tool to identify where and how there might be issues in a model,” diz Talat.
(“Espero que as pessoas usem [SHADES] como uma ferramenta diagnóstica para identificar onde e como pode haver problemas em um modelo”)— Talat, pesquisador envolvido no projeto SHADES
Este mapeamento permite compreender lacunas e aspectos ausentes em modelos de linguagem, direcionando esforços para aprimorar a confiabilidade das representações computacionais.
Implicações e próximos passos
O conjunto SHADES, disponibilizado publicamente, oferece uma base para que outros pesquisadores incluam novas línguas, estereótipos e regiões, fomentando uma construção coletiva rumo a modelos de linguagem mais inclusivos e acurados. A colaboração global facilita reconhecimento das sutilezas culturais e contribui para a ética no desenvolvimento tecnológico.
“There’s a good coverage of different languages and cultures that reflects their subtlety and nuance,” destaca Myra Cheng, estudante de doutorado em Stanford.
(“Há uma boa cobertura de diferentes línguas e culturas que refletem sua sutileza e nuance”)— Myra Cheng, PhD student, Stanford University
O desafio ético reside na constante atualização e ampliação das coleções de dados, para que modelos de linguagem não reproduzam estigmas ou prejudiquem grupos específicos. Assim, o SHADES orienta o caminho para tecnologias mais justas, refletindo diversidade global. Mitchell, integrante do projeto, enfatiza o esforço colaborativo que impulsiona esses avanços.
“It’s been a massive collaborative effort from people who want to help make better technology,” afirma Mitchell.
(“Tem sido um enorme esforço colaborativo de pessoas que querem ajudar a criar uma tecnologia melhor”)— Mitchell, colaborador do projeto SHADES
Com a apresentação prevista para a conferência anual da Associação para Linguística Computacional em maio, o SHADES pode revolucionar a forma como pesquisadores interpretam e corrigem vieses em modelos de linguagem, ampliando sua eficácia e responsabilidade social.
Fonte: (MIT Technology Review – Artificial Intelligence)