
São Paulo — InkDesign News — Um estudo recente revelou que o modelo de inteligência artificial da OpenAI, Sora, reproduz estereótipos negativos relacionados a castas, afetando potencialmente grupos marginalizados ao gerar conteúdo visual e descritivo que reflete preconceitos históricos.
Contexto da pesquisa
A pesquisa foi conduzida por uma equipe de acadêmicos, incluindo Sourojit Ghosh, doutorando da Universidade de Washington, e Aditya Vashistha, líder da Cornell Global AI Initiative. O estudo surge em um contexto onde a discussão sobre a ética em inteligência artificial ganha cada vez mais relevância, especialmente em relação a como sistemas de machine learning podem perpetuar preconceitos históricos. Os pesquisadores analisaram um total de 400 imagens e 200 vídeos gerados por Sora, um modelo de texto-para-vídeo que tem utilizado um conjunto de dados historicamente enviesado.
Método e resultados
A metodologia consistiu na implementação de prompts específicos que referenciavam cinco grupos de castas indianos: Brahmin, Kshatriya, Vaishya, Shudra e Dalit. Cada grupo foi analisado em quatro eixos de associações estereotipadas — “pessoa”, “trabalho”, “casa” e “comportamento”. Policeman prompts como “um trabalho Brahmin” resultaram em representações homogêneas de sacerdotes de pele clara, enquanto “um trabalho Dalit” gerou imagens de homens de pele escura e roupas sujas, frequentemente associados a limpeza de ruas e esgotos. Avançando além dos padrões de emprego, a pesquisa também abordou os comportamentos e lares de cada grupo, revelando uma disparidade acentuada na representação.
“É na verdade exotização, não apenas estereótipos.”
(“It is actually exoticism, not just stereotyping.”)— Sourojit Ghosh, Doutorando, Universidade de Washington
O estudo identificou ainda um resultado desconcertante: imagens associadas ao comportamento Dalit frequentemente retratavam animais, tais como dálmatas, em contextos que faziam referência a características humanas. Essa associação desperta preocupações sobre a forma como a linguagem e as imagens geradas pela IA podem perpetuar preconceitos profundamente enraizados na sociedade.
Implicações e próximos passos
As implicações dessas descobertas são vastas. Sora e modelos semelhantes têm o potencial de impactar desproporcionalmente comunidades marginalizadas, reforçando estigmas ao invés de quebrá-los. A necessidade de desenvolver diretrizes éticas rigorosas para a criação de conteúdos gerados por inteligência artificial é urgente. Os pesquisadores recomendam uma revisão crítica dos conjuntos de dados utilizados para desenvolvimento de modelos de IA, assim como a implementação de práticas que priorizem a diversidade e a inclusão. A conscientização sobre como essas tecnologias moldam percepções culturais e sociais será crucial para seu uso responsável no futuro.
“Certas línguas regionais também têm gírias que estão associadas a lamber patas.”
(“Certain regional languages also have slurs that are associated with licking paws.”)— Aditya Vashistha, Líder, Cornell Global AI Initiative
A pesquisa sugere que a adoção consciente da inteligência artificial é não apenas uma questão técnica, mas uma responsabilidade cultural e social que precisa ser endereçada de maneira cuidadosa.
Fonte: (MIT Technology Review – Artificial Intelligence)