Chaturbate enfrenta processo por trauma psicológico de ex-moderador

São Paulo — InkDesign News — O crescente debate sobre o bem-estar dos moderadores de conteúdo na internet ganha novos contornos a partir de uma ação judicial movida por um ex-moderador da plataforma Chaturbate, que alega ter sofrido danos psicológicos devido à exposição contínua a material sexualmente explícito.
Contexto e lançamento
Neal Barber, contratado como moderador pela Chaturbate em 2020, ingressou com uma ação coletiva contra a plataforma e suas afiliadas, assegurando que seus empregadores não ofereceram as mínimas proteções de saúde mental reconhecidas na indústria, como filtros de conteúdo e terapia. Os moderadores de plataformas de conteúdo adulto têm um papel crucial, atuando como a primeira linha de defesa contra a disseminação de material abusivo e ilegal.
Design e especificações
O processo indica que Barber desenvolveu transtorno de estresse pós-traumático (PTSD) e outras lesões emocionais severas devido à exigência de visualizar e interagir com conteúdo ao mesmo tempo sexualmente explícito e psicologicamente perturbador. No documento, é afirmado que ele agora experimenta pesadelos vívidos, distanciamento emocional e ataques de pânico, sintomas associados ao PTSD e que requerem tratamento médico contínuo.
Repercussão e aplicações
A situação dos moderadores de conteúdo, particularmente em sites de pornografia, levanta questões éticas e de saúde mental que têm ecoado na indústria.
“Essas lesões eram não apenas previsíveis, mas preveníveis”,
(“These injuries were not only foreseeable, but preventable.”)— Neal Barber, Autor da Ação Judicial
Tal afirmação pontua uma crítica ampla à falta de suporte que esses trabalhadores recebem. Além disso, várias outras plataformas, como a Meta, enfrentam ações judiciais semelhantes por questões relacionadas ao tratamento de moderadores, evidenciando um padrão preocupante de negligência. Recentemente, 140 moderadores que trabalharam para o Facebook relataram diagnóstico de PTSD após exposição a conteúdos extremos, incluindo cenas de violência e abusos.
O uso de sistemas automatizados e inteligência artificial para moderar conteúdos está se tornando cada vez mais comum, embora muitas vezes a supervisão humana seja indispensável. A Chaturbate, que já enfrentou multas significativas por não implementar mecanismos de verificação de idade, reflete as crescentes dificuldades que as plataformas do setor enfrentam em um clima regulatório cada vez mais rigoroso.
Diante do cenário atual, é evidente que a proteção e a saúde mental dos moderadores de conteúdo devem ser uma prioridade para as plataformas online, a fim de evitar danos permanentes em um setor em franca expansão.
Fonte: (Gizmodo – Cultura Tech & Geek)