Ex-moderadores processam o TikTok por trauma causado pela exibição de vídeos “extremamente perturbadores”

5

Em resumo: não pela primeira vez, ex-moderadores de conteúdo estão processando o TikTok por alegações de que a empresa não fez o suficiente para apoiá-los enquanto assistiam a vídeos extremos e gráficos que incluíam abuso sexual infantil, estupro, tortura, bestialidade, decapitações, suicídio, e assassinato.

Ashley Velez e Reece Young entraram com uma ação coletiva contra o TikTok e a empresa controladora Bytedance, escreve a NPR. Eles trabalharam por meio de empreiteiros terceirizados Telus International e Atrium, com sede em Nova York.

O processo alega que o TikTok e o ByteDance violaram as leis trabalhistas da Califórnia ao não fornecer a Velez e Young suporte adequado à saúde mental em um trabalho que envolvia a visualização de "muitos atos de violência extrema e gráfica". Eles também tiveram que enfrentar discursos de ódio e teorias da conspiração que os advogados dizem ter um impacto negativo em seu bem-estar mental.

"Víamos morte e pornografia gráfica e gráfica. Eu via crianças menores de idade nuas todos os dias", disse Velez. "Eu via pessoas sendo baleadas no rosto, e outro vídeo de uma criança sendo espancada me fez chorar por duas horas seguidas."

Os queixosos dizem que foram permitidos apenas dois intervalos de 15 minutos em seu dia de trabalho de 12 horas e tiveram que revisar vídeos por não mais de 25 segundos antes de decidir com mais de 80% de precisão se o conteúdo violava as regras do TikTok. Os moderadores costumavam assistir a mais de um vídeo ao mesmo tempo para cumprir as cotas, diz o processo, acusando o TikTok de impor altos "padrões de produtividade" aos moderadores.

Ambos os demandantes dizem que tiveram que pagar pelo aconselhamento com seu próprio dinheiro para lidar com o impacto psicológico do trabalho. Eles também tiveram que assinar acordos de confidencialidade que os impediam de discutir seus detalhes de trabalho.

O processo alega que o TikTok e o ByteDance não fizeram nenhum esforço para fornecer "medidas de melhoria apropriadas" para ajudar os trabalhadores a lidar com o conteúdo extremo ao qual foram expostos.

Em dezembro, outro moderador do TikTok lançou uma ação coletiva semelhante contra a empresa e a Bytedance, mas o caso foi arquivado no mês passado depois que o autor foi demitido, escreve a NPR.

Em 2018, um moderador de conteúdo do contratante do Facebook Pro Unlimited processou a rede social depois que a “exposição constante e irrestrita a imagens altamente tóxicas e extremamente perturbadoras no local de trabalho" resultou em TEPT. O Facebook resolveu o caso por US$ 52 milhões. Houve também um mod do YouTube que processou a empresa do Google em 2020 depois de desenvolver sintomas de TEPT e depressão, resultado da revisão de milhares de vídeos perturbadores.

Fonte de gravação: www.techspot.com

Este site usa cookies para melhorar sua experiência. Presumiremos que você está ok com isso, mas você pode cancelar, se desejar. Aceitar Consulte Mais informação