Em poucas palavras: um moderador do TikTok processou a plataforma e a controladora ByteDance por não fornecer suporte a trabalhadores expostos a conteúdo gráfico, incluindo pornografia infantil, decapitações e tiroteios em escolas.
Bloomberg relata que em sua proposta de ação coletiva, a moderadora de conteúdo Candie Frazier diz que teve que exibir vídeos envolvendo canibalismo, cabeças esmagadas, suicídios e uma queda fatal de um prédio.
A denúncia afirma que, embora o TikTok tenha sido uma das várias empresas de mídia social a introduzir diretrizes – como apoio psicológico e limitação de turnos a quatro horas – projetadas para ajudar os moderadores a lidar com a exposição à pornografia infantil, a empresa não as implementou.
O processo também afirma que os moderadores do TikTok trabalham em turnos de 12 horas com apenas uma hora de almoço e dois intervalos de 15 minutos, e que devem assistir a centenas de vídeos por dia. Os advogados de Frazier disseram que os funcionários não têm mais de 25 segundos por vídeo e geralmente assistem de três a dez vídeos simultaneamente.
Frazier, moradora de Las Vegas, diz que agora tem transtorno de estresse pós-traumático devido aos vídeos gráficos. De acordo com a queixa, ela também tem problemas para dormir e sofre de pesadelos horríveis quando dorme.
Frazier está buscando compensação por danos psicológicos e uma ordem judicial exigindo que a empresa crie um fundo médico para moderadores.
Moderadores processando empresas por supostamente causar transtorno de estresse pós-traumático não é algo novo. Um moderador de conteúdo para o contratante do Facebook Pro Unlimited processou a rede social em 2018 depois que a “exposição constante e irrestrita a imagens altamente tóxicas e extremamente perturbadoras no local de trabalho” resultou no distúrbio. Houve também o caso de um mod do YouTube que processou a empresa do Google em 2020 depois de desenvolver sintomas de TEPT e depressão, resultado da revisão de milhares de vídeos perturbadores.