Tidigare moderatorer stämmer TikTok för trauma orsakat av att se “extremt störande” videor

6

Kort sagt: Inte för första gången, före detta innehållsmoderatorer stämmer TikTok för påståenden att företaget inte gjorde tillräckligt för att stödja dem när de tittade på extrema och grafiska videor som inkluderade sexuella övergrepp mot barn, våldtäkt, tortyr, bestialitet, halshuggning, självmord, och mord.

Ashley Velez och Reece Young lämnade in en grupptalan mot TikTok och moderbolaget Bytedance, skriver NPR. De arbetade genom tredjepartsentreprenörer Telus International och New York-baserade Atrium.

Stämningen hävdar att TikTok och ByteDance bröt mot Kaliforniens arbetslagar genom att inte ge Velez och Young adekvat mental hälsostöd i ett jobb som innebar att se "många handlingar av extremt och grafiskt våld." De var också tvungna att gå igenom hatretorik och konspirationsteorier som advokater säger hade en negativ inverkan på deras mentala välbefinnande.

"Vi skulle se döden och grafisk, grafisk pornografi. Jag skulle se nakna minderåriga barn varje dag," sa Velez. "Jag såg folk bli skjutna i ansiktet, och en annan video av ett barn som blev slagen fick mig att gråta i två timmar i sträck."

Klagandena säger att de bara fick två 15-minuterspauser under sin 12-timmars arbetsdag och var tvungna att granska videor i högst 25 sekunder innan de med mer än 80 % noggrannhet beslutade om innehållet bröt mot TikToks regler. Moderatorer skulle ofta titta på mer än en video på en gång för att uppfylla kvoterna, står det i rättegången, och anklagar TikTok för att införa höga "produktivitetsstandarder" på moderatorer.

Båda målsäganden säger att de var tvungna att betala för rådgivning av sina egna pengar för att hantera de psykologiska konsekvenserna av jobbet. De var också tvungna att underteckna sekretessavtal som hindrade dem från att diskutera sina arbetsdetaljer.

Stämningen hävdar att TikTok och ByteDance inte gjorde några ansträngningar för att tillhandahålla "lämpliga förbättrande åtgärder" för att hjälpa arbetare att hantera det extrema innehåll de utsattes för.

I december inledde en annan TikTok-moderator en liknande grupptalan mot företaget och Bytedance, men fallet lades ner förra månaden efter att målsäganden fick sparken, skriver NPR.

Under 2018 stämde en innehållsmoderator för Facebook-entreprenören Pro Unlimited det sociala nätverket efter att "den ständiga och oförminskade exponeringen för mycket giftiga och extremt störande bilder på arbetsplatsen" resulterade i PTSD. Facebook avgjorde fallet för 52 miljoner dollar. Det fanns också en YouTube-mod som stämde det Google-ägda företaget 2020 efter att ha utvecklat symtom på PTSD och depression, ett resultat av att ha granskat tusentals störande videor.

Inspelningskälla: www.techspot.com

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More