En un mot: un modérateur de TikTok a poursuivi la plateforme et la société mère ByteDance pour ne pas avoir fourni de soutien aux travailleurs exposés à du contenu graphique, y compris de la pornographie juvénile, des décapitations et des fusillades dans des écoles.
Bloomberg rapporte que dans son projet de recours collectif, la modératrice de contenu Candie Frazier a déclaré qu’elle devait projeter des vidéos impliquant du cannibalisme, des têtes écrasées, des suicides et une chute mortelle d’un immeuble.
La plainte indique que bien que TikTok ait été l’une des nombreuses entreprises de médias sociaux à introduire des directives – telles que le soutien psychologique et la limitation des quarts de travail à quatre heures – conçues pour aider les modérateurs à faire face à l’exposition à la pornographie juvénile, l’entreprise ne les a pas mises en œuvre.
La poursuite indique également que les modérateurs de TikTok travaillent des quarts de 12 heures avec seulement une pause déjeuner d’une heure et deux pauses de 15 minutes, et qu’ils doivent regarder des centaines de vidéos chaque jour. Les avocats de Frazier ont déclaré que les employés n’étaient pas autorisés plus de 25 secondes par vidéo et visionnaient souvent trois à dix vidéos simultanément.
Frazier, une résidente de Las Vegas, dit qu’elle souffre maintenant d’un trouble de stress post-traumatique en raison des vidéos graphiques. Selon la plainte, elle a également du mal à dormir et fait d’horribles cauchemars lorsqu’elle dort.
Frazier demande une indemnisation pour les blessures psychologiques et une ordonnance du tribunal obligeant l’entreprise à créer un fonds médical pour les modérateurs.
Les modérateurs qui poursuivent les entreprises pour leur avoir prétendument causé le SSPT ne sont pas quelque chose de nouveau. Un modérateur de contenu pour l’entrepreneur de Facebook Pro Unlimited a poursuivi le réseau social en 2018 après que « l’exposition constante et sans faille à des images hautement toxiques et extrêmement dérangeantes sur le lieu de travail » ait entraîné le trouble. Il y a également eu le cas d’un mod YouTube qui a poursuivi la société appartenant à Google en 2020 après avoir développé des symptômes de SSPT et de dépression, à la suite de l’examen de milliers de vidéos dérangeantes.