TIGGER WARNING : mention de contenus violents.
Sur les réseaux sociaux mainstream, il arrive de temps en temps de tomber sur des vidéos choquantes qui tournent quelques heures avant d’être supprimées à tout jamais. Mais vous n’avez probablement jamais eu la malchance de croiser une vidéo de décapitation au détour de vos scrolls sur Facebook ou TikTok. Et cela, c’est grâce à des milliers de modérateurs et modératrices qui doivent se farcir les pires contenus pour assurer votre sécurité. Mais à quel prix ?
Une ancienne modératrice crache le morceau sur les innombrables heures de vidéos traumatisantes qu’elle a dû ingurgiter chaque jour, dont certaines montraient des scènes de cannibalisme, de viols, de mutilations d’animaux ou encore de suicides.
Voyant sa santé mentale se dégrader à vue d’oeil, la femme a décidé de poursuivre TikTok et sa société mère, ByteDance, pour ne pas avoir pris de mesures visant à protéger les employés.
Des conditions de travail déplorables…
Une fois de plus, TikTok est dans la sauce… Bien que le géant ait annoncé plus tôt dans le mois vouloir renforcer ses efforts pour garantir la préservation de la santé mentale de ses jeunes utilisateurs et utilisatrices, on ne peut s’empêcher de se demander : au prix de quels sacrifices ? Car dans l’ombre, la santé mentale du personnel ne semble pas être la priorité de la plateforme.
L’ex-employée, Candie Frazier, qui travaillait pour une société tierce, a levé le voile sur les conditions de travail des modérateurs et modératrices de TikTok. Selon elle, ils et elles travailleraient à un rythme effréné et seraient obligés d’examiner des centaines de vidéos par jour à raison de journées de 12 heures, avec pour seuls temps de répit deux pauses de 15 minutes.
Avec leurs longues heures de travail dans les pattes, les employés doivent regarder entre trois et dix vidéos à la fois, et n’examiner que 25 secondes de chaque contenu, pour aller plus vite. Pourtant, des pauses, ils et elles en auraient bien besoin. Car ce qui défile devant leurs écrans n’est pas de tout repos…
Au-delà de la pression que nécessite ce rythme intenable, les 10 000 modérateurs et modératrices engagées pour le compte de TikTok visionnent à longueur de journée des vidéos de pédocriminalité, de cannibalisme, de viols, de fusillades de mutilations d’animaux et de suicides. Des scènes d’une violence extrême qu’ils et elles doivent examiner par centaine avec le son.
Si on devait imaginer une technique de torture, on ne ferait pas mieux.
Avec des conséquences directes sur la santé mentale
D’ailleurs, on imagine bien ce que ce genre de torture inflige au cerveau et au moral…
La modératrice affirme avoir développé des crises de panique, une dépression, de l’anxiété, un syndrome de stress post-traumatique et aurait du mal à trouver le sommeil. L’action en justice allègue que TikTok n’a pas respecté les normes du secteur visant à protéger les modérateurs de contenu, notamment en leur offrant des pauses fréquentes et un soutien psychologique.
La plaignante affirme aussi que la plateforme n’a pas mis en place de mesures de protection techniques, comme le floutage ou la réduction de la résolution des vidéos, et demande un dédommagement pour les préjudices psychologiques subis. D’après le site Gizmodo, l’ex-modératrice souhaite également « que le tribunal oblige la société à créer un fonds médical pour les modérateurs de contenu. »
Pour sa défense, le porte-parole de TikTok a affirmé qu’il ne commenterait pas « les litiges en cours », mais a tout de même pris le temps d’ajouter :
« Notre équipe de sécurité s’associe à des entreprises tierces pour le travail essentiel de protection de la plateforme et de la communauté TikTok, et nous continuons à développer une gamme de services de bien-être afin que les modérateurs se sentent soutenus mentalement et émotionnellement. »
Ce n’est pas la première fois qu’un gros réseau social est épinglé pour cette raison. En 2020, Facebook a ainsi dû verser 52 millions de dollars aux modérateurs actuels et anciens pour les dédommager des problèmes de santé mentale qu’ils ont développés.
À la suite de cette condamnation, Facebook avait accepté de mettre en place des dispositifs pour réduire l’impact de la visualisation d’images et de vidéos choquantes. Parmi ces outils : la coupure du son par défaut, le passage des vidéos en noir et blanc et l’accès à des séances hebdomadaires de coaching individuel avec un professionnel de la santé mentale.
Un bon départ. Qu’en sera-t-il pour TikTok ?
À lire aussi : TikTok veut bloquer les contenus qui plombent la santé mentale des plus jeunes
Crédits photos : Yan Krukov et Anna Shvets (Pexels)
Vous aimez nos articles ? Vous adorerez nos newsletters ! Abonnez-vous gratuitement sur cette page.
Les Commentaires
D'ailleurs un journaliste de Cash Investigation s'est infiltré dans cette entreprise qui travaille pour Facebook et tu vois bien que la plupart des conseils données par la formatrice, c'est : respire un bon coup et tu repars.
Reportage là