Internet

Moderadora demandó a TikTok por estrés postraumático: pasaba 12 horas diarias revisando contenido perturbador

A Candie Frazier, una moderadora de videos de TikTok, luego se le prohibió trabajar en posible represalia por su solicitud.

Las condiciones de trabajo de los moderadores de redes sociales pueden llegar a ser terribles. En 2020, Facebook tuvo que pagar 52 millones de dólares por trastorno por estrés postraumático de varios empleados: ahora TikTok recibió una demanda similar.

Candie Frazier, una moderadora de videos de TikTok, demandó al frente de un colectivo a ByteDance (empresa matriz) por generarle trastorno por estrés postraumático.

Según reportó inicialmente The Verge, Frazier luego fue apartada de su trabajo como una posible represalia.

El origen del estrés postraumático de Candie Frazier y sus compañeros

La moderadora es empleada de la firma Telus International, contratada por TikTok para revisar sus videos. De acuerdo con la demandante, debía pasar hasta 12 horas chequeando contenido perturbador, como actos de violencia extrema y gráfica, incluyendo violación infantil, mutilación de animales, agresión sexual y tiroteos masivos.

Frazier desarrolló, debido a “la exposición constante y sin paliativos al contenido altamente tóxico”, TEPT, ansiedad y depresión. La demandante sufre “pesadillas horribles” y a menudo reproduce “videos que ha visto en su mente”.

El texto introducido ante el Tribunal de Distrito de los Estados Unidos para el Distrito Central de California señala que ni ByteDance ni TikTok han implementado estándares de seguridad.

Estos serían, por ejemplo, deshabilitar el audio y minimizar o difuminar el contenido perturbador. Tampoco brindan apoyo adecuado de salid mental.

Explica la demanda que los moderadores de contenidos ven de tres a 10 videos al mismo tiempo, y no pasan más de 25 segundos en un solo video por el gran volumen de contenido de TikTok.

La posición de TikTok respecto a la demanda

Business Insider conversó con un portavoz de TikTok que, pese a negarse a conversar sobre el caso, sí manifestó que la plataforma “se esfuerza por promover un ambiente de trabajo atento para nuestros empleados y contratistas”, y continúa “expandiendo una gama de servicios de bienestar” para el apoyo mental y emocional de los moderadores.

En 2020 Facebook, actualmente Meta, pagó 52 millones de dólares como parte de un acuerdo con moderadores diagnosticados con trastorno por estrés postraumático. Actualmente la compañía ha invertido en Inteligencia Artificial para realizar revisiones sobre contenido que afecte a la comunidad, pero no siempre es preciso al momento de retirarlo.

Muchos piden que se trabaje más con moderadores humanos, aunque esto implique situaciones como la que ocurre hoy con TikTok y ByteDance.

Tags

Lo Último


Te recomendamos