El contenido que normalmente se consume por parte de la mayoría de la población no es ni mucho menos todo el que se sube. Esto no es un misterio en España; la Deep Web o la Dark Web son sitios donde encontrar el material que las propias redes sociales 'filtran' antes de que lleguen a los usuarios. No obstante, este problema lo tienen que afrontar los moderadores de contenido. Y uno ha demandado a TikTok por este asunto.
Según adelantan en The Verge, un moderador de contenido que ya no trabaja en TikTok ha demandado a ByteDance, la compañía detrás de la titánica red social, debido a los problemas de salud mental que está generando la continua exposición de imágenes dañinas para la sensibilidad para sus moderadores.
Candie Frazier asegura que las medidas de protección que ByteDance ofrece a sus moderadores de contenido son insuficientes, y denuncia que sus compañeros de moderación están expuestos a horas y horas de contenido extremo, entre los que se incluyen violencia, abusos sexuales y otras prácticas delictivas.
Moderación en TikTok
Candie, junto a otros compañeros, ha presentado una demanda colectiva ante el Tribunal de Distrito Central de California, Estados Unidos. Frazier asegura que cuando trabajaba moderando vídeos para TikTok, tenía que pasar hasta 12 horas al día revisando vídeos increíblemente dañinos subidos a la red social para que no pasaran el corte.
Hay que aclarar que no fue la propia TikTok la que contrató ni a Frazier ni a otros trabajadores, ya que este apartado se dejó en manos de una empresa de contratación externa, Telus International. Frazier, aún con todo, asegura que revisó vídeos tan difíciles de consumir y de forma tan continuada, que esto evidentemente le ha pasado factura.
Según Frazier, tanto ella como sus compañeros tenían que ver hasta 10 vídeos de forma simultánea, ya que se cargaban a la red social aproximadamente cada 25 segundos de media. Las condiciones de trabajo que describe Frazier serían de carácter abusivo; descansos de apenas 15 minutos en las primeras 4 horas de turno, con descansos de 15 minutos cada dos horas consecutivas.
Pero el problema principal se basa en el consumo de dicho contenido dañino. Frazier asegura que tuvo que consumir miles de vídeos en los que se mostraba violencia "extrema y gráfica", con imágenes de asesinato animal, canibalismo, genocidios, asesinatos de bandas rivales, tiroteos masivos e incluso llegando al abuso infantil.
La demanda reza que Frazier ha sufrido "un trauma psicológico severo" que incluye tanto ansiedad como trastorno de estrés postraumático, así como depresión. Esto le ha acarreado problemas de sueño, que incluyen pesadillas y ataques de pánico. Además, Candie acusa a TikTok y sus socios de no haber establecido medidas de seguridad reconocidas por la industria de la moderación de contenido para evitar, precisamente, estos problemas.
TikTok ha respondido a esta polémica, asegurando que desde la empresa se promueve "un entorno de trabajo afectuoso para nuestros empleados y contratistas". Aseguran que se esfuerzan de forma diaria para que sus moderadores "se sientan apoyados mental y emocionalmente".
No es la primera vez
Lo cierto es que el caso de Frazier no es ni mucho menos novedoso. Todo lo contrario; prácticamente todos los gigantes de la industria tecnológica que basan parte de su negocio en la subida de contenido a plataformas de Internet cuentan con moderadores que efectivamente han sufrido estos mismos problemas. Algunas de las implicadas son Facebook (ahora Meta), Google o YouTube.
Todas estas empresas han reportado casos similares que, además, han acabado con prácticamente las mismas consecuencias. Por ejemplo, una investigación del año pasado reveló que la moderación de contenido en YouTube podía generar trastornos de estrés postraumático y que los trabajadores tenían que reconocerlo por escrito. Un hecho que también fue criticado en el ámbito legal.
Tanto es así que Meta, anteriormente Facebook, fue demandada por los mismos hechos que denuncia Frazier. Tanto es así que el bufete de abogados que lleva el caso de la afectada es el mismo que presentó una demanda en 2018 contra la empresa de Mark Zuckerberg por estas mismas cuestiones, consiguiendo una indemnización a los moderadores de contenido por un valor de 52 millones de dólares.
También te puede interesar...
- Aluvión de 'escorts' y pornografía en la red social de los seguidores de Trump
- Tus datos médicos valen menos que un café para los hackers de la Dark Web
- La misteriosa desaparacición de REvil, los hackers más buscados de internet