La aplicación Tiktok en un móvil

La aplicación Tiktok en un móvil Europa Press

Vida

La empresa que filtra la violencia en Tiktok niega que los vídeos de decapitaciones se revisen en Cataluña

La denunciante asegura que llegaba a ver entre 800 y 1.200 vídeos de violaciones, abusos infantiles, suicidios o terrorismo

Más noticias: Los yihadistas 'tiktokers' de Lleida: la huella digital que los lleva a prisión

Publicada

Noticias relacionadas

La empresa catalana dedicada a moderar y filtrar los contenidos de la plataforma TikTok ha defendido este lunes que los vídeos "altamente perturbadores", como decapitaciones, violaciones y las agresiones más brutales, se revisan desde fuera de España.

Así lo han asegurado tres de los responsables de Majorel SP Solutions S.A.U., compañía con sede en Barcelona y subcontratada por la red social china para el servicio de revisión de los videos que se suben a la plataforma, en su declaración ante el Juzgado de Instrucción número 9 de la capital catalana.

Han prestado declaración a raíz de que una empleada presentara una querella contra cuatro de los responsables de esta empresa por delitos contra los trabajadores, contra la integridad moral y por lesiones graves por imprudencia, alegando que la compañía imponía a sus empleados unas "condiciones laborales absolutamente inhumanas" e inaguantables para cualquier persona.

Por esta querella, que ya aglutina a cuatro trabajadores, han sido citados el director general, el gerente de operaciones, y uno de los responsables de recursos humanos de Majorel SP Solutions; el cuarto, que se ha ausentado por cuestiones médicas, declarará el 3 de noviembre.

Desconocen los tecnicismos

Los querellados han negado que los moderadores de Barcelona visualizaran contenido "altamente perturbador" de TikTok, tarea que han dicho que se realiza fuera de España, aunque sin concretar dónde, ha explicado el abogado Francesc Feliu, que representa a la querellante, a Europa Press.

Ciutat de la Justícia de Barcelona

Ciutat de la Justícia de Barcelona EUROPA PRESS

Según el letrado, han afirmado que el contenido extremadamente violento era "residual" en la sede de Barcelona y que suponía aproximadamente un 1% del total que tenían que revisar los empleados de la empresa subcontratada.

Preguntados sobre cómo se discriminaba el contenido perturbador del que no lo era, han dicho que es un tema "técnico" de la empresa que desconocen, por lo que previsiblemente se ampliará la querella contra otros responsables para que expliquen cuáles eran estos criterios.

Sin plan de riesgos

Sobre por qué la empresa no tenía un plan de riesgos laborales, un hecho constatado por Inspección del Trabajo, han dicho que entre 2019 y 2021 TikTok era una plataforma de música y que el formato cambió a raíz de la pandemia, cuando los usuarios comenzaron a compartir "más cosas".

El hecho de negar que los empleados estuvieran expuestos a contenido de extrema violencia, una estrategia seguida en otros casos similares, trata de desacreditar que las secuelas psicológicas de los empleados deriven del trabajo al que estuvieron expuestos, indican fuentes judiciales consultadas.

En la querella figuran como responsables civiles subsidiarios las empresas Majorel, Tiktok Technology Limited y su filial Tiktok Information Technologies Spain, por lo que la plataforma TikTok ha enviado a su representante legal este lunes.

Contrato de teleoperadora

La empleada, que comenzó a trabajar en la empresa en 2019, asegura que fue contratada como "teleoperadora" y que no recibió formación a nivel preventivo frente a los riesgos psicosociales inherentes al puesto que iba a desempeñar moderando los contenidos para TikTok. De hecho, sostiene que "jamás" se le indicó que debía visualizar contenidos sumamente violentos y, menos aún, de forma constante a lo largo de su jornada laboral.

Según la querella, comenzó revisando vídeos del mercado alemán y después del español, donde filtraba contenidos reportados por los usuarios que estaban catalogados "con el nivel de violencia más extremo", que tenían que ser visualizados íntegramente y que tenían una duración de entre 1 y 4 minutos.

Afirma que los querellados "conocen perfectamente que los moderadores de contenido están sometidos a graves riesgos para su salud mental", tanto por el tipo de contenido audiovisual que deben moderar como por las condiciones laborales, las exigencias de calidad y productividad. Por todo ello, añade que, incluso antes de contratar a los moderadores, ya saben que muchas de estas personas enfermarán con graves patologías psíquicas.

14 horas de jornada

Asegura que tenía jornadas en las que trabajaba 14 horas con tan solo cinco minutos de descanso por hora, de forma que durante los 55 minutos restantes tenía que visualizar material "altamente sensible y perturbador" como vídeos de asesinatos, decapitaciones, descuartizamientos, violaciones, zoofilia, pornografía infantil, abusos a menores, desmembramientos, suicidios, torturas y terrorismo.

Los cinco minutos de descanso no eran suficientes, según la trabajadora, como para descansar y tampoco cabía la posibilidad de un parón extra si resultaba "profundamente" impactada por algún vídeo en concreto. Añade que la carga de trabajo era "extremadamente alta", de forma que los trabajadores podían llegar a visualizar entre 800 y 1.200 vídeos violentos en un solo día.

Dos años de baja

En 2023 la trabajadora obtuvo una baja por incapacidad temporal, después de acudir a urgencias con ataques de pánico, mareos y vómitos al no aguantar más "la exposición a este contenido altamente sensible por haber desarrollado un trastorno mental".

Ese mismo año, presentó varias denuncias ante la Inspección de Trabajo y de la Seguridad Social de Barcelona para dar a conocer las condiciones de trabajo, la ausencia de descanso, el tipo de contenido visualizado y la ausencia de medidas preventivas, así como el hecho de que su puesto estaba erróneamente clasificado como de "teleoperadora".

Esto dio pie a un acta de Inspección de Trabajo en 2024 que concluía que hay una causa-efecto entre la omisión de medidas de prevención y las secuelas psíquicas sufridas por la trabajadora, que motivaron su baja laboral por incapacidad temporal.

La querella también subraya que el caso de esta moderadora "no es un tema aislado, sino que los gigantes de la tecnología" operan en el mundo entero a través de la subcontratación de otras empresas.