El TS establece una relación entre el trabajo de moderador de redes y daños morales a empleados

Un fallo del Tribunal Supremo respalda la demanda de un empleado encargado de analizar imágenes brutales difundidas en distintas plataformas de Meta, declarando que esa exposición prolongada causó alteraciones psicológicas, según consta en una sentencia ya firme

Guardar

El Tribunal Supremo ha rechazado los argumentos de CCC Barcelona Digital Services, una compañía contratada por Meta para la supervisión de contenidos en Instagram y Facebook, que intentaba desvincular el diagnóstico psicológico de un trabajador de la naturaleza de sus funciones laborales. Según informó La Vanguardia y reportó Europa Press, la sentencia adquiere firmeza tras la inadmisión del recurso presentado por la empresa y establece un vínculo directo entre la exposición diaria a imágenes de extrema violencia y la alteración psíquica sufrida por el empleado. El fallo atribuye la patología generada al contacto constante, durante la totalidad de la jornada laboral, con materiales calificados por la propia empresa como "altamente sensibles".

El caso, difundido por la agencia Europa Press, detalla que el trabajador en cuestión, empleado como moderador de contenidos para CCC Barcelona Digital Services, carecía de antecedentes de trastornos de pánico o ansiedad. A lo largo de su horario laboral, el moderador revisaba materiales que incluían acontecimientos definidos por la sentencia como "claramente traumáticos", motivo por el que precisamente la empresa encomendaba a sus empleados evitar que fueran accesibles al público general. El Tribunal Supremo descartó que una asistencia psicológica recibida durante la minoría de edad permitiera a la empresa eludir su responsabilidad, resolviendo que la aparición de problemas mentales se produjo a raíz de su desempeño profesional.

De acuerdo con lo consignado por La Vanguardia, la Sala de lo Social del Tribunal Superior de Justicia de Catalunya ya había sentenciado en primera instancia el carácter determinante del visionado de imágenes de violencia extrema en la alteración psicológica manifestada por el empleado. El dictamen destaca la naturaleza de los contenidos supervisados: materiales que la propia compañía define de "alta sensibilidad", cuya exposición prolongada resultó esencial para la aparición de la sintomatología reconocida.

Este precedente judicial coincide con otros procesos recientes por situaciones similares en el sector. En 2023, según reportó Europa Press, veintinueve moderadores de contenido radicados en Barcelona formalizaron una querella contra Meta y CCC Barcelona Digital Services. La denuncia, presentada por el abogado Francesc Feliu Pamplona, señala supuestos daños psíquicos derivados de la obligación de monitorizar materiales extremadamente violentos. El texto de la querella enumera los tipos de contenidos a los que se expusieron: asesinatos, decapitaciones, descuartizamientos, violaciones, pornografía infantil, abusos a menores, zoofilia, desmembramientos, suicidios emitidos en directo, torturas y terrorismo.

Los querellantes reportaron que su ciclo laboral consistía en observar estos contenidos a lo largo de ocho horas diarias, con únicamente cinco minutos de descanso por cada hora. La denuncia, según relató La Vanguardia, argumenta que dicha dinámica resultaba insostenible y generó daños duraderos en la salud mental de los trabajadores. Las acusaciones incluyen un presunto delito continuado contra los derechos de los trabajadores, lesiones graves por imprudencia grave y atentado contra la integridad moral.

El fallo del Tribunal Supremo sienta precedente al establecer de forma inequívoca la relación entre el trabajo de moderador de contenidos en redes sociales y los daños psicológicos derivados de la visualización repetida de materiales traumáticos. Según indicó Europa Press, la sentencia señala que el simple hecho de que exista un historial de tratamiento psicológico en la juventud no exonera a la empresa de sus responsabilidades, ya que el trastorno desarrollado se vincula directamente a las tareas encargadas como parte fundamental del puesto de trabajo.

El debate jurídico se centra en el concepto de “laboralidad” y la responsabilidad empresarial respecto a la salud mental de quienes ejercen la moderación de contenidos. La resolución cuestiona la postura de CCC Barcelona Digital Services, que alegaba la preexistencia de patologías como estrategia para evitar el reconocimiento de daños laborales. Para el tribunal, la argumentación de la empresa queda desmentida por la ausencia de antecedentes clínicos relevantes que expliquen por sí solos la afectación psicológica presentada tras la exposición continuada a episodios de violencia extrema.

Diversos organismos y plataformas laborales han documentado cómo la revisión de videos e imágenes con contenidos violentos o de abusos requiere procedimientos y soportes específicos. Según consignó La Vanguardia, la función de los moderadores implica actuar como filtro para que los usuarios de aplicaciones como Facebook, Messenger e Instagram no tengan acceso a materiales con potencial impacto traumático. El dictamen refuerza la necesidad de atender las condiciones laborales de estos empleados y valora el alcance de los efectos derivados del ejercicio de esta clase de supervisión.

El fallo del Tribunal Supremo, de carácter ya irrecurrible, añade un elemento relevante al debate sobre la protección de los moderadores frente al impacto psicológico que supone la exposición profesional a contenido sensible. La jurisprudencia abre la puerta a otras reclamaciones impulsadas por quienes desempeñan funciones semejantes para plataformas digitales, otorgando valor probatorio a la relación entre el desempeño laboral y las patologías asociadas documentadas por los trabajadores.