Tiktok: Cataluña Impone una Multa a Majorel por Riesgos Psicosociales en la Moderación de Contenidos

Majorel, con sede en Marruecos y presencia global, se encarga de la moderación de contenidos de TikTok en diversos idiomas, incluyendo el español. El equipo de Barcelona, formado por cientos de personas, se enfrenta diariamente a una avalancha de vídeos que pueden incluir violencia, contenido explícito, discursos de odio y otros materiales perturbadores. Este trabajo, inherentemente estresante, requiere una gran capacidad de resiliencia y control emocional.
La inspección laboral ha revelado que Majorel no ha implementado medidas de prevención de riesgos psicosociales suficientes para mitigar los efectos negativos del trabajo en la salud mental de sus empleados. Entre las deficiencias detectadas se incluyen:
- Falta de evaluaciones periódicas de riesgos psicosociales.
- Ausencia de protocolos claros para la gestión de incidentes relacionados con contenido impactante.
- Insuficiente formación a los empleados sobre técnicas de afrontamiento del estrés y la ansiedad.
- Escasa disponibilidad de apoyo psicológico especializado.
La multa impuesta a Majorel es una señal de alerta para TikTok y otras plataformas de redes sociales que externalizan la moderación de contenidos. La responsabilidad de proteger la salud mental de los moderadores es una obligación legal y ética. La Generalitat de Cataluña ha advertido que continuará vigilando de cerca las condiciones laborales en este sector y que no dudará en imponer sanciones a las empresas que incumplan la normativa.
Este caso pone de manifiesto la complejidad del trabajo de moderación de contenidos. Por un lado, es fundamental garantizar la seguridad y el bienestar de los usuarios de las redes sociales, eliminando contenido dañino y perjudicial. Por otro lado, es imprescindible proteger la salud mental de aquellos que se dedican a esta tarea, proporcionándoles las herramientas y el apoyo necesarios para afrontar el estrés y la ansiedad que conlleva.
- Empresas: Implementar programas de prevención de riesgos psicosociales, ofrecer formación y apoyo psicológico, establecer límites claros en la exposición a contenido impactante.
- Plataformas: Asumir una mayor responsabilidad en la protección de la salud mental de los moderadores, mejorar las herramientas de moderación para reducir la carga de trabajo y la exposición a contenido dañino.
- Trabajadores: Conocer sus derechos, denunciar las condiciones laborales precarias y buscar apoyo psicológico si es necesario.