Cientos de moderadores de redes sociales en Alemania -que eliminan contenidos nocivos de plataformas como Facebook y TikTok- piden a los legisladores que mejoren sus condiciones de trabajo, alegando objetivos difíciles y problemas de salud mental.

Cengiz Haksöz, que ha trabajado como moderador de contenidos en la empresa subcontratada TELUS International, tiene previsto comparecer ante el Consejo Digital del Bundestag el miércoles, cuando se espera que cuente a los legisladores que su trabajo filtrando material nocivo le dejó "mental y emocionalmente agotado".

TELUS International es un conocido proveedor de servicios de moderación de contenidos para Facebook, entre otros.

Empresas de medios sociales como Facebook, de Meta, y TikTok, de Bytedance, trabajan con miles de moderadores de contenidos en todo el mundo, responsables de bloquear a los usuarios para que no vean contenidos nocivos como pornografía infantil e imágenes de violencia extrema.

Se espera que Haksöz entregue una petición, firmada por más de 300 moderadores de contenidos en Alemania, en la que se pide un nuevo conjunto de protecciones legales para quienes trabajan en el sector, incluido un mejor acceso a los servicios de salud mental, la prohibición de los acuerdos de confidencialidad (NDA) y mejoras salariales y de prestaciones.

"Me hicieron creer que la empresa contaba con un apoyo adecuado en materia de salud mental, pero no es así. Es más bien coaching", dijo Haksöz, hablando en exclusiva con Reuters antes de su comparecencia en el Bundestag.

"Este es un trabajo muy serio y tiene graves consecuencias para los trabajadores. Este trabajo me ha cambiado", afirmó. "Y estas subcontratas están ayudando a los gigantes tecnológicos a eludir sus responsabilidades".

Meta se ha enfrentado a una creciente presión sobre las condiciones de trabajo de los moderadores de contenidos que mantienen la seguridad de su plataforma. En 2020, la empresa pagó un acuerdo de 52 millones de dólares a los moderadores de contenidos estadounidenses que sufrían problemas de salud mental de larga duración.

Martha Dark, directora de la organización sin ánimo de lucro Foxglove, que ayudó a organizar la campaña, dijo que la petición suponía un "gran paso adelante" en la mejora de las condiciones laborales de los moderadores de contenidos.

"Los moderadores son los defensores de primera línea de Internet contra los contenidos tóxicos", afirmó. "Este apoyo es urgentemente necesario".

Meta y TELUS International declinaron hacer comentarios. (Reportaje de Martin Coulter; Edición de David Gregorio y Nick Macfie)