La empresa de subcontratación Sama, con sede en Kenia, dijo el 10 de enero que dejaría de prestar servicios de moderación de contenidos para el propietario de Facebook, WhatsApp e Instagram en marzo, ya que pasa a concentrarse en el trabajo de etiquetado de datos.

Sama dijo que despediría al 3% de su plantilla -unos 200 empleados- para racionalizar sus operaciones y aumentar la eficiencia. Seguirá prestando servicios de etiquetado de datos a Meta.

El anuncio se produce mientras tanto Sama como Meta se enfrentan a una demanda por supuestos abusos laborales y por impedir que los trabajadores se sindicaran en Kenia. Otra demanda acusa a Meta de permitir que florezcan mensajes violentos en Facebook, lo que inflama el conflicto civil en la vecina Etiopía. Ambas empresas han defendido su trayectoria.

Los defensores de los derechos digitales afirmaron que los esfuerzos realizados por Meta para frenar los contenidos nocivos en los países africanos eran lamentablemente insuficientes en comparación con los de las naciones más ricas, y pidieron a la empresa que mejorara drásticamente sus procesos de moderación.

"Con la salida de Sama, ahora sería una buena oportunidad para que Meta pusiera las cosas en su sitio y garantizara mejores condiciones laborales para los moderadores africanos en la región", afirmó Bridget Andere, analista de políticas africanas de Access Now.

"Meta debería aumentar el número de moderadores para la región para cubrir adecuadamente las lenguas y dialectos locales, y también ser más transparente sobre sus algoritmos que están promoviendo contenidos perjudiciales", declaró a la Fundación Thomson Reuters.

Meta no dio detalles sobre si había encontrado un nuevo contratista externo para África Oriental, pero dijo que la retirada de Sama no afectaría negativamente a los usuarios de sus plataformas de medios sociales.

"Respetamos la decisión de Sama de abandonar los servicios de revisión de contenidos que presta a las plataformas de medios sociales", declaró un portavoz de Meta.

"Trabajaremos con nuestros socios durante esta transición para asegurarnos de que no haya ningún impacto en nuestra capacidad de revisar contenidos".

DESAFÍOS LEGALES

Los desafíos legales de Meta en África Oriental comenzaron en mayo del año pasado, después de que el ex moderador Daniel Motaung presentara una demanda por las malas condiciones de trabajo en Kenia.

La demanda, presentada también contra Sama, alega que los trabajadores que moderan las publicaciones de Facebook se enfrentan a salarios irregulares, apoyo inadecuado en materia de salud mental, actividad antisindical y violaciones de su privacidad y dignidad.

Sama niega las acusaciones, mientras que Meta afirma que exige "a sus socios que proporcionen a los trabajadores una remuneración, unas prestaciones y un apoyo líderes en el sector".

Se espera que un juez se pronuncie el 6 de febrero sobre si un tribunal keniano puede atender la denuncia.

El mes pasado, Meta se vio abocada a otra demanda que acusa a la empresa de permitir que florecieran mensajes violentos en Facebook, exacerbando la guerra civil en Etiopía.

La demanda, presentada por dos investigadores etíopes y el grupo de defensa de los derechos Katiba Institute de Kenia, argumenta que los sistemas de recomendaciones de Facebook amplificaron los mensajes de odio y violencia en Etiopía, incluidos varios que precedieron al asesinato del padre de uno de los investigadores.

Los demandantes exigen que Meta tome medidas de emergencia para degradar los contenidos violentos, aumente el personal de moderación en Nairobi y cree fondos de restitución de unos 2.000 millones de dólares para las víctimas mundiales de la violencia incitada en Facebook.

Meta dijo que tiene normas estrictas que definen lo que está y no está permitido en Facebook e Instagram.

"El discurso del odio y la incitación a la violencia van en contra de estas normas e invertimos mucho en equipos y tecnología que nos ayuden a encontrar y eliminar estos contenidos", dijo el portavoz de Meta.

"Nuestro trabajo de seguridad e integridad en Etiopía se guía por los comentarios de las organizaciones locales de la sociedad civil y las instituciones internacionales".

ACABAR CON LA SUBCONTRATACIÓN, REVISAR LOS ALGORITMOS

En todo el mundo, miles de moderadores revisan las publicaciones de las redes sociales que podrían contener violencia, desnudos, racismo u otros contenidos ofensivos. Muchos trabajan para contratistas externos y no directamente para empresas tecnológicas.

Meta se ha enfrentado anteriormente a un escrutinio sobre las condiciones de trabajo de los moderadores de contenidos y a críticas sobre su actuación para frenar la incitación al odio y los contenidos violentos.

En julio de 2021, un juez de California aprobó un acuerdo de 85 millones de dólares entre Facebook y más de 10.000 moderadores que acusaban a la empresa de no protegerles de lesiones psicológicas debidas a su exposición a imágenes gráficas y violentas.

Ese mismo año, refugiados rohingya de Myanmar presentaron una demanda, demandando a Meta por 150.000 millones de dólares por acusaciones de que la empresa no tomó medidas contra el discurso de odio anti rohingya que contribuyó a la violencia contra el grupo minoritario.

Los grupos de defensa de los derechos afirman que los procesos de moderación no comprenden los contextos culturales y sociales específicos, y carecen de conocimientos de las lenguas y dialectos locales, lo que permite que los contenidos problemáticos se difundan rápidamente y se amplifiquen con graves consecuencias.

Cori Crider, directora de Foxglove -un grupo de defensa de la justicia tecnológica con sede en Londres que apoya ambas demandas en Kenia-, pidió a Meta que ponga fin a sus prácticas de externalización y aumente los "lamentables" recursos que destina a la seguridad en África.

"Facebook debería asumir la moderación internamente, contratar a cada uno de los 260 moderadores de contenidos en Nairobi que realizan un trabajo de seguridad vital, y valorar a estas personas con salarios decentes, apoyo clínico completo en salud mental y dignidad y prestigio", dijo Crider.

"La subcontratación está rota y tanto los trabajadores como la gente corriente han pagado el precio".

Alia Al Ghussain, investigadora sobre IA y derechos humanos de Amnistía Internacional, dijo que los algoritmos de Facebook -que impulsan sus funciones de noticias, clasificación, recomendaciones y grupos, dando forma a lo que los usuarios ven en la plataforma- también necesitaban un escrutinio.

"El modelo de negocio de Meta, basado en el compromiso, implica que los algoritmos están programados para hacer que los contenidos nocivos e incendiarios se conviertan en virales", afirmó Al Ghussain, cuya organización apoya la demanda sobre Etiopía.

"Los litigios que estamos viendo tanto en el caso de Etiopía como en el de Myanmar demuestran claramente que el problema es sistémico y debe abordarse urgentemente a través de la regulación".

Publicado originalmente en: