Al borde de las lágrimas, Nathan Nkunzimana recordó haber visto un video del abuso sexual infantil y el asesinato de una mujer.
Ocho horas al día, su trabajo como moderador de contenido para un contratista de Facebook le obligaba a ver películas de terror para que el mundo no tuviera que hacerlo. Dijo que algunos colegas abrumados estaban gritando o llorando.
Ahora, Nkunzimana es uno de los casi 200 exempleados de Kenia que demandaron a Facebook y al contratista local Sam por las condiciones laborales que podrían afectar a los moderadores de las redes sociales en todo el mundo. Esta es la primera demanda conocida fuera de los EE. UU. en la que Facebook llegó a un acuerdo con los moderadores en 2020.
El grupo ha sido empleado en el centro de moderación de contenido externo del gigante de las redes sociales en la capital de Kenia, Nairobi, donde el personal revisa publicaciones, videos, mensajes y otro contenido de usuarios de toda África, eliminando cualquier material ilegal o dañino que viole los estándares de la comunidad y las condiciones de trabajo.
Los moderadores de varios países africanos están exigiendo un fondo de compensación de 1600 millones de dólares después de las supuestas malas condiciones de trabajo, incluido el inadecuado apoyo a la salud mental y los bajos salarios. A principios de este año, Sam los despidió porque dejó su negocio de moderación de contenido. Dicen que las empresas están ignorando las órdenes judiciales de prorrogar los contratos hasta que se resuelva el caso.
Facebook y Sam defendieron sus prácticas laborales.
Sin saber cuánto duraría el caso, los moderadores expresaron su desesperación cuando se acabaron el dinero y los permisos de trabajo, y lidian con las imágenes traumáticas que los persiguen.
“Si te sientes cómodo hojeando y hojeando la página de Facebook, es porque alguien como yo ha estado allí en esa pantalla comprobando, ‘¿Está bien estar aquí? dijo Nkunzimana, padre de tres hijos de Burundi Associated Press en Nairobi.
El hombre de 33 años dijo que la moderación de contenido es como “soldados” que reciben balas para los usuarios de Facebook, con personal que ve contenido dañino que muestra asesinatos, suicidios y agresiones sexuales y se asegura de que se elimine.
Para Nkunziman y otros, el trabajo comenzó con una sensación de orgullo, una sensación de ser “héroes de la comunidad”, dijo.
Pero como la exposición a contenido alarmante ha reavivado traumas pasados para algunos como él que han huido de su hogar por violencia política o étnica, los moderadores han encontrado poco apoyo y una cultura de secreto.
Se les pidió que firmaran acuerdos de confidencialidad. Los artículos personales como teléfonos no estaban permitidos en el trabajo.
Después de su turno, Nkuzimana regresaba a casa exhausto y, a menudo, se encerraba en su habitación, tratando de olvidar lo que había visto. Incluso su esposa no tenía idea de cómo era su trabajo.
Ahora se encierra en su habitación para evitar que sus hijos le pregunten por qué ya no trabaja y por qué probablemente ya no puedan pagar la matrícula. A los moderadores de contenido se les pagaba $ 429 por mes, y los no kenianos recibían una pequeña asignación para expatriados.
El contratista de Facebook, Sama, con sede en los EE. UU., ha hecho poco para proporcionar a los moderadores de la oficina de Nairobi asesoramiento postraumático profesional, dijo Nkuzimana. Dijo que los consejeros estaban mal capacitados para lidiar con lo que estaban experimentando sus colegas. Ahora, sin atención psiquiátrica, se sumerge en la iglesia.
La matriz de Facebook, Meta, dijo que sus contratistas están obligados por contrato a pagar a sus empleados por encima del estándar de la industria en los mercados en los que operan, y a brindar apoyo en el sitio por parte de profesionales capacitados.
Un portavoz dijo que Meta no podía comentar sobre el caso de Kenia.
En un correo electrónico a AP, Sama dijo que los salarios ofrecidos en Kenia son cuatro veces el salario mínimo local y que “más del 60 % de los trabajadores varones y más del 70 % de las trabajadoras viven por debajo del umbral internacional de pobreza (menos de 1,90 dólares por mano). día)” antes del empleo.
Ella misma dijo que todo el personal tenía acceso ilimitado a asesoramiento individual “sin temor a repercusiones”. El contratista también calificó la reciente decisión del tribunal de extender los contratos de los moderadores como “engañosa” y afirmó que un fallo posterior que detuvo la decisión significaba que no había entrado en vigor.
Tal trabajo puede ser “increíblemente dañino psicológicamente”, pero los buscadores de empleo en países de bajos ingresos pueden correr riesgos a cambio de trabajos de oficina en la industria tecnológica, dijo Sarah Roberts, experta en California, Los Ángeles.
En países como Kenia, donde hay una gran cantidad de mano de obra barata disponible, la subcontratación de un trabajo tan delicado es “una historia de una industria explotadora que se basa en explotar la desigualdad económica mundial para su beneficio, causando daño y luego eludiendo la responsabilidad porque, por ejemplo: “Bueno, nunca contratamos a fulano de tal, fue, ya sabes, un tercero”, dijo.
Además, es posible que la atención de salud mental proporcionada no sea “crema” y se han expresado inquietudes sobre la confidencialidad de la terapia, dijo Roberts, profesor asociado de investigación de la información.
Ella dijo que la diferencia en el caso judicial en Kenia es que los moderadores se organizan y desafían sus términos, creando una visibilidad notable. La táctica habitual en estos casos en EE. UU. es llegar a un acuerdo, dijo, pero “si los casos se llevan a otro lado, puede que no sea tan fácil para las empresas”.
Facebook ha invertido en centros de moderación en todo el mundo después de ser acusado de permitir que el discurso de odio se propague en países como Etiopía y Myanmar, donde los conflictos han matado a miles y se ha publicado contenido dañino en varios idiomas locales.
Los moderadores de contenido empleados por Sam en Kenia, que querían tener fluidez en varios idiomas africanos, rápidamente encontraron que el contenido gráfico golpeaba con fuerza su hogar.
Los dos años que Fasica Gebrekidan trabajó como moderadora coincidieron aproximadamente con la guerra en la región norteña de Tigray de su Etiopía natal, donde murieron cientos de miles de personas y muchos tigrayanos como ella sabían poco sobre el destino de sus seres queridos.
Ya sufriendo por tener que huir del conflicto, la joven de 28 años pasó su día en el trabajo viendo películas “espantosas” y otro contenido predominantemente relacionado con la guerra, incluida la violación. Para los videos, tuvo que ver los primeros 50 segundos y los últimos 50 segundos para decidir si debían eliminarse.
El sentimiento de gratitud que la acompañó después de conseguir el trabajo desapareció rápidamente.
“Estás huyendo de la guerra, tienes que ver la guerra”, dijo Fasica. “Fue una tortura para nosotros.
Actualmente no tiene ingresos ni residencia permanente. Dijo que buscaría nuevas oportunidades tan pronto como pudiera volver a sentirse normal. Ex periodista, ya no puede decidirse a escribir, ni siquiera como una salida para sus emociones.
A Fasica le preocupa que “esta basura” se quede en su mente para siempre. Mientras hablaba con AP, mantuvo sus ojos en la pintura al otro lado del café, de color rojo oscuro con un hombre en apuros. No la molestó.
Fasica culpa a Facebook por no tener la atención psiquiátrica y los salarios adecuados, y acusa a un contratista local de aprovecharse de ella y dejarla ir.
“Facebook debería saber lo que está pasando”, dijo. “Deberían cuidarnos”.
El destino de la denuncia de los moderadores recae en el tribunal de Kenia, cuya próxima audiencia tendrá lugar el 10 de julio.
La incertidumbre es frustrante, dijo Fasica. Algunos moderadores se dan por vencidos y regresan a sus países, pero para ella esa aún no es una opción.
© 2023 Prensa Asociada. Reservados todos los derechos. Este material no puede ser publicado, transmitido, reescrito o redistribuido sin permiso.