Skip to main content

Los «liquidadores» de Facebook: ganarte la vida viendo pornografía, terrorismo y drogas

Dedo hacia abajo Facebook

19/06/2019 - 16:45

Facebook recurre a empresas externas para contratar los servicios de moderación que se encargan de vigilar que los usuarios cumplen las normas de uso de la red social –y retirar aquellos contenidos que vayan en contra de las mismas–. Pero en una red social que utilizan más de dos mil millones de personas en todo el mundo, moderar todo lo que se publica no es tarea fácil.

Moderar todas las publicaciones que realizan a diario los más de dos mil millones de usuarios que Facebook tiene alrededor del mundo no es tarea fácil. Dado que es impensable que la red social pueda controlar por sí misma todo ese flujo de publicaciones, lo que hacen en Facebook –y muchas otras redes sociales– es contratar empresas externas para que moderen todo lo que se sube a su plataforma. En esas empresas, los denominados como moderadores (personas cuya única función es esa, moderar contenidos) han de ver, uno por uno, todos los contenidos que se suben a la red.

En el tiempo en que en tu muro de Facebook aparece la foto de tu primo, la publicación de tu sobrina o el anuncio de tu amigo, un moderador de alguna parte del planeta seguramente ha tenido que encargarse de marcar como contenido inapropiado la foto de un ataque terrorista, una imagen de pedofilia y un anuncio de venta de drogas, entre otros: por un sueldo que oscila entre los 1.404 dólares anuales (en caso de que el moderador resida en la India) y los 28.800 dólares anuales (para un empleado estadounidense), estos trabajadores externos han de revisar en algunos casos más de 400 publicaciones al día.

En un reportaje centrado en Cognizant, una de esas empresas externas que la red social contrata para que haga esta labor, The Verge ha podido entrevistar a varios ex-empleados que pasaron por la compañía y realizaron funciones de moderación de contenidos. Lo que las entrevistas revelan, por desgracia, no te sorprenderá.

Ganarte la vida mirando Facebook, ¿quién rechazaría un trabajo así?

La entrevista que Casey Newton realiza a los ex-empleados de la empresa a la que Facebook recurre para moderar sus contenidos comienza relatando cómo los protagonistas del reportaje en un primer momento veían la oferta de trabajo como una oportunidad para tener un trabajo que les gustara: "Pensé que me pasaría el día leyendo posts en Facebook, y que simplemente tendría que decidir si los contenidos de la gente se podían quedar ahí o no, sería un trabajo divertido", comenta una de las antiguas trabajadoras de la compañía.

Para pasar a formar parte de un equipo en el que se ganarán el sueldo a razón de 15 dólares la hora, los candidatos al puesto reciben una formación en la que rápidamente descubren cuál va a ser su verdadera función en el trabajo: durante el entrenamiento, pasan por delante de sus ojos publicaciones con violencia, discursos de odio y explotación sexual.

Pese a que estos empleados firman estrictos contratos de confidencialidad para no revelar nada acerca de su trabajo, el reportaje que The Verge ha sacado a la luz está basado en las declaraciones de tres ex-empleados de las oficinas de Cognizant en Tampa, Florida (Estados Unidos), que actualmente cuentan con alrededor de 800 trabajadores.

En el reportaje, los ex-empleados critican –entre otras muchas cosas– que la empresa no les informara de cuáles iban a ser en realidad sus funciones: a algunos se les habló de un trabajo que consistiría en "ayudar a las empresas con el marketing en Facebook", y no fue hasta el entrenamiento inicial cuando se dieron cuenta de la realidad.

Durante la entrevista se mencionan casos tan macabros como el de un moderador de contenidos que, tras ver un vídeo en el que se maltrataba a un animal, recibió la orden de no reportar el vídeo como contenido inapropiado para que así las autoridades lo vieran y pudieran dar con el autor. Pero, semanas después, el vídeo le seguía apareciendo una y otra vez durante su jornada de revisión de contenidos.

¿Cuánto se cobra en Google, Facebook o Apple?

De nada sirve apartar la mirada, porque los moderadores de contenidos están obligados a visualizar al menos 15 segundos de un vídeo antes de poder reportarlo como inapropiado. El hecho de marcar un vídeo como inapropiado no evita que pueda volver a aparecer a los pocos minutos, ya que hay contenidos que, pese a ser borrados, se replican desde cientos de cuentas diferentes a partir del momento en que se suben a la red. He ahí el ejemplo de cualquier atentado en esta época dos punto cero que nos ha tocado vivir.

Para que una empresa pueda aspirar a formar parte del grupo de compañías externas que trabajan moderando comentarios para Facebook, sus revisiones han de cumplir un porcentaje de acierto del 98%: si bajan de esa cifra –porque den como válido contenido que vaya en contra de las normas de la red social–, corren el peligro de no renovar para el siguiente contrato. La presión, por lo tanto, es constante.

Susto estado shock

Esto explica bastante bien esta otra noticia publicada a mediados del año pasado: Facebook busca pero no encuentra trabajadores para su oferta de empleo de Barcelona. En este caso, la empresa ofrecía sueldos de entre 13.000 y 17.000 euros anuales para una jornada parcial de moderación de contenidos... ¿por qué nadie querría aceptar?

Ver ahora: