Muerte, maltrato animal y vejaciones: esto es lo que ven los trabajadores de Facebook

Seguro que muchas veces os habéis preguntado quién controla los contenidos que los usuarios suben a Facebook. ¿Son los trabajadores de la propia red social quienes llevan a cabo las labores de moderación? ¿Es más bien un bot? La respuesta es que ni uno ni otro. Más bien se trata de empresas externas contratadas por Facebook las que se encargan de vigilar aquellos contenidos que puedan resultar sensibles para la enorme comunidad de la red social.

Y no es de extrañar, pues vigilar todo el contenido que los usuarios comparten diariamente alrededor del mundo no es precisamente una tarea fácil. Ni mucho menos. Se trata de la labor conjunta de varios equipos de moderadores que tienen que ver todos los contenidos que se suben a la red. Todos sin excepción.

La agónica vida de un moderador

En un reportaje publicado por el medio The Verge, Casey Newton tuvo la oportunidad de hablar con 3 ex trabajadores de una de esta empresas externas conocida como Cognizant. Y como cabría esperar, sus relatos son espeluznantes.

Hablamos del rostro menos amable de la red social, aquel en el que ciertos usuarios publican post diariamente con discursos que alientan al odio contra inmigrantes, mujeres o la comunidad LGTBQ, videos o fotografías de asesinatos, o incluso pornografía infantil.

Según relatan los 3 exempleados, nada ni nadie les había preparado para lo que iban a contemplar desde las oficinas de una de las sucursales de Cognizant en Tampa, Florida. A un ritmo diario, estaban obligados a visualizar hasta 400 vídeos al menos durante 15 segundos para poder reportarlo como inapropiado. Por supuesto, esto no les impedía volver a visualizar un determinado contenido pese a haber sido borrado, ya que, en la inmensa mayoría de casos, se replican desde diferentes cuentas desde el momento en que se suben a la red.

Por si fuera poco, el nivel de estrés en esos puestos de trabajo era infame. Ya que además de tener que hacer frente a verdaderas monstruosidades en la red social, los equipos debían de reportar un mínimo del 98% de aciertos. Dicho de otro modo, sus revisiones no podían superar, en ningún caso, una tasa de error del 2% a la hora de pasar como válido contenido que vaya en contra de las normas de la red social. De lo contrario, este tipo de empresas corren el peligro de no renovar contrato con Facebook.

Recibe nuestras noticias

De lunes a viernes mandamos un newsletter con los titulares del día a +4.000 suscriptores

I will never give away, trade or sell your email address. You can unsubscribe at any time.