En estas últimas semanas, Facebook ha sido protagonista de la publicación de diferentes vídeos en tiempo real especialmente violentos. El primer caso ocurrió en Cleveland (Ohio), cuando un hombre asesinó a otro y lo retransmitió a través de Facebook Live.
Justo una semana después, otro vídeo similar aparecía en la red social. En este, un hombre asesinaba a un bebé de apenas 11 meses. El problema de todo esto, además de la gravedad de los hechos, tiene que ver con el tiempo que esos vídeos de violencia extrema permanecieron publicados en esta red social.
Y esto contrastó poderosamente con la rapidez de YouTube. El mismo vídeo de este último hecho, que fue duplicado en la plataforma de vídeos de Google, estuvo publicado durante apenas 15 minutos. El mecanismo de denuncia funcionó. Cosa que no ocurrió en el caso de Facebook. Y no solo en una ocasión.
Facebook pone 3.000 moderadores para evitar vídeos violentos
Ahora Facebook ha tomado una decisión. La gravedad de los hechos ha hecho reaccionar a Mark Zuckerberg, así que hoy mismo ha comunicado que contratará a 3.000 personas más durante el próximo año para controlar y moderar los contenidos que se publican en las redes.
Por lo visto, los responsables de esta red social han considerado que los sistemas de software automatizados no son suficientes para controlar y supervisar aquello que se publica y que puede incumplir las normas.
Ahora cualquier persona puede reproducir vídeos en directo con contenidos inapropiados, así que es necesario tener ojos humanos revisando cualquier vulneración de estas características.
Esta suma de trabajadores se añadirá a las 4.500 personas que actualmente ya trabajan para revisar y moderar aquellos mensajes y publicaciones que pueden vulnerar las condiciones del servicio.
Además, se espera que para los usuarios sea mucho más fácil comunicar o avisar de cualquier publicación de estas características.