YouTube es una plataforma gratuita en la que cualquier puede subir un vídeo. Esto es genial, ya que podemos encontrar todo tipo de contenido. Pero, en ocasiones, también puede ser contraproducente. La plataforma de vídeo en streaming de Google se ve envuelta en diferentes polémicas demasiadas veces. Porque, seamos sinceros, es prácticamente imposible controlar los millones de vídeos que se suben de forma diaria a YouTube. Tras el escándalo de comentarios pedófilos del que os hablamos el otro día, hoy conocemos una nueva polémica que tiene que ver con la versión para niños de la aplicación. Al parecer, un usuario descubrió un vídeo en YouTube Kids en el que se explicaba cómo suicidarse.
En realidad parece ser que se trata de una breve secuencia introducida en un vídeo de dibujos animados. En esta secuencia aparece un personaje denominado Joji (Filthy Frank) que simula cortarse las venas. Pero lo peor es que no solo lo simula, sino que explica cómo se debe hacer según para qué quieras hacerlo. Concretamente dice que para llamar la atención se deben cortar de lado a lado y para conseguir «resultados» se deben cortar a lo largo.
La secuencia la descubrió un médico estadounidense de casualidad. El médico lo denunció a través de un blog de pediatría y el Washington Post se hizo eco de la noticia. A raíz de la publicación, YouTube retiró de forma inmediata el vídeo de su plataforma. Sin embargo, este mismo blog ha denunciado que no es el único vídeo de YouTube Kids en el que se ven contenidos violentos o que incitan al suicidio.
YouTube dice que no pueden controlar todos los vídeos
Un portavoz de la plataforma de Google ha comentado que utilizan sistemas automáticos para controlar el contenido que se sube al servicio. Explica que «el sistema de revisión de YouTube Kids está diseñado está diseñado para excluir contenido que no es apropiado para niños, pero no revisamos manualmente todos los vídeos».
Ocurre lo mismo en la plataforma principal. Por un lado, no todo el contenido puede ser revisado manualmente, es imposible. Por otro lado, ni siquiera se realiza un filtrado previo a la publicación de todos los vídeos. Sin embargo, los responsables del servicio sí aseguran que tienen «políticas muy estrictas que determinan qué contenido es apropiado y permanece y qué contenido debe ser eliminado».
Desde YouTube, y especialmente en YouTube Kids, instan a que la comunidad de usuarios les ayude a detectar vídeos inapropiados. Los vídeos marcados por lo usuarios sí se revisan manualmente durante las 24 horas del día, eliminando siempre los considerados inapropiados.
Vía | El País