Cómo funciona la censura en los comentarios de Youtube

YouTube, esa descomunal plataforma para compartir vídeos a medio camino entre enclave cultural y herramienta de marketing. Un ente tan descomunal que él solo aglutina prácticamente la mitad de usuarios totales en la red o, dicho de otra manera, casi el 30% de la población mundial.

Si bien en los inicios su política era más laxa a la hora de imponer su criterio sobre qué podía publicarse o postear, lo cierto es que, de un tiempo a esta parte, YouTube ha estado endureciendo sus propias normas para evitar determinados temas sensibles. Sin ir más lejos, hace unas semanas volvió a actualizar su política de monetización sobre ‘eventos delicados’, para incluir cualquier referencia a la actual crisis sanitaria en su lista negra.

¿Pero cómo puede definir Youtube los comentarios que son inapropiados? ¿Qué o quién define qué palabras y frases son potencialmente ‘peligrosas’? El paso número uno es entender los mecanismos de los que se vale la plataforma para intentar entender cómo funciona la censura en los comentarios de Youtube.

censura

¿Cómo funciona la censura en YouTube?

Debido a los más de 2.000 millones de usuarios activos en Youtube, es necesario una forma de automatizar el control sobre la actividad de todos estos perfiles. Este mecanismo adopta la forma de un sistema informatizado altamente sofisticado controlado por una IA que se encarga de rastrear, perfilar y clasificar el contenido y la actividad de todas aquellas personas que se encuentran en el sitio.

Este impresionante sistema utiliza el aprendizaje automático para detectar, no solo las palabras, sino también las expresiones que podrían ser inapropiadas.

No hablamos solamente de un algoritmo en el sentido estricto, que simplemente bloquee un determinado comentario en base a una lista de palabras ‘prohibidas’. Que va, esto va mucho más allá. Hablamos más bien de un modelo computacional basado en el machine learning que toma millones de muestras de comentarios previamente moderados por el propietario de un canal u otro usuario.

No nos entendáis mal, claro que existe un listado de palabras prohibidas y controladas por un algoritmo, pero no menos importante son todas las herramientas y recursos que Youtube pone a disposición de la comunidad para reportar determinadas conductas inapropiadas. Todo este input que proviene de los usuarios es de lo que se alimenta el sistema de análisis de datos de la plataforma para controlar de manera mucho más eficaz y precisa la actividad dentro de la comunidad.

Es decir, el gran hermano es una combinación de algoritmo que automatiza la búsqueda de palabras clave, machine learning y la acción responsable de la comunidad de Youtube. Todos esos términos y expresiones que serán potencialmente objeto de censura, están recogidos en el apartado de ‘Normas de seguridad’ de la plataforma.

Todo este conjunto de reglas trata de evitar contenidos especialmente dañinos, peligrosos, pornográficos, de incitación al odio, con derecho de autor, etc.

censura

La censura en números

Para que os hagáis una idea de lo eficaz que resultan las herramientas descritas más arriba, solo tenéis que echar un vistazo al número de comentarios eliminados solo en el último trimestre de 2019 (el último del que se tiene registro). Hablamos de un total de 541 millones de comentarios borrados.

También podéis echar un vistazo al porcentaje de comentarios eliminados por el propio sistema de Youtube y aquellos borrados o bloqueados directamente por los propios youtubers (que no usuarios). Otro dato interesante es el porcentaje de comentarios eliminados en base a una temática concreta.

Recibe nuestras noticias

De lunes a viernes mandamos un newsletter con los titulares del día a +4.000 suscriptores

I will never give away, trade or sell your email address. You can unsubscribe at any time.