Los deepfakes se convierten en delito: estos son los casos por los que te pueden denunciar

Pronto habrá una legislación regulando uno de los problemas que han traído a nuestro mundo las nuevas tecnologías en los últimos años: los deepfakes.

Ese es el término que se utiliza para denominar a las creaciones, normalmente de corte sexual o vejatorio, en las que se utiliza la Inteligencia Artificial u otros métodos informáticos para crear audios o imágenes de una persona que no ha dado su consentimiento para la creación de ese tipo de contenidos. Un problema que hasta ahora no tenía un punto dedicado específicamente en el Código Penal, pero que pronto estarán definidas directamente como delito, según ha anunciado el Gobierno recientemente.

En qué casos se podría denunciar un deepfake

Aún no se ha modificado el Código Penal para incluir este tipo de delitos, por lo que de momento no se conocen los términos exactos en los que se generará la ley. Pero hay dos puntos fundamentales que se pueden deducir del anuncio realizado por el Gobierno. Por una parte que se perseguirán las imágenes sexuales o vejatorias de otras personas. Y por otra se pone el consentimiento en el centro.

Así, no sería delito utilizar la Inteligencia Artificial para que un fan de un artista cree una imagen de admiración hacia él, por ejemplo. Tampoco si una pareja decide consensuadamente la creación de deepfakes de naturaleza sexual (aunque también sería necesario el consentimiento para compartirlo). Lo que se intenta evitar es la sensación de desamparo de que cualquiera pueda coger una foto tuya y convertirla en una imagen pornográfica. Impedir que se den abusos con la ayuda de Internet es una prioridad para los legisladores.

Cuál era la situación hasta ahora

Hasta el momento no existía ningún delito específico para las imágenes creadas por Inteligencia Artificial, aunque estos casos eran denunciables acogiéndose a opciones más genéricas.

En el caso de los menores de edad, el delito 189 del Código Penal sobre pornografía infantil sí habla tanto de imágenes reales como de representaciones, por lo que cuando los protagonistas de imágenes sexuales o vejatorias son niños sí se encuentran bastante protegidos.

En cambio cuando los deepfakes afectan a adultos, el artículo 197.7 sobre difusión de vídeos íntimos da por hecho que se trata de imágenes reales. Por lo tanto, hay dudas de si sería aplicable al caso de una imagen creada por Inteligencia Artificial. En estos casos, se podría aplicar el delito 173 de atentado contra la integridad moral, que es al que se suele apelar en todos los casos de violencia digital. Pero la modificación del Código Penal para incluir un delito específico para este tipo de problemas hará que la protección sea mucho mayor.

rosalia

Algunos casos sonados

Uno de los casos más sonados de uso de generadores de imágenes con fines delictivos fue el de las niñas de Almendralejo, en el que unas chicas sufrieron la difusión entre sus compañeros de instituto de imágenes sexuales suyas que habían sido creadas con Inteligencia Artificial.

Este ha sido el caso que llevó tanto a la sociedad como al Gobierno a darse cuenta de que hay que hacer algo al respecto. Pero no es el único que ha sonado en los últimos años. De hecho hay algunos que han tenido bastante altavoz al implicar a personajes famosos, como es el caso de Rosalía. La cantante fue víctima de un montaje creado por el rapero JC Reyes en el que aparecía sin ropa. La artista habló del tema como de «una forma de violencia» y generó un amplio debate social sobre el problema de que cualquier pueda manejar tu imagen. Taylor Swift o Laura Escanes también han mostrado su repulsa a casos similares.

Recibe nuestras noticias

De lunes a viernes mandamos un newsletter con los titulares del día a +4.000 suscriptores

I will never give away, trade or sell your email address. You can unsubscribe at any time.