El pasado mes de diciembre conocimos un nuevo sistema al que llamaron «Deepfakes». Este permitía, mediante un sistema de inteligencia artificial, colocar la cara de personajes famosos en vídeos pornográficos. Seguro que recordáis la imagen que encabeza el artículo, con la cara de Gal Gadot en el cuerpo de una actriz porno. Pero, como se puede ver, no era un simple copy-paste. La cara del famoso estaba animada y se mueve gracias al uso de la inteligencia artificial. Pues bien, estos vídeos, que estaban arrasando en la web, están empezando a ser eliminados de Pornhub.
Los Deepfakes son obra de un usuario del foro Reddit. Como decíamos, este usuario aprovechó sus conocimientos de programación para colocar la cara de personajes famosos en otros cuerpos. Pero no se le ocurrió otra cosa que hacerlo en vídeos porno. Así, pudimos ver algunos vídeos porno en plataformas como Pornhub en los que aparecían actrices como Gal Gadot, Scarlett Johansson, Maisie Williams o Taylor Swift, entre otras. Obviamente son vídeos falsos, pero el resultado es bastante bueno y hace que el espectador se pregunte si realmente estos personajes grabaron esas escenas.
La técnica utilizada es similar a la que usan las grandes producciones de Hollywood. Sin embargo, en este caso los actores no han dado su consentimiento, lo cual supone una violación de los derechos de imagen. Por ello, Pornhub ha empezado a eliminar estos vídeos de su página web. Además ha anunciado que no permitirá la subida de este tipo de vídeos.
A Twitter tampoco le gusta
Además de Pornhub, la red social Twitter también ha anunciado que perseguirá los Deepfakes. Según han comentado desde la compañía, suspenderán las cuentas que identifiquen como el principal responsable. También las cuentas dedicadas solo a publicar Deepfakes.
Por otro lado, servicios como Discord y Gfycat, un servicio de alojamiento de imágenes GIF, también prohibirán las imágenes creadas con este sistema.
Como decíamos, el origen de los Deepfakes es Reddit. En este foro tenemos toda una sección dedicada a estos vídeos. Esta cuenta con más de 90.000 suscriptores. Incluso tienen un post que enlaza a una herramienta para crear los Deepfakes. Aún así, parece que esta práctica va a quedar muy limitada al foro en cuestión.
Vía | TheNextWeb