Imagen de un videomontaje de Emma Watson

BBC
Emma Watson es una de las actrices cuyo rostro su usó en el cuerpo de una actriz porno, como se ve en esta imagen.

Entre los fanáticos de internet hay un dicho conocido como la "Regla 34″ que reza: "Si algo existe, habrá porno sobre ello. Sin excepción".

Esto podría aplicarse a una nueva moda en internet que consiste en utilizar la tecnología de reconocimiento facial para poner el rostro de una persona en el cuerpo de otra que protagoniza escenas pornográficas.

La tecnología no es nueva. Hace un par de años el intercambio de caras a través de inteligencia artificial se hizo popular gracias a aplicaciones como Snapchat en la que dos personas acercan sus rostros al móvil y la app los intercambiaba.

La polémica, sin embargo, se generó en diciembre de 2017 cuando se hizo viral un video en el que el rostro de la actriz israelí Gal Gadot aparecía en el cuerpo de una actriz porno.

También se hicieron populares otros videos con los rostros de celebridades como Scarlett Johansson y Taylor Swift.

Más fácil

La práctica en principio solo era posible para personas con conocimientos avanzados de informática.

Ahora, estos videomontajes se han vuelto más comunes luego del lanzamiento de Fakeapp, una aplicación que según sus creadores permite hacer el intercambio facial de manera "rápida y fácil".

Se distribuye a través de la red social Reddit y ha sido descargada más de 100.000 veces.

"Esta es una nueva frontera para la pornografía no consensuada y las noticias falsas", escribe la periodista Emma Grey Ellis, de la revista Wired.

"Para muchas personas vulnerables en internet, especialmente las mujeres, esto se parece mucho al final de los tiempos".

Grey Ellis también augura que estos montaje se aplicarán en el ámbito político: "Videos trucados de candidatos políticos diciendo cosas extravagantes en 3, 2…", escribió.

Fotomontaje con la cara de Ariana Grande

BBC
Imágenes de la cantante Ariana Grande se han utilizado para usarlas con el cuerpo de una actriz pornográfica

Debate público

En su artículo, Grey Ellis se refiere a las principales preocupaciones que están surgiendo con esta práctica, entre las que menciona el uso indebido de la imagen de celebridades, la suplantación de identidad y la pornovenganza.

"Necesitamos tener un debate fuerte y público", dice Alex Champandard, experto en inteligencia artificial citado por el portal Motherboard.

"Es necesario que todos sepan lo fácil que es falsear imágenes y videos, al punto de que dentro de unos meses no seremos capaces de distinguir falsificaciones", dice Champandard, advirtiendo sobre los riesgos que conlleva el rápido avance de las tecnologías de reconocimiento facial.

Por ahora, algunos sitios ya han comenzado a tomar medidas.

La plataforma Gfycat, en la que se han publicado varios de estos videomontajes que luego se comparten en Reddit, ha comenzado a remover varios de ellos.

Según Leo Kelion, editor de tecnología de la BBC, el portal Reddit aún no ha comentado sobre el asunto y todavía permite el acceso a los videos que Gfycat no ha eliminado.

Las políticas de contenido de Reddit prohíben la "pornografía involuntaria".

Champandard, además del desarrollo de tecnologías que detecten videos falsos, menciona que las políticas de internet pueden ayudar a regular lo que ocurre cuando surgen este tipo de falsificaciones.

"De una manera extraña, esto es algo bueno", le dijo Champandard a Motherboard.

"Necesitamos enfocarnos en transformar la sociedad para que sea capaz de lidiar con esto".


Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.