Después de las noticias falsas, porno falso: ¡El software lo permite y da miedo!

Publié le

Se trata de una tecnología de la que se puede hablar: si aún no se ha enterado, le aconsejamos que lea atentamente. Una aplicación permite ahora sustituir la cara de un actor por la de otro. ¿Cómo funciona el sistema? ¿Cuáles son los abusos? Descifrado.

Cómo empezó todo esto

La idea surgió de un miembro activo del sitio Reddit (NSFW), a la evocadora pseudo Deepfakes, que se había estado divirtiendo desde finales de 2017 haciendo videos pornográficos falsos. Se trata de transferir el rostro de una celebridad a los cuerpos de actores pornográficos.

Extracto de video de un porno falso editado por UnobstrusiveBot. El redditor transfirió la cara de Jessica Alba al cuerpo de Melanie Ríos (una actriz pornográfica).

Y la práctica se está desarrollando, con otro redditor que a su vez ofrece FakeApps, una herramienta fácil de usar para dar a todo el mundo los medios para crear sus propias falsificaciones. Este redditor, que se puso el apodo de deepfakeapp, dijo a Motherboard que su intención era refinar aún más la aplicación para que todos los usuarios “pudieran simplemente seleccionar un vídeo en su ordenador […] y crear su vídeo con un solo clic”.

Pornografía falsa fácil con cualquier celebridad

Jessica Alba, Daisy Ridley, Emma Watson, etc. Decenas de famosos han caído en manos de los usuarios del algoritmo, que sólo necesitan unas pocas fotos para realizar su montaje.

Extracto de video de nuttynutter6969 con Daisy Ridley (o más bien su cara) en una película pornográfica.

Todavía hay límites para su uso, ya que el uso del algoritmo requiere un hardware necesario para su correcto funcionamiento, incluyendo una potente (y reciente) tarjeta gráfica, y un ordenador robusto.

Una tecnología impresionante que cuestiona

Hay que decir que el resultado es realmente asombroso. Si un algoritmo es suficiente para producir un video convincente con alguna celebridad o alguien que conozcas, ¿cómo desentrañar lo real de lo falso?

Otro redditor, derpfake, quería demostrar el potencial de esta aplicación haciendo el mismo “vídeo falso” que los gigantes de los estudios Walt Disney que produjeron el éxito de taquilla Rogue One: A Star Wars Story.

“Arriba, imágenes de Snape One con una extraña Carrie Fisher CGI. Presupuesto: 200 millones de dólares. Abajo, una falsificación hecha en 20 minutos que se habría hecho de la misma manera con una actriz similar. Mi presupuesto: $0 y algunas piezas de música de Fleetwood Mac” dice derpfake.

Más allá de la calidad de la semejanza o del ahorro realizado, esta manifestación plantea varias preguntas: hoy en día, podemos hacer de actrices famosas en el porno sin que ellas lo sepan, ¿qué podemos hacer con otras? ¿Cuál podría ser el peso de una noticia falsa con un video falso de calidad?

Varias organizaciones ya han logrado hacer videos muy convincentes de figuras políticas como Barack Obama o Donald Trump, y puede que esto no se quede ahí. Si muchos especialistas tienden a decir que siempre será posible detectar el fraude aunque el ojo desnudo ya no lo perciba, ¿significa que las personas que crean estas tecnologías serán también las únicas capaces de detectar la verdad de lo falso?

Para más información sobre esto, te invitamos a que averigües cómo reconocer noticias falsas y cómo funciona FakeApps.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Autres articles sur le même sujet