Una IA permite crear vídeos para adultos de cualquier actriz famosa, y el resultado asusta

Software

La inteligencia artificial está avanzando a pasos agigantados en los últimos años. Gracias a mejores algoritmos y a una mayor capacidad de procesamiento, se pueden realizar tareas automatizadas que eran inimaginables hace unos años. La última de ellas ha sido utilizada para crear vídeos para adultos con las caras de actrices famosas. Y el resultado es alucinante.

Los vídeos fake ya son casi reales gracias al machine learning

Una práctica muy extendida en Internet es crear imágenes falsas a partir de actrices porno reales, en las cuales se suplanta la cara de una actriz, con resultados bastante imprecisos y que se notan a la legua que son falsos. Sin embargo, esta práctica no estaba muy extendida para vídeos.

Y es que ya hemos visto el verdadero poder que tienen los ordenadores para traer a la vida a determinados personajes por ordenador (quien haya visto la última escena de Rogue One o de Fast & Furious 7 sabrá de lo que hablo). Esto también abre el uso de la tecnología para otro tipo de fines, como el de un usuario de Reddit llamado “deepfakes”.

gal gadot fake

Este usuario ha creado un algoritmo que permite intercambiar la cara de una actriz porno por la de una actriz “normal”. Para crear el algoritmo ha utilizado materiales y código abierto, los cuales puede usar cualquier persona que sepa manejar machine learning para obtener resultados similares. De momento, lo ha probado con varios GIFs y vídeos que ha compartido en Reddit, con actrices como Gal Gadot, Maisie Williams, Taylor Swift, Aubrey Plaza, Emma Watson, y Scarlett Johansson.

El algoritmo sólo necesita vídeos y fotos de la cara a suplantar

Una vez creó el algoritmo de intercambio de caras, simplemente lo “entrenó” utilizando vídeos de YouTube e imágenes de Google, a partir de las cuales la IA obtiene el material necesario para encajarlo en la cara de las actrices y crear un vídeo convincente. Además de famosas, se puede usar la cara de básicamente cualquier persona. Mediante el uso de TensorFlow (de Google) y Keras, que son fácilmente accesibles, prácticamente cualquiera puede hacer uso de ello.

Tampoco hace falta un ordenador demasiado potente para crear los vídeos, ya que con una tarjeta gráfica de gama media-alta se pueden conseguir resultados en unas pocas horas (unos 15 frames por segundo de renderización es lo que le ha tardado al creador de los vídeos). Con un procesador, el tiempo aumenta a unos pocos días.

Lo realmente preocupante de esto es que esta primera versión es realmente convincente, y puede ser usada para poner la cara de cualquier persona en un vídeo. Mientras que en una pantalla de ordenador se nota ligeramente el recorte de la cara de la actriz, en el móvil esto es más difícil de percibir. Además, si la calidad del vídeo baja a lo que se suele compartir por WhatsApp, se abre una nueva vía para vídeos fake, tanto de actrices como de personas de nuestro entorno que más de un problema puede causar.

Escrito por Alberto García

Fuente > Motherboard

Continúa leyendo
  • Estos videos y fotos “falsas” llevan años circulando, aunque con otras técnicas. Pero aquí veo dos temas:

    1 – El problema del derecho de imagen y el poder extorsionar a una actriz o famosa (o actor o famoso)

    2 – Hacer creer a los más ignorantes que han conseguido un video porno o foto subidita de tono de una actriz. Cuando es el algoritmo.

    Y sinceramente un tercer punto es que hay actrices, artistas,… que si tienen esta clase de vídeos y fotos (The Fappening o Celebgate y no solo. Se intuye incluso por lo que ponen en su Instagram o aun más en su Instagram Stories) y sería complicado saber si es real o no, a simple vista.

    Salu2