Deepnude: cierra la IA que desnuda mujeres ¿revolución o estafa?

Software

Ayer, Internet se revolucionó con el lanzamiento de DeepNude, una página web que ofrece el servicio de una IA capaz de desnudar a cualquier mujer cuya foto subamos a la web o a través del programa. Para poder obtener las versiones sin censura era necesario pagar, y miles de personas lo hicieron, generando decenas de miles de dólares a su creador. Sin embargo, éste ha decidido cerrar el servicio porque dice que «no quiere ganar dinero de esa manera».

Deepnude cierra: adiós a la IA basada en deep learning capaz de desnudar a cualquier persona

Deepnude funciona de una manera parecida a los deepfakes. Mientras que con estos últimos tenemos que entrenar nosotros a la IA con fotos de la persona cuya cara queremos sustituir, la IA de Deepnude ya viene entrenada, y lo único que tenemos que hacer es coger una foto existente y ponerla en el programa.

deepnude app cierra

El mecanismo de generación de cuerpos desnudos es muy parecido al que usa la web thispersondoesnotexist, que es capaz de crear caras nuevas a través de deep learning; y asusta mucho pensar que pueda crearse una combinación de esa web con DeepNude, ya que se podrían crear fotos desnudas de personas que no existen.

Nada más lanzarlo, la web se llenó de visitas por la cobertura mediática y la web se cayó. Horas después, su creador finalmente dijo basta. En un mensaje publicado en la cuenta de Twitter de la app, explica que crearon el proyecto como entretenimiento, con una app que ellos mismos reconocen que no funciona tan bien, y que tampoco tiene tanto mérito crear. Querían vender unas cuantas licencias del programa al mes por un precio de 99,99 dólares, pero no esperaban que se fuera a hacer viral.

El programa ya ha sido crackeado, y ya se ha creado un subreddit para compartir fakes

Así, sólo después de lanzarlo se han dado cuenta de que muchas personas van a usarlo con fines diferentes con el que los crearon, como desnudar famosos o personas conocidas, con todos los problemas que eso puede causar. Por ello, han decidido eliminarlo de la web, y no van a lanzar versiones actualizadas porque «el mundo no está preparado para DeepNude«.

En Reddit ya se ha creado un subreddit de DeepNudes, donde no sólo están subiendo ya fotos de algunas famosas, sino que han puesto enlaces al programa y cracks para poder usarlo gratis. El proceso de crackeo además es muy sencillo, ya que al parecer sólo es necesario cambiar un par de líneas de texto de un archivo según descubrieron en primer lugar unos usuarios de Rusia. Como afirma su creador, una vez que han lanzado la herramienta a Internet, no hay ninguna manera de evitar su propagación, pero al menos pueden evitar que las fotos que se generen sean mejores que las actuales, donde se ven algunas marcas de estar claramente generadas por IA.

No sería nada raro que a partir de ahora haya otros usuarios que decidan crear una herramienta similar. El daño ya está hecho, y la idea ha sido lanzada a Internet, por lo que en los próximos meses podríamos ver una nueva herramienta muy parecida, e incluso mejor. El código fuente del sistema no está disponible, pero ya habrá quien esté intentando hacerle ingeniería inversa. Su creador dice que quienes no hayan activado la licencia recibirán su dinero de vuelta, pero quienes lo hayan activado ya no podrán recibir su dinero, aunque podrán seguir usando el programa.

Escrito por Alberto García

Fuente > ADSLZone

Continúa leyendo
  • En principio la idea no es mala para ciertos fines como por ejemplo reconstruir una imagen, hay aplicaciones para eliminar objetos o personas de las imágenes pero dejan un resultado horrible, usar algo similar a esto podría ser una idea genial, lo malo es que este tío lo ha hecho con algo que no ha gustado. Ahora es cuando…. ¿Y si lo hubiera hecho con hombres? [Voy por palomitas].

    Yo ahora digo, con todo lo que ya hay por internet, ¿qué más da lo haga un programa o una persona a mano? si total, una amiga vio una foto suya en un anuncio de una web porno, era su cara pero no su cuerpo, la foto era de Face si no voy mal y de eso hace muchos años, pa que veas que tanto da programa o sin programa.

    También otro detalle, espero que la gente sea consciente del peligro que tiene ese programa ahora mismo, no en el sentido hacia las mujeres que ya sabemos la polémica, pero sabiendo que muchas personas lo intentaran descargar y probar es un blanco fácil para meter Malware y Virus peligrosos,, en este caso más aun si la persona utiliza fotos de familiares y amigas. Actualmente hay varios mails falsos que dicen tener tu pass y grabado tu escritorio con videos porno y demás y mandaran ese video a diferentes contactos si no les pagas, aunque es falso (por si a alguien le llega y ve su contraseña) que sepa es falso, la contraseña si la usas aun cambia de inmediato porque esa esta comprometida, que a mi me ha llegado algún mail de estos con contraseñas que usaba, eso es un problema. No seria buena idea dejar que eso pase de verdad en lugar de ser solo un simple fake a pillar tontos.

    Espero que en reddit lo quiten, aunque en internet una vez pones algo ya no hay forma de eliminarlo aunque sea por unos segundos que se ha expuesto.

  • Talskubilos

    He visto por ahí fotos de Chenoa posando desnuda, pero no estoy seguro que sean auténticas.

    • Entre Chenoa y Penelope Cruz me hago 20 apretadas de ganso con Chenoa