DeepNude, la app que desnuda(ba) mujeres
Acceder a DeepNude es era muy sencillo ya que está estaba disponible online a través de una página web. Existe existía una versión gratuita que permite transformar las fotos con algunas limitaciones y añade una visible marca de agua y posteriormente una versión de pago que permite exportar a resolución completa, reduce la marca a un "FAKE" en la parte superior y permite modificar mejor la imagen. Esta versión de pago tenía inicialmente un coste de 50 dólares como informa Motherboard, pero debido previsiblemente a la atención generada ha subido el coste a 99,99 dólares. Pudiendo pagar con tarjeta o a través de criptomonedas.
Hablamos en pasado porque su creador (que, al parecer, se llama Alberto) ha decidido finalizar este proyecto, tras ver toda la polémica y expectación que ha generado su herramienta en tan pocas horas.
Y es que, en el día de ayer vieron como sus servidores no podían soportar semejante sobrecarga, y mediante un tweet reconocieron que habían "subestimado mucho" el interés que podría despertar esta herramienta.
De todos modos, en un primer momento parecía que presumían de estar teniendo tantas descargas, al mismo tiempo que pedían disculpas a las personas que la habían descargado y paciencia a los que intentaban instalarla.
Finalmente, viendo las críticas que estaban recibiendo, confirmaron que daban por finalizado este proyecto (al menos de momento), asegurando que "existe una probabilidad demasiado alta de que la gente haga mal uso" de él.
DeepNude sólo funcionaba con mujeres, si lo probabas con una foto de un hombre le añadía pechos de mujer y vagina. Para lograrlo, DeepNude utilizaba el algoritmo pix2pix, desarrollado por la Universidad de Berkeley (California) en el año 2017. Entrenaron a este algoritmo con más de 10.000 mujeres desnudos, y para poder utilizar la versión completa pedían 100 dólares.
Tras probarla, comprobamos como DeepNude arrojaba unos resultados muy preocupantes. Aplicaciones como esta y todo lo que se está generando alrededor de los deepfakes nos hacen imaginar un futuro cercano en el que será difícil distinguir si estamos ante un contenido real o generado por una IA.
DeepNude podría utilizarse para 'revenge porn' incluso aunque en realidad nunca hubieran existido esas imágenes sin ropa. El resultado es tan realista que el impacto que podría tener es similar. Una aplicación creada "por diversión y curiosidad" como explica el autor pero que genera toda una serie de dudas sobre la privacidad y enlaza de nuevo el machismo con la tecnología. ¿Por qué el algoritmo únicamente funciona con mujeres? "Porque las imágenes de mujeres desnudas son más fáciles de encontrar online", explica el autor a Vice. A lo que añade que espera en el futuro crear una versión con hombres también.
Estamos "ante una invasión de la privacidad sexual" comenta a Vice Danielle Citron, profesor de derecho de la Universidad de Maryland que recientemente testificó en el Congreso por el uso de los deepfakes. Y es que la llegada de estos desnudos falsos generados por algoritmo suponen un nuevo capítulo en los peligros de los deepfakes.
Fuente: Genbeta | Xataka
IMAGEN ELIMINADA porque parece que a Google AdSense le molesta una persona desnuda, aunque se muestre 100% ofuscada.
Y es que, en el día de ayer vieron como sus servidores no podían soportar semejante sobrecarga, y mediante un tweet reconocieron que habían "subestimado mucho" el interés que podría despertar esta herramienta.
De todos modos, en un primer momento parecía que presumían de estar teniendo tantas descargas, al mismo tiempo que pedían disculpas a las personas que la habían descargado y paciencia a los que intentaban instalarla.
Finalmente, viendo las críticas que estaban recibiendo, confirmaron que daban por finalizado este proyecto (al menos de momento), asegurando que "existe una probabilidad demasiado alta de que la gente haga mal uso" de él.
"No queremos hacer dinero de esta manera. Seguramente se compartan copias de DeepNude en la web, pero no queremos ser los que las vendan".Recordamos que esta aplicación se anunciaba como “el superpoder que siempre quisiste tener”, y tampoco hay que olvidar que sólo funcionaba con mujeres (si adjuntabas una foto de un hombre aparecía un hombre desnudo con pechos de mujer y vagina). De todos modos, el creador aseguró que estaba trabajando en una versión masculina.
DeepNude sólo funcionaba con mujeres, si lo probabas con una foto de un hombre le añadía pechos de mujer y vagina. Para lograrlo, DeepNude utilizaba el algoritmo pix2pix, desarrollado por la Universidad de Berkeley (California) en el año 2017. Entrenaron a este algoritmo con más de 10.000 mujeres desnudos, y para poder utilizar la versión completa pedían 100 dólares.
Tras probarla, comprobamos como DeepNude arrojaba unos resultados muy preocupantes. Aplicaciones como esta y todo lo que se está generando alrededor de los deepfakes nos hacen imaginar un futuro cercano en el que será difícil distinguir si estamos ante un contenido real o generado por una IA.
DeepNude podría utilizarse para 'revenge porn' incluso aunque en realidad nunca hubieran existido esas imágenes sin ropa. El resultado es tan realista que el impacto que podría tener es similar. Una aplicación creada "por diversión y curiosidad" como explica el autor pero que genera toda una serie de dudas sobre la privacidad y enlaza de nuevo el machismo con la tecnología. ¿Por qué el algoritmo únicamente funciona con mujeres? "Porque las imágenes de mujeres desnudas son más fáciles de encontrar online", explica el autor a Vice. A lo que añade que espera en el futuro crear una versión con hombres también.
Estamos "ante una invasión de la privacidad sexual" comenta a Vice Danielle Citron, profesor de derecho de la Universidad de Maryland que recientemente testificó en el Congreso por el uso de los deepfakes. Y es que la llegada de estos desnudos falsos generados por algoritmo suponen un nuevo capítulo en los peligros de los deepfakes.
Fuente: Genbeta | Xataka
0 Comments:
Publicar un comentario
Gracias por dejar un comentario en Segu-Info.
Gracias por comentar!