(CNN Business) – El miércoles por la tarde, hice clic en una foto de una mujer en un sitio web llamado Deepnude.com. De repente, su traje desapareció, y unos pechos desnudos estaban en la pantalla de mi computadora. Fue algo que me dejó estupefacta y fue nauseabundo. Me sentí como si acabara de mirar por la ventana de una extraña, violando por completo su privacidad.
Un día después ese sitio web había desaparecido; su creador aparentemente tuvo una crisis de conciencia. Si escribes la URL, verás una página en blanco y las palabras “not found”. Pero antes de que desapareciera, ofrecía a los visitantes como yo previsualizaciones gratuitas de un mundo horrible mejorado por la inteligencia artificial donde las fotos de mujeres —cualquier mujer, realmente— podían ser desvestidas a través de algoritmos y compartidas con un abandono imprudente. Como la mujer que vi, los desnudos resultantes no eran reales. Pero ciertamente lo parecían.
El sitio web, reportado inicialmente por Samantha Cole en la página Motherboard de Vice, comenzó a vender una aplicación de Windows y Linux por $ 50 solo unos días antes que podía tomar una foto de una mujer vestida y, utilizando inteligencia artificial, y reemplazarla con una imagen de la mujer, desnuda, bastante realista. También había una versión gratuita que ponía una gran marca de agua en las imágenes resultantes (la versión de pago de la aplicación, según Vice, en su lugar tenía un sello “FALSO” en una esquina).
DeepNude estaba destinado a funcionar con imágenes de mujeres, específicamente. (Vice informó que insertaba una vulva, en lugar de pantalones, en la foto de un hombre). Es el último ejemplo de cómo cada vez es más fácil usar la tecnología para avergonzar y degradar a las mujeres, en particular, en línea. Las imágenes que creó en las muestras en línea que vi no se veían perfectas, pero eran lo suficientemente buenas como para hacer que un observador se quedara sin aliento. Y es probable que esas imágenes creadas por la inteligencia artificial sigan difundiéndose: cualquier copia de DeepNude que ya esté disponible podría ser replicada fácilmente, y es probable que aparezcan otros programas similares.
La persona anónima detrás de la aplicación, quien supuestamente habló con Vice, dijo que DeepNude fue entrenada con más de 10.000 fotos de mujeres desnudas y usó la técnica de inteligencia artificial detrás de muchos videos deepfake, conocidos como redes de confrontación generativas, o GAN (por sus siglas en inglés). Los GAN consisten en dos redes neuronales diferentes que se enfrentan entre sí en un esfuerzo por generar nuevos resultados —que pueden ir desde rostros de apariencia realista a pinturas o, en este caso, mujeres desnudas— que imitan a las de una enorme cantidad de datos de entrenamiento.
MIRA: ¿Qué son los deepfakes y por qué resulta tan complicado detectarlos?
“Las herramientas digitales, una vez que están en libertad, son baratas y fáciles de replicar, y baratas y fáciles de usar, cada vez más”, Danielle Citron, profesora de derecho en la Universidad de Boston y autora del libro Crímenes de odio en el ciberespacio, le dijo a CNN Business.
El rápido ascenso y caída de DeepNude muestra que existe una demanda de este tipo de software. En las horas posteriores a la aparición del artículo de Vice el miércoles, una cuenta de Twitter que parece estar vinculada al sitio web de DeepNude indicó que su servidor no funcionaba debido a un “tráfico inesperado”. Algunas actualizaciones más tarde, la cuenta tuiteó que DeepNude volvería a estar en línea “en unos días”. Luego, el jueves por la tarde, un nuevo mensaje apareció en Twitter, diciendo que DeepNude había sido eliminado debido a las preocupaciones sobre un posible uso indebido a raíz de una demanda “muy subestimada”.
Aunque la versión gratuita de la aplicación creó imágenes que tienen marcas de agua, el mensaje de Twitter dice “si 500.000 personas lo usan, la probabilidad de que las personas lo usen mal es demasiado alta. No queremos ganar dinero de esta manera. Seguramente algunas copias de DeepNude se compartirán en la web, pero no queremos ser quienes las vendan”.
“El mundo”, concluyó, “aún no está listo para DeepNude”.
Según GoDaddy, el servicio a través del cual se registró DeepNude.com, la página fue registrada por una organización en Estonia que se denomina DeepInstruction. Un mensaje enviado al registrante del dominio a través de GoDaddy no recibió una respuesta inmediata, ni un tuit dirigido a la cuenta de Twitter de DeepNude.
Aunque DeepNude podría crear imágenes que parecen desnudos realistas, no son fotos reales de cuerpos desnudos. Así que, aunque hay un número creciente de leyes que penalizan la pornografía no consentida, como el porno de venganza, las imágenes producidas por dicho software asistido por inteligencia artificial no están cubiertas por la legislación existente, explicó Citron.
Sin embargo, Citron, quien dijo que ha hablado con mujeres que han sido objeto de tales imágenes sustitutas, enfatizó que las personas representadas en ellas sienten el mismo tipo de invasión de la privacidad sexual que las que han tenido las fotos desnudas reales difundidas.
“Tiene el mismo impacto”, dijo. “Te sientes como si tuvieras 1.000 ojos sobre tu cuerpo”.