Seúl, Corea del Sur (CNN) – Un hombre de Corea del Sur fue condenado a prisión por utilizar inteligencia artificial para generar imágenes de explotación sexual infantil, el primer caso de este tipo en el país, mientras los tribunales de todo el mundo se enfrentan al uso de las nuevas tecnologías para crear contenidos sexuales abusivos.
Este hombre, que no fue identificado, de unos 40 años, fue condenado en septiembre a dos años y medio de cárcel, según el Tribunal de Distrito de Busan y la Fiscalía del distrito.
El hombre había creado unas 360 imágenes generadas por IA en abril, según informó la fiscalía a CNN. Las imágenes no se distribuyeron y fueron confiscadas por la Policía.
Los fiscales argumentaron durante el caso que la definición de material de explotación sexual debía incluir descripciones de comportamientos sexuales de “humanos virtuales” y no sólo la aparición de niños reales.
La sentencia demostró que el contenido sexualmente abusivo puede incluir imágenes realizadas con tecnología de “alto nivel” lo suficientemente realista como para parecerse a niños y menores reales, según la Fiscalía.
El caso se produce en un momento en que los gobiernos de todo el mundo se enfrentan a la explosión de la industria de la IA, con repercusiones de gran alcance que van desde los derechos de autor y la propiedad intelectual hasta la seguridad nacional, la intimidad personal y los contenidos explícitos.
Muchos se apresuran ahora a regular la tecnología, especialmente cuando casos como el de la sentencia de Corea del Sur ponen de relieve cómo la IA puede utilizarse para violar la autonomía y la seguridad corporales de las personas, especialmente de las mujeres y los menores.
A principios de este mes, la Policía de España abrió una investigación después de que se alteraran con IA imágenes de chicas menores de edad para quitarles la ropa y se enviaran por la ciudad. En uno de los casos, un chico había intentado extorsionar a una de las chicas utilizando una imagen manipulada de ella desnuda, según declaró la madre de la chica al canal de televisión Canal Extremadura.
Desde hace años, los deepfakes —videos falsos muy convincentes realizados con IA— se utilizan para poner rostros de mujeres en videos pornográficos, a menudo agresivos, sin su consentimiento. Los videos parecen tan reales que a las víctimas les resulta difícil negar que no son ellas.
El problema saltó a la luz pública en febrero de este año, cuando se descubrió que un conocido streamer de videojuegos había accedido a videos deepfake de algunas de sus compañeras de streaming.
“Desde el principio, la persona que creaba los deepfakes los utilizaba para hacer pornografía de mujeres sin su consentimiento”, declaró entonces a CNN Samantha Cole, periodista de Motherboard, de Vice, que ha seguido la pista de los deepfakes desde su creación.
La plataforma de streaming, Twitch, respondió a la controversia endureciendo sus políticas, calificando los videos sexuales deepfake de “personalmente violatorios y más allá de lo molesto”. Otras grandes plataformas están actualizando sus normas de manera similar, con TikTok añadiendo más restricciones a la hora de compartir deepfakes de IA en marzo.
En junio, la Unión Europea se convirtió en uno de los primeros países del mundo en establecer normas sobre el uso de la IA por parte de las empresas, seguida de China en julio. Y a principios de septiembre, algunos de los mayores líderes tecnológicos de Estados Unidos —como Bill Gates, Elon Musk y Mark Zuckerberg— se reunieron en Washington mientras el Senado se prepara para redactar una ley sobre la Inteligencia Artificial.