CNNEarrow-downclosecomment-02commentglobeplaylistsearchsocial-facebooksocial-googleplussocial-instagramsocial-linkedinsocial-mailsocial-moresocial-twittersocial-whatsapp-01social-whatsapptimestamptype-audiotype-gallery
Tecnología

Consejo Asesor afirma que Meta debe esforzarse más para hacer frente a la pornografía falsa y no consentida

Por Clare Duffy

(CNN) -- Meta no retiró una imagen explícita generada por inteligencia artificial de un personaje público indio hasta que fue cuestionada por su Consejo Asesor, según afirma este jueves el Consejo en un informe en el que pide al gigante tecnológico que haga más para abordar el problema de los desnudos con deepfakes no consentidos en sus plataformas.

El informe es el resultado de una investigación que el Consejo Asesor de Meta anunció en abril sobre la gestión de la compañía sobre la pornografía deepfake, incluidos dos casos específicos en los que se publicaron imágenes explícitas de una figura pública estadounidense y otra india.

La amenaza de la pornografía generada por IA ha acaparado la atención en los últimos meses, en los que celebridades como Taylor Swift, así como estudiantes de secundaria estadounidenses y otras mujeres de todo el mundo, han sido víctimas de esta forma de abuso en línea. Las herramientas de IA generativa, ampliamente accesibles, han agilizado, facilitado y abaratado la creación de este tipo de imágenes. Las plataformas de redes sociales, como Meta, donde estas imágenes pueden difundirse rápidamente, se enfrentan a una presión cada vez mayor para combatir el problema.

En el caso de la imagen de la figura pública estadounidense publicada en Facebook -generada por inteligencia artificial y en la que aparecía desnuda y siendo manoseada-, la empresa retiró inmediatamente la foto, que previamente se había añadido a un banco de coincidencias que detecta automáticamente las imágenes que infringen las normas. Pero en el caso de la figura pública india, aunque la imagen fue denunciada dos veces a Meta, la empresa no la retiró de Instagram hasta que el Consejo Asesor se hizo cargo del caso.

"Meta determinó que su decisión original de dejar el contenido en Instagram era errónea y la empresa eliminó la publicación por violar la Norma Comunitaria sobre Intimidación y Acoso", dijo el Consejo Asesor en su informe. "Más tarde, después de que la Junta comenzara sus deliberaciones, Meta desactivó la cuenta que publicó el contenido".

publicidad

El informe sugiere que Meta no está aplicando sistemáticamente sus normas contra las imágenes sexuales no consentidas, incluso cuando los avances en inteligencia artificial han hecho que esta forma de acoso sea cada vez más común. El informe también señala que Meta sigue teniendo problemas a la hora de moderar contenidos en países no occidentales o de habla no inglesa, algo por lo que la empresa ya ha sido criticada anteriormente.

Meta declaró en un comunicado que acogía con satisfacción la decisión de la junta directiva. Añadió que, si bien las publicaciones específicas identificadas en el informe ya se han eliminado, la empresa "tomará medidas» sobre las imágenes de la figura pública india que sean "idénticas y se encuentren en el mismo contexto" que las señaladas por la Consejo Asesor "cuando sea técnica y operativamente posible hacerlo".

En su informe, el Consejo Asesor -una entidad casi independiente formada por expertos en áreas como la libertad de expresión y los derechos humanos- formuló recomendaciones adicionales sobre cómo Meta podría mejorar sus esfuerzos para combatir los deepfakes sexualizados. Instó a la empresa a hacer sus normas más claras mediante la actualización de su prohibición de "photoshop sexualizado despectivo" para incluir específicamente la palabra "no consensual" y para cubrir claramente otras técnicas de manipulación de fotos como la IA.

Meta comunicó a la junta que no había añadido la imagen de la figura pública india a su banco de concordancia de fotos que infringe las normas porque no había habido noticias al respecto, mientras que los medios de comunicación sí se habían hecho eco de las imágenes de la figura pública estadounidense, según el informe. "Esto es preocupante porque muchas víctimas de imágenes íntimas falsas no están en el ojo público y se ven obligadas a aceptar la difusión de sus representaciones no consentidas o buscar y denunciar cada caso", dijo la Junta, añadiendo que Meta podría considerar otros factores, incluyendo si una imagen fue generada por IA al determinar si añadirla al banco.

La lucha contra los deepfakes no consentidos forma parte de los esfuerzos de Meta por prevenir la explotación sexual de sus usuarios. El miércoles, la empresa comunicó que había eliminado unas 63.000 cuentas en Nigeria que se dedicaban a estafas de sextorsión financiera, en las que se engaña a las personas (a menudo adolescentes) para que envíen imágenes de desnudos y luego se les extorsiona.