(CNN Business) – Una foto de una mujer que amamanta a un bebé. Una mujer completamente vestida se toma selfies en el espejo. La foto de un florero. Tumblr ha señalado de forma equivocada que estas imágenes son inapropiadas.
Tumblr comenzó a tomar medidas enérgicas contra el contenido para adultos hace varias semanas. Pero tras bambalinas, su tecnología aún se esfuerza por descubrir la diferencia entre lo que está prohibido y lo que se aprueba como desnudez.
En diciembre, Tumblr prohibió el contenido para adultos – específicamente “imágenes, videos o GIFs que muestran genitales humanos reales o mujeres que muestra los pezones”– para limpiar su plataforma de blogs. Algunas excepciones incluyen la desnudez como arte o como parte de un evento político, así como contenido escrito erótico.
Tumblr dijo que haría cumplir sus reglas con detección automatizada, moderadores humanos y los propios usuarios que marcan las publicaciones objetables. Sin embargo, algunos usuarios se quejan de que se han etiquetado incorrectamente algunas imágenes.
Es difícil para la inteligencia artificial hacer distinciones entre, digamos, la desnudez en aras del arte y la política o la desnudez que es pornográfica. Un algoritmo debe centrarse en una tarea específica, como detectar caras en las imágenes, por lo que las diferencias que los seres humanos verían como triviales, como la iluminación, puede hacerlo tropezar.
Para tener una idea de cómo puede funcionar esto en línea, CNN Business creó una página de Tumblr de prueba y publicó fotos que no infringen la política del servicio, pero que podrían ser complicadas de distinguir por la inteligencia artificial. Las imágenes incluían esculturas de desnudos, manifestantes políticos con el pecho desnudo y maniquíes sin ropa.
La mayoría de las publicaciones no tuvieron problemas. Sin embargo, recibimos correos electrónicos inmediatamente después de publicar varias imágenes que indicaban que se habían ocultado a la vista del público porque posiblemente infringían las directrices de la comunidad de Tumblr.
Por lo que hemos podido ver, en realidad, ninguna de las publicaciones lo hacía. Y las imágenes alertadas no siempre eran las que esperábamos. Algunas imágenes con desnudez política – como las manifestantes francesas desnudas, pintadas de color plata y vestidas con capas rojas – parecían estar bien. Otras, como una foto de mujeres sin camiseta que habían pintado sus cuerpos con la frase en español “Mi cuerpo no es obsceno”, no lo eran. También se alertó por una multitud de maniquíes.
Tumblr no quiso hacer comentarios, pero dijo en un blog de diciembre que hacer distinciones entre el contenido para adultos y la desnudez política y artística “no es simple a escala” y que “habrá errores”. Según eMarketer, la compañía tiene aproximadamente 21,3 millones de usuarios mensuales.
Ethan Zuckerman, director del Centro para Medios Cívicos del MIT, dijo que parte de la dificultad al usar la inteligencia artificial para discernir diferentes tipos de desnudos es que aunque hay mucha pornografía, no hay tantas imágenes de personas desnudándose por razones políticas.
“No tienes tantos datos de entrenamiento en los cuales basarte”, dijo.
Empresas tecnológicas como Tumblr, Twitter y Facebook recurren cada vez más a la inteligencia artificial como solución a todo tipo de problemas, especialmente para eliminar publicaciones desagradables de las redes sociales. Pero la capacidad de la inteligencia artificial para moderar el contenido en línea – ya sean fotos, videos o imágenes – sigue siendo bastante limitada, según afirman Zuckerman y otros expertos. Puede ayudar a los seres humanos a detectar malas publicaciones en línea, pero es probable que continúe siendo complementaria en lugar de convertirse en una panacea en los próximos años.
Facebook en particular ha surgido como defensor de la inteligencia artificial. En abril, su director ejecutivo Mark Zuckerberg dijo al Congreso de EE.UU. en más de 30 ocasiones durante las 10 horas de preguntas que la inteligencia artificial ayudaría a que las redes sociales se deshicieran de problemas como el discurso de odio y las noticias falsas.
Tiene sentido implementar dicha tecnología, ya que sería casi imposible que los moderadores humanos supervisen el contenido creado por los millones (o, en el caso de Facebook, miles de millones) de usuarios de un sitio web.
Dan Goldwasser, profesor asistente de la Universidad de Purdue que estudia el procesamiento del lenguaje natural y el aprendizaje automático, cree que la inteligencia artificial mejorará en el futuro y deberíamos tener expectativas realistas para su uso mientras tanto.
“En cierto sentido, es cuestión de, bueno, si bajas el listón bastante, la inteligencia artificial puede tener mucho éxito”, dijo Goldwasser.
Un algoritmo de aprendizaje automático – un tipo de inteligencia artificial que aprende de montones de datos y mejora con el tiempo – puede identificar lenguaje ofensivo o imágenes utilizadas en contextos específicos. Esto se debe a que este tipo de publicaciones siguen patrones sobre los que se puede entrenar a la inteligencia artificial. Por ejemplo, si le das a un algoritmo de aprendizaje automático muchas insultos raciales o fotos de desnudo, puede aprender a detectar esas cosas en texto e imágenes.
A menudo, es más difícil para las máquinas señalar las cosas desagradables que los seres humanos publican en línea, dijo Goldwasser. Es posible que, por ejemplo, los mensajes incendiarios en las redes sociales no incluyan un lenguaje claramente ofensivo; en su lugar, podrían incluir falsedades sobre una persona o grupo de personas que provoquen violencia.
A la inteligencia artificial también le cuesta entender interacciones exclusivamente humanas, como el humor, el sarcasmo y la ironía. Puede sonar como si estuvieras diciendo algo malo cuando en realidad se trata de una broma.
Entender el contexto – incluido quién está escribiendo o subiendo una imagen, identificar al público objetivo y determinar el entorno social circundante – puede ser clave para determinar el significado de una publicación de una red social. Y para nosotros es mucho más fácil que para la inteligencia artificial.
A medida que las herramientas de inteligencia artificial mejoran, los seres humanos seguirán siendo una parte importante del proceso de moderación. Sarah T. Roberts, profesora asistente de la UCLA que investiga la moderación de contenidos y las redes sociales, señala que los seres humanos son especialmente buenos para disentir cuando es necesario.
Por ejemplo, podemos identificar que una imagen que representa una escena violenta es en realidad un crimen de guerra contra un grupo de personas. Eso sería muy difícil de determinar para una computadora.
“Creo que la gente siempre será mejor para (entender) los matices y el contexto”, dijo.
Zuckerman también cree que los seres humanos siempre jugarán un papel importante para encontrar y detener la propagación de contenidos negativos en internet.
“La creatividad humana impide que la automatización total entre en juego”, dijo. “Creo que siempre vamos a encontrar formas de sorprender, impresionar y crear nuevas imágenes”.