(CNN Business) – Las conversaciones en línea pueden salirse rápidamente de control, por lo que Facebook espera que la inteligencia artificial pueda ayudar a mantener las cosas en orden.
La red social probará el uso de inteligencia artificial para detectar peleas en sus muchos grupos, de modo que los administradores de grupo puedan ayudar a calmar las cosas.
El anuncio se produjo en una publicación de blog el miércoles, en la que Facebook lanzó una serie de nuevas herramientas de software para ayudar a los más de 70 millones de personas que dirigen y moderan grupos en su plataforma. Facebook, que tiene 2.850 millones de usuarios mensuales, a fines del año pasado dijo que más de 1.800 millones de personas participan en grupos cada mes y que hay decenas de millones de grupos activos en la red social.
Junto con las nuevas herramientas de Facebook, la inteligencia artificial decidirá cuándo enviar lo que la compañía llama “alertas de conflicto” a quienes mantienen grupos. Las alertas se enviarán a los administradores si la IA determina que una conversación en su grupo es “polémica o perjudiciales”, dijo la compañía.
La sutileza en la inteligencia artificial
Durante años, las plataformas tecnológicas como Facebook y Twitter se han basado cada vez más en la inteligencia artificial para determinar gran parte de lo que se ve en línea, desde las herramientas que detectan y eliminan el discurso de odio en Facebook hasta los mensajes de Twitter que aparecen en su línea de tiempo. Esto puede ser útil para frustrar el contenido que los usuarios no quieren ver. La IA puede ayudar a los moderadores humanos a limpiar las redes sociales que se han vuelto demasiado grandes para que las personas las vigilen por sí mismas.
Pero la inteligencia artificial puede fallar cuando se trata de comprender la sutileza y el contexto en las publicaciones en línea. Las formas en que funcionan los sistemas de moderación basados en IA también pueden parecer misteriosas e hirientes para los usuarios.
Un portavoz de Facebook dijo que la inteligencia artificial de la compañía utilizará varias señales de las conversaciones para determinar cuándo enviar una alerta de conflicto, incluidos los tiempos de respuesta a los comentarios y el volumen de comentarios en una publicación. Dijo que algunos administradores ya tienen configuradas alertas de palabras clave que pueden detectar temas que también pueden dar lugar a discusiones.
¿Cómo opera?
Si un administrador recibe una alerta de conflicto, podría tomar acciones que, según Facebook, tienen como objetivo ralentizar las conversaciones, presumiblemente con la esperanza de calmar a los usuarios. Estos movimientos pueden incluir limitar temporalmente la frecuencia con la que algunos miembros del grupo pueden publicar comentarios y determinar la rapidez con la que se pueden hacer comentarios en publicaciones individuales.
Las capturas de pantalla de un argumento simulado que Facebook usó para mostrar cómo esto podría funcionar muestran una conversación descarrilada en un grupo llamado en inglés “Other Peoples Puppies”, donde un usuario responde a la publicación de otro escribiendo: “Cállate, eres tan tonto. Deja de hablar de ALIMENTOS ORGANICOS idiota !!!”
“¡IDIOTAS!” responde otro usuario en el ejemplo. “¡Si estas tonterías siguen sucediendo, me voy del grupo!”
La conversación aparece en una pantalla con las palabras “Alertas de moderación” en la parte superior, debajo de las cuales aparecen varias palabras en letra negra dentro de burbujas grises. A la derecha, la palabra “Conflicto” aparece en una burbuja azul.
Otro conjunto de imágenes en pantalla ilustra cómo un administrador podría responder a una conversación acalorada, no sobre política, vacunas o guerras culturales, sino sobre los méritos del aderezo ranch y la mayonesa, al limitar a un miembro a publicar, por ejemplo, cinco comentarios en publicaciones grupales para el día siguiente.