NUEVA YORK (CNNMoney) – A principios de esta semana, el asesinato de un hombre de 28 años en Chicago fue capturado en vivo en Facebook. En un minuto el hombre estaba charlando con sus amigos y transmitiendo en vivo en Facebook. Al siguiente, se escucha el sonido de disparos y gritos.
Recibió disparos el miércoles por la noche y Facebook no ha eliminado el video de su plataforma, lo que lleva a la pregunta: ¿por qué no?
De acuerdo con Facebook, el video no viola los estándares de la comunidad porque no cree que el video celebre la violencia. Consideró que cae bajo una categoría distinta: ayuda a sensibilizar. En vez de quitar esos tipos de video, los dejan pero con una advertencia.
Es una fina linea. Cuando un simpatizante de ISIS mató a un comandante de la policía y lo transmitió en vivo a principios de semana, fue retirado.
Los estándares de la comunidad de Facebook están divididas en ocho categorías, incluyendo ataques a figuras públicas, acoso escolar y acoso sexual, violencia sexual y artículos regulados. Pero sobre lo que es lo exactamente permite y cuándo se permite, no está del todo claro.
Los estándares de la comunidad indican que están “destinados a encontrar el correcto balance” para mantener a la gente a salvo, fomentar el comportamiento respetuoso, reconocer la diversidad cultural y empoderar a la gente para que controle lo que mira en sus líneas del tiempo.
Pero a pesar de que el video no viola los estándares de Facebook, mostrar los pezones de una mujer no es correcto. La compañía, sin embargo, “siempre permite” fotos de mujeres mostrando las cicatrices luego de las mastectomías o involucrada activamente en amamantar. Aunque ese no es siempre el caso.
Antes del 2014, las mamás se habían estado quejando de que sus fotos donde amamantaban eran borradas. Facebook agregó más contexto a su política para permitir ese tipo de contenido no sexual. Eso no fue gracias en parte al movimiento bajo la etiqueta #FreeTheNipple, que causó que se prohibiera la desnudez femenina en sitios como Instagram y Facebook.
Facebook permite pintura de desnudos, esculturas y arte que muestra desnudos, pero a veces no lo hace correctamente.
Por ejemplo, Lee Rowland de la ACLU dijo en marzo que a ella le borraron una publicación en Facebook porque contenía la foto de un desnudo. La jefa de manejo de política de Facebook, Monica Bickert, dijo que esto no violaba de hecho las políticas de Facebook y que había sido un error.
De forma similar, cuando la artista Illma Gore publicó una pintura de Donald Trump con un pene pequeño, fue eliminada. Los estándares de Facebook permiten el desnudo artístico que es publicado para “propósitos de sátira, humorísticos y educativos”. De acuerdo con Facebook, también fue un error y al final fue restablecida.
Facebook pinta su raya con lo que respecta a vender medicinas bajo prescripción médica, marihuana y municiones, que están prohibidos en la plataforma.
Pero a ti se te permite, por ejemplo, publicar una foto tuya donde fumas marihuana de bong.
Facebook, al igual que otras comunidades en línea, se basa en una mezcla de reportes de usuarios y moderación interna para dar con contenido inapropiado o ilegal.
Eso significa que Facebook tiene 1.650 millones de personas ayudando a hacer sus cumplir sus estándares, pero lo que es considera apropiado está lejos de ser universal.