Nueva York (CNN Business) – Tras el tiroteo masivo del sábado en Buffalo, Nueva York, las plataformas de las grandes tecnológicas se apresuraron a detener la propagación de un video del ataque filmado por el sospechoso y un documento que supuestamente también produjo él y donde esboza sus creencias.
Las principales plataformas de redes sociales han tratado de mejorar la forma en que responden cuando se comparten este tipo de contenidos desde el tiroteo masivo que tuvo lugar en 2019 en Christchurch, Nueva Zelandia, y que fue transmitido en directo por Facebook. En las 24 horas posteriores a ese ataque, Facebook dijo que eliminó 1,5 millones de copias del video. Los expertos en extremismo en línea dicen que ese contenido puede actuar como propaganda terrorista de extrema derecha e inspirar a otros a llevar a cabo ataques similares. El atacante de Buffalo tuvo una influencia directa del ataque de Christchurch, según el documento que supuestamente compartió.
Lo que está en juego para abordar la propagación de dicho contenido rápidamente es significativo. “Esto encaja en un modelo que hemos visto una y otra vez”, dijo Ben Decker, CEO de la consultora de investigaciones digitales Memetica y experto en radicalización y extremismo en línea. “En este punto sabemos que el consumo de estos videos crea tiroteos masivos por imitación”.
Aun así, las empresas de redes sociales se enfrentan a retos a la hora de responder a lo que parecen ser usuarios que publican un aluvión de copias del video y el documento del tiroteo de Buffalo.
La respuesta de las grandes tecnológicas
El ataque del sábado fue transmitido en directo por Twitch, un servicio de transmisión de video propiedad de Amazon que es especialmente popular entre los gamers. Twitch dijo que eliminó el video dos minutos después de que comenzara la violencia, antes de que pudiera ser visto masivamente, pero no antes de que otros usuarios lo descargaran. Desde entonces, el video se ha compartido cientos de miles de veces en las principales plataformas de redes sociales y también se ha publicado en sitios de alojamiento de videos menos conocidos.
Portavoces de Facebook, Twitter, YouTube y Reddit dijeron a CNN que han prohibido compartir el video en sus sitios y están trabajando para identificar y eliminar las copias del mismo. (TikTok no respondió a las solicitudes de comentarios sobre su respuesta). Pero las empresas parecen estar enfrentando dificultades para contener la propagación y gestionar a los usuarios que buscan lagunas en sus prácticas de moderación de contenidos.
CNN observó un enlace a una copia del video que circulaba por Facebook el domingo por la noche. Facebook incluyó una advertencia de que el enlace infringía sus normas comunitarias, pero aun así permitió a los usuarios hacer clic y ver el video. La empresa matriz de Facebook, Meta, dijo que había eliminado el enlace después de que CNN preguntara al respecto.
Meta calificó el sábado el suceso de “atentado terrorista”, lo que llevó a los equipos internos de la empresa a identificar y eliminar la cuenta del sospechoso, así como a empezar a retirar las copias del video y el documento y los enlaces a ellos en otros sitios, según un portavoz de la empresa. La empresa añadió el video y el documento a una base de datos interna que ayuda a detectar y eliminar automáticamente las copias si se vuelven a cargar. Meta también ha prohibido el contenido que alaba o apoya al atacante, dijo el portavoz.
El video también estaba alojado en un servicio de video menos conocido que se llama Streamable, de donde solo se retiró luego de que, al parecer, fuera visto más de tres millones de veces y su enlace se compartiera en Facebook y Twitter, según The New York Times.
Un portavoz de Streamable dijo a CNN que la empresa estaba “trabajando diligentemente” para eliminar las copias del video “rápidamente”. El portavoz no respondió cuando se le preguntó cómo un video había alcanzado millones de visitas antes de que lo retiraran.
Las copias del documento supuestamente escrito por el atacante se subieron a Google Drive y a otros sitios de almacenamiento en línea más pequeños y se compartieron durante el fin de semana a través de enlaces a esas plataformas. Google no respondió a las solicitudes de comentarios sobre el uso de Drive para difundir el documento.
Desafíos para hacer frente al extremismo en las redes sociales
En algunos casos, las grandes plataformas parecían tener dificultades asociadas a errores de moderación habituales, como eliminar más rápido las subidas de videos en inglés que en otros idiomas, según Tim Squirrell, jefe de comunicaciones del Instituto para el Diálogo Estratégico, un grupo de reflexión dedicado a abordar el extremismo.
Pero las grandes tecnológicas también tienen que lidiar con el hecho de que no todas las plataformas de Internet quieren tomar medidas contra este tipo de contenidos.
En 2017, Facebook, Microsoft, YouTube y Twitter fundaron el Foro Global de Internet para Contrarrestar el Terrorismo, una organización diseñada para ayudar a promover la colaboración para evitar que los terroristas y los extremistas violentos exploten sus plataformas, que desde entonces ha crecido e incluye a más de una docena de empresas. Tras el atentado de Christchurch en 2019, el grupo se comprometió a impedir la transmisión en directo de atentados en sus plataformas y a coordinarse para hacer frente a los contenidos violentos y extremistas.
“Ahora, técnicamente, eso falló. Estuvo en Twitch. Luego empezó a publicarse por ahí en las 24 horas iniciales”, dijo Decker, quien añadió que las plataformas tienen más trabajo que hacer en cuanto a la coordinación efectiva para eliminar el contenido dañino durante las situaciones de crisis. Aun así, el trabajo realizado por las principales plataformas desde Christchurch significó que su respuesta al ataque del sábado fue más rápida y sólida que la reacción de hace tres años.
Pero en otros lugares de Internet, sitios más pequeños como 4chan y la plataforma de mensajería Telegram proporcionaron un lugar donde los usuarios podían congregarse y coordinarse para volver a subir repetidamente el video y el documento, según Squirrell. (Por su parte, Telegram dice que “prohíbe expresamente” la violencia y está trabajando para eliminar las imágenes del tiroteo de Buffalo).
“Muchos de los hilos en el tablón de mensajes de 4chan eran simplemente personas que pedían la transmisión una y otra vez, y una vez que conseguían una versión de siete minutos, la volvían a publicar una y otra vez” en plataformas más grandes, dijo Squirrell. Al igual que ocurre con otros contenidos en Internet, los videos como el del tiroteo del sábado suelen ser rápidamente manipulados por comunidades extremistas en línea e incorporados a memes y otros contenidos que pueden ser más difíciles de identificar y eliminar por parte de las plataformas principales.
Al igual que Facebook, YouTube y Twitter, plataformas como 4chan se basan en contenidos generados por los usuarios, y están legalmente protegidas de la responsabilidad sobre gran parte de lo que los usuarios publican (al menos en Estados Unidos) por una ley llamada Sección 230. Pero mientras que las principales plataformas de las grandes tecnológicas están incentivadas por los anunciantes, las presiones sociales y los usuarios para hacer frente a los contenidos perjudiciales, las plataformas más pequeñas y marginales no están motivadas por el deseo de proteger los ingresos publicitarios o de atraer a una amplia base de usuarios. En algunos casos, desean ser hogares en línea para un discurso que sería moderado en otro lugar.
“La consecuencia de esto es que nunca se puede completar el juego de golpear al topo”, dijo Squirrell. “Siempre va a haber en algún lugar, alguien que haga circular un enlace de Google Drive o un enlace de la nube de Samsung o cualquier otra cosa que permita a la gente acceder a esto(…). Una vez que está en el éter, es imposible retirarlo todo”.