Análisis

Análisis

ANÁLISIS | Elon Musk dice que "la guerra civil es inevitable" mientras el Reino Unido se ve sacudido por disturbios de la ultraderecha. Él es parte del problema

Londres (CNN) -- Las redes sociales han desempeñado un papel fundamental en los disturbios antiinmigración que se están produciendo en ciudades y pueblos del Reino Unido.


Y el agitador en jefe Elon Musk no se ha quedado al margen.

El CEO de Tesla y propietario de X publicó el domingo en la plataforma que "la guerra civil es inevitable" en respuesta a una publicación que achacaba las violentas manifestaciones a los efectos de "la migración masiva y las fronteras abiertas".

El lunes, un portavoz del primer ministro del Reino Unido se refirió al comentario de Musk, diciendo a los periodistas que "no hay justificación para eso".

La decisión de Musk de amplificar la retórica antiinmigrante pone de relieve el papel que está desempeñando la información falsa difundida en Internet en el fomento de la violencia en el mundo real, una cuestión que preocupa cada vez más al Gobierno del Reino Unido, que prometió el martes llevar ante la justicia a los responsables de los disturbios, así como a quienes los alientan en internet.

En los últimos días, los manifestantes han dañado edificios públicos, incendiado coches y arrojado ladrillos contra agentes de policía. También incendiaron dos hoteles Holiday Inn en el norte y el centro de Inglaterra en los que se creía que se alojaban solicitantes de asilo a la espera de una decisión sobre sus solicitudes. Cientos de personas han sido detenidas.

Los disturbios estallaron la semana pasada después de que grupos de ultraderecha afirmaran en las redes sociales que el hombre acusado de llevar a cabo un horrible ataque con arma blanca en el que murieron tres niños era un solicitante de asilo musulmán. La campaña de desinformación en Internet avivó la indignación contra los inmigrantes.

El sospechoso, cuyo nombre ha trascendido, Axel Rudakubana, de 17 años, nació en el Reino Unido, según la policía.

Pero las afirmaciones falsas sobre el atentado, el peor apuñalamiento masivo de menores en Gran Bretaña en décadas y posiblemente nunca, se propagaron rápidamente por Internet y siguieron cosechando opiniones incluso después de que la policía hubiera aclarado los hechos.

Según el grupo de reflexión Institute for Strategic Dialogue (ISD), a media tarde del 30 de julio, el día después del atentado, el nombre falso había recibido más de 30.000 menciones sólo en X desde más de 18.000 cuentas únicas.

"El nombre falso atribuido al atacante circuló orgánicamente, pero también fue recomendado a los usuarios por los algoritmos de las plataformas", dijo el grupo en un comunicado.

"Por lo tanto, las plataformas amplificaron la desinformación a usuarios que de otro modo podrían no haber estado expuestos, incluso después de que la policía hubiera confirmado que el nombre era falso".

Según el gobierno británico, los bots, que según dijo podrían estar vinculados a actores respaldados por el Estado, bien podrían haber amplificado la difusión de información falsa.

Hacer frente a la "delincuencia en línea"

Aunque las empresas de redes sociales tienen sus propias políticas internas que prohíben la incitación al odio y a la violencia en sus plataformas, durante mucho tiempo han tenido dificultades para hacerlas cumplir.

"El problema siempre ha sido su aplicación", explica a CNN Isabelle Frances-Wright, experta en tecnología del ISD. "Especialmente en tiempos de crisis y conflicto, cuando hay una enorme oleada de contenidos, momento en el que sus ya frágiles sistemas de moderación de contenidos parecen venirse abajo".

No ayuda en nada que el propio Musk haya promovido contenidos incendiarios en X, una plataforma a la que los reguladores europeos acusaron el mes pasado de inducir a error y engañar a los usuarios. Si él puede hacerlo, ¿por qué no otros?

Por ejemplo, poco después del ataque del 7 de octubre de Hamas contra Israel y el consiguiente estallido de la guerra en Gaza, el autoproclamado "absolutista de la libertad de expresión" respaldó públicamente una teoría de la conspiración antisemita popular entre los supremacistas blancos. Musk se disculpó más tarde por lo que calificó como su publicación más "tonta" en las redes sociales.

Bajo su dirección, X también ha relajado sus políticas de moderación de contenidos y ha restablecido varias cuentas previamente bloqueadas. Eso incluye a figuras de la ultraderecha como Tommy Robinson, que ha publicado una serie de mensajes atizando las protestas en el Reino Unido, al tiempo que criticaba los ataques violentos.

El gobierno del Reino Unido se comprometió esta semana a perseguir la "delincuencia en línea" y ha presionado a las redes sociales para que tomen medidas contra la difusión de información falsa.

"Las redes sociales le han dado impulso... no sólo a la desinformación, sino también al fomento de la violencia", declaró el lunes la ministra del Interior del Reino Unido, Yvette Cooper.

"Es una vergüenza total y no podemos seguir así", declaró a BBC Radio 5 Live durante una entrevista, añadiendo que la policía perseguirá tanto "la criminalidad en línea" como "la criminalidad fuera de línea".

Durante una reunión del gabinete celebrada el martes, el primer ministro del Reino Unido, Keir Starmer, declaró que los implicados en los disturbios, en persona y en línea, "sentirán todo el peso de la ley y serán sometidos a una justicia rápida", según una lectura vista por CNN.

En la misma reunión, Peter Kyle, ministro de Ciencia y Tecnología, dijo que en conversaciones con las redes sociales había dejado clara su responsabilidad de ayudar a "detener la propagación de la desinformación y la incitación al odio".

X, Meta, propietaria de Facebook, y TikTok no han respondido a las peticiones de comentarios de CNN.

No está claro si el gobierno británico dispone de las herramientas necesarias para exigir responsabilidades a las plataformas de las redes sociales por su papel en los disturbios.

La Ley de Seguridad en Internet del Reino Unido, aprobada el año pasado, establece nuevas obligaciones para las redes sociales, entre ellas la de retirar los contenidos ilegales cuando aparezcan.

También tipifica como delito la publicación de información falsa en línea "con la intención de causar un daño no trivial".

Pero la legislación aún no ha entrado en vigor porque el regulador encargado de velar por su cumplimiento, Ofcom, aún está consultando sobre códigos de prácticas y orientaciones.

En una declaración el lunes, Ofcom dijo que hacer frente a los contenidos ilegales en línea es una "prioridad importante". El organismo de control espera que el primer conjunto de obligaciones en virtud de la nueva Ley, relativo a los contenidos ilegales, entre en vigor "aproximadamente a finales de este año". Una vez que la ley esté en vigor, Ofcom podrá multar a las empresas con hasta el 10% de sus ingresos globales.

"Como parte de nuestro compromiso más amplio con las plataformas tecnológicas, ya estamos trabajando para entender qué medidas están tomando en preparación de estas nuevas normas", añadió Ofcom.

-- Rob Picheta y Lauren Kent contribuyeron con este reportaje.