(CNN Business) – Rusia e Irán son las dos fuentes principales de un coordinado comportamiento falso en Facebook, según un nuevo informe publicado por la compañía.El informe de Facebook, publicado este miércoles, muestra cómo agentes de influencia encubiertos, tanto extranjeros como nacionales, han cambiado sus tácticas y se han vuelto más sofisticados en respuesta a los esfuerzos de las empresas de redes sociales para reprimir las cuentas falsas y las operaciones de influencia.
Facebook ha eliminado más de 150 redes de comportamiento inauténtico coordinado desde 2017, según el informe. Veintisiete redes han sido vinculadas a Rusia y 23 a Irán. Nueve se originaron dentro de Estados Unidos.
Estados Unidos sigue siendo el principal objetivo de las campañas de influencia extranjeras, según el informe de Facebook, destacando 26 esfuerzos de este tipo por una variedad de fuentes desde 2017 hasta 2020. (Ucrania le sigue como un distante segundo lugar).
Sin embargo, durante la temporada electoral de 2020, los responsables de sembrar la desinformación fueron cada vez más los actores nacionales estadounidenses, no los agentes extranjeros. En el período previo a las elecciones, Facebook eliminó tantas redes estadounidenses que tenían como objetivo a Estados Unidos con el llamado comportamiento inauténtico coordinado (CIB, por sus siglas en inglés) como las redes rusas o iraníes, según el informe de la compañía.
“En particular, una de las redes de CIB que encontramos estaba operada por Rally Forge, una empresa de marketing con sede en Estados Unidos, que trabajaba en nombre de sus clientes, entre ellos el Comité de Acción Política Turning Point USA”, indica el informe. “Esta campaña aprovechó comunidades auténticas y reclutó a un equipo de adolescentes para gestionar cuentas falsas y duplicadas que se hacían pasar por votantes no afiliados para comentar las páginas de noticias y las páginas de actores políticos”.
Esa campaña fue denunciada por primera vez por el diario The Washington Post en septiembre de 2020.
Un portavoz de Turning Point, en una declaración al diario en ese momento, describió el esfuerzo como “activismo político sincero realizado por personas reales que sostienen apasionadamente las creencias que describen en línea, no una granja de trolls anónimos en Rusia”. En aquel momento, el grupo se negó a hacer comentarios en respuesta a una petición de CNN.
Otra red de Estados Unidos, que Facebook anunció que eliminó en julio de 2020, tenía vínculos con Roger Stone, amigo y asesor político del expresidente Donald Trump. La red mantenía más de 50 cuentas, 50 páginas y cuatro cuentas de Instagram. Tenía un alcance de 260.000 cuentas de Facebook y más de 60.000 cuentas de Instagram. (Después del retiro de Facebook, Stone compartió la noticia de su bloqueo en el sitio de medios sociales alternativos Parler, junto con una declaración: “Hemos sacado a la luz el trabajo del ferrocarril que era tan profundo y tan evidente durante mi juicio, por lo que deben silenciarme. Como pronto aprenderán, no pueden y no van a silenciarme”).
La presencia de contenidos falsos y engañosos en las redes sociales se convirtió en la historia dominante que persigue a las plataformas tecnológicas, como Facebook, Twitter y YouTube, tras las elecciones de 2016, cuando salieron a la luz los intentos de Rusia de inmiscuirse en el proceso democrático de Estados Unidos. Las campañas de influencia extranjera han intentado sembrar la división en el electorado haciéndose pasar por votantes estadounidenses, dirigiéndose a los votantes con anuncios digitales engañosos, creando noticias falsas y otras técnicas.
El descubrimiento de esas campañas ha provocado una intensa presión política y reguladora sobre las grandes empresas tecnológicas y también ha planteado interrogantes persistentes sobre el poder desproporcionado de la industria en la política y la economía en general.
Desde entonces, muchos críticos han pedido la disolución de las grandes empresas tecnológicas y una legislación que regule la forma en que las plataformas de medios sociales moderan el contenido de sus sitios web.
Empresas tecnológicas como Facebook han respondido contratando más moderadores de contenidos y estableciendo nuevas políticas de plataforma sobre la actividad falsa.
En otro comunicado del miércoles, Facebook dijo que ampliará las sanciones que aplica a los usuarios individuales de Facebook que comparten repetidamente información errónea que ha sido desmentida por sus colaboradores de comprobación de hechos. Actualmente, cuando un usuario comparte una publicación que contiene afirmaciones refutadas, los algoritmos de Facebook bajan la categoría de esa publicación en su muro de noticias, haciéndola menos visible para otros usuarios. Pero con el cambio del miércoles, los infractores reincidentes pueden arriesgarse a que todas sus publicaciones sean degradadas en el futuro.
Facebook ya ha estado aplicando degradaciones generales a nivel de cuenta a las páginas y grupos que comparten repetidamente información errónea corroborada, dijo, pero el anuncio del miércoles abarca a los usuarios individuales por primera vez. (Las cuentas de los políticos no están cubiertas por el cambio porque las figuras políticas están exentas del programa de comprobación de hechos de Facebook).
Aunque Facebook ha mejorado sus esfuerzos de moderación, muchos proveedores encubiertos de desinformación han evolucionado sus tácticas, según el informe. Desde la creación de campañas más personalizadas y específicas que pueden evadir la detección hasta la subcontratación de sus campañas a terceros, los actores involucrados en las amenazas están tratando de adaptarse a la vigilancia de Facebook en un juego cada vez más complejo del gato y el ratón, según la empresa.
“Así que cuando se juntan cuatro años de operaciones de influencia encubiertas, ¿cuáles son las tendencias?” escribió el miércoles en Twitter Ben Nimmo, coautor del informe. “Hay más operadores que lo intentan, pero también hay más operadores que son descubiertos. El desafío es seguir avanzando para estar en la delantera y atraparlos”.