Nueva York (CNN) – Facebook, Instagram, Google y YouTube están tomando medidas drásticas contra los anuncios políticos en un esfuerzo por combatir la desinformación que podría socavar la confianza en los resultados de unas elecciones polémicas o avivar los disturbios.

Meta comenzó la semana pasada a bloquear a los anunciantes la creación o publicación de nuevos anuncios sobre temas sociales, elecciones o política estadounidense en todas sus plataformas, incluidas Facebook e Instagram. La prohibición de Meta de nuevos anuncios políticos expiraba inicialmente el martes por la noche, pero el lunes la empresa la amplió hasta finales de esta semana.

Google afirma que aplicará una pausa temporal similar a los anuncios relacionados con las elecciones estadounidenses tras el cierre de las últimas urnas el martes, que se mantendrá durante un periodo no especificado. TikTok no permite anuncios políticos desde 2019.

En cambio, X puso fin a su prohibición de la publicidad política el año pasado luego de que el multimillonario Elon Musk tomara el contról de la plataforma y no ha anunciado ninguna pausa en torno a las elecciones.

Las pausas en los anuncios electorales están diseñadas para evitar que los candidatos o sus partidarios intenten influir en el sentimiento público o reclamar una victoria anticipada durante lo que podría ser un periodo de incertidumbre de varios días en torno a los resultados mientras se cuentan las boletas electorales. Pero los expertos dicen que los movimientos anteriores de las empresas de redes sociales, como recortar sus propios equipos internos de seguridad, podrían socavar sus esfuerzos actuales.

Las pausas en algunos anuncios se producen en un momento en que los funcionarios electorales ya han pasado semanas tratando de combatir la desinformación viral sobre las elecciones, incluyendo acusaciones no corroboradas de máquinas que cambian votos y afirmaciones de fraude generalizado en los votos por correo.

También se produce cuando las autoridades policiales federales han advertido de que los extremistas nacionales con “agravios relacionados con las elecciones”, como la creencia en el fraude electoral a pesar de la falta de pruebas, podrían participar en actos violentos tras las elecciones.

El expresidente Donald Trump y muchos de sus partidarios ya han hecho repetidas afirmaciones falsas de que los demócratas están haciendo trampas en las elecciones. Es más, la proliferación de herramientas de inteligencia artificial ha suscitado la preocupación de que puedan utilizarse imágenes, video o audio falsos en un esfuerzo por dar legitimidad a los rumores electorales y a las afirmaciones falsas.

Pero aunque las pausas en la publicidad política son solo una de las medidas que las plataformas tecnológicas dicen estar tomando para salvaguardar el ecosistema de la información en línea durante la semana de las elecciones, después de recortar sus propios equipos de confianza y seguridad y de dar marcha atrás en las políticas relacionadas con las elecciones, los expertos dicen que puede ser demasiado tarde para impedir que la avalancha de desinformación se siga extendiendo.

Eso es especialmente cierto ahora que X (antes Twitter) y su relativamente nuevo propietario Musk se han convertido en algunos de los principales proveedores de afirmaciones electorales falsas y engañosas. Twitter era considerado un líder en la lucha contra la desinformación política y la retórica violenta antes de que Musk lo comprara, y otros actores más grandes incluso siguieron su ejemplo, como cuando bloqueó al entonces presidente Donald Trump tras el atentado del 6 de enero de 2021 en el Capitolio estadounidense.

“Desde las últimas elecciones presidenciales, hemos visto un dramático retroceso en la preparación, el cumplimiento y la voluntad de las empresas de redes sociales para proteger la información en línea relacionada con las elecciones, relacionada con los candidatos, los políticos”, dijo Sacha Haworth, director ejecutivo del grupo de vigilancia Tech Oversight Project, en un evento organizado por la organización el lunes. “Las plataformas son caldo de cultivo de falsas narrativas”.

El retroceso

Los meses previos a las elecciones trajeron consigo una avalancha de desinformación que, según los expertos, puede minar la confianza en el proceso electoral.

“Durante los últimos cuatro años, hemos tenido el goteo, goteo de mentiras sobre nuestro proceso electoral, el funcionamiento de la democracia y nuestras elecciones”, dijo Imran Ahmed, CEO del grupo de vigilancia de las redes sociales Center for Countering Digital Hate, a CNN el lunes. “Es demasiado tarde”.

A raíz de las injerencias en línea en las elecciones de 2016 y, de nuevo, tras el atentado del 6 de enero de 2021 en el Capitolio estadounidense, organizado en gran parte en línea, muchas grandes plataformas reforzaron sus equipos y políticas de confianza y seguridad e integridad electoral, incluso eliminando publicaciones y suspendiendo miles de cuentas que difundían mentiras.

Pero desde entonces, esas empresas han hecho recortes en esos equipos y han dado marcha atrás en las políticas diseñadas para restringir las afirmaciones falsas sobre política y elecciones. El año pasado, dijeron que ya no eliminarían las afirmaciones falsas de que las elecciones de 2020 habían sido robadas.

Los efectos de ese retroceso alcanzaron su punto máximo durante el verano boreal cuando, tras el primer intento de magnicidio de Trump, las teorías conspirativas corrieron como la pólvora por las redes sociales. La difusión de afirmaciones falsas sobre la respuesta a los huracanes Helene y Milton, muchas de ellas dirigidas contra el Gobierno Biden-Harris, también amenazó con obstaculizar los esfuerzos de recuperación tras esos desastres, según dijeron funcionarios del gobierno y agencias de respuesta.

En X, las afirmaciones falsas y engañosas de Musk sobre las elecciones, incluso sobre la inmigración y el voto, y a menudo en apoyo de Trump, a quien el multimillonario ofreció su apoyo y donativos en campaña, generaron más de 2.000 millones de visitas este año, según un análisis del CCDH de Ahmed.

Ahmed dijo que mientras el enfoque de las plataformas sobre el contenido falso y engañoso siga siendo el mismo, es probable que una pausa temporal en los anuncios políticos durante la semana de las elecciones tenga poco impacto.

“Detener los anuncios en plataformas que están diseñadas algorítmicamente para promover la información más polémica, ya sea desinformación u odio, debido al alto compromiso que obtiene, no necesitan alcance pagado cuando tienen plataformas que orgánicamente están diseñadas para promover sus afirmaciones de todos modos”, dijo Ahmed.

Meta y X no respondieron inmediatamente a una solicitud de comentarios sobre las preocupaciones de que sus esfuerzos de seguridad durante la semana electoral puedan ser inadecuados.

TikTok señaló a CNN su “US Elections Integrity Hub”, donde afirma: “protegemos la integridad de las elecciones en TikTok impidiendo la difusión de contenido dañino, conectando a nuestra comunidad con información autorizada y asociándonos con expertos”.

Un portavoz de YouTube dijo en un comunicado que “En los últimos años, YouTube ha invertido fuertemente en las políticas y sistemas que nos permiten apoyar las elecciones, no solo en EE.UU., sino en todo el mundo”.

Y añadieron: “La responsabilidad sigue siendo nuestra prioridad número uno, tanto en época electoral como durante todo el año. Los contenidos que inducen a error a los espectadores o fomentan la interferencia en el proceso democrático están prohibidos en YouTube. Eliminamos rápidamente los contenidos que incitan a la violencia, fomentan el odio o promueven teorías conspirativas perjudiciales”.

Medidas de las plataformas

Aún así, los principales gigantes tecnológicos dicen que están haciendo algo más que pausar los anuncios electorales para salvaguardar sus plataformas. Facebook e Instagram, Google y YouTube, X y TikTok afirman que han trabajado para elevar la información fiable sobre las elecciones, incluso remitiendo a los usuarios a sitios web estatales o de organizaciones sin fines de lucro neutrales para obtener información sobre la votación, los candidatos y los resultados de las elecciones.

La mayoría de las principales plataformas también afirman que han tomado medidas para evitar operaciones coordinadas de influencia que pudieran perturbar las elecciones, incluso por parte de actores extranjeros. En los últimos meses, agentes rusos e iraníes han intentado influir en los votantes estadounidenses a través de campañas de desinformación en línea.

Leslie Miller, vicepresidenta de relaciones gubernamentales de YouTube, propiedad de Google, expuso los planes de la plataforma para las elecciones en una entrada de su blog el pasado diciembre, en la que señalaba que YouTube no permite contenidos que induzcan a error a los votantes sobre cómo votar o que fomenten la interferencia electoral.

“Eliminamos rápidamente los contenidos que incitan a la violencia, fomentan el odio, promueven teorías conspirativas dañinas o amenazan a los trabajadores electorales”, dijo Mann en la publicación.

TikTok dice que no permite contenidos que puedan “dar lugar a la interferencia de los votantes, perturbar la transferencia pacífica del poder o conducir a la violencia fuera de la plataforma”, incluidas las afirmaciones no verificadas o falsas sobre los resultados finales de unas elecciones. La plataforma dice que trabaja con verificadores de hechos y etiquetará otras afirmaciones no verificadas y las hará inelegibles para su promoción en su feed For You, como “una afirmación prematura de que todas las papeletas han sido contadas o escrutadas”.

Meta, asimismo, dice que elimina el contenido que pueda interferir en la capacidad de la gente para votar, como las amenazas sobre acudir a un lugar de elecciones para “vigilar” e intimidar a los votantes. Con otros contenidos que sus verificadores de hechos determinen que son falsos, Meta dice que los “moverá más abajo en el Feed” y los etiquetará para proporcionar información adicional a los espectadores.

Meta afirma que no tiene una política específica que prohíba los contenidos no publicitarios que declaren la victoria anticipada de un candidato antes de que se haya convocado formalmente una votación, aunque tales publicaciones podrían optar a una etiqueta de comprobación de hechos. YouTube tampoco prohibirá los videos que declaren la victoria anticipada de los candidatos, aunque dijo que tales videos mostrarán un panel informativo con los resultados electorales compartidos por Associated Press.

En una declaración a CNN, X dijo que su Política de Integridad Cívica, que prohíbe las declaraciones falsas destinadas a manipular o interferir en las elecciones, como el contenido que podría inducir a error a la gente sobre cómo votar o “conducir a la violencia fuera de línea”, entró en vigor en agosto. Sin embargo, la política permite explícitamente declaraciones inexactas sobre los candidatos, así como “contenido orgánico que sea polarizador, tendencioso, hiperpartidista o que contenga puntos de vista controvertidos expresados sobre las elecciones o la política”.

Y, como suele ocurrir con las políticas de las plataformas de redes sociales, hay una diferencia entre instituir una política y hacerla cumplir. Musk fue señalado en septiembre por una publicación en X en la que parecía preguntarse por qué “nadie está intentando asesinar a Biden/Kamala”, que más tarde borró y calificó de broma. Musk también pareció violar otra política de X cuando compartió un video el mes pasado en X que utilizaba inteligencia artificial para hacer parecer que la vicepresidenta Kamala Harris había dicho cosas que, de hecho, no dijo.