En esta fotografía ilustrativa tomada en Cracovia, Polonia, el 6 de abril de 2022, se ven los íconos de Facebook, WhatsApp, Messenger e Instagram que se muestran en la pantalla de un teléfono.

(CNN) – Meta permitirá que los anuncios políticos en sus plataformas cuestionen el resultado de las elecciones presidenciales de EE.UU. de 2020, como parte de un retroceso en la moderación de contenido relacionado con las elecciones entre las principales plataformas de redes sociales durante el último año, y antes de la contienda presidencial de EE.UU. de 2024.

La política significa que Meta, la empresa matriz de Facebook e Instagram, podrá beneficiarse directamente de anuncios políticos que contengan afirmaciones falsas sobre la legitimidad de las elecciones de 2020. Si bien la compañía permitirá anuncios políticos que afirmen que las elecciones pasadas —incluida la carrera presidencial de 2020— fueron manipuladas, prohibirá aquellos que “cuestionen la legitimidad de una elección próxima o en curso”.

El cambio es parte de una actualización de política de hace un año, pero no fue ampliamente informado. The Wall Street Journal informó el miércoles temprano sobre el cambio en la política publicitaria de Meta.

Meta dice que la política que permite el negacionismo de las elecciones de 2020 en anuncios políticos fue parte de un anuncio de agosto de 2022 sobre su enfoque de las elecciones de mitad de periodo del año pasado, cuando la compañía dijo que prohibiría los anuncios dirigidos a usuarios en Estados Unidos, Brasil, Israel e Italia que desalienten a las personas a votar, poner en duda la legitimidad de una elección próxima o en curso o reclamar prematuramente una victoria electoral. El mismo mes, Meta le dijo a The Washington Post que no eliminaría publicaciones de candidatos políticos o usuarios habituales que afirmaran fraude electoral o que las elecciones de 2020 estuvieron arregladas.

Según la compañía, la política más amplia contra la desinformación electoral de Meta continúa prohibiendo contenido que pueda interferir con la capacidad de las personas para participar en la votación o el censo, como afirmaciones falsas sobre el momento de una elección.

La presión sobre las empresas de tecnología para combatir la desinformación electoral aumentó tras el ataque del 6 de enero de 2021 al Capitolio de Estados Unidos, que fue alimentado por afirmaciones infundadas sobre el fraude electoral de 2020.

Las elecciones de 2020 no fueron manipuladas ni robadas. Decenas de demandas que intentaban impugnar los resultados de las elecciones presidenciales de 2020 fueron desestimadas a nivel estatal y federal en estados de todo el país tras una iniciativa para anular el resultado que comenzó en noviembre de 2020.

Pero más recientemente, las plataformas sociales han cambiado en la forma en que manejan los anuncios electorales y la información errónea relacionada con las elecciones de 2020.

Meta, YouTube y X, conocida anteriormente como Twitter, han restablecido las cuentas pertenecientes al expresidente de Estados Unidos, Donald Trump, desde el otoño pasado. Meta aclaró tras la reinstalación de Trump en enero que no castigaría al expresidente por cuestionar los resultados de las elecciones de 2020, pero dijo que se le prohibiría arrojar dudas sobre las próximas elecciones.

X también dijo a principios de este año que volvería a permitir anuncios políticos, levantando una prohibición anterior.

YouTube dijo en junio que ya no eliminaría contenido que presentara afirmaciones falsas de que las elecciones presidenciales estadounidenses de 2020 fueron robadas, revirtiendo una política instituida hace más de dos años. Sin embargo, la compañía dice que seguirá prohibiendo el contenido que engañe a los usuarios sobre cómo y cuándo votar, promueva afirmaciones falsas que puedan desalentar la votación o “aliente a otros a interferir con los procesos democráticos”.

El cambio de política de YouTube que permite el negacionismo de las elecciones de 2020 no se aplica a sus políticas publicitarias, confirmó este miércoles el portavoz de YouTube, Michael Aciman. La política publicitaria de YouTube continúa prohibiendo afirmaciones que sean “demostrablemente falsas y que puedan socavar significativamente la participación o la confianza en un proceso electoral o democrático”.

Por otra parte, Meta dijo a principios de este mes que exigiría a los anunciantes políticos de todo el mundo que revelen cualquier uso de inteligencia artificial en sus anuncios, a partir del próximo año, como parte de una medida más amplia para limitar los “deepfakes” y otros contenidos engañosos alterados digitalmente. También dijo que prohibiría a los anunciantes políticos utilizar las nuevas herramientas de inteligencia artificial de la compañía que ayudan a las marcas a generar texto, fondos y otros contenidos de marketing.

Con información de Brian Fung