CNNE 1425512 - ¿por que son peligrosas las imagenes "deepfake"?
Un experto en tecnología muestra los peligros de las imágenes "deepfake"
03:44 - Fuente: CNN

(CNN) – Agentes que trabajaban para los gobiernos de China e Irán prepararon contenidos falsos generados por inteligencia artificial como parte de una campaña para influir en los votantes estadounidenses en las últimas semanas de la campaña electoral de 2020, según informaron a CNN funcionarios de Estados Unidos actuales y anteriores.

Los agentes chinos e iraníes nunca difundieron públicamente el audio o el video “deepfake”, pero la información de inteligencia no divulgada anteriormente demuestra las preocupaciones que los funcionarios estadounidenses tenían hace cuatro años sobre la voluntad de las potencias extranjeras de amplificar información falsa sobre el proceso de votación.

Según una de las fuentes, la Agencia de Seguridad Nacional (NSA, por sus siglas en inglés) recopiló los datos que permitieron a los funcionarios estadounidenses conocer la capacidad de China e Irán para producir “deepfakes”.

Ahora que la producción de audio y video “deepfake” es mucho más fácil y faltan solo seis meses para las elecciones presidenciales, las autoridades estadounidenses están cada vez más preocupadas por cómo una campaña de influencia extranjera podría explotar la inteligencia artificial para engañar a los votantes.

En un ejercicio realizado en la Sala de Situación de la Casa Blanca el pasado mes de diciembre para preparar las elecciones de 2024, altos funcionarios estadounidenses se plantearon cómo responder a un escenario en el que agentes chinos crearan un video falso generado por IA en el que se mostrara a un candidato al Senado destruyendo boletas, tal y como informó anteriormente CNN.

En una reunión informativa celebrada la semana pasada, funcionarios del FBI advirtieron que la IA aumenta la capacidad de los estados extranjeros para difundir desinformación electoral.

No está claro qué se representó en los “deepfakes” que los agentes chinos e iraníes prepararon en 2020, según las fuentes, ni por qué no se desplegaron finalmente durante esas elecciones.

En su momento, algunos funcionarios estadounidenses que revisaron la información de inteligencia no se mostraron impresionados, ya que creían que demostraba que China e Irán carecían de la capacidad para desplegar “deepfakes” de una manera que pudiera afectar seriamente a las elecciones presidenciales de 2020, según dijo un exfuncionario estadounidense a CNN.

“La tecnología tiene que ser buena; no creo que fuera tan buena”, dijo el exfuncionario. “En segundo lugar, hay que tener apetito de riesgo. China, no. Irán, probablemente sí”.

Las fuentes señalaron que no hay pruebas de coordinación entre ambos países.

Vigilancia de adversarios

La NSA ha seguido recopilando información sobre los adversarios extranjeros que desarrollan “deepfakes” y la amenaza potencial que suponen para las elecciones estadounidenses ahora que la tecnología ha avanzado drásticamente en los últimos cuatro años, añadió el exfuncionario, señalando que en 2020 no existía, por ejemplo, un gran modelo de lenguaje como ChatGPT que fuera fácil de usar.

La NSA declinó hacer comentarios.

Los funcionarios estadounidenses han mantenido un alto nivel de visibilidad sobre los avances en IA y “deepfake” realizados por países como China, Irán y Rusia desde las elecciones de 2020. Pero poner esa inteligencia en uso dentro de los EE.UU. Sigue siendo un desafío, dijo el ex funcionario.

“La pregunta se convierte en qué tan rápido podemos detectar una anomalía y luego compartirla rápidamente dentro de Estados Unidos”, dijo el exfuncionario a CNN. “¿Estamos ganando la carrera contra una serie de adversarios que podrían operar dentro de Estados Unidos? Ese es el reto”.

La amenaza de los “deepfakes” y la influencia extranjera está a punto de salir a relucir en una audiencia de la Comisión de Inteligencia del Senado este miércoles, cuando los legisladores tendrán la rara oportunidad de interrogar públicamente al director de inteligencia nacional y a otros altos funcionarios sobre las amenazas extranjeras a las elecciones.

Aunque no desplegaron sus “deepfakes” en 2020, los agentes del Gobierno de Irán llevaron a cabo un descarado intento ese año para influir en los votantes imitando al grupo de extrema derecha Proud Boys y difundiendo un video que pretendía mostrar el hackeo de una base de datos de registro de votantes de Estados Unidos, según los fiscales estadounidenses.

“El hecho de que los iraníes imitaran a los Proud Boys pero no intentaran ‘deepfakes’ fue o bien una falta de fe en sus capacidades o una señal de que no tenían una orientación interna clara”, dijo a CNN una persona familiarizada con el asunto.

Perdidos en la traducción

Para que las operaciones de influencia extranjeras sean eficaces, también tienen que calar en el público estadounidense, algo con lo que China ha tenido problemas, según el alto exfuncionario estadounidense.

“Creo que se trata claramente de una cuestión cultural”, dijo el exfuncionario. “Realmente tienen una comprensión muy difícil de los temas que son divisivos o necesariamente cómo jugar a esos temas, donde los rusos no lo hacen”.

La IA generativa, o IA utilizada para crear video, audio, imágenes o texto, ha hecho que los agentes de influencia extranjeros sean más eficientes en la creación de contenidos, pero “no hay pruebas de que les haya hecho a ellos o a sus campañas más eficaces”, dijo Lee Foster, experto en el seguimiento de operaciones de influencia extranjeras en línea.

“La IA generativa no ha ayudado hasta ahora a los agentes a resolver el principal obstáculo al que se enfrentan: la distribución”, dijo Foster, cofundador de la empresa de seguridad de IA Aspect Labs. “Los agentes rara vez han tenido problemas para crear contenidos. Ponerlo delante de los ojos adecuados a una escala significativa ha sido y sigue siendo el punto de fricción, uno que la IA hasta ahora no les ha ayudado a superar”.

Foster y otros expertos han advertido contra la exageración del impacto de las operaciones de influencia extranjera, incluidas las que utilizan IA, porque beneficia a los propios propagandistas.

CNNE 1349225 - ¿que es la pornografia 'deepfake' y como victimiza a las mujeres?
Mujer víctima de pornografía "deepfake" da su testimonio: "Nos deshumaniza"
03:15 - Fuente: CNN

Desinformación en Estados Unidos

Pero EE.UU. sigue siendo terreno fértil para las teorías de la conspiración, ya sean de origen nacional o extranjero.

Casi el 70% de los republicanos y de los que se inclinan por el Partido Republicano afirmó que la victoria del presidente Joe Biden en las elecciones de 2020 no era legítima, según una encuesta de CNN publicada en agosto.

Y las opiniones positivas sobre muchas instituciones gubernamentales están “en mínimos históricos”, ya que solo el 16% del público afirma confiar en el gobierno federal siempre o la mayoría de las veces, según una encuesta del Pew Research Center publicada en septiembre.

Las elecciones estadounidenses de 2024 presentarán nuevas oportunidades para las operaciones de influencia extranjera. La ayuda militar estadounidense a Ucrania está esencialmente en juego, con los demócratas respaldando en gran medida el apoyo de Biden a Ucrania y algunos republicanos destacados, incluido el expresidente Donald Trump, cada vez más reacios a la ayuda exterior.

A los funcionarios del FBI les preocupa que la guerra en Ucrania -y el apoyo de Estados Unidos a Kyiv- pueda ser un “acontecimiento animador para los rusos” en términos de llevar a cabo operaciones de interferencia o influencia dirigidas a las elecciones estadounidenses, según declaró un alto funcionario del FBI a la prensa la semana pasada.