(CNN) – El cuestionado presidente de Venezuela Nicolás Maduro se sumó este miércoles al controversial debate en torno a las denuncias del uso de la inteligencia artificial para desinformar en Venezuela. El mandatario criticó una nota publicada en El País de España que afirma que avatares que simulan ser presentadores de noticias difunden información falsa y no confirmada sobre la situación económica del país sudamericano.
Maduro reaccionó con ironía y aseguró que era un robot mientras imitaba el movimiento mecánico propio de estas creaciones. “Nos acusan de que somos robots, que no existimos… No, no es la inteligencia artificial, es la inteligencia popular, es la inteligencia revolucionaria”.
CNN pudo comprobar que no existen tales presentadores de televisión y que tampoco se trata de un noticiero de verdad. En el sitio web de Synthesia, CNN identificó a Andy, a Thomas y a Emma como avatares al servicio de cualquier usuario que quiera crear contenido.
Estos tres avatares son los mismos que aparecen en los videos sobre la supuesta recuperación económica de Venezuela, y fueron publicados por House of News, una supuesta agencia que sólo parece tener una cuenta en YouTube desde el 26 de enero de este año.
CNN ha hecho esfuerzos, hasta ahora sin éxito, de contactar a los responsables de la cuenta. Tampoco está claro quién financia la campaña. De igual forma, CNN contactó a Synthesia para saber más de este trabajo y si su cliente es el Gobierno de Venezuela. No ha habido respuesta.
CNN también consultó al gobierno venezolano si guarda relación con estos videos, pero hasta ahora no han respondido.
El relato de estos avatares, que hablaba de la supuesta recuperación económica de Venezuela sin citar cifras, se viralizó esta semana y puso de manifiesto las preocupaciones de periodistas y expertos por el uso de la inteligencia artificial para difundir propaganda y desinformación en un país con un sistema muy debilitado de medios independientes.
Por ejemplo, la ONG Cazadores de Fake News explicó que los videos protagonizados por avatares generan mucha más confusión. “Primero se crea una falsa fuente, llamada “House of News”, que no es un noticiero sino que simula serlo, y además se crea un falso ancla para darle credibilidad. Son prácticas comunes para desinformar”, agregó su director Adrián González.
Por su parte, el coordinador de la coalición C-informa, Andrés Cañizales, aseguró en entrevista con CNN que hacer estos videos “no es algo excesivamente costoso, ni excesivamente difícil, ni excesivamente lento”. Dijo que se trata de una herramienta que está hoy al alcance no sólo de los gobiernos sino de cualquier otro que intente desinformar.
La directora editorial de factchequeado.com, Tamoa Calzadilla, afirmó que lo que se está viendo es un perfeccionamiento de las técnicas para desinformar y que eso no es otra que el deep fake. Calzadilla lo describió como “una manipulación a través de técnicas digitales como la inteligencia artificial para crear imágenes en movimiento con audios y personajes que no son reales pero que se muestran como tales para confundir y engañar al público”.
A juicio de Víctor Amaya, director del diario Tal cual y de Espaja.com, este tipo de campañas “le meten más ruido a la conversación pública en Venezuela”. “Si una persona no puede confiar en nada de lo que pasa en redes, entonces desconfía de todos. De los medios más consolidados, de los que no, de los que son nuevos”.
El relato de los avatares Andy, Thomas y Enma habla de la recuperación económica de Venezuela. Ese optimismo contrasta con los reportes de Ecoanalítica. En enero de este año, según la firma, se registró una caída de 17,5% en el índice de volumen de ventas con respecto al mismo mes de 2022.