(CNN) – Grok, el chatbot de inteligencia artificial de Elon Musk, empezó el martes a permitir a los usuarios crear imágenes generadas por inteligencia artificial a partir de mensajes de texto y publicarlas en X.
Casi de inmediato, la gente empezó a utilizar la herramienta para inundar la red social con imágenes falsas de figuras políticas como el expresidente Donald Trump y la vicepresidenta Kamala Harris, así como del propio Musk, algunas de ellas mostrando a personajes públicos en situaciones obviamente falsas pero no por ello menos inquietantes, como su participación en los atentados del 11-S.
A diferencia de otras herramientas fotográficas de inteligencia artificial, Grok, creada por la startup de inteligencia artificial de Musk, xAI, parece tener pocos límites.
En las pruebas realizadas con la herramienta, por ejemplo, CNN consiguió fácilmente que Grok generara imágenes falsas y fotorrealistas de políticos y candidatos que, sacadas de contexto, podrían inducir a error a los votantes. La herramienta también creó imágenes benignas pero convincentes de personajes públicos, como Musk comiendo un filete en un parque.
Algunos usuarios de X publicaron imágenes que decían haber creado con Grok en las que aparecían figuras prominentes consumiendo drogas, personajes de dibujos animados cometiendo asesinatos violentos e imágenes sexualizadas de mujeres en bikini. En un post visto casi 400.000 veces, un usuario compartió una imagen creada por Grok de Trump asomado desde lo alto de un camión, disparando un rifle. Las pruebas de CNN confirmaron que la herramienta es capaz de crear ese tipo de imágenes.
Es probable que esta herramienta se sume a la preocupación de que la inteligencia artificial pueda crear una explosión de información falsa o engañosa en Internet, especialmente de cara a las elecciones presidenciales estadounidenses. Legisladores, grupos de la sociedad civil e incluso líderes tecnológicos han alertado de que el uso indebido de estas herramientas podría causar confusión y caos entre los votantes.
“¡Grok es la IA más divertida del mundo!”, publicó Musk en X el miércoles, en respuesta a un usuario que elogiaba la herramienta por ser “sin censura”.
Muchas otras empresas líderes en IA han tomado algunas medidas para evitar que sus herramientas de generación de imágenes de IA se utilicen para crear desinformación política, aunque los investigadores descubrieron que los usuarios todavía pueden encontrar a veces formas de eludir las medidas de aplicación. Algunas empresas, como OpenAI, Meta y Microsoft, también incluyen tecnología o etiquetas para ayudar a los espectadores a identificar las imágenes que han sido creadas con sus herramientas de IA.
Las plataformas de redes sociales rivales, como YouTube, TikTok, Instagram y Facebook, también han tomado medidas para etiquetar el contenido generado por IA en los feeds de los usuarios, ya sea utilizando tecnología para detectarlo ellos mismos o pidiendo a los usuarios que identifiquen cuándo están publicando dicho contenido.
X no respondió inmediatamente a una solicitud de comentarios sobre si tiene alguna política contra Grok que genere imágenes potencialmente engañosas de candidatos políticos.
La plataforma de redes sociales tiene una política contra el intercambio de “medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a la gente y causar daño”, aunque no está claro cómo se aplica la política. El propio Musk compartió un video el mes pasado en X que utilizaba IA para hacer creer que Harris había dicho cosas que, de hecho, no había dicho, en una aparente violación de la política y con sólo un emoji de una cara riéndose para sugerir a los seguidores que era falso.
La nueva herramienta de imágenes Grok también llega cuando Musk se enfrenta a críticas por difundir repetidamente afirmaciones falsas y engañosas en X relacionadas con las elecciones presidenciales, incluido un post en el que planteaba dudas sobre la seguridad de las máquinas de votación. También se produce días después de que Musk recibiera a Trump en una conversación de más de dos horas retransmitida en directo en X, en la que el aspirante republicano hizo al menos 20 afirmaciones falsas sin que Musk se opusiera.
Otras herramientas de generación de imágenes por IA han sufrido reacciones negativas por diversos motivos. Google puso en pausa la capacidad de su chatbot Gemini AI para generar imágenes de personas después de que fuera criticado por producir representaciones históricamente inexactas de las razas de las personas; el generador de imágenes AI de Meta fue objeto de críticas por tener problemas para crear imágenes de parejas o amigos de diferentes orígenes raciales. TikTok también se vio obligada a retirar una herramienta de video de IA después de que CNN descubriera que cualquier usuario podía crear videos de aspecto realista de personas diciendo cualquier cosa, incluida la desinformación sobre vacunas, sin etiquetas.
Grok parece tener algunas restricciones; por ejemplo, una solicitud de una imagen desnuda devolvió una respuesta diciendo: “desafortunadamente, no puedo generar ese tipo de imagen”.
En una prueba separada, la herramienta dijo que también tiene “limitaciones en la creación de contenidos que promuevan o puedan ser vistos como apoyo a estereotipos dañinos, discursos de odio o desinformación”.
“Es importante evitar difundir falsedades o contenidos que puedan incitar al odio o la división. Si tienes otras peticiones o necesitas información sobre un tema diferente, no dudes en preguntar”, dijo Grok.
Sin embargo, en respuesta a otra solicitud, la herramienta generó una imagen de un personaje político junto a un símbolo de incitación al odio, señal de que, sean cuales sean las restricciones de Grok, no parecen aplicarse de forma sistemática.
Con información de Jon Passantino.