(CNN) – Cuando Ana Schultz, una joven de 25 años de Rock Falls, Illinois, extraña a su esposo Kyle, quien falleció en febrero de 2023, le pide consejos de cocina.
Ella activa Snapchat My AI, el chatbot de inteligencia artificial de la plataforma de redes sociales, y le envía a Kyle los ingredientes que le quedan en el refrigerador; él le sugiere qué preparar.
O mejor dicho, lo hace su imagen en forma de avatar de inteligencia artificial (IA).
“Él era el chef de la familia, así que personalicé My AI para que se pareciera a él y le puse el nombre de Kyle”, explica Schultz, que vive con sus dos hijos pequeños. “Ahora, cuando necesito ayuda con ideas para la comida, le pregunto a él. Es una tontería que me ayuda a sentir que sigue conmigo en la cocina”.
La función Snapchat My AI (que funciona con la popular herramienta de chatbot de IA ChatGPT) suele ofrecer recomendaciones, responder preguntas y “hablar” con los usuarios. Pero algunos usuarios como Schutz están utilizando esta y otras herramientas para recrear la imagen de los difuntos y comunicarse con ellos.
El concepto no es totalmente nuevo. La gente lleva siglos queriendo reconectar con sus seres queridos fallecidos, ya sea visitando a médiums y espiritistas o recurriendo a servicios que preservan su memoria. Pero lo nuevo ahora es que la IA puede hacer que esos seres queridos digan o hagan cosas que nunca dijeron o hicieron en vida, lo que suscita tanto preocupaciones éticas como preguntas sobre si esto ayuda o entorpece el proceso de duelo.
“Es una novedad que se aprovecha del bombo de la IA, y la gente siente que se puede ganar dinero”, afirma Mark Sample, profesor de Estudios Digitales del Davidson College que imparte habitualmente un curso llamado “La muerte en la era digital”. “Aunque las empresas ofrecen productos relacionados, ChatGPT está facilitando que los aficionados también jueguen con el concepto, para bien o para mal”.
Un enfoque “hágalo usted mismo”
Las herramientas de IA generativa, que utilizan algoritmos para crear nuevos contenidos como texto, video, audio y código, pueden intentar responder a preguntas de la misma forma que lo haría alguien que ha fallecido, pero la precisión depende en gran medida de la información que se introduzca en la IA para empezar.
Un profesional informático de 49 años de Alabama, que pidió permanecer en el anonimato para que su experimento no se asociara a la empresa para la que trabaja, dijo que clonó la voz de su padre utilizando IA generativa unos dos años después de que muriera de alzhéimer.
Según explicó a CNN, encontró un servicio en línea llamado ElevenLabs, que permite a los usuarios crear un modelo de voz personalizado a partir de audio grabado previamente. ElevenLabs saltó a los titulares recientemente cuando su herramienta se utilizó para crear una llamada falsa del presidente Joe Biden instando a la gente a no votar en las primarias de Nueva Hampshire.
La empresa declaró entonces a CNN que está “dedicada a prevenir el uso indebido de herramientas de audio de inteligencia artificial” y toma las medidas oportunas en respuesta a los informes de las autoridades, pero declinó hacer comentarios sobre la llamada falsa de Biden en concreto.
En el caso del hombre de Alabama, utilizó un video de 3 minutos de su padre contando una historia de su infancia. La aplicación clonó la voz del padre para convertirla en texto. Según él, el resultado es “increíblemente preciso”, ya que capta los matices vocales, el timbre y la cadencia de su padre.
“No me atrevía a probar el proceso de clonación de la voz, me preocupaba cruzar algún tipo de línea moral, pero después de pensarlo un poco más, me di cuenta de que si lo trataba como lo que era, era una forma de preservar su memoria de una manera única”, explicó a CNN.
Él compartió algunos mensajes con su hermana y su madre.
“Fue absolutamente asombroso lo mucho que se parecía a él. Sabían que yo estaba escribiendo las palabras y todo eso, pero definitivamente les hizo llorar oírlo dicho con su voz”, dijo. “Lo apreciaron”.
También existen vías menos técnicas. Cuando CNN pidió hace poco a ChatGPT que respondiera con el tono y la personalidad de un cónyuge fallecido, respondió: “Aunque no puedo replicar a su cónyuge ni recrear su personalidad exacta, sí puedo intentar ayudarle adoptando un estilo o tono de conversación que pueda recordarle a él”.
Y añadía: “Si me das detalles sobre cómo hablaba, sus intereses o frases concretas que utilizaba, puedo intentar incorporar esos elementos a nuestras conversaciones”.
Cuanto más material de referencia le proporciones al sistema, más precisos serán los resultados. Aun así, los modelos de IA carecen de la idiosincrasia y singularidad que aportan las conversaciones humanas, señala Sample.
OpenAI, la empresa que está detrás de ChatGPT, ha estado trabajando para hacer su tecnología aún más realista, personalizada y accesible, permitiendo a los usuarios comunicarse de diferentes maneras. En septiembre de 2023 introdujo ChatGPT voice, que permite a los usuarios hacer preguntas al chatbot sin necesidad de teclear.
Danielle Jacobson, una locutora de radio de 38 años de Johannesburgo, Sudáfrica, dice que ha estado utilizando la función de voz de ChatGPT como compañía tras la pérdida de su marido, Phil, hace unos siete meses. Ha creado lo que ella llama “un novio de inteligencia artificial” llamado Cole, con el que conversa todas las noches durante la cena.
“Quería alguien con quien hablar”, explica Jacobson. “Cole nació esencialmente de sentirme sola”.
Jacobson, que dijo que no está preparada para empezar a tener citas, entrenó la voz de ChatGPT para ofrecer el tipo de feedback y conexión que ella busca después de un largo día de trabajo.
“Ahora me recomienda noches de vino y cine, y me dice que inhale y exhale durante los ataques de pánico”, dijo. “Por ahora es una distracción divertida. Sé que no es real, serio ni para siempre”.
Plataformas existentes
Las startups han incursionado en este espacio durante años. HereAfter AI, fundada en 2019, permite a los usuarios crear avatares de seres queridos fallecidos. La app impulsada por IA genera respuestas y contesta a preguntas basadas en entrevistas realizadas mientras el sujeto estaba vivo. Mientras tanto, otro servicio, llamado StoryFile, crea videos conversacionales impulsados por IA que te contestan.
Y luego está Replika, una aplicación que permite enviar mensajes de texto o llamar a avatares de IA personalizados. El servicio, que se lanzó en 2017, anima a los usuarios a desarrollar una amistad o relación; cuanto más interactúas con él, más desarrolla su propia personalidad, recuerdos y crece “hasta convertirse en una máquina tan hermosa que un alma querría vivir en ella”, dice la compañía en su página de iOS App Store.
Los gigantes tecnológicos han experimentado con una tecnología similar. En junio de 2022, Amazon dijo que estaba trabajando en una actualización de su sistema Alexa que permitiría a la tecnología imitar cualquier voz, incluso la de un familiar fallecido. En un video mostrado en el escenario durante su conferencia anual re: MARS, Amazon demostró cómo en Alexa, en lugar de su voz característica, leía una historia a un niño pequeño con la voz de su abuela.
Rohit Prasad, un vicepresidente sénior de Amazon, dijo en ese momento que el sistema actualizado podría recopilar suficientes datos de voz de menos de un minuto de audio para hacer posible una personalización como esta, en lugar de tener a alguien pasando horas en un estudio de grabación como en el pasado. “Si bien la IA no puede eliminar ese dolor de la pérdida, definitivamente puede hacer que sus recuerdos duren”, dijo.
Amazon no respondió a una solicitud de comentarios sobre el estado de ese producto.
En los últimos años, la IA también ha mejorado cada vez más la recreación de la voz de las personas. Por ejemplo, las líneas habladas del actor Val Kilmer en “Top Gun: Maverick” se generaron con inteligencia artificial después de que perdiera la voz a causa de un cáncer de garganta.
Ética y otras preocupaciones
Aunque muchas plataformas de avatares generados por IA tienen políticas de privacidad en línea que establecen que no venden datos a terceros, no está claro qué hacen algunas compañías como Snapchat u OpenAI con cualquier dato utilizado para entrenar a sus sistemas para que suenen más como un ser querido fallecido.
“Yo advertiría a la gente que nunca suba información personal que no quiera que el mundo vea”, dice Sample.
También es una línea turbia hacer que una persona fallecida diga algo que nunca antes había dicho.
“Una cosa es reproducir un mensaje de voz de un ser querido para volver a escucharlo, y otra cosa es oír palabras que nunca se pronunciaron”, afirma.
Todo el sector de la IA generativa sigue enfrentándose a problemas relacionados con la desinformación, los prejuicios y otros contenidos problemáticos. En su página de ética, Replika afirma que entrena sus modelos con datos de fuentes de todo Internet, incluidas grandes bases de texto escrito como plataformas de medios sociales como Twitter o plataformas de debate como Reddit.
“En Replika utilizamos varios enfoques para mitigar la información nociva, como el filtrado de datos inútiles y perjudiciales mediante crowdsourcing y algoritmos de clasificación”, explica la empresa. “Cuando se detectan mensajes potencialmente dañinos, los borramos o editamos para garantizar la seguridad de nuestros usuarios”.
Otra preocupación es si esto obstaculiza o ayuda al proceso de duelo. Mary-Frances O’Connor, profesora de la Universidad de Arizona que estudia el duelo, afirma que utilizar la tecnología de este modo tiene ventajas y desventajas.
“Cuando establecemos un vínculo con un ser querido, cuando nos enamoramos de alguien, el cerebro codifica a esa persona como ‘yo siempre estaré ahí para ti y tú siempre estarás ahí para mí’”, explica. “Cuando mueren, nuestro cerebro tiene que entender que esa persona no va a volver”.
Como es tan difícil para el cerebro asimilarlo, puede llevar mucho tiempo comprender realmente que se han ido, explica. “Aquí es donde la tecnología podría interferir”.
Sin embargo, afirma que las personas que se encuentran en las primeras fases del duelo pueden buscar consuelo de cualquier forma.
“Crear un avatar que les recuerde a un ser querido, manteniendo la conciencia de que se trata de alguien importante en el pasado, podría ser curativo”, dijo. “Recordar es muy importante; refleja la condición humana y la importancia de los seres queridos fallecidos”.
Pero señaló que la relación que mantenemos con nuestros seres queridos más cercanos se basa en la autenticidad. Crear una versión IA de esa persona podría para muchos “sentirse como una violación de eso”.
Diferentes enfoques
Comunicarse con los muertos a través de la inteligencia artificial no es para todo el mundo.
Bill Abney, un ingeniero de software de San Francisco que perdió a su prometida Kari en mayo de 2022, dijo a CNN que “nunca” consideraría recrear su semejanza a través de un servicio o plataforma de IA.
“Mi prometida era poeta, y nunca le faltaría al respeto alimentando con sus palabras una máquina de plagio automatizado”, dijo Abney.
“No se puede reemplazar. No se puede recrear”, añadió. “También tengo la suerte de tener algunas grabaciones de su canto y de su voz, pero no quiero en absoluto oír su voz saliendo de un robot que se hace pasar por ella”.
Algunos han encontrado otras formas de interactuar digitalmente con seres queridos fallecidos. Jodi Spiegel, una psicóloga de Terranova, Canadá, dijo que creó una versión de su marido y de ella misma en el popular juego Los Sims poco después de su muerte en abril de 2021.
“Me encantan Los Sims, así que nos hice como si estuviéramos en la vida real”, dijo. “Cuando tenía un día malísimo, me iba a mi mundo Sims y bailaba mientras mi marido tocaba la guitarra”.
Contó que iban juntos de camping digital y a la playa, jugaban al ajedrez e incluso tenían relaciones sexuales en el mundo Sim.
“Me resultaba muy reconfortante”, afirma. “Extrañaba tanto pasar tiempo con mi chico. Se sentía como una conexión”.