CNNEarrow-downclosecomment-02commentglobeplaylistsearchsocial-facebooksocial-googleplussocial-instagramsocial-linkedinsocial-mailsocial-moresocial-twittersocial-whatsapp-01social-whatsapptimestamptype-audiotype-gallery
Análisis

ANÁLISIS | ¿Por qué OpenAI debería temer una demanda de Scarlett Johansson?

Por Brian Fung

(CNN) -- ¿Scarlett Johansson demandará a OpenAI por crear un asistente de voz que suena como la actuación de la actriz en la película de 2013 “Her”, sobre un hombre que se enamora de una inteligencia artificial (IA)?

Así es como podrían ir las cosas después de que Johansson dijera que OpenAI intentó contratarla para que expresara un asistente de IA para ChatGPT y, cuando ella se negó, la empresa siguió adelante con una voz parecida a la suya. El cofundador y director ejecutivo de OpenAI, Sam Altman, podría estar directamente en el punto de mira de tal demanda.

Ahora, los expertos legales dicen que Johansson podría tener un reclamo poderoso y creíble en los tribunales si decide demandar y señalar una larga serie de casos pasados ​​que podrían generar daños significativos para una de las compañías de inteligencia artificial líderes en el mundo y plantear preguntas sobre la disposición de la industria para lidiar con las complicaciones de la IA.

El hecho de que OpenAI aparentemente desconociera esa historia legal, o en el peor de los casos, la ignorara deliberadamente, resalta lo que algunos críticos dicen que es una falta de supervisión de la industria en IA y la necesidad de mayores protecciones para los creadores.

OpenAI no respondió de inmediato a una solicitud de comentarios.

publicidad

El riesgo legal de OpenAI

Según los expertos legales, hay dos tipos de leyes que potencialmente podrían estar involucradas en este caso, pero según los hechos actualmente conocidos, es probable que solo una entre en juego.

La primera es la ley de derechos de autor. Si OpenAI hubiera tomado muestras directamente de las películas de Johansson u otros trabajos publicados para crear a Sky, la coqueta asistente de voz que previsualizó en una actualización de ChatGPT, entonces OpenAI podría enfrentar un problema de derechos de autor si la compañía no obtuvo el permiso de antemano.

Ese no parece ser el caso, al menos según las declaraciones anteriores de OpenAI. La compañía afirma no haber utilizado la voz real de Johansson, según dijo en una publicación este domingo, sino más bien "una actriz profesional diferente que usa su propia voz natural".

Si bien eso podría ser suficiente para desviar un reclamo de derechos de autor, es casi seguro que no aislaría a OpenAI del segundo tipo de ley en cuestión, según Tiffany Li, profesora de derecho especializada en propiedad intelectual y tecnología en la Universidad de San Francisco.

"No importa si OpenAI utilizó alguna de las muestras de voz reales de Scarlett Johansson", publicó Li en Threads. "Ella todavía tiene un caso viable de derecho de publicidad aquí".

Cómo funcionan las leyes de derechos de publicidad

Varios estados tienen leyes de derecho de publicidad que protegen las imágenes de las personas contra el robo o el mal uso, y la de California, donde tienen su sede Hollywood y OpenAI, se encuentra entre las más sólidas.

La ley de California prohíbe el uso no autorizado del “nombre, voz, firma, fotografía o imagen” de cualquier persona con el fin de “publicitar, vender o solicitar compras de productos, mercancías, bienes o servicios”.

A diferencia de un reclamo de derechos de autor, que se refiere a propiedad intelectual, un reclamo de derecho de publicidad se refiere más al uso no autorizado de la identidad o personalidad pública de una persona con fines de lucro. Aquí, Johansson podría acusar a OpenAI de monetizar ilegalmente quién es ella, esencialmente engañando a los usuarios haciéndoles pensar que había hecho la voz de Sky.

Una defensa que OpenAI podría presentar es que sus videos ahora virales que muestran las capacidades de Sky no fueron técnicamente hechos como anuncios ni destinados a impulsar compras, dijo John Bergmayer, director legal de Public Knowledge, un grupo de defensa del consumidor. Pero, añadió, podría ser un argumento bastante débil.

"Creo que el uso en una presentación o video promocional muy publicitado supera fácilmente esa prueba", dijo.

Además de decir que nunca usó la voz real de Johansson y que sus videos no eran anuncios, OpenAI también podría alegar que nunca tuvo la intención de imitar con precisión a Johansson. Pero hay jurisprudencia sustancial (y un hecho muy inconveniente para OpenAI) que debilita esa defensa, dicen los expertos legales.

Un precedente de Bette Midler

Hay aproximadamente media decena de casos en este espacio que muestran cómo OpenAI puede terminar en problemas. Éstos son dos de los más importantes.

En 1988, la cantante Bette Midler ganó una demanda contra Ford Motor Company por un anuncio en el que aparecía una voz similar a la suya. De hecho, la canción del anuncio había sido grabada por uno de los coristas de Midler después de que ella rechazara la oportunidad de grabar el anuncio. Las similitudes entre la reproducción y el original eran tan sorprendentes que algunas personas le dijeron a Midler que creían que ella había actuado en el comercial.

La Corte de Apelaciones del Noveno Circuito de Estados Unidos falló a favor de Midler.

“¿Por qué los acusados ​​le pidieron a Midler que cantara si su voz no era valiosa para ellos?”, escribió el tribunal. “¿Por qué contrataron cuidadosamente los servicios de una sonidista y le ordenaron que imitara a Midler si la voz de Midler no era valiosa para ellos? Lo que buscaban era un atributo de la identidad de Midler. Su valor era lo que el mercado habría pagado por que Midler hubiera cantado el comercial en persona”.

En un caso similar decidido por el Noveno Circuito en 1992, el cantante Tom Waits ganó US$ 2,6 millones en daños y perjuicios contra el fabricante de snacks Frito-Lay por un anuncio de Doritos que presentaba una imitación de la voz ronca característica de Waits. En ese caso, el tribunal redobló la decisión de Midler, y consagró aún más la idea de que la ley de derecho de publicidad de California protege la voz de una persona.

Los ejecutivos de OpenAI demuestran el último modelo de lenguaje grande de la compañía, GPT-4o. Crédito: OpenAI.

La situación que involucra a Johansson y OpenAI tiene un parecido notable con estos casos anteriores. Según Johansson, OpenAI se acercó a ella para actuar como Sky pero ella se negó. Luego, meses después, OpenAI lanzó una versión de Sky que fue ampliamente comparada con Johansson, hasta el punto de que la actriz dijo que sus "amigos más cercanos (...) no podían notar la diferencia".

El hecho de que OpenAI pueda sobrevivir a una posible demanda por derechos de publicidad puede depender de la intención, es decir, de si la empresa puede demostrar que no se propuso imitar la voz de Johansson, dijo James Grimmelmann, profesor de derecho en la Universidad de Cornell.

En su entrada de blog del domingo, OpenAI dijo que Sky “no era una imitación de Scarlett Johansson”, pero que con cada una de sus voces de IA, el objetivo de la compañía era simplemente crear “una voz accesible que inspire confianza”, una que contenga un “tono intenso” y sea “natural y fácil de escuchar”.

Este lunes por la noche, Altman respondió a la declaración de Johansson con una propia, y afirmó que la compañía "eligió a la actriz de doblaje detrás de la voz de Sky antes de contactarse con la Sra. Johansson" y se disculpó por no comunicarse mejor.

Pero es posible que OpenAI ya se haya socavado a sí mismo.

"OpenAI podría haber tenido un caso plausible si no hubieran pasado las últimas dos semanas insinuándoles a todos que acababan de crear a Samantha a partir de ‘Her", dijo Grimmelmann, en referencia al personaje de Johansson en la película de 2013. "Hubo un reconocimiento público generalizado de que Sky era Samantha, y de forma intencionada".

El director ejecutivo de OpenAI, Sam Altman, pronuncia un discurso durante una reunión en la Estación F de París el 26 de mayo de 2023. Crédito: Joel Saget/AFP/Getty Images.

Los paralelismos generalizados que los usuarios establecían con Johansson se reforzaron cuando Altman publicó en X el día del anuncio del producto: "her". La declaración de Johansson dice que Altman usó esta publicación para insinuar que "la similitud fue intencional". El otoño pasado, Altman le dijo al público que “Her” no sólo era “increíblemente profética”, sino también su película de ciencia ficción favorita.

En conjunto, esos hechos sugieren que OpenAI pudo haber querido que los usuarios asociaran implícitamente Sky con Johansson en formas que la ley de California busca prevenir.

La publicación de Altman fue "increíblemente imprudente", dijo Bergmayer. "Teniendo en cuenta los hechos aquí (las negociaciones, el tweet), incluso si OpenAI estuviera usando una actriz que suena como Johansson, creo que todavía hay una gran posibilidad de que sean responsables".

El problema de los deepfake

La situación que involucra a Johansson es un ejemplo de alto perfil de lo que puede salir mal en la era de los deepfakes y la inteligencia artificial. Si bien la ley de publicidad de California protege a todas las personas, algunos estatutos estatales solo protegen a las personas famosas y no todos los estados cuentan con dicha legislación.

Es más, esas leyes existentes pueden proteger la imagen de una persona o incluso su voz, pero pueden no cubrir algunas de las cosas que ahora se pueden hacer con la IA, como pedirle a un modelo que recree arte "al estilo" de un artista famoso.

"Esta situación muestra por qué necesitamos una ley federal sobre el derecho de publicidad, ya que no todos los casos involucrarán convenientemente a California", dijo Bergmayer.

Algunas empresas de tecnología se han involucrado. Adobe, el fabricante de Photoshop, impulsó una propuesta que llama Ley FAIR para crear un derecho federal contra la suplantación de identidad por parte de la IA. La empresa sostiene que, si bien se dedica a vender herramientas de inteligencia artificial como parte de su software creativo, tiene un gran interés en garantizar que sus clientes puedan seguir cosechando las recompensas de su propio trabajo.

"La preocupación que tienes como creador es que la IA vaya a desplazar su sustento económico porque es capacitación para su trabajo", dijo Dana Rao, asesor general y director de confianza de Adobe. “Esa es la angustia existencial que se siente en la comunidad. Y lo que decimos en Adobe es que siempre vamos a proporcionar la mejor tecnología del mundo a nuestros creadores (pero que) creemos en la innovación responsable”.

Algunos legisladores estadounidenses están trabajando en propuestas para abordar el tema. El año pasado, un grupo bipartidista de senadores dio a conocer un borrador de discusión de la Ley NO FAKES, un proyecto destinado a proteger a los creadores. Otro proyecto de ley que está en la Cámara se conoce como Ley contra el fraude en la IA.

Pero académicos y grupos de defensores de derechos digitales advirtieron que la legislación está lejos de ser perfecta, ya que deja grandes lagunas en algunas áreas y crea posibles consecuencias no deseadas en otras.

Todavía hay muchas dudas sobre la protección de la libre expresión, como la capacidad de las personas de utilizar imágenes de otras personas para fines educativos u otros usos no comerciales, así como los derechos sobre la imagen de una persona después de la muerte – algo importante en la recreación de actores fallecidos en películas o música – lo que en última instancia podría perjudicar a los artistas vivos, según Jennifer Rothman, experta en propiedad intelectual y profesora de derecho en la Universidad de Pensilvania.

“Esto abre la puerta a que los sellos discográficos creen a bajo costo actuaciones generadas por IA, incluidas las de celebridades muertas, y exploten esta opción lucrativa en lugar de actuaciones más costosas de seres humanos vivos”, escribió Rothman en una publicación de blog en octubre sobre la Ley NO FAKES.

El debate sobre los derechos de publicidad en el Congreso es parte de un esfuerzo mucho más amplio de los legisladores para luchar contra la IA, un esfuerzo que probablemente no se resolverá pronto y que refleja la complejidad de las cuestiones en juego.