Nota del editor: Jill Filipovic es periodista con sede en Nueva York y autora del libro “OK Boomer, Let’s Talk: How My Generation Got Left Behind”. Síguela en Twitter. Las opiniones presentadas en este artículo le pertenecen exclusivamente a su autora.
(CNN) – La noticia tecnológica más importante de esta semana es la destitución de Sam Altman como CEO de OpenAI, una decisión que ha conmocionado a la empresa y al sector. Cientos de empleados de OpenAI han amenazado con dimitir. Altman ya obtuvo un empleo en Microsoft. Y OpenAI, la empresa que está detrás de ChatGPT, tiene su tercer CEO en el mismo número de días.
Es todo muy intrigante. Pero este drama también debería plantear cuestiones más amplias, mucho más allá de las contrataciones y despidos internos de una empresa. ¿Quiénes toman las decisiones que determinarán gran parte de nuestro futuro tecnológico? ¿Qué principios rigen sus decisiones? ¿Y cómo deberían otras instituciones, llámese, gobiernos, industrias no tecnológicas, alianzas globales, organismos reguladores, refrenar los peores excesos de innovadores de IA potencialmente peligrosos?
OpenAI se fundó sin fines de lucro, con la misión explícita de aprovechar lo que pronto podría ser la inteligencia sobrehumana “en beneficio de toda la humanidad”. Pero esa sensibilidad no ha durado. La empresa tiene ahora un brazo lucrativo multimillonario. Han estado desarrollando nuevas tecnologías a la velocidad del rayo, y a veces las han enviado al público antes de que algunos empleados creyeran que estaban listas. Al parecer, la empresa ya inventó una tecnología de inteligencia artificial tan peligrosa que nunca la hará pública, pero tampoco dirá a los periodistas ni al público de qué se trata exactamente.
Esta dinámica, una tecnología potencialmente peligrosa desarrollada a una velocidad extrema, en gran parte a puerta cerrada, es parte causante del despido de Altman. Según David Goldman, de CNN, a la junta de OpenAI le preocupaba que “la empresa estuviera fabricando el equivalente tecnológico de una bomba nuclear, y su responsable, Sam Altman, se estuviera moviendo tan rápido que se arriesgara a una catástrofe mundial”. Al parecer, el principal problema eran los esfuerzos de Altman por poner las herramientas de ChatGPT a disposición de cualquiera que quisiera crear su propia versión del chatbot. Algunos miembros de la junta directiva estaban preocupados porque esto podría ser desastroso.
Pero entonces lo despidieron sin previo aviso y, al parecer, sin implicar a Microsoft, el mayor accionista de la empresa. Ahora, Altman está en el nuevo grupo de inteligencia artificial (IA) de Microsoft, y cabe preguntarse si la supervisión y la cautela allí estarán a la par con las de OpenAI, o si se le dará carta blanca para empujar tan rápido y tan fuerte como quiera.
Y a pesar de todas las reticencias justificadas de la junta directiva de OpenAI, la empresa ha llevado a cabo gran parte de su trabajo en secreto, sin que el público entienda realmente lo que un puñado de tecnólogos irresponsables está construyendo y cómo está casi garantizado que cambiará sus vidas de forma indeleble.
En general, se entiende que la inteligencia artificial tiene el potencial de remodelar vastas franjas de la existencia humana. Como mínimo, parece casi garantizado que cambiará cómo procesamos la información, cómo nos comunicamos, cómo aprendemos y cómo trabajamos (y si trabajamos). Y las ramificaciones podrían ser mucho más extremas. Las tecnologías de IA ya han demostrado su capacidad para mentir y ocultar sus huellas. Ya han sido capaces de sugerir el diseño para que un virus se propague más rápidamente. Muchos investigadores son muy conscientes de lo rápido que estas máquinas podrían desarrollar la capacidad de aniquilarnos, incluido Altman: tiene preparado un paraíso para los “preparadores” en Big Sur, con armas y “máscaras de gas de las Fuerzas de Defensa israelíes” por si la IA se sale de control y los robots entran en guerra contra los humanos, según informa The New Yorker.
Pero no te preocupes, le dijo a un reportero de Atlantic: si la IA está decidida a aniquilarnos, “ninguna máscara de gas va a ayudar a nadie”. (Si deseas un excelente y aterrador resumen de los riesgos de la inteligencia artificial, al menos los que conocemos ahora mismo, que son casi con toda seguridad una mera astilla de los peligros que se avecinan, merece la pena leer el perfil de The Atlantic sobre Altman y su tecnología).
La inteligencia artificial es una tecnología apasionante. Pero también es potencialmente muy peligrosa, y no en el sentido de las redes sociales de “puede hacernos perder la autoestima y volvernos más solitarios”, sino en el sentido de “podría romper las sociedades humanas y matarnos a todos”.
Dado el potencial de la inteligencia artificial para alterar la vida, que incluso si no nos mata a todos, es casi seguro que cambiará la existencia humana de maneras sin precedentes a una velocidad sin precedentes, todos tenemos un interés en cómo se está desarrollando. Y, sin embargo, el desarrollo se está dejando en manos de un puñado de personas (que parecen ser en su mayoría hombres) en Silicon Valley y otros focos tecnológicos de todo el mundo. Y a todos nos interesa saber a qué intereses servirá la IA, y ahora mismo su desarrollo está siendo financiado con miles de millones de dólares por personas que esperan obtener enormes beneficios.
¿Se alinean los intereses del público con los intereses de los accionistas a los que están obligadas las empresas con ánimo de lucro y potencialmente tremendamente lucrativas para unos pocos? ¿O con los intereses de los empresarios de la tecnología, entusiasmados ante todo por estar a la vanguardia de la revolución de la IA, independientemente de los posibles costos humanos?
Una cosa está clara: la IA está por llegar. Y la forma en que se construya y se ponga a disposición del público es más importante que cualquier otra tecnología del siglo pasado. Su potencial destructivo está a la altura de la bomba atómica, aunque probablemente sea más difícil de regular y controlar.
La “regulación” no es ni por asomo lo único que se necesita para garantizar que el futuro de la inteligencia artificial no sea catastrófico, sobre todo teniendo en cuenta que el desarrollo de la IA es ahora una carrera armamentística internacional masiva, con implicaciones especialmente terribles si los malos actores desarrollan esta tecnología en primer lugar. Pero la regulación es, como mínimo, un paso necesario.
También lo es la transparencia: en Estados Unidos, las empresas gozan de una amplia ventaja para trabajar tras un velo de secretismo, y gran parte de lo que hacen las empresas de IA se mantiene en secreto para obstaculizar la competencia. Pero el público tiene derecho a saber qué tecnologías nos van a cambiar la vida y qué están haciendo sus creadores para proteger a la humanidad: nuestros empleos, nuestras comunidades, nuestras familias, nuestras conexiones, nuestra educación y nuestra capacidad para construir una vida con sentido, pero también nuestras vidas y nuestra seguridad.
La historia de Altman es fascinante porque Altman es la figura más poderosa de la tecnología de IA, lo que de hecho lo convierte en uno de los hombres más poderosos del mundo. Pero eso debería hacernos reflexionar, ¿quién es, qué poder tiene, qué hace con él, ante quién responde, y nos sentimos cómodos con un potencial tan grande para alterar la vida en manos de unas pocas personas que no rinden cuentas?