Nueva York (CNN) – A los supervisores de OpenAI les preocupaba que la empresa estuviera fabricando el equivalente tecnológico de una bomba nuclear, y su responsable, Sam Altman, iba tan rápido que se arriesgaba a una catástrofe mundial.
Así que la junta lo despidió. Puede que, en última instancia, esa fuera la solución lógica.
Pero la forma en que Altman fue despedido – de forma abrupta, opaca y sin previo aviso a algunos de los principales accionistas y socios de OpenAI – desafió la lógica. Y se corría el riesgo de infligir más daño que si el consejo no hubiera tomado ninguna medida.
El consejo de administración de una empresa tiene una obligación, ante todo, con sus accionistas. El accionista más importante de OpenAI es Microsoft, la empresa que dio a Altman & Co. US$ 13.000 millones para ayudar a Bing, Office, Windows y Azure a superar a Google y mantenerse por delante de Amazon, IBM y otros aspirantes a la IA.
Sin embargo, Microsoft no fue informada del despido de Altman hasta “justo antes” del anuncio público, según la colaboradora de CNN Kara Swisher, que habló con fuentes con conocimiento de la destitución de su CEO por parte del consejo. Las acciones de Microsoft se hundieron tras la destitución de Altman.
A los empleados tampoco se les comunicó la noticia con antelación. Tampoco Greg Brockman, cofundador y ex presidente de la empresa, que en una publicación en X dijo que se enteró del despido de Altman momentos antes de que se produjera. Brockman, uno de los principales partidarios de Altman y de su liderazgo estratégico de la empresa, dimitió el viernes. Otros leales a Altman también abandonaron la empresa.
De repente, OpenAI estaba en crisis. Las noticias de que Altman y otros ex leales a OpenAI estaban a punto de crear su propia empresa corrían el riesgo de echar por tierra todo lo que la compañía había conseguido con tanto esfuerzo en los últimos años.
Así que, un día después, el consejo de administración pidió una tregua y trató de atraer de nuevo a Altman. Fue un giro escandaloso de acontecimientos y una vergonzosa autodestrucción por parte de una empresa que se consideraba la productora más prometedora de la nueva tecnología más emocionante.
Extraña estructura del consejo
La extraña estructura del consejo de OpenAI complica las cosas.
La compañía es una organización sin fines de lucro. Pero Altman, Brockman y el científico jefe Ilya Sutskever formaron en 2019 OpenAI LP, una entidad con fines de lucro que existe dentro de la estructura de la compañía más grande. Esa empresa con fines de lucro llevó a OpenAI de no tener valor a una valoración de US$ 90.000 millones en solo unos pocos años, y a Altman se le atribuye en gran medida ser la mente maestra de ese plan y la clave del éxito de la compañía.
Sin embargo, una empresa con grandes patrocinadores como Microsoft y la firma de capital riesgo Thrive Capital tiene la obligación de hacer crecer su negocio y ganar dinero. Los inversores quieren asegurarse de que su dinero les sale rentable, y no tienen fama de ser pacientes.
Probablemente por ello, Altman presionó a la empresa con ánimo de lucro para que innovara más rápido y lanzara sus productos al mercado. En la gran tradición de Silicon Valley de “moverse rápido y romper cosas”, esos productos no siempre funcionan tan bien al principio.
Eso está bien, quizá, cuando se trata de una aplicación de citas o una plataforma de redes sociales. Es algo totalmente distinto cuando se trata de una tecnología tan buena imitando el habla y el comportamiento humanos que puede engañar a la gente al hacerle creer que sus conversaciones e imágenes falsas son reales.
Y eso es lo que, al parecer, asustó al consejo de administración de la empresa, que seguía estando controlado mayoritariamente por el ala sin ánimo de lucro de la compañía. Swisher informó que la reciente conferencia de desarrolladores de OpenAI sirvió como punto de inflexión: Altman anunció que OpenAI pondría a disposición herramientas para que cualquiera pudiera utilizarlas, incluida su propia versión de ChatGPT.
Para Sutskever y la junta directiva, eso era ir demasiado lejos.
Una advertencia que no carece de mérito
Según el propio Altman, la empresa estaba jugando con fuego.
Cuando Altman creó OpenAI LP hace cuatro años, la nueva empresa señalaba en sus estatutos que seguía “preocupada” por el potencial de la IA para “provocar cambios rápidos” en la humanidad. Esto podría ocurrir de forma no intencionada, con la tecnología realizando tareas maliciosas debido a un código defectuoso, o de forma intencionada, por personas que subvierten los sistemas de IA con malos propósitos. Por ello, la empresa se comprometió a dar prioridad a la seguridad, aunque ello supusiera reducir los beneficios de sus accionistas.
Altman también instó a los reguladores a poner límites a la IA para evitar que personas como él inflijan graves daños a la sociedad.
“¿Será [la IA] como la imprenta, que difundió el conocimiento, el poder y el aprendizaje por todo el mundo, que empoderó a los individuos comunes y cotidianos, que condujo a un mayor florecimiento, que condujo sobre todo a una mayor libertad?”, dijo en una audiencia del subcomité del Senado en mayo, al ser presionado a favor de la regulación. “¿O va a ser más como la bomba atómica: un gran avance tecnológico, pero las consecuencias (graves, terribles) siguen persiguiéndonos hasta el día de hoy?”.
Los defensores de la IA creen que la tecnología tiene el potencial de revolucionar todas las industrias y mejorar a la humanidad en el proceso. Puede mejorar la educación, las finanzas, la agricultura y la atención sanitaria.
Sin embargo, tiene el potencial de desaparecer 14 millones de puestos de trabajo en los próximos cinco años, advirtió el Foro Económico Mundial en abril. La IA es especialmente hábil para difundir desinformación perjudicial. Y algunos, como Elon Musk, exmiembro de la junta directiva de OpenAI, temen que la tecnología supere en inteligencia a la humanidad y acabe con la vida en el planeta.
Cómo no manejar una crisis
Con esas amenazas – reales o percibidas – no es de extrañar que a la junta le preocupara que Altman avanzara a un ritmo demasiado rápido. Puede que se sintiera obligada a deshacerse de él y sustituirlo por alguien que, en su opinión, tuviera más cuidado con la tecnología potencialmente peligrosa.
Pero OpenAI no opera en el vacío. Tiene accionistas, algunos de los cuales han invertido miles de millones en la empresa. Y los supuestos adultos de la sala estaban actuando, como dijo Swisher: como un “coche de payasos que se estrella contra una mina de oro”, citando una famosa frase del CEO de Meta, Mark Zuckerberg, sobre Twitter.
Involucrar a Microsoft en la decisión, informar a los empleados, trabajar con Altman en un plan de salida digno… todas ellas habrían sido soluciones más típicamente empleadas por un consejo de una empresa del tamaño de OpenAI, y todas con resultados potencialmente mejores.
Microsoft, a pesar de su enorme participación, no tiene un puesto en el consejo de OpenAI, debido a la extraña estructura de la empresa. Ahora eso podría cambiar, según varios reportes de prensa, incluidos los deThe Wall Street Journal y The New York Times. Una de las demandas de la empresa, incluido el regreso de Altman, es tener un asiento en la mesa.
Con las capacidades similares a ChatGPT de OpenAI integradas en Bing y otros productos básicos, Microsoft creía haber invertido sabiamente en la nueva y prometedora tecnología del futuro. Por eso, la noticia del despido de Altman, junto con el resto del mundo, el viernes por la noche, debió de sorprender a Satya Nadella, CEO de Microsoft, y a su equipo.
La junta hizo enojar a un poderoso aliado y podría cambiar para siempre por la forma en que manejó la destitución de Altman. Podría acabar con Altman de nuevo al timón, una empresa con ánimo de lucro en su consejo sin ánimo de lucro, y un cambio cultural importante en OpenAI.
Otra posibilidad es que se convierta en un competidor de Altman, que en última instancia podría decidir crear una nueva empresa y restar talento a OpenAI.
En cualquier caso, es probable que OpenAI se encuentre ahora en una posición peor que la que tenía el viernes antes de despedir a Altman. Y era un problema que podría haber evitado, irónicamente, reduciendo la velocidad.