(CNN) – La extinción humana.
Piénsalo un segundo. Piénsalo de verdad: la desaparición de la raza humana del planeta Tierra.
Eso es por lo que los principales líderes de la industria de la inteligencia artificial están haciendo sonar frenéticamente la alarma. Estos tecnólogos y académicos siguen pulsando el botón rojo del pánico, haciendo todo lo posible para advertir sobre los peligros potenciales que la inteligencia artificial (IA) plantea a la existencia misma de la civilización.
Este martes, cientos de científicos, investigadores y otras personalidades de la IA —entre ellos Sam Altman, director ejecutivo de OpenAI, y Demis Hassabis, director ejecutivo de Google DeepMind— volvieron a expresar su profunda preocupación por el futuro de la humanidad, firmando una carta abierta al público de una sola frase que pretendía exponer en términos inequívocos los riesgos que conlleva el rápido avance de la tecnología.
“Mitigar el riesgo de extinción a causa de la IA debería ser una prioridad mundial, junto con otros riesgos de escala social como las pandemias y la guerra nuclear”, decía la carta, firmada por muchas de las figuras más respetadas de la industria.
No se puede ser más directo y urgente. Estos líderes del sector advierten literalmente de que la inminente revolución de la IA debe tomarse tan en serio como la amenaza de una guerra nuclear. Suplican a los responsables políticos que levanten algunas barandillas y establezcan normativas básicas para desactivar esta tecnología primitiva antes de que sea demasiado tarde.
Dan Hendrycks, director ejecutivo del Centro para la Seguridad de la IA, calificó la situación de “reminiscencia de los científicos atómicos que lanzan advertencias sobre las propias tecnologías que han creado”. Como señaló Robert Oppenheimer, ‘sabíamos que el mundo no sería el mismo”.
“Hay muchos ‘riesgos importantes y urgentes de la IA’, no solo el riesgo de extinción; por ejemplo, sesgo sistémico, desinformación, uso malicioso, ciberataques y armamentismo”, continuó Hendrycks. “Todos ellos son riesgos importantes que hay que abordar”.
Y, sin embargo, parece que el terrible mensaje que estos expertos intentan enviar desesperadamente al público no está calando en el ruido de la vida cotidiana. Puede que los expertos en IA estén dando la voz de alarma, pero los medios de comunicación no se hacen eco con la misma urgencia del nivel de inquietud —y en algunos casos de terror— que albergan ante esta tecnología.
En lugar de ello, en términos generales, las organizaciones de noticias trataron la carta de este martes —como todas las demás advertencias que hemos visto en los últimos meses— como un titular más, mezclado con una gran variedad de historias. Algunas de las principales organizaciones de noticias ni siquiera incluyeron un artículo sobre la escalofriante advertencia en las páginas de inicio de sus sitios web.
Hasta cierto punto, la situación recuerda inquietantemente a los primeros días de la pandemia, antes del pánico generalizado, los cierres y las salas de urgencias sobrecargadas. Las redacciones se mantuvieron atentas a la creciente amenaza que suponía el virus, publicando historias sobre su lenta propagación por todo el mundo. Pero para cuando la gravedad del virus se reconoció plenamente y se fundió en la esencia misma de su cobertura, ya había trastornado el mundo.
La historia corre el riesgo de repetirse en el caso de la inteligencia artificial, con un riesgo aún mayor. Sí, las organizaciones de noticias están cubriendo el desarrollo de la tecnología. Pero ha habido una considerable falta de urgencia en torno al tema, dada la posibilidad abierta de peligro planetario.
Tal vez se deba a que puede resultar difícil aceptar la idea de que un apocalipsis de ciencia ficción al estilo de Hollywood pueda convertirse en realidad, que el avance de la tecnología informática pueda alcanzar la velocidad de escape y diezmar la existencia de los seres humanos. Sin embargo, es precisamente lo que los mayores expertos del mundo advierten que podría ocurrir.
Es mucho más fácil evitar las realidades incómodas, desplazándolas del primer plano a un segundo plano y esperando que los problemas se resuelvan por sí solos con el tiempo. Pero a menudo no es así, y parece poco probable que las crecientes preocupaciones relacionadas con la IA se resuelvan por sí solas. De hecho, es mucho más probable que, con el ritmo vertiginoso al que se está desarrollando la tecnología, los problemas se hagan más evidentes con el tiempo.
Como declaró este martes a CNN Cynthia Rudin, profesora de informática e investigadora de IA en la Universidad de Duke: “¿Realmente necesitamos más pruebas de que el impacto negativo de la IA podría ser tan grande como una guerra nuclear?”.