CNNEarrow-downclosecomment-02commentglobeplaylistsearchsocial-facebooksocial-googleplussocial-instagramsocial-linkedinsocial-mailsocial-moresocial-twittersocial-whatsapp-01social-whatsapptimestamptype-audiotype-gallery
Tecnología

Exclusiva: el 42% de los CEO afirma que la inteligencia artificial podría destruir a la humanidad de 5 a 10 años

Por Matt Egan

Nueva York (CNN Business) -- Muchos altos directivos de empresas están seriamente preocupados por la posibilidad de que la inteligencia artificial (IA) represente una amenaza existencial para la humanidad en un futuro no muy lejano.

El 42% de los CEO encuestados en la Cumbre de CEO de Yale esta semana afirma que la IA tiene el potencial de destruir la humanidad de aquí a cinco o diez años, según los resultados compartidos en exclusiva con CNN.

"Es bastante oscuro y alarmante", dijo el profesor de Yale Jeffrey Sonnenfeld en una entrevista telefónica, refiriéndose a los resultados.

La encuesta, realizada en un evento virtual organizado por el Chief Executive Leadership Institute de Sonnenfeld, encontró poco consenso sobre los riesgos y oportunidades relacionados con la inteligencia artificial.

Sonnenfeld dijo que la encuesta incluía respuestas de 119 CEO de una muestra representativa de empresas, incluidos el CEO de Walmart, Doug McMillion, el CEO de Coca-Cola, James Quincy, los líderes de empresas de TI como Xerox y Zoom, así como CEO de farmacéuticas, medios de comunicación y fabricación.

Los líderes empresariales mostraron una marcada división en cuanto a cuán peligrosa es la IA para la civilización.

publicidad

Mientras que el 34% de los CEO afirmó que la IA podría destruir la humanidad en diez años y el 8% dijo que eso podría ocurrir en cinco años, el 58% dijo que eso nunca podría ocurrir y que "no están preocupados".

En una pregunta separada, Yale encontró que el 42% de los CEO encuestados dicen que la catástrofe potencial de la IA es exagerada, mientras que el 58% dice que no es exagerada.

Los resultados surgen pocas semanas después de que docenas de líderes de la industria de la IA, académicos e incluso algunas celebridades firmaran una declaración advirtiendo del riesgo de "extinción" de la IA.

Esa declaración, firmada por Sam Altman, CEO de OpenAI, Geoffrey Hinton, el "padrino de la IA" y altos ejecutivos de Google y Microsoft, instaba a la sociedad a tomar medidas para protegerse de los peligros de la inteligencia artificial.

"Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear", afirma el comunicado.

Alertar sobre la IA

Recientemente, Hinton decidió alertar sobre la tecnología que ayudó a desarrollar tras preocuparse por lo inteligente que ha llegado a ser.

"Solo soy un científico que de repente se dio cuenta de que estas cosas se están volviendo más inteligentes que nosotros", declaró Hinton a Jake Tapper de CNN en mayo. "Quiero dar la voz de alarma y decir que deberíamos preocuparnos seriamente por cómo impedir que estas cosas nos controlen".

Hinton declaró a CNN que si la IA "llega a ser mucho más inteligente que nosotros, será muy buena manipulando", incluso "sorteando las restricciones que le impongamos".

Mientras los líderes empresariales debaten sobre los peligros de la IA, los CEO encuestados por Yale mostraron cierto grado de acuerdo sobre los beneficios de la tecnología.

Solo el 13% de los CEO opinó que las oportunidades potenciales de la IA son exageradas, mientras que el 87% dijo que no lo son.

Los CEO indicaron que la IA tendrá el mayor impacto transformador en tres sectores clave: sanidad (48%), servicios profesionales/TI (35%) y medios de comunicación/digital (11%).

Mientras algunos dentro y fuera del mundo de la tecnología debaten escenarios catastrofistas en torno a la IA, es probable que haya repercusiones más inmediatas, como los riesgos de la desinformación y la pérdida de puestos de trabajo.

Hablar sin escuchar

Sonnenfeld, el gurú de la gestión de Yale, explicó a CNN que los líderes empresariales se dividen en cinco bandos distintos en lo que respecta a la IA.

El primer grupo, según Sonnenfeld, incluye a los "creadores curiosos" que son "creyentes ingenuos" que sostienen que todo lo que se puede hacer, se debe hacer.

"Son como Robert Oppenheimer, antes de la bomba", dijo Sonnenfeld, refiriéndose al físico estadounidense conocido como el "padre de la bomba atómica".

Luego están los "verdaderos creyentes eufóricos" que solo ven lo bueno en la tecnología, dijo Sonnenfeld.

Tras destacar el auge de la IA provocado por la popularidad de ChatGPT y otras nuevas herramientas, Sonnenfeld describió a los "especuladores comerciales" que buscan con entusiasmo sacar provecho de la nueva tecnología. "No saben lo que hacen, pero se lanzan a por ello", afirma.

Y luego están los dos bandos que abogan por una especie de represión de la IA: los activistas alarmistas y los defensores de la gobernanza mundial.

"Estos cinco grupos hablan sin escucharse entre ellos, con justa indignación", afirma Sonnenfeld.

La falta de consenso sobre cómo enfocar la IA pone de manifiesto que incluso los capitanes de la industria siguen tratando de hacerse a la idea de los riesgos y beneficios de lo que podría ser un verdadero cambio de juego para la sociedad.