CNNEarrow-downclosecomment-02commentglobeplaylistsearchsocial-facebooksocial-googleplussocial-instagramsocial-linkedinsocial-mailsocial-moresocial-twittersocial-whatsapp-01social-whatsapptimestamptype-audiotype-gallery
Tecnología

La industria y los investigadores de la inteligencia artificial firman una declaración en la que advierten del riesgo de "extinción"

Por Brian Fung

(CNN) -- Decenas de líderes de la industria de la IA, académicos e incluso algunas celebridades, pidieron este martes reducir el riesgo de aniquilación global debido a la inteligencia artificial, argumentando que la amenaza de un evento de extinción de la IA debería ser una prioridad global de primer orden.

"Mitigar el riesgo de extinción de la inteligencia artificial (IA) debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear", reza la breve declaración publicada por el Centro para la Seguridad de la IA.

La declaración está firmada, entre otros, por Sam Altman, consejero delegado de OpenAI; Geoffrey Hinton, el llamado "padrino" de la IA; altos ejecutivos e investigadores de Google DeepMind y Anthropic; Kevin Scott, director de tecnología de Microsoft; Bruce Schneier, pionero de la seguridad en Internet y la criptografía; Bill McKibben, defensor del clima; y la artista Grimes.

¿Cuál es el alcance de la IA y sus riesgos? 2:27

La declaración pone de relieve la preocupación generalizada por el peligro último de una inteligencia artificial descontrolada. Los expertos en IA han afirmado que la sociedad está aún muy lejos de desarrollar el tipo de inteligencia artificial general propia de la ciencia ficción; los actuales chatbots de vanguardia reproducen en gran medida patrones basados en datos de entrenamiento que se les han proporcionado y no piensan por sí mismos.

Aun así, la avalancha de exageraciones e inversiones en el sector ha llevado a reclamar una regulación al principio de la era de la inteligencia artificial, antes de que se produzcan desgracias graves.

publicidad

La declaración se produce tras el éxito viral de ChatGPT de OpenAI, que contribuyó a intensificar la carrera armamentística en la industria tecnológica en torno a la inteligencia artificial. En respuesta, un número cada vez mayor de legisladores, grupos de defensa y expertos en tecnología han hecho saltar las alarmas sobre la posibilidad de que una nueva generación de chatbots potenciados por IA difunda información errónea y desplace puestos de trabajo.

Hinton, cuyo trabajo pionero ayudó a dar forma a los actuales sistemas de IA, declaró anteriormente a CNN que decidió dejar su puesto en Google y "denunciar" la tecnología tras darse cuenta "de repente" "de que estas cosas se están volviendo más inteligentes que nosotros".

Dan Hendrycks, director del Centro para la Seguridad de la IA, dijo en un tuit este martes que la declaración propuesta por primera vez por David Kreuger, profesor de IA en la Universidad de Cambridge, no impide que la sociedad aborde otros tipos de riesgo de IA, como el sesgo algorítmico o la desinformación.

Hendrycks comparó la declaración de este martes con las advertencias de los científicos atómicos que lanzaron "alertas sobre las propias tecnologías que ellos mismos habían creado".

"Las sociedades pueden gestionar múltiples riesgos a la vez; no es 'o lo uno o lo otro', sino 'sí/y'", tuiteó Hendrycks. "Desde una perspectiva de gestión de riesgos, igual que sería imprudente priorizar exclusivamente los daños presentes, también lo sería ignorarlos".