Por Greg Scoblete
Nota del editor: Greg Scoblete es editor de tecnología de la revista PDN. Síguelo en @GregScoblete.
(CNN) — Imagina que eres la clase de persona que se preocupa por un futuro en el que los robots serán lo suficientemente inteligentes como para amenazar la existencia misma de la raza humana. Durante años te han tildado de loco, etiquetado en la misma categoría en la que está la gente que ve a Elvis acechando en sus waffles.
En 2014 tuviste buena compañía.
Si estás viendo esta nota en tu móvil, mira aquí la galería.
Se dice que este año, la mente científica viviente más grande del mundo, Stephen Hawking, y el principal industrial de la tecnología, Elon Musk, manifestaron su temor por el ascenso potencialmente letal de la inteligencia artificial (IA, su abreviatura en inglés). A ellos se unieron filósofos, físicos e informáticos, quienes hablaron sobre el grave riesgo que representa el desarrollo de una inteligencia mecánica superior a la humana.
En un multicitado editorial escrito en colaboración con el físico del Tecnológico de Massachusetts, Max Tegmark, el nobel Frank Wilczek y el informático Stuart Russell, Hawking hizo sonar la alarma por la IA. “Solo podemos imaginar una [la IA] más inteligente que los mercados financieros, que supera en creaciones a los investigadores humanos, manipula a los líderes humanos y desarrolla armas que ni siquiera podemos entender. Aunque el impacto a corto plazo de la IA depende de quién la controle, el impacto a largo plazo depende de si puede controlarse en algún grado”.
Se dice que Musk fue más enfático y tuiteó advertencias en las que dice que la IA es el mayor “riesgo existencial” para la humanidad y la compara con “invocar al demonio”.
El debate sobre la IA tuvo gran impulso este año con la publicación del libro Superintelligence: Paths, Dangers, Strategies (Superinteligencia: vías, peligros y estrategias) del filósofo Nick Bostrom, quien hace un estudio detallado del por qué y cómo la IA podría ser tan catastróficamente peligrosa. (En el documental Our Final Invention [nuestra última invención] que James Barrat produjo en 2013 se presenta un argumento similar).
Bostrom dirige el Instituto Futuro de la Humanidad en Oxford, una de las varias instituciones nuevas que se dedican al estudio de las amenazas a la existencia de la raza humana, entre las que destaca la IA. En mayo de 2014, el Instituto Tecnológico de Massachusetts bautizó a su propio Instituto Futuro de la Vida. Al menos en la comunidad académica, crece el nerviosismo por la IA.
Tienen razón de estar preocupados.
La cuestión principal y más inmediata es el potencial que tiene la IA de dejar a grandes cantidades de humanos sin trabajo. En un estudio que hicieron Carl Frey y Michael Osborne, del Programa sobre los Efectos de la Tecnología Futura de Oxford, se trata el tema con seriedad. Analizaron más de 700 trabajos diferentes, de los cuales casi la mitad podría hacerlos una computadora en el futuro. Esta ola de computarización no destruiría simplemente los trabajos de salarios bajos que requieren poca capacitación (aunque están en grave peligro), sino algunos trabajos administrativos y del sector de servicios que anteriormente se creían inmunes. La tecnología marcha sobre nuestras labores manuales y mentales.
LEE: ¿Las computadoras podrían tomar el control de las mesas directivas?
La pérdida de empleos es una amenaza grave y ya hemos visto esta película antes. Durante las convulsiones tecnológicas anteriores, los humanos crearon sagazmente empleos e industrias con las cenizas de los que quedaron obsoletos. Tal vez podamos mantener a la colectividad a flote a pesar de que la IA se arraigue en sectores más creativos e intelectuales (rayos, tal vez incluso empecemos a trabajar menos).
Lo que debería preocuparnos más es que la humanidad pierda su lugar privilegiado como la inteligencia superior de la Tierra.
Para aquellas personas a las que la IA pone nerviosos, los esfuerzos actuales por desarrollar algoritmos autocorregibles (el llamado “aprendizaje de las máquinas”), aunados al implacable crecimiento de la potencia de las computadoras y a la creciente ubicuidad de los sensores que recopilan toda clase de inteligencia e información alrededor del mundo, llevarán a la IA a los niveles de la inteligencia humana y, finalmente, a la sobrehumana. Es un evento al que se ha llamado “la explosión de la inteligencia”, término que acuñó en 1965 el informático Irving John Good en un ensayo en el que delinea el proceso de desarrollo de la inteligencia artificial.
Lo que causa que la explosión de la inteligencia sea tan preocupante es que la inteligencia no es una herramienta ni una tecnología. Tal vez creamos que la IA es algo que usamos, como un martillo o un sacacorchos, pero esa es fundamentalmente la forma equivocada de ver las cosas. Una inteligencia lo suficientemente avanzada, como la nuestra, es una fuerza creativa. Entre más poderosa sea, más puede moldear el mundo que la rodea.
La inteligencia artificial no tiene que ser malévola para ser catastróficamente peligrosa para la humanidad. Cuando los informáticos hablan de la posible amenaza que representa la IA superinteligente, no hablan de Terminator ni de Matrix. Usualmente se trata de un fin más prosaico: la humanidad exterminada porque una IA a la que se asignó una tarea sencilla (digamos, fabricar clips, un ejemplo que se usa con frecuencia) requiere toda la energía y toda la materia prima de la Tierra para fabricar clips incansablemente y evade inteligentemente todos los intentos humanos por detenerla.
En las historias de Hollywood siempre quedan humanos que contraatacan, pero ese desenlace sería imposible si la humanidad se enfrentara a una inteligencia auténticamente superior. Sería como si unos ratones trataran de ser más sagaces que un humano (nosotros somos los ratones). En ese caso, los investigadores de la IA, tales como Keefe Roedersheimer, ven un fin menos inspirador: “Toda la gente muere”.
Sobra decir que no todos tienen este pronóstico sombrío. Entre los optimistas de la IA, el futurista y director de Ingeniería de Google, Ray Kurzweil, considera también que las máquinas inteligentes precipitarán la extinción de la humanidad o algo así, solo que, según Kurzweil, la humanidad no quedará exterminada, sino integrada a una máquina superinteligente. La simbiosis entre humano y máquina no es una catástrofe tecnológica, sino la máxima liberación de la fragilidad biológica de la humanidad.
Otras personas dudan de que la IA alcance algún día niveles humanos de inteligencia y cognición, ya no digamos que la superen. Algunos, como Gary Marcus, de la Universidad de Nueva York, están indecisos. “No sé de prueba alguna que indique que deberíamos estar preocupados”, me dijo a principios de 2014, “pero tampoco sé de prueba alguna que indique que no deberíamos estar preocupados”.
Irving John Good es famoso por haber descrito el desarrollo de una máquina ultrainteligente que sería “la última invención que el hombre necesitaría” porque después, la humanidad cedería las innovaciones y el desarrollo tecnológico a su progenie más inteligente. Aunque el camino desde Siri a la extinción no es directo, los humanos probablemente deberíamos estar vigilando a nuestras máquinas un poco más de cerca.
Las opiniones recogidas en este texto pertenecen exclusivamente a Greg Scoblete.