Una escena de la película 'Terminator', de 1984.

Nota del editor: Toby Walsh es Profesor de Inteligencia Artificial en la Universidad de South Wales y líder del grupo de investigación en Data61, el centro de excelencia de investigación en tecnologías de la información y comunicaciones en Sidney, Australia. Las opiniones expresadas en esta nota le corresponden únicamente al autor.

(CNN) — Las armas letales autónomas, (o como le gusta llamar a los medios, “robots asesinos”) regresaron a la agenda de las Naciones Unidas la semana pasada. La Campaña para detener a los Robots Asesinos surgió en el 2013 y afortunadamente el asunto fue tomado rápidamente por el Convenio sobre Ciertas Armas Convencionales (CCW) en Ginebra.

He pasado mi vida trabajando en inteligencia artificial (IA), y existen muchos motivos por los que temo por el desarrollo de robots asesinos. Estas son cinco razones.

1. Los robots asesinos están cerca

Puede que estés pensando en Terminator, un robot que, si le crees a la película, estará disponible en el 2029. Pero la realidad es que los robots asesinos serán mucho más simples para empezar y, a lo mucho, a unos años de distancia. Piensa en el drone Predator y sus misiles acertadamente llamados Hellfire, pero con el controlador humano reemplazado por un programa de computadora. Esto es técnicamente posible hoy día.

2. Habrá una carrera armamentista

Una vez que este genio salga de su botella, habrá una carrera armamentista para mejorar los robots inicialmente crudos. Y el punto final de esa carrera armamentista será precisamente el tipo de tecnología escalofriante que ves en Terminator. Hollywood acertó en esa parte.

La Ley de Moore predice que los chips de computadora duplican su tamaño cada dos años. Probablemente veremos un crecimiento exponencial similar en los robots asesinos. Voto porque llamemos a esto la “Ley Schwarzenegger” para recordarnos dónde va a parar esto.

3. Los robots asesinos proliferarán

Los robots asesinos serán baratos. Y se volverán cada vez más. Tan sólo mira la velocidad con la que los drones se han hecho accesibles en los últimos años. También serán fáciles de hacer, al menos crudamente.

Obtén un cuadcóptero, agrega un Smartphone y una pistola o bomba pequeña. Lo único que necesitas es que alguien como yo te escriba un software de IA. Y la milicia los va a amar, al menos al principio, porque no necesitan dormir ni descansar, ni un entrenamiento largo y costoso, ni ser evacuados del campo cuando sean dañados.

Sin embargo, una vez que los militares tengan que defenderse de los robots asesinos, tal vez cambien de opinión.

De acuerdo con The Intercept, durante una operación militar estadounidense de cinco meses en el 2011 contra los talibanes y al Qaeda en el Hindú Kush, “casi nueve de cada diez personas” que murieron en los abatimientos con drones “no eran los blancos directos de los estadounidenses”.

Y esto es cuando aún tenemos humanos en el ciclo, tomando la última decisión sobre vida o muerte. El actual estado del arte de la Inteligencia Artificial no se acerca a la consciencia situacional, o a la forma de tomar decisiones de un piloto humano de drones.

Las estadísticas para un drone completamente autónomo consecuentemente serán mucho peores.

Con el tiempo, se harán mejores y espero completamente que se igualen si no es que sobrepasen a los pilotos humanos. Aquí es donde entran en juego diferentes argumentos. Por ejemplo, los robots asesinos sin duda caerán en malas manos, incluyendo gente que no tiene ningún recelo de usarlos en contra de civiles. Ellos son un arma de terror perfecta. Los robots asesinos también eliminarán barreras para la guerra. Al distanciar aún más a los humanos de los campos de guerra, convertirán la guerra en un video juego muy real.

5. Los robots asesinos serán difíciles de regular

Tesla actualiza su auto Model S para manejar autónomamente en las autopistas con una sencilla actualización de su software entregada por vía aérea. Tenemos que esperar, desde luego, que las actualizaciones simples de software podrán en un futuro cambiar sistemas que no son ni autónomos ni letales en armas letales autónomas. Esto hará que sea muy complicado controlar a los robots asesinos.

Y querremos las tecnologías que van en esos robots asesinos. Serán prácticamente las mismas que estarán dentro de los autos autónomos, que en su gran mayoría ya existen. Cada año, alrededor de 30.000 personas mueren en las autopistas de los Estados Unidos y 1,2 millones a nivel mundial. Esta estadística se desplomará una vez que sean comunes los coches autónomos.

Pero solo porque algo sea difícil, no significa que no debamos intentarlo. E incluso una prohibición que sea parcialmente efectiva, como la de las minas anti-persona, valdrá la pena.

Mi perspectiva es que necesitamos regular los robots asesinos para evitar una carrera armamentista –y la opinión sobre la rapidez con la que debemos actuar es compartida por muchos otros en el gremio. Una carta abierta pidiendo su prohibición fue publicada en julio de este año.

Los firmantes incluyen a muchos investigadores de vanguardia en inteligencia Artificial, los CEOs de Google Deep Mind, el Research Lab de Facebook al igual que miles de otros de todo el mundo.

En noviembre el Convenio sobre Ciertas Armas Convencionales (CCW) de la ONU se reunirá una vez más en Ginebra para decidir si continúa con este tema y si toman alguna medida sobre su prohibición. Por el bien del mundo, espero lo hagan.