CNNE c6aa19b5 - 130402142044-drone-weapon-story-top

(CNN) - A medida que las guerras son más automatizadas, debemos preguntarnos hasta dónde queremos delegar la responsabilidad enlas máquinas. ¿Dónde queremos trazar la línea? Los sistemas de armas han evolucionado durante miles de años y siempre ha habido intentos de resistir. ¿Pero eso significa que debamos sentarnos y aceptar nuestro destino y entregar la responsabilidad final de matar a las máquinas?

Durante los últimos meses se ha producido un debate creciente sobre el uso de armas robotizadas totalmente autónomas: robots armados que, una vez puestos en marcha pueden seleccionar sus propios objetivos y matarlos sin intervención humana.

Algunos han argumentado que los robots podrían ser más precisos en el campo de batalla que los soldados humanos y salvar más vidas civiles. Pero esto es una especulación basada en supuestos sobre la evolución futura de hardware y software. Desde la década de 1950, la Inteligencia Artificial ha avanzado a paso de tortuga en comparación con lo que se había pronosticado.

Otros argumentan que incluso si los robots podrían ser más precisas en ciertas circunstancias en el futuro, simplemente no deberían conceder a las máquinas de la decisión sobre quién vive o muere.

Ahora mismo, no podemos confiar en que las máquinas respeten el derecho internacional. Los sistemas actuales de detección no están a la altura. E incluso si las máquinas tienen mecanismos adecuados de detección todavía faltarían los componentes vitales de la conciencia en el campo de batalla y el razonamiento y el sentido común para tomar decisiones sobre quién y cuándo es apropiado para matar.

Los robots no tienen la capacidad para decidir si atacar un blanco es proporcional a la ventaja militar conseguida. No hay manera de cuantificar algo así. Gran parte de la guerra es arte y no ciencia. Un comandante militar debe tomar una decisión cualitativa sobre el número de víctimas civiles que pueden sacrificar para un objetivo militar concreto. Y ese comandante puede ser considerado responsable.
Un robot no tiene la conciencia moral para rendir cuentas. Algunos podrían argumentar que el comandante que envía un robot en una misión sería responsable (último punto de contacto). Pero eso podría ser injusto, ya que podría ser culpa del programador de la misión, del fabricante o de una de las muchas pequeñas empresas que proporcionan componentes. Tal vez debería ser el personal de alta dirección o los responsables políticos que tuvieron la idea de usar robots. O el dispositivo podría haber sido manipulado en la cadena de suministro industrial o incluso por daños en la acción.

Sin embargo, una reciente directiva del Departamento de Defensa EE.UU. (noviembre de 2012) da luz verde a la investigación y desarrollo de sistemas de armas autónomas.

Esto nació con la culminación de los mapas militares de carreteras de EE.UU. que datan de 2002 y se trata de un mal movimiento. Se envía el mensaje equivocado a otras naciones. Como la nación militarmente más avanzado del planeta, EE.UU. tiene la oportunidad de tomar la tomar la iniciativa para detener esta evolución.

Gracias a la utilización por parte de EE. UU. de aviones no tripulados, más de 70 países han adquirido la tecnología en una nueva carrera armamentista. Es estrecho de miras para pensar que no van a hacer lo mismo con las armas autónomas. ¿Nadie está pensando en cómo un enemigo capaz podría explotar las debilidades de armas robóticas con suplantación de identidad, o piratería informática? ¿Alguien está considerando cómo programas informáticos todavía desconocidos interactuarán con los enjambres de robots? ¿Alguien está teniendo en cuenta que las armas autónomas podrían desestabilizar la seguridad mundial y desencadenar guerras no intencionadas?

En abril de este año en Londres, un grupo de importantes ONG pondrá en marcha una gran campaña dirigida a la sociedad civil: “Stop Killer Robots”, buscando un nuevo tratado preventivo internacional, y legalmente vinculante, para prohibir el desarrollo y despliegue de armas robot completamente autónomas.

El objetivo es evitar que estas armas entren en los arsenales de los ejércitos del mundo, mientras sea posible. Una vez que se produzcan grandes inversiones nacionales en la tecnología, puede ser demasiado tarde.

Nota del editor: Noel Sharkey es profesor de Inteligencia Artificial y Robótica y Profesor de Relaciones Públicas en la Universidad del Reino Unido de Sheffield y el Presidente del Comité Internacional para el Control de Armas Robot.