FT Español

Robots asesinos amenazan con causar una nueva carrera armamentista

Por: John Thornhill | Publicado: Viernes 29 de abril de 2016 a las 04:00 hrs.
  • T+
  • T-

Compartir

Imaginemos una situación totalmente futurista: una coalición encabezada por Estados Unidos dispuesta a erradicar a ISIS está asediando Raqa. La fuerza militar internacional libera un mortífero grupo de robots voladores que sobrevuelan la ciudad en busca del enemigo. Con un sistema de reconocimiento de identidad, los robots localizan y aniquilan a la cúpula de ISIS. Los combatientes del grupo son derrotados con el mínimo de vidas civiles y tropas aliadas perdidas. ¿Quién pondría en duda el buen uso de la tecnología?

Los expertos en inteligencia artificial son los que más saben sobre la tecnología necesaria para desarrollar ese armamento. En una carta abierta publicada en julio, un grupo de investigadores advertía que la puesta en marcha de Sistemas de Armas Autónomos Letales (LAWS, su sigla en inglés) sería una realidad en cosas de años, no décadas. A diferencia del armamento nuclear, estos sistemas podrían producirse en masa. “Será sólo cuestión de tiempo para que aparezcan en el mercado negro y caigan en manos de terroristas, dictadores y de señores de la guerra que quieran llevar a cabo una limpieza étnica”, explicaban. “Empezar una carrera armamentista basada en la inteligencia artificial no es una buena idea y debería contenerse con una prohibición del armamento autónomo que escapa al control humano”.

EEUU ya ha renunciado al uso de armamento autónomo. Este mes, 94 miembros de Naciones Unidas se reunieron en Ginebra para redactar un acuerdo internacional que limite su uso. El principal motivo es ético: dar a los robots licencia para acabar con vidas humanas supone cruzar un límite que siempre debería respetarse. Jody Williams, que ganó el premio Nobel de la Paz por su lucha contra las minas antipersonales, es la portavoz de la campaña para detener a los robots asesinos. En su opinión, el armamento autónomo es más peligroso que las armas nucleares. ¿Dónde llegaremos si pensamos que es correcto ceder el poder de decidir sobre la vida y la muerte a un robot? Hay otras cuestiones que resultan preocupantes. ¿Reduciría el uso de robots asesinos el número de bajas en una batalla aumentando a su vez las posibilidades de un conflicto? ¿Cómo podría contenerse la proliferación de este tipo de sistemas? ¿Quién sería responsable en el caso de que algo fallara?

El problema es que, cuanto más de cerca se examina la posibilidad, más difícil resulta establecer los límites morales. Los robots (con una autonomía limitada) ya se han desplegado en el campo de batalla para fines muy concretos, como la desactivación de minas y los sistemas antimisiles. En este sentido, todo apunta a que uso tendrá un crecimiento exponencial. El Centro para una nueva Seguridad Americana calcula que el gasto global en robots militares alcanzará US$ 5.700 millones anuales de aquí a 2018, dato que contrasta con las previsiones de gasto de robots de uso industrial y comercial, que ascienden a US$ 43.000 millones. El organismo, que opera desde Washington, apoya el desarrollo de estos sistemas, argumentando que pueden “mejorar la capacidad de aventajar a los adversarios”. Con el lenguaje aséptico que le caracteriza, la industria armamentística hace una clara distinción entre los distintos niveles de autonomía. El primero incluye a los drones que utilizan EEUU y otros Ejércitos. Aunque un dron es capaz de identificar un objetivo, para activarlo es necesario que una persona presione un botón. En el segundo nivel de autonomía, las personas supervisan sistemas ofensivos robotizados como las baterías antimisiles. El tercer tipo, que corresponde al de los drones con plena autonomía, es potencialmente el más peligroso y seguramente el más fácil de prohibir. Los expertos en inteligencia artificial deberían sin duda tener un reconocimiento por haber sacado a la luz este debate. Como en tantas áreas, nuestra sociedad, antes de controlar, todavía tiene que asimilar los impresionantes avances tecnológicos de los que está siendo testigo.

Lo más leído