Lectura 6:00 min
Boston Dinamycs pide que se deje de armar a los robots. ¿Qué está pasando?
Boston Dynamics, junto con otras empresas del sector de la robótica, han firmado una carta abierta en la que anuncian que no armarán a sus robots y no apoyarán a otras empresas en este propósito. ¿Qué está pasando para llegar a esto?
Robots armados con explosivos en EE UU
A finales de noviembre de 2022 saltó la noticia de que la policía de San Francisco podría emplear robots capaces de matar. Según ellos, “este tipo de robots solo se emplearán en situaciones de extrema peligrosidad, que busquen proteger vidas de inocentes”. Y añadieron que excepcionalmente “las máquinas podrán equiparse con explosivos”.
Pero los robots armados ya se habían utilizado antes. Es precisamente lo que ocurrió en Dallas en 2016. Un francotirador había matado a cinco policías y herido a otros siete. En estas circunstancias, los policías alegaron que se vieron obligados a enviar a un robot, Packbot, hacia el criminal.
La escena: El robot se acerca, arrastra un zumbido eléctrico que impulsa sus engranajes. Desconcierto para el francotirador. ¿Traerá las peticiones que ha negociado con la policía? El robot se sigue acercando. Un poco más cerca. El criminal duda si disparar contra él, solo chilla, nervioso, a los policías. No entiende nada.
El robot se acerca un poco más, y ¡pum! Su carga explosiva C-4 asesina al francotirador, Micah Johnson. Johnson era de raza negra, un veterano de la Reserva del Ejército de los Estados Unidos de la guerra de Afganistán que según informes estaba enfadado por los tiroteos de la policía contra hombres negros y declaró que quería matar a personas de raza blanca, especialmente a policías blancos. Se cree que fue la primera vez que un departamento de policía estadounidense utilizó un robot para matar a un sospechoso. En 2018, los policías resultaron absueltos en un juicio.
Digidog, el perro robot de la policía de Nueva York
En 2020 y 2021 fue la policía de Nueva York la que comenzó a emplear el robot Digidog, creado por Boston Dinamycs. Lo emplearon para inspeccionar viviendas sospechosas, entre ellas un apartamento en el barrio del Bronx tras un secuestro. También se han utilizado para negociar con el secuestrador de una madre y su bebé, e incluso para llevar comida a unos atracadores.
En todas las intervenciones, las explicaciones que dieron los cuerpos de seguridad sobre la intervención del robot en estos escenarios fue más bien escasa. Y ese es realmente el problema ético de estas máquinas. ¿Puede el uso de este tipo de armas garantizar el respeto de los derechos ciudadanos y la no violencia innecesaria contra un criminal? ¿Puede razonarse detalladamente cada una de las acciones del robot?
Tras el episodio del registro en el apartamento en el Bronx, la congresista Alexandria Ocasio-Cortez levantó la voz de alarma sobre el empleo los Digidogs únicamente en barrios de clases bajas.
A estas alturas del texto, sobran razones para entender por qué Boston Dynamics, junto con otras empresas del sector de la robótica –Agility Robotics, ANYbotics, Clearpath, Open Robotics y Unitree Robotics– han firmado una carta abierta en la que anuncian que “no armarán a sus robots de propósito general de movilidad avanzada o el software que desarrollen que permite la robótica avanzada, y no apoyarán a otras empresas en este propósito”.
¡Ojo! El diablo está en los pequeños detalles. En la carta no aclaran (¿deliberadamente?) a qué se refieren con los robots de propósito general. Además, dejan la puerta abierta a que se empleen en misiones de vigilancia o de reconocimiento de personas, tal y como están haciendo ya.
La guerra de Ucrania y otros conflictos bélicos previos también han puesto de manifiesto el empleo de robots, sobre todo drones, en este terreno.
Tanto los robots policía como los militares se engloban bajo el debate ético de las armas autónomas. De hecho, actualmente se está debatiendo su regulación en Naciones Unidas.
China no firmará ningún acuerdo para el uso de armas autónomas
Hace ya un siglo que el filósofo y sociólogo Antonio Gramsci dijo que debemos ser pesimistas con la inteligencia y optimistas con la voluntad. Sin embargo, no parece que haya voluntad de acuerdo. De entrada, China ya anunció que no piensa firmar ninguno, y Estados Unidos y otras grandes potencias militares están haciendo grandes inversiones en este tipo de sistemas robóticos armados. El conflicto de Ucrania ha sido la gota que ha colmado el vaso.
Este debate ético tiene unas bases muy resbaladizas. ¿Podemos considerar como un arma autónoma a un sistema de guiado automático de misiles, como los que existen desde hace décadas? ¿O una mina antipersona, que no distingue entre aliados y enemigos?
La comunidad científica de momento ni siquiera tiene ninguna defición clara sobre qué es un arma autónoma.
China afirma que su interés por desarrollar armamento con inteligencia artificial no está relacionado con el asesinato automático de personas, sino con el mantenimiento predictivo, el análisis del campo de batalla, la navegación autónoma y el reconocimiento de objetivos. Quizás en el mundo militar, ni siquiera tenga sentido dejar que exista un arma autónoma que se comporte de manera imprevisible y asesine sin control humano.
Los drones en el punto de mira
En 2021, multitud de medios se hicieron eco de que un dron había matado de manera totalmente autónoma a una víctima en el conflicto de Libia por primera vez en la historia. Sin embargo, ese dron nunca existió, según la propia empresa fabricante. Pero esa noticia apenas se publicó.
La resistencia al cambio siempre ha sido una palanca para los impulsos y las inquietudes humana. Aún estaba muy reciente la hazaña de los hermanos Wright y su máquina de volar, cuando surgió una gran polémica popular sobre el posible empleo bélico de estos artefactos. La novela de HG Wells de 1907 La guerra en el aire es una prueba de esa inquietud.
Ante todo este revuelo, el pasado 7 de diciembre la ciudad de San Francisco rectificó, y no permitirá, de momento, que su policía equipe robots capaces de matar.
David Collingridge, profesor de la Universidad de Aston, en el Reino Unido, publicó en 1980 The Social Control of Technology con el dilema que lleva su nombre, el dilema de Collingridge: “Cuando el cambio es fácil, no se puede prever la necesidad del mismo. Cuando la necesidad de cambio es evidente, el cambio se vuelve costoso, difícil y requiere mucho tiempo”.
Sorprendentemente, esta paradoja está hoy de plena actualidad.
Julián Estévez Sanz, Profesor e investigador en Robótica e Inteligencia Artificial, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Lea el original.