Punto de FugaPunto de Fuga
CONTROL DE ARMAS

"Los autómatas sólo cumplirán órdenes. Sin compasión"

La campaña "Stop Killing Robots" reclama que se detenga el desarrollo de autómatas diseñados para la guerra en países como Estados Unidos, Rusia, China o Reino Unido

Madrid

Suena a Ciencia Ficción pero es posible que no estemos tan lejos de la guerra de las máquinas. Varias países del mundo están investigando sobre el desarrollo de autómatas capaces de seleccionar objetivos enemigos y atacarlos sin la intervención del humano.

Esta realidad ya está preocupando a sectores de los movimientos internacionales que reclaman un mayor control del uso de armas, como es el caso de "Stop Killing Robots", cuyo representante Thomas Nash ha hablado con 'Punto de Fuga' aprovechando su visita a Barcelona para participar en las jornadas Alfons Banda, en la que también ha participado FundiPau.

Punto de Fuga: 'Robots asesinos'

10:50

Compartir

El código iframe se ha copiado en el portapapeles

<iframe src="https://cadenaser.com/embed/audio/460/001RD010000004150092/" width="100%" height="360" frameborder="0" allowfullscreen></iframe>

En las guerras ya se usan drones... ¿qué diferencias hay entre estos aviones y los autómatas de los que usted habla?

La diferencia fundamental entre los drones que ya conocemos y los robots asesinos cuyo uso queremos limitar es que los drones son aparatos controlados por seres humanos que envían imágenes a una pantalla y es una persona la que decide cuál es el objetivo a batir y cuándo lanzar los misiles.

Sin embargo, los robots asesinos o el armamento autónomo serán capaces de elegir por su cuenta el objetivo a batir, identificar potenciales enemigos y lanzar los misiles sin la participación de un ser humano.

Es decir, serán máquinas programadas para matar que tomarán la decisión de matar dejando el factor humano fuera de esa decisión.

¿Hay países que ya estén intentando desarrollar este armamento?

Sí, a estas alturas sabemos que algunos gobiernos en el mundo que están intentando progresar hacia esas máquinas con mayor autonomía en el campo de batalla.

Son países como Estados Unidos, Rusia, China, Israel, Reino Unido... todos ellos están trabajando con tecnología altamente sofisticada en la que se integran sistemas de reconocimiento automático de los objetivos que serán capaces de enviar información a un operario o a un ordenador sobre potenciales enemigos.

Esta tecnología esta allanando el camino, o puede allanar el camino, hacia armas autónomas capaces de decidir objetivos sin ningún tipo de control humano. Esto es lo que más nos preocupa a nosotros.

¿Son muy sofisticados? ¿Serán estos robots capaces de desarrollar una estrategia de guerra en el futuro y de forma autónoma?

Bueno... yo creo que todavía estamos algo lejos de integrar inteligencia artificial a este tipo de armas para que sean capaces de diseñar una estrategia de guerra o una operación militar determinada.

Sin embargo, no creo que estemos demasiado lejos de sistemas capaces de identificar potenciales objetivos, decidir atacarlos y lanzar un misil.

Creo que esto depende más de una cuestión política que de una cuestión técnica. Y por eso mismo estamos reclamando una moratoria internacional sobre el desarrollo de estas armas autónomas antes de que sea demasiado tarde.

En su opinión... ¿Dónde está el debate moral en todo esto?

Yo creo que actualmente hay problemas técnicos, problemas legales y problemas de seguridad entorno al uso de armamento autónomo... pero el problema fundamental es de naturaleza moral.

Lo que nosotros decimos es que el ser humano siempre tiene que tener la oportunidad de decidir sobre el acto de matar. Tomar la decisión de matar es terrible, es algo que nunca se debería hacer, pero cuando se hace y se toma esa decisión siempre tiene que ser una decisión humana.

Si comenzamos a dejar a las máquinas y los ordenadores el poder de determinar cuándo se debe matar y a quién... estamos renunciando a un principio de humanidad fundamental que no conseguiríamos recuperar nunca.

Por eso, pensamos que sería importante alcanzar este tratado internacional.

Pero da la impresión que este tipo de armas podrían reducir el número de civiles muertos en las guerras... ¿podría ser así?

Bueno... todo depende de cómo se utilicen. Los robots asesinos pueden matar a muchas más personas en una guerra si son programados para ello.

De hecho, imaginemos una situación en la que un soldado tiene compasión por un enemigo... o decide que no puede aceptar la orden que le ha recibido de un superior... En esas situaciones, un soldado puede decidir no disparar a su objetivo.

En cambio, un robot asesino siempre cumplirá órdenes. No tendrá ese instito humano ni sentirá compasión... Simplemente cumplirá la orden de matar y esa es otra de las razones por las que creo que nunca deberemos renunciar a que el humano tenga la decisión última de a quién hay que matar y cuando.

¿Cree que con ellos sería más difícil respetar las leyes que rigen los Derechos Humanos?

Sí. Nosotros creemos que dejar a una máquina la capacidad de decidir a quién y cuándo matar es tremendamente problemática y contraria a los tratados internacionales de Derechos Humanos.

Estamos hablando de sistemas que reducirán al ser humano a una secuencia binaria de "unos" y "ceros" en la pantalla de un ordenador.

Eso eliminará cualquier sentimiento humano y de humanidad. No deberíamos hacer eso, si lo hacemos estaremos acabando el principio más básico de dignidad y con la idea más básica de tratarnos los unos a los otros con dignidad y respeto.

¿Y en qué punto está el debate internacional sobre este armamento?

El debate internacional sobre los robots asesinos y el armamento autónomo se ha desarrollado hasta ahora en cuatro fases. Hemos tenido tres reuniones técnicas específicas con diplomáticos y expertos hablando de este tipo de armamento en Naciones Unidas en Ginebra. La última ha tenido lugar el pasado mes de abril...

Y en diciembre celebraremos una gran convención en la sede de Naciones Unidas de Ginebra para decidir el futuro más inmediato de estas armas y esperamos que ese encuentro permita avanzar hacia la negociación de un instrumento legal que prohíba preventivamente el desarrollo de robots asesinos.

Esta es una ambiciosa reclamación de nuestra organización que esperamos sea escuchada también por el gobierno español a partir de esa conferencia de diciembre.

¿Qué papel juega la industria de guerra en todo esto? ¿Está tratando de impulsar el desarrollo de robots asesinos?

Creo que es uno de los grandes problemas a los que nos tenemos que enfrentar... Hablo del desarrollo de tecnología y software por parte de la industria militar... Y creo que es en la conexión entre la robótica, la inteligencia artificial y la industria militar donde está el problema.

Y tenemos en nuestra mano tratar de evitar estas conexiones... En todo caso, creo que hay señales esperanzadoras porque hay muchos científicos, ingenieros y desarrolladores de robótica que no quieren que su conocimiento se utilice para el desarrollo de armas autónomas... De hecho, algunos de ellos ya han dicho públicamente que no van a trabajar en el desarrollo de esos sistemas.

Yo creo que esa es una buena señal de que el mundo académico y de la Ciencia se opone y -a través de ellos y su opinión- será más fácil que las grandes empresas de tecnología se comprometan a no apoyar el desarrollo de este armamento y -por tanto- a que haya una barrera contra el desarrollo de estos robots asesinos en el futuro.

Pero... ¿está tratando de influir en la política para que eso sea posible?

Sí, nosotros pensamos que está casi confirmado que algunas empresas de la industria armamentística están haciendo lobby para que los gobiernos apoyen este tipo de sistemas, para conseguir fondos que permitan el desarrollo de este armamento y que las armas autónomas sean una realidad.

Sus formas de actuación suelen estar fuera de la vista pública y hay muy pocas opciones para poder escrutar la actividad de esta industria y estas empresas de armas con los gobiernos. Nosotros estamos preocupados por la actividad de esas empresas y su posible influencia en los gobiernos para conseguir el desarrollo de estas armas.

¿Y los militares? ¿Qué opinan ellos?

Nosotros hemos hablado con comandantes y militares en activo... les hemos explicado que ahora mismo se pueden desarrollar armas de este tipo, capaces de elegir un objetivo y lanzar misiles sobre él.

La mayoría de los comandantes, al menos los que charlaron conmigo, me dijeron que es una locura. Que nunca van a aceptar este tipo de armas ni aceptarán que los gobiernos desarrollen este tipo de armamento.

Creo que puede haber algunos mandos militares que les parezca una buena idea pero he hablado con mucha más gente del terreno académico, o de la abogacía, que creen que no podemos dejar en manos de las máquinas el poder de decidir quién debe morir y cuándo.

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00