Sábado, 08 de Mayo de 2021

Otras localidades

'Killer robots': las máquinas de matar autónomas ya están aquí

Sin empatía ni valores, las máquinas pueden cometer errores que se traducirían en pérdidas de vidas humanas y hacer escalar los conflictos, por eso organizaciones de todo el mundo exigen "establecer unos marcos legales vinculantes para su prohibición"

Descargar

Compartir

El código del iframe se ha copiado al portapapeles

Su precisión es única, su nivel de destrucción, altísimo, pueden aniquilar lo que se propongan y no necesitan la mano del hombre para poder decidir a quién matar. Los “Killer Robots” o robots asesinos son armas totalmente autónomas, máquinas de matar sin empatía ni emociones y programadas para perseguir un objetivo, decidan atacarlo y lo ataquen.

Los primeros prototipos ya se están desarrollando en países como Rusia, Estados Unidos, Israel o Corea del Sur. Algunos autores se refieren a ellos como “la cuarta revolución de la guerra”. A las organizaciones humanitarias les preocupa y llevan años luchando contra el gigante de la industria armamentística.

Descargar

Compartir

El código del iframe se ha copiado al portapapeles

El principal problema ético que plantean estas máquinas es que “no pueden garantizar el principio jurídico de distinción”, explica el catedrático Pere Brunet, profesor de divulgación científica de la Universidad Politécnica de Cataluña. Esto implica que no hay seguridad de que puedan discernir entre personas combatientes y civiles.

“El gran problema de estas armas es que los errores que pueda tener su sistema de inteligencia artificial se traducen en la pérdida de vidas humanas, y eso es éticamente inaceptable”, insiste Brunet.

La coalición “Stop Killer Robots” aglutina a organizaciones de todo el planeta en la lucha contra estos robots. Su representante en España, Joaquín Rodríguez, asegura que las grandes potencias armamentísticas como EE.UU., Reino Unido o China ya los utilizan. Esta última, con “una gran opacidad”.

Los “killer robots” existen en forma de drones, enjambres de armas con sensores de calor programados para atacar cualquier cosa que emita una temperatura corporal, drones “merodeantes”, sistemas instalados fijos en el suelo o portados por los ejércitos, pero todos con una particularidad: “una vez que están activados, se pierde parcialmente el control sobre el ciclo de vida del arma”.

Las grandes potencias lideran la industria

Para Rodríguez, una de las principales preocupaciones es que estos sistemas “operan a una velocidad superior” a la de los humanos, por lo que pueden hacer escalar los conflictos enormemente “siendo difícil para los decisores humanos detenerlo”. Se trata, dice, de una carrera por el “hard power” de Estados Unidos y China que está poniendo la democracia y la ética contra las cuerdas.

El ejército estadounidense ha diseñado un buque antisubmarino autónomo capaz de soportar profundidades mayores de las que resisten los humanos y los sistemas de comunicación. Otro ejemplo es el arma automatizada construida por Rusia que utiliza redes neuronales artificiales para elegir objetivos.

En España, el portavoz de “Stop Killer Robots” asegura que “hay ciertas dudas” sobre proyectos de compañías como Indra para el desarrollo de drones armados. Lo que sí está claro es que España es “un productor y exportador de este tipo de armas”. Unos sistemas que están ahora “al borde de la materialización”, por eso Rodríguez subraya la importancia de “establecer unos marcos legales vinculantes para su prohibición” antes de que se produzcan miles de muertes.

Estos prototipos tienen además un sesgo racial, como demuestra la actuación del software Compass utilizado en Estados Unidos para calcular los índices de reincidencia de las personas inmersas en procesos penales. “La inteligencia artificial que tenemos en occidente ha sido diseñada fundamentalmente por hombres blancos y tiene unos sesgos raciales importantísimos”, cometiendo errores de reconocimiento en personas no caucásicas.

Esto demuestra que estos robots cometerían errores estratégicos con consecuencias impredecibles, según denuncian las organizaciones. Fernando Cocho analista de inteligencia y riesgos a la seguridad nacional, cree que el riesgo existe “si la decisión final fuera de las máquinas y no de un ser humano, como ocurre con los drones, con los que decide finalmente un ser humano”.

La falta de cultura, educación y valores de los robots les impide poder decidir cualitativamente en sus actuaciones. Las máquinas tampoco podrían ser responsabilizadas por sus crímenes. “En estos casos, quien tiene la responsabilidad única es la cadena de mando”, dice Cocho.

Además, existe una vulnerabilidad tecnológica de estos aparatos, y es que podrían ser hackeados, como cualquier aparato con una programación informática.

Cargando

Escucha la radio en directo

Cadena SER
Directo

Tu contenido empezará después la publicidad

Programación

A continuación

    Último boletín

    Emisoras

    Elige una emisora

    Cadena SER

    Compartir

    Tu contenido empezará después de la publicidad

    Cadena SER

    ¿Quieres recibir notificaciones con las noticias más importantes?