¿Quién controlará el código de conducta de los soldados robots?
Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Cientificas

Getty Images

Madrid
Ante la posible creación de armas autónomas, que deciden por sí mismas cuándo y a quién atacar. La comunidad internacional acaba de abordar en la ONU, en una reunión, como evaluar las posibles respuestas a los sistemas armamentíssticos autónomos letales, más conocidos como "robots asesinos", capaces de operar sin instrucciones humanas. Una de las propuestas es tener un código de conducta o un mecanismo de revisión de la tecnología. Y es una alerta reiterada por científicos y líderes empresariales que trabajan con Inteligencia Artificial.
Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Cientificas, se ha asomado esta tarde a La Ventana para tratar este tema en el que la mayoría de los científicos están en contra de "las almas autónomas", que es como el director ha definido a estos robots.
"Aunque la máquina pueda tomar la decisión del objetivo, para atacar, siempre queda la persona para abortar la misión", así López de Mántaras ha comparado con la robótica con la metáfora del botón rojo. El director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Cientificas ha incidido el la legalidad, en lo lícito "Una vez se ha activado el sistema es imparable, se tienen en cuenta los niveles más avanzados de autonomía" declara que precisamente esta autonomía es la que "plantea más consideraciones, más dudas", y que "en los aspectos de dignidad. No se puede delegar en una máquina algo tan terrible como matar es indigno."




