Internacional

Armas no tan inteligentes: los riesgos del uso de la IA en guerras como la de Gaza

El órgano que monitoriza el uso del armamento en los conflictos mundiales alerta de que el uso de inteligencia artificial por parte de ejércitos como el de Israel puede provocar aún más víctimas inocentes

Un gazatí intentando encontrar conexión para su móvil entre los escombros en Nuseirat / Anadolu

Una de las herramientas en las que Israel se apoya para sus ataques constantes sobre la Franja de Gaza se llama Lavender. Es una base de datos gestionada por inteligencia artificial con la que se selecciona a miles de personas supuestamente vinculadas con Hamás para convertirlas en objetivos a eliminar para los soldados hebreos.

El ejército de Ucrania utiliza Clearview AI, un programa de reconocimiento facial para identificar a enemigos detenidos o eliminados o para detectar espías. Y Rusia utiliza también la inteligencia artificial para la navegación y elección de objetivos de sus drones, para ciberataques o para la difusión de propaganda e informaciones falsas en redes.

La difusión de todas estas herramientas ha puesto en alerta al Instituto de Estudios para la Paz de Estocolmo (SIPRI por sus siglas en inglés), que ha elaborado un informe alertando de los sesgos que presentan este tipo de programas y cómo dichas deficiencias pueden conducir a la muerte de civiles inocentes.

Más información

Hablamos con Marta Bo, una de las dos autoras del informe, especialista en armamento del SIPRI e investigadora de la Universidad de Ámsterdam, quien alerta en concreto de los riesgos de Lavender, el programa usado por el ejército israelí en Gaza: "Se producen errores de identificación, por ejemplo, cuando grupos de hombres se reúnen con rifles para celebrar una festividad. Este tipo de comportamientos son considerados como sospechosos, de modo que el sistema los reconoce erróneamente como posibles combatientes". Las consecuencias de ese sesgo se traducen en masacres de civiles.

En el informe, el SIPRI cita otros errores potenciales como por ejemplo no reconocer gestos de rendición hechos con los brazos por no estar totalmente extendidos o porque la IA no pueda reconocer correctamente a personas con algún tipo de discapacidad.

Según la investigadora, estos programas aún no son capaces de realizar un filtrado lo suficientemente exhaustivo, están construidos "de manera excesivamente genérica y a partir de criterios muy amplios como la edad o el sexo", lo que convierte a la IA en un arma poco precisa.

Faltan leyes y especialistas

La profesora Bo alerta además de que aún no hay un cuerpo jurídico lo suficientemente sólido como para determinar si este tipo de sesgos y las muertes que causan pueden suponer crímenes de guerra.

Más información

"Sería necesario demostrar la intención en el uso de un sistema que conduce a errores de identificación. Los tribunales internacionales requieren pruebas de intencionalidad", explica, aunque añade que "en el ámbito interno sin embargo podría bastar con una acusación de imprudencia temeraria por el uso de un sistema a sabiendas de que tiene datos insuficientes o cogidos de otros conflictos".

Esta experta avisa también de que a día de hoy todavía no hay una cantidad suficiente de especialistas en esta materia que puedan asesorar a los mandos militares o directamente trabajar en operaciones en marcha. El SIPRI cree necesaria aún la dirección humana a la hora de tomar decisiones y teme los riesgos de dejar actuar por su cuenta a programas que no son todavía tan inteligentes como demandan los distintos conflictos activos en el mundo.

Antonio Martín

Redactor de la sección de Internacional. Se incorporó...