'La Guerra de las Máquinas': la IA en los conflictos armados
El poder de las máquinas está desatando una cascada de dilemas éticos y legales que, aplicados al ámbito militar, hacen temer por el cumplimiento de las normas del Derecho Internacional Humanitario
La Guerra de las Máquinas: La IA en los conflictos armados
El año 2025 va a terminar como empezó, con un contexto geopolítico extremadamente voluble, crispado y amenazado por las guerras que continúan en Ucrania, Oriente Próximo, Sudán, Yemen… Conflictos que, lejos de acabar, van a más porque la Inteligencia Artificial ha irrumpido de lleno en los conflictos armados. Estamos abocados a un futuro en el que las máquinas lucharán contra máquinas, por ejemplo, en el ámbito de la ciberdefensa.
Más información
"Nos veremos en escenarios donde estén inteligencias artificiales enfrentadas disputándose un campo de batalla", vaticina Enrique Ávila, director del Centro de Referencia de Inteligencia Artificial del Estado Mayor de la Defensa. Y esto plantea dilemas éticos y legales como quién diseña los algoritmos que toman la decisión de marcar los objetivos en una guerra, o quién asume las consecuencias legales ante crímenes de guerra provocados por las máquinas. Por eso, Ávila insiste en el papel humano. "Probablemente el ser humano tenga un rol de decisión final sobre ciertos temas y sobre todo el de contener la escalada".
La regulación de la IA a nivel militar es un gran desafío para los Estados, en especial para garantizar que las armas dotadas de IA cumplen las normas del Derecho Internacional Humanitario. Esa es la principal amenaza para Roger Campione, catedrático de Filosofía del Derecho de la Universidad de Oviedo que ha dirigido el proyecto de investigación 'Smartwar'. Campione recuerda que este tipo de armas ya se han empleado en conflictos recientes como los de Libia, Ucrania o Gaza. En este último, por ejemplo, las Fuerzas Armadas israelíes han empleado técnicas de inteligencia artificial para seleccionar e identificar a los sospechosos de pertenecer a Hamás o a la Yihad Islámica y llegar hasta su domicilio. "Las propias Fuerzas Armadas israelíes reconocían abiertamente que un porcentaje de error de alrededor del 10% estaba incluido en la forma de operar de este tipo de aplicaciones", subraya, lo que echa por tierra las reglas esenciales del Derecho Internacional Humanitario.
"Tenemos una tecnología muy poderosa que no está regulada en absoluto"
Como explica Campione, la Inteligencia Artificial no aporta nuevas actuaciones, sino que "tiende a amplificar cosas que ya hacen los humanos en este campo". Por eso estas herramientas que aportan más precisión no necesariamente van a minimizar los daños colaterales de las guerras, sino que pueden amplificarlos. Aunque, según el experto, "en el campo concreto del empleo de las armas autónomas hay también quienes sostienen que podrían limitar los excesos en las guerras".
"Tenemos una tecnología muy poderosa que no está regulada en absoluto", advierte el cineasta y profesor universitario Karlos Alastruey, que ha llevado a la pantalla la investigación con el largometraje documental La guerra de las máquinas. "Es una especie de caja negra que está en manos de un número muy reducido de empresas", añade. Así como las armas nucleares tienen detrás a los gobiernos, las armas con IA no tienen detrás la fiscalización de los gobiernos y la regulación está llegando tarde. Por ejemplo, Alastruey se inquieta por la propiedad de los datos de la IA, que no se ha determinado a quién pertenecen. "Hay zonas grises, con el añadido de que las aplicaciones militares son secretas, con lo cual es muchísimo más difícil sacar a la luz las consecuencias que tiene para el gran público", insiste.
Para Campione, la IA puede "llevar hasta límites extremos la desatención sistemática hacia cualquier tipo de límite en la conducta bélica". Lo que más teme son los excesos y las atrocidades en los conflictos que cree que se pueden amplificar con la IA. Pero insiste en que "la IA no inventa nada", es un mero reflejo de los sesgos y excesos humanos codificados mediante algoritmos inteligentes. De la misma manera, la IA no opera con sentimientos de odio o rencor como sí ocurre entre los humanos, así que podría caber esperar que la guerra entre Inteligencias Artificiales fuera más "humana". Sin embargo, Alastruey alerta sobre la percepción que tenemos como público sobre las guerras que se hacen a distancia. Esa "mentalidad PlayStation" nos distancia del drama sobre el terreno y se corre el peligro de generar una desafección.