Selecciona tu emisora

Ir a la emisora
PerfilDesconecta
Buscar noticias o podcast

La IA, herramienta de precisión en la guerra y arma de desinformación a gran escala

Los expertos apelan a la alfabetización mediática para no caer en las interpretaciones erróneas de esta tecnología, carente de criterio ético

La inteligencia artificial, aliada estratégica en el campo de batalla y motor de desinformación

La inteligencia artificial, aliada estratégica en el campo de batalla y motor de desinformación

00:00:0005:00
Descargar

El código iframe se ha copiado en el portapapeles

"Nuestros combatientes están utilizando una variedad de herramientas avanzadas de Inteligencia Artificial. Nos ayudan a analizar grandes cantidades de datos en segundos para que nuestros líderes tomen decisiones más inteligentes antes de que el enemigo pueda reaccionar", aseguraba hace unos días el jefe del Mando Central de los Estados Unidos.

Más información

Brad Cooper confirmaba así que Washington está utilizando herramientas avanzadas en esta tecnología en su ofensiva contra Irán, aunque matizaba que "los humanos siempre tomarán las decisiones finales". Estados Unidos emplea el Project Maven, un programa de análisis de imágenes con IA para priorizar objetivos de ataque que puso en marcha en 2017 y que ha ido perfeccionando desde entonces.

En estos momentos, tiene la capacidad de procesar mil en un segundo, mientras que el ojo humano necesita al menos 10 minutos analizar con detenimiento una sola imagen satélite. Por dimensionar, cabe destacar que Washington y Tel Aviv atacaron 3.000 objetivos en Irán en tan solo la primera semana del conflicto. Se consiguió en 7 días para lo que una campaña militar convencional necesita meses.

En este marco en el que la IA avanza todavía con una regulación embrionaria y que parece levantar ampollas en ciertos sectores, que consideran un freno a la innovación implantar unos límites a su uso basados en códigos éticos, está transformando la guerra, redefiniendo estrategias o el desarrollo de armamento. Pero sus sistemas de seguridad para evitar escenarios de peligro para la población civil aún son insuficientes, según un informe del Brennan Center.

En lo que respecta a la información, el empleo intencionado de la IA para crear caos es un arma de guerra más y ya lo estamos apreciando también en la guerra de Estados Unidos e Israel frente a Irán. "La desinformación es uno de los vectores clave dentro de la guerra híbrida. Los estados en una contienda la utilizan para minar la moral del enemigo y desinformación que pueda llevar a la sociedad a tomar determinadas acciones", recuerda Pablo Haya, director de Social Bussines Analytics del Instituto de Ingeniería del Conocimiento.

"La IA no puede ser fuente de verificación"

El New York Times ha publicado una investigación en la que ha identificado 110 vídeos con IA generativa que son falsos. Además, muchas de las imágenes salen de videojuegos bélicos como el Arma 3 y el War Thunder. Incluso Bohemia Interactive, la empresa que desarrolla Arma 3, ya alertó en 2023 del uso de sus imágenes en el conexto de la invasión rusa de Ucrania o en la Franja de Gaza. La compañía elaboró en 2023 una guía con peculiaridades que nos pueden alertar de vídeos que no son reales y se han extraído de otros sitios: la resolución muy baja para disimular la calidad y la textura típica de un videojuego, grabación temblorosa con ampliaciones repentinas o ausencia de sonido o poco distinguibles de los reales.

También circulan muchos bulos como un vídeo viral generado por IA que alerta del desabastecimiento en los supermercados de Dubái que acumulan millones de visualizaciones en X, TikTok, Instagram o Facebook. Por otro lado, están las interpretaciones erróneas de la IA de X que ha identificado el impacto de un misil en un edificio de Beirut como la mascletá de las Fallas de Valencia. "Es lamentable lo que ha ocurrido con Grok. Si dice que la imagen de la explosión en la capital libanesa son las Fallas, es porque ha aprendido que las imágenes en las que hay fuego en X, la mayoría citaban a las Fallas", señala Patricia Ventura, investigadora y consultora en IA y comunicación.

Por su parte, Pablo Haya sostiene que Grok recopila información sobre los tuits que se están generando en tiempo real: "Recibe toda la información que se está publicando en X, lo combina con los datos con los que se ha entrenado y genera la respuesta". Ninguna de estas tecnologías de interpretación de datos pueden ser fuentes verificadoras. Ventura explica que "no asumen responsabilidades" de lo que es verdad o no y recuerda que los datos con los que se han entrenado pueden "ser sesgados": "Si hablamos de informar, hay puntos muy ciegos. El periodismo introduce límites, contextualiza el sufrimiento humano, evita la espectacularización, prioriza el interés público y convierte datos en conocimiento socialmente significativo. Una IA no lo puede hacer".

"Seguir la guerra como un videojuego como forma de no enfrentarnos a ella"

En el contexto bélico actual han surgido herramientas que pretenden ser una aproximación a todo lo que acontece y, en realidad, genera una desconexión con la tragedia humana. Un ejemplo de ello es World Monitor, ya que es un mapa digital en el que se pueden seguir en tiempo real los bombardeos entre países y participar en un chat. "Está todo descontextualizado, solo hay datos y la espectacularización en la que incurre hace que se banalice el sufrimiento", opina Patricia Ventura. Por su parte, Haya indica que "seguir la guerra al nivel de las redes sociales sería inaguantable", de ahí que se apueste por un "estilo videojuego" con el que evitamos ser conscientes de todo lo que supone un conflicto armado.

Ambos expertos coinciden en que es esencial la alfabetización mediática para saber qué fuente es la que banaliza y cuál se rige por el criterio ético. Igualmente, apuntan a la soberanía tecnológica para evitar caer en las dinámicas que imponen las redes sociales, en manos de empresas privadas estadounidenses, que buscan obtener el máximo beneficio: "Debemos pensar hasta qué punto merece la pena desarrollar infraestructuras de comunicación propias en la Unión Europea que se guíen por otros valores y no busquen sumirnos en el entretenimiento únicamente".

María Ibáñez

María Ibáñez

Periodista en servicios informativos. A veces, edito Matinal SER los fines de semana. Graduada en Periodismo...

 

Directo

  • Cadena SER

  •  
Últimos programas

Estas escuchando

Hora 14
Crónica 24/7

1x24: Ser o no Ser

23/08/2024 - 01:38:13

Ir al podcast

Noticias en 3′

  •  
Noticias en 3′
Últimos programas

Otros episodios

Cualquier tiempo pasado fue anterior

Tu audio se ha acabado.
Te redirigiremos al directo.

5 "

Compartir