Lassalle señala el error estratégico de EEUU e Israel al atacar a Irán: "Una inteligencia artificial no puede gestionar esto"
El analista advierte de que la ofensiva podría estar basada en un exceso de confianza en sistemas capaces de procesar macrodatos
Las razones del ataque de EE. UU. e Israel a Irán, según Lassalle, y el error estratégico que han cometido: "Una inteligencia artificial no puede gestionar la incertidumbre del misterio"
Madrid
La guerra iniciada por Estados Unidos e Israel contra Irán el pasado 28 de febrero continúa envuelta en mensajes contradictorios desde Washington. El presidente estadounidense, Donald Trump, ha ido modificando en cuestión de días su previsión sobre la duración del conflicto. Primero habló de "dos o tres días" y después de "cuatro o cinco semanas". Mientras tanto, el secretario de Defensa, Pete Hegseth, aseguró que la guerra terminará "cuando nosotros lo decidamos", al tiempo que el Gobierno reconoce que aún no se han alcanzado "suficientes" objetivos militares.
El conflicto también ha tenido un impacto inmediato en los mercados internacionales. La caída del índice Dow Jones Industrial Average y la subida del precio del petróleo llevaron a Trump a apresurarse a anunciar un posible final próximo de la guerra. Sin embargo, con la volatilidad bursátil algo más contenida, los mensajes dentro de la Administración vuelven a apuntar a una intensificación de los ataques.
En este contexto, José María Lassalle ha advertido de que el diseño de la operación podría estar basado en una lectura simplificada del escenario iraní. "Nadie sabe lo que va a pasar, salvo que Irán tiene claramente la voluntad de resistir", ha explicado Lassalle.
Las razones del ataque de EE. UU. e Israel a Irán, según Lassalle, y el error estratégico que han cometido: "Una inteligencia artificial no puede gestionar la incertidumbre del misterio"
En su análisis, el país ha demostrado una capacidad de reacción rápida incluso en el plano político. "En dos semanas ha sido capaz incluso de llevar a cabo la sustitución en el liderazgo espiritual de esta dictadura teocrática", ha señalado.
Para el analista, el problema no es solo militar, sino también político y estratégico. Lassalle ha puesto el foco en el círculo de asesores que rodea al presidente estadounidense y en las personas que influyen en las decisiones de la Casa Blanca.
Según ha explicado, el diseño de la operación "está en manos de alguien que se está dejando asesorar por un secretario de guerra que ha sido periodista de Fox Television", en referencia a Hegseth, además de otras figuras cercanas al entorno personal del presidente.
Pero el elemento que más preocupa a Lassalle es el papel creciente de las empresas tecnológicas en la gestión de la inteligencia militar. En particular, menciona a Palantir Technologies, una compañía especializada en análisis de datos que colabora con el Departamento de Defensa estadounidense y con el Ministerio de Defensa israelí.
Más información
El analista ha advertido de que este modelo tecnológico puede llevar a errores de cálculo cuando se aplica a realidades políticas complejas. "Pensar que la solución que has tenido de resolver un problema en Venezuela en ocho minutos podías hacerlo en Irán es olvidar que Irán es un imperio milenario", ha sostenido.
Para Lassalle, el principal riesgo es confundir la capacidad de procesar grandes cantidades de datos con la capacidad real de comprender una sociedad. "Si tú te enfrentas a él, tienes que ser muy consciente de que estás delante de una criatura hipercompleja", ha afirmado.
En ese punto ha introducido la crítica central de su análisis: la confianza excesiva en la inteligencia artificial aplicada a la guerra. "Una inteligencia artificial no es capaz de gestionar, en el ámbito de los macrodatos, la incertidumbre del misterio", ha afirmado.
Por eso ha considerado que los sistemas de inteligencia artificial pueden resultar insuficientes. "Los sistemas de inteligencia artificial ayudan a afirmar y a corroborar los liderazgos", ha señalado.
En su opinión, esa lógica puede generar una "hiperconfianza" peligrosa cuando se traslada al terreno militar. "Estamos asomándonos a las alucinaciones en los sistemas de inteligencia artificial", ha advertido.
🔴 DIRECTO | El Abierto de 'Hoy por Hoy' en Cadena SER (11/03/2026)