La reciente ofensiva militar de Estados Unidos contra Irán no solo evidenció el poder militar de la IA, sino también cómo los algoritmos, los modelos de lenguaje y los sistemas de análisis de datos se están convirtiendo en los protagonistas del campo de batalla.
El 28 de febrero de 2026 quedará marcado en los libros de historia como el día en que la inteligencia artificial demostró su poderío en el ecosistema militar a través de la “Operación Epic Fury“, una ofensiva masiva y coordinada entre Estados Unidos e Israel contra objetivos estratégicos en Irán que marcó para muchos la primera validación a escala real de una guerra mediada por inteligencia artificial.
La precisión quirúrgica del ataque, el cual resultó en la eliminación del líder supremo Ayatollah Ali Khamenei en la primera oleada, no fue producto del azar. Fue el resultado del uso de una serie de tecnologías de punta que están transformado radicalmente las estrategia de combate, desplazando a los analistas humanos del centro de la operación para posicionarlos como supervisores de decisiones que ocurren a velocidades que antes eran impensables.
¿Cómo utilizó Estados Unidos la IA para ejecutar sus ataques a Irán?
Para poner en perspectiva el impacto de la IA en el conflicto armado entre Estados Unidos e Irán, de acuerdo con expertos militares durante la invasión de Irak en 2003, la famosa estrategia de “shock and awe” implicó días de preparación para coordinar oleadas de ataques. En contraste, en la reciente campaña contra Irán, la inteligencia artificial permitió transformar el proceso de identificación de objetivos, validación y ejecución en un flujo continuo de decisiones.
En términos prácticos, esto significa que el campo de batalla dejó de ser únicamente un espacio físico para convertirse en un ecosistema de datos en tiempo real, donde cada sensor, satélite o dron alimenta un sistema central de análisis que recomienda acciones casi instantáneamente.
Para entender la magnitud de la “Operación Epic Fury” y el papel de la IA en esta ofensiva militar, vale la pena desglosar las distintas tecnologías que permitieron a las fuerzas armadas de los Estados Unidos lanzar más de 900 ataques coordinados por medio de drones y otras tecnologías de guerra en apenas 12 horas, un ritmo operativo que habría sido prácticamente imposible sin el uso de la inteligencia artificial.
-
Maven Smart System:
El pilar de la operación fue el Project Maven, un modelo de inteligencia artificial para el análisis avanzado de datos, potenciado por la plataforma API de Palantir. Este sistema actuó como el integrador universal, procesando datos de más de 150 fuentes distintas, que se utilizaron para coordinar los ataques.
Mientras que Maven identificaba los objetos, modelos de lenguaje como Claude, se encargaron del análisis semántico. Estos modelos procesaron petabytes de documentos interceptados y comunicaciones para generar 1,000 objetivos priorizados en el primer día de combate. De esta forma, la IA no solo les ayudó a detectar dónde estaba el enemigo, sino también a saber cuáles eran los objetivos más relevantes para atacar con el fin de colapsar la estructura de mando iraní.
-
Visión Computacional y Drones Kamikaze de Largo Alcance
El Departamento de Defensa de los Estados Unidos utilizó algoritmos de visión computacional para analizar en tiempo real mediante imágenes de satélites de baja órbita y sensores de drones MQ-9 Reaper, los cuales les ayudaron a monitorear el terreno e identificar búnkeres y bases de misiles ocultas.
Un factor clave fue la integración de los drones kamikaze de largo alcance (LUCAS). Por primera vez, Estados Unidos empleó enjambres de estos dispositivos que, coordinados de forma autónoma lograron saturar las defensas antiaéreas iraníes. Estos drones no solo siguieron una ruta preprogramada; sino que utilizaron IA para reaccionar ante obstáculos y radares enemigos, permitiendo que el ataque fuera dinámico y casi imposible de interceptar.
-
Decisiones militares más rápidas e informadas
La mayor ventaja táctica fue la reducción del tiempo necesario para la toma de decisiones informadas. Tradicionalmente, un ciclo de ataque, que implica identificar objetivos, confirmarlos y desplegar la ofensiva militar, podía tomar días. Sin embargo, en este caso, la IA redujo el proceso a minutos.
De hecho, antes de lanzar el primer misil, Estados Unidos ejecutó miles de simulaciones de escenarios utilizando IA para predecir la trayectoria de respuesta de los misiles balísticos iraníes, optimizando las defensas antiaéreas antes de que el enemigo siquiera reaccionara.
Más allá de la rapidez operativa, la verdadera innovación radicó en cómo estas simulaciones fueron alimentadas por enormes volúmenes de datos históricos y en tiempo real. Al analizar, desde registros de conflictos previos en Medio Oriente hasta patrones de lanzamiento de misiles iraníes, los sistemas de inteligencia artificial lograron anticipar múltiples rutas de escalamiento militar y sugerir medidas para contrarrestarlas en cuestión de segundos.

En otras palabras, lo que antes implicaba días de deliberación entre analistas militares, estrategas y comandantes, ahora podía ejecutarse mediante motores de simulación, responsables de evaluabar miles de variables simultáneamente. Esta capacidad permitió a los planificadores militares reducir drásticamente la incertidumbre táctica y maximizar el impacto de cada ataque.
Riesgos éticos de la inteligencia artificial en la guerra
A pesar de su potencial en el ámbito militar, el uso de inteligencia artificial en operaciones de guerra también ha abierto un debate profundo sobre los riesgos y las implicaciones éticas de delegar decisiones críticas a sistemas algorítmicos.
Uno de los episodios más controvertidos de la ofensiva ocurrió apenas días después del inicio de la Operación Epic Fury, cuando un ataque aéreo impactó una escuela en la provincia de Fars, en el sur de Irán, dejando más de 160 víctimas civiles, entre ellas decenas de estudiantes y personal educativo. Según reportes preliminares citados por medios internacionales, el objetivo original del ataque habría sido una instalación de comunicaciones que los sistemas de inteligencia artificial habían identificado como un posible centro logístico vinculado con la Guardia Revolucionaria iraní.
El incidente expuso uno de los principales riesgos de los sistemas de combate asistidos por inteligencia artificial. A diferencia de analistas humanos, que pudieron haber contextualizado la información con base en múltiples factores culturales, sociales o geográficos, los algoritmos operaron a partir de patrones estadísticos que, si bien pueden ser extremadamente precisos, en este caso cometieron un error que le costó la vida a decenas de personas.
Expertos en ética tecnológica y derecho internacional temen que este tipo de incidentes podría volverse más frecuente conforme los sistemas de inteligencia artificial asuman un papel más central en los procesos de selección de objetivos. El problema no necesariamente radica en que la IA “tome decisiones” por sí sola, sino en que su capacidad para procesar información a gran velocidad pueda generar una presión operativa que reduzca el tiempo disponible para que los comandantes humanos verifiquen o cuestionen las recomendaciones generadas por los algoritmos.
En ese sentido, el ataque a la escuela en el sur de Irán no solo representa una tragedia humanitaria, sino también un recordatorio de que, aunque la inteligencia artificial puede aumentar la eficiencia y precisión de las operaciones militares, también introduce nuevas capas de complejidad y riesgo que aún no han sido completamente comprendidas ni reguladas por el derecho internacional.
El futuro de la IA en la guerra
Lo ocurrido el 28 de febrero de 2026 podría marcar un punto de inflexión en la historia de la guerra moderna. No necesariamente porque la inteligencia artificial haya reemplazado a los humanos en la toma de decisiones, sino porque ha transformado radicalmente la velocidad, la escala y la complejidad con la que se libra un conflicto.
Por primera vez, los sistemas de inteligencia artificial no solo analizaron información o apoyaron misiones aisladas, sino que participaron activamente en la planificación y ejecución de una ofensiva militar de gran escala y aunque los comandantes humanos siguen siendo quienes aprietan el gatillo, cada vez queda más claro que las guerras del futuro se decidirán tanto en centros de datos como en el campo de batalla.
En ese sentido, la Operación Epic Fury no solo representa un capítulo más en las tensiones geopolíticas entre Estados Unidos e Irán, sino que es posiblemente, el primer vistazo real a cómo se verán las guerras del siglo XXI, a medida que evolucionan hacia conflictos bélicos donde los algoritmos analizan, predicen y recomiendan acciones a una velocidad que supera por mucho las capacidades humanas.







