La IA guía las bombas

Imagine una herramienta basada en inteligencia artificial tan avanzada que, solo a partir de los datos que maneja, es capaz de seleccionar con precisión los objetivos que deben ser atacados durante una guerra y el orden de prioridad. Esa tecnología existe, y está siendo empleada activamente en la guerra de Irán desde su inicio el sábado de la semana pasada. De acuerdo con varios expertos consultados por ABC, parece la principal responsable de que Estados Unidos e Israel consiguieran atacar cerca de 900 objetivos iraníes solo en las primeras 12 horas de la contienda. Algo inaudito que solo se explica mediante el empleo de la IA generativa. «Nunca se habían visto tantos ataques en un periodo tan corto de tiempo», destaca el analista de defensa Carlos Delgado. El experto apunta que el papel que juega la IA en la guerra actual es cada vez más importante, pero que, al menos por el momento, no tiene nada que ver con lo que se pudo ver en películas futuristas y distópicas como ' Terminator '. Las máquinas no atacan solas, al menos de momento. Pero sí ayudan a golpear donde más le duele al enemigo. «Lo que estamos viendo ahora mismo en Irán es cómo la inteligencia artificial acelera al máximo la toma de decisiones, agiliza los procesos y facilita la selección de objetivos. Te dice lo que debes atacar y el orden en el que hacerlo. Ahora bien, puede cometer errores. No hay ningún sistema que sea infalible», añade Delgado. El país mejor preparado para ello parece ser, precisamente, Estados Unidos. El Pentágono cuenta con drones capaces de detectar objetivos y analizar imágenes mediante inteligencia artificial, y se sabe que lleva años experimentando con armamento autónomo . Pero en lo que respecta al conflicto iraní, el sistema más destacado por el momento sigue siendo Project Maven . Desarrollado inicialmente con la colaboración de varias empresas tecnológicas -entre ellas Palantir Technologies -, se trata de una herramienta capaz de analizar grandes volúmenes de datos de inteligencia, como fotografías tomadas por drones y satélites, identificar posibles objetivos y priorizar amenazas en el campo de batalla. Desde 2024, el sistema está reforzado por el modelo avanzado de inteligencia artificial Claude, desarrollado por la empresa Anthropic . Este tipo de IA permite ir más allá del simple análisis de imágenes: puede leer informes de inteligencia, cruzar información procedente de distintas agencias gubernamentales y ofrecer una interpretación rápida de la situación. No toma decisiones, pero sí que es de gran ayuda a la hora de trabajar con los datos y organizar los ataques. El uso de esta tecnología -que, según ' The Wall Street Journal ', ya habría jugado un papel importante en la captura del expresidente venezolano Nicolás Maduro - ha sido crucial en los primeros días del conflicto iraní. «Dado que la IA Claude de Anthropic es la única de su clase aprobada para funcionar en redes que contienen información militar clasificada, lo más probable es que sea la que ahora mismo se está utilizando para seleccionar objetivos», explica a este diario Peter Asaro, experto en IA militar, profesor universitario y vicepresidente de Stop Killer Robots , organización que trata de frenar el desarrollo de armamento completamente autónomo. La relación entre Anthropic y el Gobierno estadounidense no pasa por su mejor momento. La semana pasada, el Pentágono catalogó a la tecnológica como «un riesgo en la cadena de suministro para la seguridad nacional» y ordenó al ejército dejar de utilizar su IA. La razón: la insistencia de la firma y de su CEO, Dario Amodei , en mantener dos líneas rojas: que su IA no se utilice para vigilancia masiva de ciudadanos estadounidenses ni para el desarrollo de armas completamente autónomas. A pesar de la ruptura, el ejército estadounidense ha seguido utilizando la tecnología de Claude. Principalmente, porque no tiene preparada la alternativa y, a estas alturas, su IA se ha convertido en una herramienta imprescindible y de uso diario para varias agencias gubernamentales, de acuerdo con fuentes consultadas por 'The Washington Post'. Además, eliminarla de los sistemas en los que ya está operando no parece tarea fácil. Quizá por eso el Gobierno se ha dado un plazo de seis meses para ello. Mientras se cumple ese tiempo, el Pentágono y Anthropic han vuelto a sentarse para ver si es posible arreglar sus diferencias, según reconoció el propio Amodei este jueves. Sea como sea, el Departamento de la Guerra estadounidense cerró la semana pasada un acuerdo con OpenAI , creadora de ChatGPT, para añadir su tecnología a los sistemas de defensa estadounidenses. En caso de que las negociaciones con Anthropic no lleguen a buen puerto, la tecnología de esta firma será la que sustituya a Claude. Aunque la guerra de Irán ha sido el conflicto en el que el uso de IA generativa ha resultado más evidente, esta tecnología ya se había puesto a prueba anteriormente con fines militares. «El banco de pruebas fue Gaza», explica a este periódico Ulises Cortés, catedrático de Inteligencia Artificial en la Universidad Politécnica de Barcelona. «Los informes sobre la guerra israelí en Gaza dejan claro que han estado utilizando sistemas de IA en combate, principalmente para analizar inteligencia y elaborar listas de objetivos, así como para rastrear y seleccionar objetivos individuales», añade Asaro. Sobre los sistemas que actualmente podría estar empleando en Irán el Ejército de Israel, destaca especialmente Lavender , tecnología que ya jugó un papel importante durante la guerra en Gaza. Se trata de un sistema diseñado para identificar personas concretas que podrían pertenecer a grupos armados y generar listas de posibles blancos. Israel también tiene una herramienta llamada Gospel que, como Maven, analiza grandes cantidades de datos de vigilancia y genera recomendaciones de objetivos para bombardeos. «Parece muy probable que las Fuerzas de Defensa de Israel (FDI) estén utilizando sistemas similares para elaborar listas de objetivos humanos en Irán, aunque con diferentes tipos y fuentes de datos de inteligencia que los utilizados contra Hamás», destaca Asaro a este respecto. Por el momento no está claro si Irán está recurriendo a la IA para seleccionar los objetivos de sus ataques. Sus acciones durante el conflicto se han basado principalmente en el uso de misiles balísticos y drones dirigidos contra Israel y contra bases estadounidenses en la región. Aun así, el volumen de estas acciones sigue siendo muy inferior al que han alcanzado sus adversarios en la contienda. El país afirma que, desde 2025, utiliza inteligencia artificial para la detección de misiles; aunque esto no ha impedido que se hayan registrado más de 2.000 ataques contra su territorio solo en los cuatro primeros días de enfrentamientos.