La IA se fue a la guerra: ¿Quién aprieta el gatillo?

publicado
DURACIÓN LECTURA: 10min.
inteligencia artificial armas autónomas
Un soldado ucraniano transporta un dron interceptor en la periferia de Kiev. (Foto: Kay Nietfeld/dpa)

Cinco misiles atómicos han salido de EE.UU. a golpear territorio soviético. Los ha divisado en Moscú un complejo sistema de vigilancia compuesto por satélites y ordenadores, por lo que no hay margen de error. Por fortuna, el oficial ruso de guardia decide no informar a sus superiores, lo que activaría un ataque masivo contra territorio estadounidense y una réplica igual de contundente.

El “incidente del equinoccio de otoño”, de 1983, provocado por una rara conjunción de factores meteorológicos que confundió al radar, quedó solo en eso: en un susto, porque Stanislav Petrov, el oficial, poseía experiencia, intuición, capacidad de sospechar que, si Washington atacaba alguna vez, lo hacía de modo abrumador –“nadie empieza una guerra con cinco misiles”, dijo años después–. A su razonamiento y a su prudencia le debemos no haber terminado hechos polvo cósmico, porque si un “infalible” sistema computarizado de detección y respuesta autónoma hubiera estado a los mandos aquella noche…

Las armas con IA “deben desplegarse con las salvaguardias adecuadas, que actualmente no existen” (Dario Amodei, CEO de Anthropic)

Antecedentes como este deberían influir, cuatro décadas después, a la hora de configurar los sistemas en los que se “delegan” o se apoyan las acciones de combate en las guerras actuales. La inteligencia artificial (IA) ha entrado con fuerza en el campo de batalla, y un temor fundamental al respecto es que, una vez convencidos los responsables políticos y los jerarcas militares de la “inerrancia” de esos programas –que están integrados en las salas de mando y en armas concretas– terminen dejando la capacidad de decisión en “manos” de estos.

El que sea posible ha provocado ya algún rifirrafe: el Departamento de Guerra de EE.UU., por ejemplo, ha decidido dejar fuera de su listado de empresas fiables a Anthropic, compañía que ha desarrollado el modelo de IA Claude, que ha sido empleado en la generación de miles de objetivos durante la guerra contra Irán. Anthropic se niega a que su tecnología sirva al Pentágono para desarrollar armas cien por ciento autónomas, que prescindan totalmente de la intervención humana y seleccionen por sí mismas los blancos de ataque.

El CEO de Anthropic, Dario Amodei, ha sido claro en su reticencia: “Hoy día, los sistemas de IA de vanguardia simplemente no son lo suficientemente fiables como para alimentar armas totalmente autónomas. (…). Sin la supervisión adecuada, no se puede confiar en que estas ejerzan el juicio crítico que nuestras tropas profesionales y altamente entrenadas demuestran a diario. Esas armas deben desplegarse con las salvaguardias adecuadas, que actualmente no existen”.

De momento, en el gatillo final todavía hay un dedo humano; un decisor de carne y hueso. Un Petrov. Pero el modo en que la IA llega y planta el pie en el teatro de operaciones lo está forzando a retirarse.

Veinte segundos antes de atacar, solo veinte…

La introducción de programas de IA en los conflictos se traduce –teórica y a menudo prácticamente– en proposición de blancos de ataque, mayor efectividad a la hora de ejecutarlo, ahorro de tiempo para elegir los medios con que llevarlo a cabo, menos vidas humanas (propias) en riesgo, etc.

En una reciente conferencia auspiciada por el Departamento de Guerra, a la que tuvo acceso el New York Times, un funcionario ilustró la nueva dinámica con ejemplos de tecnología no completamente autónoma en la guerra de Israel y EEUU. contra el régimen de Irán. En una operación, un satélite envió imágenes de un almacén iraní al sistema de mando y control Maven –creación conjunta del Pentágono y de la empresa Palantir, desarrolladora de IA–. El oficial a cargo seleccionó una fila de camiones aparcados junto a la nave para destruirlos y, en instantes, la IA recomendó qué arma utilizar, hizo los cálculos pertinentes y generó el plan de ataque. La identificación del objetivo y su pulverización ocurrieron en un santiamén.

El escasísimo tiempo dedicado a revisar los objetivos de ataque generados por la IA no implica “control humano real; es un cheque en blanco” (Dr. Montes Toscano)

En otra zona reverberante del planeta, en las llanuras de Ucrania, la IA lleva cada vez más sobre sus “espaldas” la soberanía de esa nación, agredida por un país 30 veces más extenso y con casi 6.000 ojivas nucleares. Un reporte de la periodista ucraniana María Varenikova, con cifras oficiales, señala que, en noviembre de 2025, las fuerzas de Kiev utilizaron pequeños vehículos robotizados –equipados con ametralladoras, bombas y cohetes– en unas 2.900 acciones de combate, y que en marzo pasado ya fueron 9.000 operaciones.

Tanto en el caso del ataque israelí como en uno narrado por la corresponsal ucraniana –la destrucción de un polvorín ruso por medio de robots terrestres con explosivos– fueron personas las que, a muchos kilómetros, pulsaron el botón. Sin embargo, de acceder los fabricantes a los deseos de Washington, bien podrían no haber sido ellas. De hecho, se puede decir que “casi” no lo han sido.

Borja Montes Toscano, profesor del CEU Fernando III y exinvestigador jurídico en la OTAN (Foto: cortesía del entrevistado)

Según explica a Aceprensa el Dr. Borja Montes Toscano, profesor de Derecho Internacional en el CEU Fernando III (Sevilla) y exinvestigador jurídico en la OTAN, “técnicamente, aún no se ha demostrado públicamente y de forma verificable que existan sistemas letales totalmente autónomos en ningún conflicto. Lo que sí existe, y es igualmente preocupante, son sistemas en los que el control humano se ha vuelto tan rápido y tan superficial que, en la práctica, resulta casi ficticio”. El experto cita como ejemplo el sistema israelí de IA Lavender, utilizado en la guerra de Gaza en la generación de objetivos de ataque, y al que le precedía una tasa de acierto declarada del 90%. “Se documentó que algunos operadores dedicaban apenas 20 segundos a revisar cada objetivo antes de aprobarlo. Pero eso no es control humano real; es un cheque en blanco”, dice.

Que la inmensa mayoría de los muertos en la Franja fueran civiles deja ver que al sistema le faltaba alguna tuerca o arandela por apretar (o que no hubiera orden alguna de evitar esos objetivos…).

Las empresas de IA ya se hacen un nombre

El creciente interés por llevar tecnología de IA al campo de batalla ha sido alentado, en buena medida, por la experiencia de los ucranianos, que ya en los primeros tiempos de la guerra se vieron abrumados por ataques rusos con enjambres de drones iraníes. No era rentable utilizar un misil Patriot, de unos tres millones de dólares, contra drones de unos pocos miles, por lo que desarrollaron su producción de este tipo de armas, con las que han erosionado seriamente la asimetría de la que podía presumir Moscú.

La evolución del teatro de operaciones en el país europeo a partir del uso masivo de estos pequeños medios robóticos ha conmocionado a la industria armamentística. Empresas como Palantir, Anduril, SpaceX, etc., especializadas en análisis de datos, en comunicaciones y en tecnología de IA (drones incluidos), se van abriendo paso en un mundo dominado por las grandes “de toda la vida”: RTX, Northrop Grumman, Lokheed Martin y otras cuya firma está estampada en misiles, cazas, radares, baterías misilísticas, buques…

En abril, The Economist publicó un detallado análisis de la tendencia. Según el semanario británico, si en 2015 la inversión de capital de riesgo en start-ups estadounidenses vinculadas a la defensa apenas superó los 5.000 millones de dólares, el pasado año casi alcanzó los 50.000 millones. El semanario apuntaba que, en los encargos del Pentágono, la parte más generosa del pastel se la siguen llevando los colosos mencionados, pero –según asegura una fuente de Defensa– los más “pequeños” pueden esperar que el 1-2% asignado a comprarles a ellos se incremente progresivamente “para generar mayor competencia”.

Por ahora, los nuevos están volcados en aplicar los modelos de IA al desarrollo de armas “parcialmente autónomas”. El jefe de la oficina de negocios de Anduril, le manifestó a The Economist que, en efecto, estaban utilizando la IA “para la identificación de objetivos y el procesamiento de datos en el campo de batalla”, pero siempre con un ser humano detrás. “En última instancia –aseguró–, es una persona quien decide sobre el uso de cualquier tipo de letalidad”.

Precisamente el listón que Washington quiere no ya bajar, sino hacer desaparecer.

Sin responsable humano, difícil hablar de limites

Así como las armas químicas y biológicas se usaron de modo indiscriminado en las guerras hasta que 38 países se pusieron de acuerdo en 1925 para sacar adelante un protocolo que las prohibía expresamente –actualmente son signatarios más de 140 Estados–, las propuestas para regular de algún modo la configuración y el uso de armas con tecnología de IA están en un momento muy inicial y no cuentan con un apoyo decidido por parte de los países que fabrican estos medios.

Subyacen muchas dudas sobre con qué límites “éticos” alimentar al algoritmo letal de un modelo de IA en un escenario de guerra. Sobre si, por ejemplo, el hecho de ser agredido faculta para darle luz verde total a una máquina y confiar en que activará su carga de muerte solo contra el agresor y no contra un civil desarmado que se encuentre cercano a este. O sobre qué factores pueden aminorar la gravedad de que un robot, incapaz de razonar, sin experiencia corporal o sensorial, sin historia…, ultime a un ser humano. O hasta dónde dejar que sea la máquina la que “decida”.

El profesor Montes Toscano señala al respecto que, si bien los atenuantes “no convierten en aceptable lo que es inaceptable”, podría establecerse un grupo de principios para hacer un uso “menos irresponsable” de la IA en las operaciones de combate.

“Ninguna máquina debería elegir jamás poner fin a la vida de un ser humano” (Papa Francisco)

“El primero y más fundamental es que siempre haya una persona real que tome la decisión final. Que se mantenga un control humano significativo, no que haya una aprobación automática. En síntesis: que una persona comprenda lo que autoriza y sea responsable de ello. Esto suena obvio, pero en la práctica está siendo sistemáticamente erosionado por la velocidad y el volumen de las operaciones modernas”.

En su opinión, se precisa además de una verificación previa de cualquier sistema de este tipo –constatar que el modelo funciona de forma fiable en condiciones reales y que no confunde a civiles con combatientes–, además de la institución de unas reglas claras sobre lo que es permisible y lo que no en este campo.

Y está, claro, la rendición de cuentas: que los “errores” –que en las guerras se traducen en la pérdida de vidas inocentes– conlleven la asunción concreta de responsabilidades. “Cuando un sistema autónomo ejecuta a alguien que no debía fallecer –dice–, tiene que haber alguien (el fabricante, el programador, el comandante, el operario) que responda por ello. Si no hay responsable, no hay límite moral que funcione”.

La exigencia, de toda lógica, es quizás la piedra angular en este tema, al que el pasado año dedicaron un espacio dos dicasterios vaticanos (Doctrina de la Fe, y Cultura y Educación) en el documento conjunto Antiqua et nova, “sobre la relación entre la inteligencia artificial y la inteligencia humana”.

Los prelados firmantes subrayan que la causalidad moral en sentido pleno es exclusiva de agentes personales, no de los artificiales. Por ello –apuntan– “es de suma importancia poder identificar y definir quién es responsable de los procesos de IA” y lograr que quienes tomen decisiones sobre la base de la IA se hagan responsables de ellas, así como establecer qué papel desempeña la IA “en cada fase del proceso de toma de decisiones”.

Hacen suyas, en tal sentido, las palabras del Papa Francisco a los miembros del G-7 en una reunión sobre IA, en 2024, sobre la necesidad de un compromiso serio de los fabricantes para hacer que los medios de exterminio con esa tecnología no escapen a un control efectivo por parte de las personas. “Ninguna máquina debería elegir jamás poner fin a la vida de un ser humano”, subrayó el entonces Pontífice en su discurso.

Se ve que, a los que hoy empujan por crear verdaderos Terminators y colocarlos en el frente, el énfasis del Papa no les resulta particularmente convincente.

¡Wow! Si has llegado hasta aquí es porque eres un lector comprometido o porque el tema te ha interesado bastante. Nos alegra mucho, porque en Aceprensa escribimos para gente como tú.

Por eso, si todavía no estás suscrito a nuestra newsletter semanal, te invitamos a hacerlo para que no te pierdas más temas como este, además de recomendaciones de cine, series, libros y otros contenidos de vídeo y podcast.

El periodismo de análisis, que se cocina lentamente al margen de las noticias de última hora, necesita de suscriptores para invertir tiempo y recursos en la elaboración de contenido. ¿Te animas? Tendrás acceso ilimitado a todos los artículos de la web y a todas nuestras publicaciones digitales por 8,00€ al mes.

Muchas gracias

Contenido exclusivo para suscriptores de Aceprensa

Estás intentando acceder a una funcionalidad premium.

Si ya eres suscriptor conéctate a tu cuenta. Si aún no lo eres, disfruta de esta y otras ventajas suscribiéndote a Aceprensa.

Funcionalidad exclusiva para suscriptores de Aceprensa

Estás intentando acceder a una funcionalidad premium.

Si ya eres suscriptor conéctate a tu cuenta para poder comentar. Si aún no lo eres, disfruta de esta y otras ventajas suscribiéndote a Aceprensa.

Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.