El contrato de 5.000 millones que demuestra que el futuro de la guerra será la aviación sin pilotos
La Fuerza Aérea de Estados Unidos espera recibir la aprobación de una inversión de más de 5.000 millones de euros para comprar drones con IA.
2 septiembre, 2023 02:34La apuesta por integrar la inteligencia artificial en el campo de batalla está suponiendo una gran revolución en una industria que se encuentra siempre en la vanguardia tecnológica. Desde los sistemas antidrones como el que usará el Ejército de Tierra de España, hasta otros planteamientos mucho más complejos que permiten incluso que esa IA pilote cazas de combate.
Estados Unidos a través de su casi inagotable presupuesto para defensa, se encuentra a la espera de la aprobación de un contrato de 5.800 millones de dólares (5.365 millones de euros) para la adquisición de entre 1.000 y 2.000 drones guardaespaldas con inteligencia artificial. Según recoge The New York Times, el candidato es la aeronave no tripulada XQ-58 Valkyrie que lleva desarrollándose varios años con resultados muy positivos para la Fuerza Aérea del país norteamericano.
El precio por unidad del Valkyrie se situaría entre 3 y 25 millones de dólares (2,78 y 23 millones de euros) dependiendo de la configuración elegida. A falta de conocer las cargas de pago de unas y otras, los de menor coste se podrían incluso considerar drones desechables de un solo uso. Mientras que las plataformas más equipadas podrían desempeñar un papel más relevante y sostenido. Al tiempo que siguen costando mucho menos que un caza tradicional, como los 80 millones de un F-35 que incluye la vida de un piloto a los mandos.
A diferencia de los contratos tradicionales donde los cazas se compran en paquete a los fabricantes, el Departamento de Defensa tiene con los drones inteligentes ha cambiado el método y ahora propone dos vías. Una es la adquisición de las aeronaves propiamente dichas —el hardware— y la otra con la inteligencia artificial como protagonista —el software—. Los Valkyrie son desarrollo y fabricación de la compañía Kratos mientras que la compra de los algoritmos que tendrán que decidir a bordo todavía está pendiente.
Drones al frente
La integración de este tipo de aeronaves inteligentes y no tripuladas en el campo de batalla aéreo será, sin duda, un punto de inflexión en las estrategias tradicionales. Uno de los cambios más significativos es el que menciona el mayor general Scott Jobe al mismo medio: "ataques en masa con potencialmente menos personas". La reducción notable del número de pilotos de caza en la primera línea junto al abaratamiento de los drones con capacidad de ataque serán los dos pilares que sustentes las operaciones aéreas de un futuro muy cercano.
"Es una sensación muy extraña", dijo el mayor Ross Elder, un piloto de pruebas de la Fuerza Aérea estadounidense que voló un F-15 junto a un Valkirye. "Tengo algo volando junto a mi ala que está tomando sus propias decisiones. Y no es un cerebro humano".
La ausencia de cerebro humano se buscar paliar con elevadas dosis de algoritmos, aprendizaje automático y sensores. Según explican los pilotos, la versión inicial de la IA es más "determinista", sigue al pie de la letra las líneas de código que se han generado con su entrenamiento basado en la experiencia de la propia Fuerza Aérea. Pero para el mayor Elder no es suficiente, pues el software tendrá que ser capaz de percibir el mundo que lo rodea y aprender a comprender un escenario tan complejo como una operación militar aérea.
La parte más difícil es generar "confianza vital" entre el hombre y la máquina; algo así como el vínculo que une a un piloto con su compañero al saber que sus vidas dependen una de la otra y de cómo reacciona cada uno de ellos. "Tengo que saber que estas aeronaves de combate colaborativas van a hacer lo que espero que hagan", recalca el general de brigada Dale White, el funcionario del Pentágono que ha estado a cargo de este nuevo programa de adquisiciones. "Porque si no lo hacen, podría terminar mal para mí".
En las primeras pruebas, según explican, los drones autónomos demostraron que actuarán de maneras inusuales y poco racionales desde la perspectiva humana. Por ejemplo, un dron Valkyrie realizó una maniobra continua de dar vueltas sobre su propio eje longitudinal porque el software determinó que los sensores infrarrojos podían obtener una imagen más clara si hacia ese tipo giros continuos. La maniobra habría sido muy desagradable para un piloto humano, pero más tarde los ingenieros se dieron cuenta de que el dron había logrado un mejor resultado para la misión.
Toda esta tecnología gira alrededor del concepto compañero leal —loyal wingman, en inglés— gracias al cual el caza tripulado tendrá bajo su mando uno o varios drones con elevadas capacidades autónomas. Misiones de penetración tras las líneas enemigas para obtener información o ejecutar ataques, operaciones de escolta, funciones de guardaespaldas... Las aplicaciones tienden al infinito, debido a que su pérdida —e incluso el sacrificio premeditado en operaciones kamikaze— no supondría un gran perjuicio como sí lo sería la vida humana del piloto o un caza de varias decenas de millones.
Valkyrie tiene una autonomía de más de 5.000 kilómetros y un techo de vuelo de casi 14.000 metros. También sus medidas: 9 metros de largo, 8 de envergadura y 2,5 de altura con el tren de aterrizaje replegado.
En el apartado del armamento, hace ahora dos años que Estados Unidos probó al Valkyrie como una plataforma de lanzamiento de drones más pequeños. En aquel momento, se emplearon unidades del modelo Altius 600, que puede realizar todo tipo de misiones, incluidas las de ataque cuando incorpora una carga explosiva a bordo. En la bodega central también puede incluir un par de bombas.
Laberinto moral
Sin duda el tema más espinoso detrás del empleo de este tipo de aeronaves no tripuladas va de la mano de la responsabilidad humana. Responder a la pregunta de quién está detrás de cada decisión de la nave —incluso cuando se ordena disparar— es esencial.
"Se está traspasando una línea moral al subcontratar el asesinato a máquinas, al permitir que sensores informáticos en lugar de humanos tomen vidas humanas", dijo Mary Wareham, directora de defensa de la división de armas del Observatorio de los Derechos Humanos. En este sentido, el Pentágono revisó recientemente su política para el uso de la inteligencia artificial en sistemas de armas que permite el "uso autónomo de la fuerza letal". Eso sí, siempre y cuando se haya llevado a cabo la revisión y aprobación previa por parte de un panel militar especial.
Según declaró un portavoz del propio Pentágono a The New York Times, cualquier dron autónomo de la Fuerza Aérea de Estados Unidos tendría que estar "diseñado para permitir a los comandantes y operadores ejercer niveles apropiados de juicio humano sobre el uso de la fuerza".
"Es una responsabilidad enorme", dijo el coronel Rucker Hamilton, jefe de pruebas de IA y operaciones. "La narrativa distópica y la cultura pop han creado una especie de frenesí" en torno a la inteligencia artificial. "Sólo tenemos que llegar allí de manera metódica, deliberar y ética, en pequeños pasos".