Secuelas de un ataque israelí en Rafah, en el sur de la Franja de Gaza, el 24 de marzo.

Secuelas de un ataque israelí en Rafah, en el sur de la Franja de Gaza, el 24 de marzo. Mohammed Salem Reuters

Oriente Próximo

Israel ataca a Hamás con una inteligencia artificial que no trata de impedir la muerte de civiles

Según una investigación de +972 Magazine y Local Call, el ejército utilizó casi en exclusiva la IA 'Lavender' para decidir objetivos en Gaza. 

5 abril, 2024 02:46

La inteligencia artificial tiene una importancia cada vez más grande en nuestro día a día… y también en la guerra en Gaza. Según seis oficiales de inteligencia israelíes, las fuerzas armadas de su país han desarrollado un programa de inteligencia artificial conocido como ‘Lavender’ que han participado de primera mano en la guerra contra Hamás en el enclave palestino para generar objetivos de asesinato. Una investigación de las revistas +972 Magazine y Local Call ha revelado que la máquina ha tenido una gran influencia en las decisiones militares, como “si fuera una decisión humana”. 

El programa ‘Lavender’ fue diseñado para identificar a todos los presuntos operativos de las alas militares de Hamás y la Yihad Islámica Palestina, incluidos los miembros de bajo rango, como objetivos de bombardeo. Las fuentes señalaron al periodista Yuval Abraham que, durante las primeras semanas de la contienda, el ejército dependió casi por completo del programa de inteligencia artificial, que marcó hasta 37.000 palestinos como presuntos militantes para posibles ataques aéreos. 

En las primeras fases de la guerra, según esta investigación, la precisión que se le presupone a la inteligencia artificial brilló por su ausencia. Tal y como aseguraron los oficiales de inteligencia israelíes, el ejército dio su aprobación general para que los oficiales eliminaran objetivos de la lista, “sin ningún requisito de comprobar a fondo por qué la máquina hacía esas elecciones o de examinar los datos de inteligencia brutos en los que se basaban”. 

[Hacer la guerra por fotos: Israel usa reconocimiento facial para vigilar en masa a la población de Gaza]

Una de las fuentes aseguró que el personal humano a menudo sólo servía como un puente para las decisiones de la máquina, ya que normalmente solo dedicaban unos “20 segundos” a cada objetivo antes de autorizar un bombardeo. La única variante que manejaban era si el objetivo era un hombre o no. El problema de este tipo de decisiones, según Abraham, es que el sistema tiene un margen de error del 10% y es más que conocido que en ocasiones marca a personas que tan solo tienen una ligera conexión con grupos militantes, o ninguna conexión en absoluto. 

Los ataques, indica la investigación, se producían de noche y mientras las personas marcadas por ‘Lavender’ se encontraban en sus hogares y con toda la familia presente. Mediante esta táctica, según las fuentes, era más fácil localizar a las personas, ya que se encontraban en sus domicilios privados. El resultado, como atestiguaron los oficiales, es que miles de palestinos —en su mayoría mujeres y niños o personas que no participaban en los combates— murieron por los ataques israelíes, especialmente en las primeras semanas de la contienda, debido a las decisiones tomadas por el programa de IA. 

“No nos interesaba matar a los operativos [de Hamás] solo cuando estaban en un edificio militar o participaban en una actividad militar. Al contrario, las IDF los bombardeaban en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está construido para buscarlos en estas situaciones”, indicó uno de los oficiales de inteligencia israelíes a +972 y Local Call

Bombas ‘tontas’ y hasta 100 víctimas colaterales

Para realizar los ataques, las fuerzas israelíes utilizaban únicamente misiles no guiados, conocidas comúnmente como bombas ‘tontas’, que pueden destruir edificios enteros y causar importantes bajas. “No quieres malgastar bombas caras en gente sin importancia, es muy caro para el país y hay escasez de bombas”, contó otro de los oficiales a los medios israelíes.

"No es solo que puedas matar a cualquier persona que sea soldado de Hamás, lo que está claramente permitido y es legítimo en términos de derecho internacional. Sino que directamente te dicen: 'Se te permite matarlos junto con muchos civiles'. ... En la práctica, el criterio de proporcionalidad no existía", recogió el diario The Guardian.

[El chef José Andrés: "Israel atacó a los cooperantes de WCK sistemáticamente, coche por coche"]

En cada una de las operaciones, señalaron dos de las fuentes, el ejército decidió establecer al inicio de la contienda que, por cada objetivo de la lista de ‘Lavender’, estaba permitido matar hasta 15 o 20 civiles. En el caso de que el objetivo fuera un alto cargo de Hamás, según la investigación, el ejército llegó a autorizar la muerte de más de 100 civiles en el asesinato de un solo comandante. 

"Normalmente, llevábamos a cabo los ataques con bombas tontas, y eso significaba dejar caer literalmente toda la casa sobre sus ocupantes. Pero incluso si se evita un ataque, no te importa: pasas inmediatamente al siguiente objetivo. Debido al sistema, los objetivos nunca terminan. Tienes otros 36.000 esperando", explicaron los oficiales al periódico británico. 

Según explicaron varios expertos en conflictos consultados por The Guardian, si Israel ha estado utilizando este tipo de bombas con la ayuda de la IA, eso ayudaría a explicar el número tan alto de muertos en la guerra. Según los datos del Ministerio de Sanidad dirigido por el grupo palestino Hamás, más de 33.000 palestinos han muerto en el conflicto en los últimos seis meses.