Inicio Inteligencia Gaza: los fallos de la inteligencia artificial en la guerra

Gaza: los fallos de la inteligencia artificial en la guerra

0

Gaza va camino a convertirse en uno de los conflictos más mortíferos de 2024 en cuanto a bajas civiles. Pese a que las cifras publicadas desde el Ministerio de Salud de Hamás suelen ser manipuladas e inexactas, el conteo llevado a cabo por la Organización de las Naciones Unidas debería ser suficiente para levantar cuestionamientos sobre la normativa de combate de Israel respecto a entornos urbanos, así como la responsabilidad de Hamás en el uso de civiles desarmados como escudos humanos. El presente análisis explora los desafíos presentados por el combate asimétrico en entornos urbanos y su efecto devastador sobre civiles inocentes. 

30.000 personas han muerto desde el inicio del conflicto a principios de octubre, la mitad de ellos mujeres y menores. Según los expertos, los bombardeos aéreos con munición imprecisa sobre áreas residenciales altamente pobladas podrían ser los principales responsables de las víctimas civiles.

Gaza: contrainsurgencia en la ciudad y escudos humanos

Gaza es comparable a Mosul en términos de densidad poblacional y desafíos estratégicos. Ambas ciudades han visto a soldados profesionales combatir en sus calles contra combatientes irregulares que se refugian en túneles subterráneos y empleaban drones suicidas. Se podría equiparar la presencia de rehenes civiles y escudos humanos, pero el panorama tras suponer el futuro de la primera, según el pasado de la última, no es nada alentador. El Estado Islámico fue expulsado de Mosul por el Ejército de Iraq después de que la ciudad fuera destruida.

Marawi, al otro extremo del mapa, también sufrió destrozos masivos después de que el Ejército de Filipinas emprendiera una campaña contra Abu Sayaf. El Banco Mundial estima que se necesitan al menos veinte años de trabajo e inversión extranjera para que la ciudad vuelva a su estado original. John Spencer y David Petraeus sostienen que la destrucción de las ciudades en escenarios asimétricos son inherentes al conflicto bélico. En este sentido, las estructuras civiles se utilizan ilegalmente como fortificaciones militares.

➡️ Te puede interesar: ¿Qué es Lavender? El sistema de inteligencia artificial que Israel utiliza en Gaza

Hamás tiene establecida una estructura militar en Gaza que instrumentaliza a los civiles como protección y camuflaje de sus activos operacionales. Esto va desde la construcción de cuarteles dentro de hospitales hasta el empleo de escuelas primarias para ubicar baterías de cohetes. La lógica estratégica de los escudos humanos tiene dos componentes que se basan en las leyes de guerra a las que se debe someter el bando contrario, así como la guerra psicológica que se desarrolla en el campo de la opinión pública. 

El Estatuto de Roma de la Corte Penal Internacional establece que usar escudos humanos es un crimen de guerra, que si bien no elimina la legitimidad de un ataque a un objetivo militar, obliga al bando agresor a tomar las medidas necesarias para que las víctimas civiles no sean mayores que la ventaja militar. Hamás aprovecha el último estatuto para librar una batalla de índole legal contra Israel, donde las muertes de civiles terminan en expedientes legales. Este fenómeno ha sido denominado como «lawfare» por académicos y expertos. 

Aproximadamente un cuarto de los soldados asesinados en el conflicto cayeron por fuego amigo de sus propios camaradas. Esta cifra hace suponer que más que una política deliberada, las muertes de civiles se deben en gran parte a la incapacidad o incompetencia de las Fuerzas de Defensa para establecer identificaciones positivas de sus objetivos antes de emplear medios letales en la Franja de Gaza. 

Los fallos de la campaña aérea y la inteligencia artificial en la guerra de Gaza

Las Fuerzas de Defensa de Israel han lanzado al menos treinta mil explosivos en la Franja de Gaza desde el inicio de la guerra en octubre de 2023. Un tercio de ellos están catalogados como municiones no guiadas por la Comunidad de Inteligencia estadounidense. Marc Garlasco explica que este tipo de arma puede caer hasta más de treinta metros de distancia de su objetivo. Consecuentemente, en una ciudad de cinco mil residentes por kilómetro cuadrado, puede diferenciar entre un cuartel de terroristas o un edificio residencial. 

➡️ Te puede interesar: La Inteligencia Artificial y el futuro de la guerra

Adicional a las bombas no guiadas, la población desarmada también se enfrenta al peligro de la inteligencia artificial. Israel ha integrado y desarrollado sistemas avanzados de inteligencia artificial como identificadores de objetivos. Gospel y Lavender son algunas de las tecnologías que usan la Aviación de Israel para seleccionar blancos a través de algoritmos de datos. Ambas tecnologías rara vez cuentan con supervisión humana y no son inmunes a errores de programación.

Estos sistemas se entrenan a partir de un conjunto de datos para elaborar el perfil de un posible terrorista elegible para eliminación. Puede tratarse de datos sobre relaciones en redes sociales e interacciones comunitarias. Lavender asigna a cada individuo una puntuación que estima la probabilidad de su implicación en terrorismo. Quienes presentan una combinación incriminatoria reciben una puntuación más alta y, por tanto, son más propensos a ser señalados como objetivos de eliminación por parte de la inteligencia artificial.

Los rasgos que podrían elevar la puntuación de una persona son conversaciones telefónicas con terroristas o el cambio frecuente de teléfono móvil sin motivo aparente. Pese a qué características podrían indicar los posibles vínculos de un individuo sospechoso con actividades terroristas, no dan certeza absoluta sobre su condición de combatiente. Este tipo de criterio de selección para objetivos de eliminación podría incluir a familiares o vecinos de los extremistas islámicos.  

Conclusiones: ¿cómo avanzará la guerra en Gaza?

Las Brigadas Ezzedin Al-Qasam tienen responsabilidad directa en la muerte de civiles debido a la instrumentalización de la población como escudos humanos de sus activos militares. Parte de la tragedia también es atribuible a la flexibilidad de las reglas de combate y a la deficiente identificación de objetivos de las Fuerzas de Defensa de Israel, que no solo ha causado la muerte de no combatientes, sino también un nutrido número de bajas aliadas por fuego amigo. 

Hamás seguirá usando las cifras rojas de los daños colaterales para aprovechar las leyes de guerra y los tratados internacionales en contra de Israel. Queda en manos de las Fuerzas de Defensa de Israel seguir el ejemplo del Equipo Swat de Nineveh durante la Batalla de Mosul o la División Tabak de Filipinas durante el Asedio de Marawi para reducir el número de civiles muertos en operaciones urbanas.

➡️ Te puede interesar: La carrera por la inteligencia artificial militar

Ambas batallas fueron ganadas por unidades que —si bien no pudieron prevenir la destrucción de las ciudades— redujeron considerablemente las fatalidades de la población que estaba siendo retenida por los militantes terroristas. Entre los procedimientos operativos, está la sustitución de ataques de artillería y bombardeos aéreos por operaciones de infantería ligera con tempo operacional reducido

Gospel y Lavender seguirán siendo una variable influyente en las muertes de civiles debido a su capacidad de designar blancos militares entre ciudadanos inocentes a través de algoritmos de programación que no están exentos de errores. Ambas herramientas tecnológicas deben ser sustituidas por elementos humanos con habilidades para evaluar sobre el terreno los posibles colaterales. 

➡️ Si quieres adentrarte en el mundo de las relaciones internacionales y la seguridad y adquirir habilidades profesionales, te recomendamos los siguientes programas formativos:

SÉ EL PRIMERO EN COMENTAR

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

Salir de la versión móvil