• SPR Informa
  • SPR Informa
  • SPR Informa
  • SPR Informa
  • SPR Informa
  • https://www.sprinforma.mx/noticia/cuando-decidir-quien-muere-lo-hace-una-maquina
  • 17 Apr 2024
  • 18:04
  • SPR Informa 6 min

Cuando decidir quién muere lo hace una máquina:

Cuando decidir quién muere lo hace una máquina:

Por Ernesto Ángeles .

Cómo Israel ha usado la IA en su lucha contra Hamás.

Al día de hoy es bastante conocido (y tristemente poco condenado) que, después del inesperado y violento ataque contra población civil y militar israelí que llevó a cabo el grupo Político/Terrorista Hamás el  07 de octubre de 2023, Israel desató una batalla asimétrica, desproporcionada y letal en contra de su enemigo, la cual no sólo fue dirigida contra los miembros de Hamás, sino que se extendió a la población civil y a gente inocente, desatándose lo que algunos denominan un genocidio, eliminacionismo, limpieza étnica y otros sinónimos de lo que implica el asesinato premeditado de gente inocente, muchos de estos bebés, niños, mujeres y ancianos; ya sea por acción directa como los bombardeos a edificios, casas, hospitales y escuelas, o por medios indirectos como la hambruna, la falta de medicamentos o la falta de agua. 

Sin embargo, algo que no se sabía, y que gracias al trabajo de investigación y colaboración de las revistas +972, Local Call y el periodista Yuval Abraham, el 03 de abril del presente año se dio a conocer que Israel, en su operación de limpieza y desplazamiento étnico, había usado diversos programas de inteligencia artificial para llevar a cabo el asesinato de población inocente, añadiendo un nuevo y triste capítulo en la historia en cómo la humanidad metodiza, tecnifica, automatiza y, ahora, autonomiza la decisión y acción sobre quienes viven y quienes mueren, abriendo una ventana a cómo podría lucir el mundo del futuro si no se limita el armamento autónomo o, lo que algunos denominan, los robots asesinos. 

Antes de explicar cómo Israel usa la Inteligencia Artificial (IA) no importando el costo de vidas inocentes, es necesario recordar que Israel no sólo usa programas de IA para designar supuestos terroristas y decidir bombardear, sino que también mantiene un régimen de permanente vigilancia físico-digital, además de un régimen de segregación racial sobre territorio y población palestina, incluida la Franja de Gaza.

Asimismo, Israel tiene una Unidad Cibernética en su ejército, la cual, como su nombre lo dice, mantiene operaciones en el espacio digital, tal como las redes sociales o las telecomunicaciones; todo lo anterior le otorga a Israel una enorme cantidad constante de datos, algunos de estos en tiempo real. Sobra añadir que existe la posibilidad que estas bases de datos se encuentren residiendo en infraestructura de empresas como Google o Amazon, ya que éstas firmaron un convenio en 2021 con el gobierno y los militares de Israel bajo el nombre de “Proyecto Nimbus”, un proyecto de colaboración en soluciones basadas en la nube que alcanzó una inversión de más de 1.2 billones de dólares. 

Gracias a tan inmensa cantidad de datos el ejército de Israel ha desarrollado diversos programas de IA que actúan en sinergia para evaluar la posibilidad que una persona sea miembro o cercana a Hamás o la Yihad Islámica y bombardearlos. Una vez creada la base de datos, el ejército de Israel hace uso de diversos sistemas de IA que están implicados en la eliminación de objetivos, una capa más allá del algoritmo que no sólo permite diluir la responsabilidad de la decisión de eliminar a personas inocentes como un costo válido en la lucha contra el terrorismo, sino que masifica la determinación de objetivos válidos a eliminar, multiplicando así las bajas civiles. 

El nombre general del sistema de IA que ha estado usando Israel, sobre todo a inicios del conflicto, se llama Lavender, éste sirve para determinar la probabilidad que una persona sea miembro de Hamás o la Yihad Islámica; este programa no sólo tiene un margen de error del 10%, sino que también el proceso de determinación de objetivos es dudoso y variable según los datos en tiempo real, el cual identificó en su punto más alto a 37,000 posibles objetivos a eliminar. Asimismo, Lavender ayuda a categorizar el tipo de objetivo a liquidar, los cuales pueden variar entre comandantes y mandos altos frente a mandos bajos y otros objetivos menores. 

Es necesario señalar que, de acuerdo con la investigación citada, los costos de vidas civiles permisibles son calculados en alrededor de 15 a 20 inocentes por objetivo, no importando si se trata de un mando alto o bajo, lo que podría significar entre 550,000 y 740,000 mil muertes indirectas si hay 37,000 objetivos posibles. Para poner un poco más de contexto, en la operación que Estados Unidos llevó a cabo para eliminar a Osama Bin Laden, por varios años el hombre más buscado del mundo, las bajas indirectas toleradas eran de 30.

Como parte de Lavender está el programa de IA con el infame nombre de “¿Dónde está papá?” Este sistema rastrea a los objetivos planteados por Lavender y lleva a cabo bombardeos. Es importante señalar que esta IA eficientiza la eliminación de objetivos bajo la premisa que es más conveniente y preciso asesinarlos cuando éstos se encuentran en su domicilio, especialmente en las noches, no interesando las pérdidas indirectas de vías inocentes como mujeres, niños y ancianos. Además, el tiempo en el que un oficial del ejército israelí acepta si se elimina un objetivo no asciende a más de 20 segundos, por lo que la agencia humana parece meramente accesoria. 

Otro sistema unido a Lavender tiene el nombre de "The Gospel”, este sistema tiene por objetivo el evaluar y marcar la probabilidad que un edificio o estructura sirva de centro de operación terrorista, incluyendo objetivos civiles. 

Por si fuera poco, el reportaje revela que el ejército de Israel usa bombas no inteligentes en la eliminación de objetivos de baja importancia, lo que aumenta considerablemente la probabilidad de que haya bajas humanas. 

Visto todo lo anterior, no sorprende el alto nivel de letalidad del ejército de Israel, el cual ha cobrado la vida de poco menos de 25,000 personas en lo que va del conflicto. Y mientras, el sistema internacional se encuentra paralizado para detener lo que sería la peor crisis humanitaria de lo que val del siglo XXI, todo debido a los intereses que están en juego, especialmente en el caso de Estados Unidos. 

En conclusión: es bastante condenable e indignante el uso desproporcionado y desmedido de la fuerza en contra de población inocente, esto incluye el poder tecnológico. La IA debería ayudar a mejorar la existencia y hacerla más llevadera y significativa, no a automatizar y hacer más eficiente el asesinato y la miseria, ni mucho menos excentar de responsabilidades y obligaciones morales, penales y de derecho internacional a quienes ordenan, cometan, inciten, confabulen o tengan otro tipo de participación en el asesinato de seres humanos inocentes, sobre todo si este asesinato es masivo y metódico