Las FDI supuestamente están utilizando una base de datos potenciada por IA para identificar objetivos a eliminar, según un nuevo informe del periodista Yuval Abraham.
Es difícil concebir un sobrenombre más etéreo que este. Un nuevo informe publicado por la revista +972 y Llamada Local indica que Israel ha utilizado supuestamente una base de datos potenciada por IA para seleccionar sospechosos de Hamás y otros objetivos militantes en la asediada Franja de Gaza.
Según el informe, la herramienta, entrenada por científicos de datos militares israelíes, filtra a través de un enorme tesoro de datos de vigilancia y otra información para generar objetivos que serán ultimados. Puede haber jugado un papel importante especialmente en las primeras etapas de la guerra actual, mientras Israel conducía olas implacables de ataques aéreos sobre el territorio, aplanando hogares y barrios enteros.
En el conteo actual, según el Ministerio de Salud de Gaza, más de 33.000 palestinos, la mayoría mujeres y niños, han fallecido en el territorio.
El nombre de esta herramienta de IA es Lavender, en castellano, lavanda.
Esta semana, el periodista y cineasta israelí Yuval Abraham publicó una extensa historia sobre la existencia del programa Lavender y su implementación en la campaña israelí en Gaza que ha derivado al mortal ataque terrorista de Hamás del 7 de octubre en el sur de Israel.
El reportaje de Abraham, que apareció en la revista +972, un sitio web israelí de habla inglesa de inclinación izquierdista, y Llamada Local, su publicación hermana en hebreo, se basó en el testimonio de seis oficiales de inteligencia israelíes anónimos, todos los cuales sirvieron durante la guerra y estuvieron "directamente involucrados" con el uso de IA para seleccionar objetivos para eliminar.
Según Abraham, Lavender identificó hasta 37.000 palestinos -y sus hogares- para que fueran eliminados. (Las FDI negaron al reportero que tal "lista de objetivos" exista, y caracterizaron el programa simplemente como una base de datos destinada a cruzar referencias de fuentes de inteligencia).
El portavoz de seguridad nacional de la Casa Blanca, John Kirby, le dijo a CNN ayer jueves que Estados Unidos estaba investigando los informes de medios sobre la aparente herramienta de IA.
"Durante las primeras etapas de la guerra, el ejército dio aprobación general para que los oficiales adoptaran las listas de objetivos de Lavender, sin requerir verificar a fondo por qué la máquina tomó esas decisiones o examinar los datos de inteligencia brutos en los que se basaban", escribió Abraham.
"Una fuente declaró que el personal humano a menudo servía solo como una aprobación implícita para las decisiones de la máquina, añadiendo que, normalmente, dedicarían personalmente solo unos '20 segundos' a cada objetivo antes de autorizar un bombardeo - solo para asegurarse de que el objetivo marcado por Lavender fuera masculino", añadió. "Esto fue a pesar de saber que el sistema comete lo que se consideran 'errores' en aproximadamente el 10 por ciento de los casos, y es conocido por marcar ocasionalmente a individuos que tienen simplemente una conexión leve con grupos militantes, o ninguna conexión en absoluto".
Esto puede ayudar a explicar la escala de destrucción desatada por Israel a través de Gaza mientras busca castigar a Hamás, así como la alta cifra de bajas. Rondas anteriores del conflicto Israel-Hamás se caracterizaron por procesos más cuidadosos por las Fuerzas de Defensa de Israel, dirigidos por humanos para seleccionar objetivos basados en inteligencia y otros datos, dijo el informe.
En un momento de profunda ira y trauma israelí tras el ataque de Hamás del 7 de octubre, Lavender podría haber ayudado a los comandantes israelíes a idear un programa rápido y generalizado de retribución.
"Constantemente nos presionaban: 'Tráiganos más objetivos'. Realmente nos gritaban", dijo un oficial de inteligencia, en testimonio publicado por el periódico británico The Guardian, que obtuvo acceso a las cuentas primero reveladas por +972.
Muchas de las municiones que Israel lanzó sobre objetivos supuestamente seleccionados por Lavender eran bombas "tontas" - armas pesadas no guiadas que infligieron daños significativos y pérdida de vidas civiles.
Según el reportaje de Abraham, a los funcionarios israelíes no les interesaba "desperdiciar" municiones de precisión más costosas en los muchos operativos de Hamas de nivel junior identificados por el programa. Y también mostraron poco escrúpulo sobre lanzar esas bombas en los edificios donde dormían las familias de los objetivos, escribió.
"No nos interesaba matar [a los operativos de Hamás] solo cuando estaban en un edificio militar o involucrados en una actividad militar", dijo A, un oficial de inteligencia, a +972 y Llamada Local. "Por el contrario, las FDI los bombardearon en hogares sin dudarlo, como una primera opción. Es mucho más fácil bombardear el hogar de una familia. El sistema está construido para buscarlos en estas situaciones".
Preocupaciones generalizadas sobre las estrategias y métodos de selección de objetivos de Israel han sido expresadas a lo largo de la guerra. "Es complejo, aun en las mejores circunstancias, diferenciar entre objetivos militares válidos y civiles" allí, Brian Castner, asesor senior de crisis e investigador de armas en Amnistía Internacional, le dijo a The Washington Post en diciembre. "Y así, bajo las reglas básicas de discreción, el ejército israelí debería estar usando las armas más precisas y de menor calibre que tenga disponibles según sean apropiadas para cada objetivo."
En reacción a las revelaciones de Lavender, las FDI dijeron en un comunicado que parte del reportaje de Abraham era "infundado" y disputaron la caracterización del programa de IA. "No es un sistema, sino simplemente una base de datos cuyo propósito es cruzar referencias de fuentes de inteligencia, con el fin de producir capas actualizadas de información sobre los operativos militares de organizaciones terroristas", escribieron las FDI en una respuesta publicada en The Guardian.
"Las FDI no utilizan un sistema de inteligencia artificial que identifica a operativos terroristas o trata de predecir si una persona es terrorista", añadió. "Los sistemas de información son meramente herramientas para analistas en el proceso de identificación de objetivos".
El incidente de esta semana involucrando un ataque con dron israelí sobre un convoy de vehículos pertenecientes a World Central Kitchen, un prominente grupo de ayuda alimentaria, en el cual murieron siete trabajadores, profundizó la atención hacia la conducta de Israel en la guerra.
En una llamada telefónica con el primer ministro israelí Benjamín Netanyahu ayer jueves, el presidente Biden dijo que Washington reevaluaría su política hacia la guerra en Gaza si Israel no toma pasos demostrables para mejor preservar vidas civiles y habilitar el flujo de ayuda.
Por separado, cientos de prominentes abogados y jueces británicos presentaron una carta a su gobierno, instando a una suspensión de ventas de armas a Israel para evitar "complicidad en graves violaciones del derecho internacional".
El uso de tecnología de IA es solo una pequeña parte de lo que ha preocupado a los activistas de derechos humanos sobre la conducta de Israel en Gaza. Pero apunta a un futuro más oscuro. Lavender, observó Adil Haque, un experto en derecho internacional en la Universidad de Rutgers, es "la pesadilla de todo abogado humanitario internacional hecha realidad".
Ishaan Tharoor - The Washington Post.
Puedes leer el artículo original aquí.