Por Alberto García Marrder, desde Madrid. Exclusivo para Proceso Digital, La Tribuna, El País y Contexto en Honduras
Un secreto militar jamás antes revelado en la guerra Israel-Gaza ha salido a relucir y lo más raro de todo son las fuentes: los propios servicios de inteligencia israelíes, que son excelentes.
Resulta que desde el 7 de octubre (día del ataque del grupo terrorista Hamas a un Kibutz israelí), las fuerzas armadas de Israel ha estado bombardeando edificios de apartamentos en Gaza en busca de militantes de Hamas, de forma automatizada, basado en un programa de Inteligencia Artificial, SIN IMPORTAR LAS VÍCTIMAS CIVILES.
El programa se llama “Lavender” (“Lavanda” y ha identificado a unos 37,000 objetivos en Gaza y los ataques son generalmente de noche, cuando los milicianos están con su familia. Y se acepta que si es un miliciano de poco valor, podrían ocurrir de 15 a 20 muertes de civiles. Pero si es uno un “senior”, de alta importancia, se aceptarían hasta unos 100 civiles muertos también.
Este es un informe aterrador que sobrecoge y que entre más investigo, más impresiona y espero que el lector de este artículo lo sienta igual.
He acudido a apreciados colegas israelíes que me han enviado a la fuente que lo reveló por primera vez : el periodista israelí Yunal Abraham (basado en Jerusalén y con buenos contactos), en un largo artículo en la revista de noticias “972”, que ha impresionado hasta en la Casa Blanca, en Washington y el “Foreign Office” en Londres.

Según Abraham, las fuerzas israelíes dependen ahora de este programa “Lavender” para detectar a los militantes de Hamas en Gaza y que las inevitables víctimas civiles se consideran como “daños colaterales, frecuentes en un conflicto armado”.
Hamas todavía tiene unos 150 rehenes, escondidos en los túneles de Gaza, desde el ataque del 7 de octubre a un kibutz israelí, muy cerca de la frontera con el Estrecho de Gaza. En ese ataque murieron unas 1,200 personas y provocó, en represalia, la invasión israelí de Gaza, con los consiguientes bombardeos a poblaciones civiles, en busca-aparentemente- de milicianos de Hamas.
En pocas palabras, el programa informático “Lavender” decide donde atacar, con un 10 por ciento de error y suscita problemas legales y morales.
Este se basa en una Inteligencia Artificial basada, prácticamente, en una digitalización de los mas de dos millones habitantes de Gaza, por sus teléfonos celulares, sus fotos y, ante todo, de los infiltrados espías de los excelentes servicios israelíes de inteligencia, que llevan años recolectando datos de cada uno de los habitantes de Gaza y Cisjordania.
Pero lo que no es comprensible es que para matar a un alto dirigente de Hamas, como sucedió en noviembre pasado, hay que matar antes a unos 300 palestinos, incluyendo a mujeres y niños inocentes, familiares o vecinos en el mismo edificio de apartamentos.
Luis Arroyo Zapatero, rector honorario de la Universidad de Castilla-La Mancha y especialista en Derecho Penal Internacional, dijo al diario “El País” de Madrid que “las muertes impulsadas por esta herramienta deben ser considerados “crímenes de guerra”, y el conjunto de estas acciones y las destrucciones masivas de edificios y personas “son crímenes contra la humanidad”.

En derecho internacional, explica el profesor, no se admiten los asesinatos como acción militar, aunque se discute sobre los llamados asesinatos selectivos. “Las muertes producidas como daños colaterales son puros asesinatos. El sistema Lavender es directamente una máquina de asesinar civiles, pues admite muertes colaterales de civiles de entre 10 y 100 personas más allá de objetivo preciso”, asegura Arroyo Zapatero al diario madrileño.
La publicación en Israel de este demoledor informe, en un estado que censura todo lo relacionado con sus operaciones militares, llega a pensar que se autorizó como una herramienta de propaganda comercial y para da a conocer la efectividad del “Lavender”, pensando en su futura exportación.
Israel, como recuerda “El País”, es una exportadora de su alta tecnología, además de vender tanques, misiles y drones.
El periodista israelí Yuval Abaham dice en su demoledor informe que en los últimos cinco años, las fuerzas armadas israelíes han venido investigando y creando, una herramienta que pudiera procesar rápidamente, miles de datos, y para ofrecer, al instante, objetivos militares de ataques en una guerra.
Y con el surgimiento de la Inteligencia Artificial (IA) ya lo tienen. Es el “Lavender”.