Israel utilizó inteligencia artificial para identificar objetivos de ataques en Gaza – medios de comunicación

Опубликовал
Вадим Карпусь

El ejército israelí utilizó inteligencia artificial para ayudar a seleccionar objetivos de bombardeo en Gaza. Esto podría provocar un deterioro de la precisión de los ataques y la muerte de muchos civiles. Así lo afirman las publicaciones de +972 Magazine y Local Call.

El sistema, denominado Lavender, se desarrolló tras los atentados de Hamás del 7 de octubre. En su punto álgido, Lavender identificó a 37.000 palestinos en Gaza como presuntos «militantes de Hamás» y «autorizó» su asesinato.

Las fuerzas armadas israelíes negaron la existencia de dicha lista de asesinatos. El portavoz dijo que la inteligencia artificial no se utilizaba para identificar a presuntos terroristas, pero no negó la existencia del sistema Lavender, que el portavoz describió como «simplemente una herramienta para los analistas en el proceso de identificación de objetivos. Los analistas «deben llevar a cabo revisiones independientes para garantizar que los objetivos identificados cumplen las definiciones pertinentes en virtud del derecho internacional y las restricciones adicionales establecidas en las directrices de las FDI», dijo el portavoz.

Sin embargo, los oficiales de inteligencia israelíes dijeron a +972 y Local Call que no estaban obligados a realizar verificaciones independientes de los objetivos Lavender antes de bombardearlos, sino que servían efectivamente como un sello de goma para las decisiones de la máquina. En algunos casos, la única función de los agentes en el proceso era determinar si el objetivo era un hombre.

Para crear el sistema Lavender, se introdujo en el conjunto de datos información sobre conocidos operativos de Hamás y la Yihad Islámica Palestina. Además, también se utilizaron datos sobre personas estrechamente vinculadas a Hamás, como miembros del Ministerio de Seguridad Interna de Gaza, para entrenar a Lavender.

Lavender fue entrenado para identificar rasgos «asociados con operativos de Hamás, como estar en un grupo de WhatsApp con un militante conocido, cambiar de teléfono móvil cada pocos meses o cambiar de dirección con frecuencia. A continuación, estos datos se utilizaron para puntuar a otros palestinos de Gaza en una escala del 1 al 100 en función de su similitud con los conocidos operativos de Hamás del conjunto de datos original. Las personas que alcanzaban un determinado umbral eran marcadas como objetivos de los ataques. Este umbral cambiaba constantemente, «porque depende de dónde se ponga el listón para saber quién es un operativo de Hamás»», dijo una fuente militar.

Según las fuentes, el sistema tenía una tasa de precisión del 90%. Algunas de las personas que Lavender identificó como objetivos tenían nombres o apodos idénticos a los de conocidos operativos de Hamás. Otras eran familiares de agentes de Hamás o personas que utilizaban teléfonos que habían pertenecido a agentes de Hamás.

Según fuentes bien informadas, los agentes de inteligencia gozaban de amplia discreción en lo que respecta a las bajas civiles. Al mismo tiempo, se asumían los posibles daños colaterales a civiles: entre 15 y 20 personas cuando el objetivo eran operativos de Hamás de bajo nivel, y «cientos en el caso de altos cargos de Hamás.

Los presuntos combatientes de Hamás también eran atacados en sus casas, según determinaba el sistema ¿Dónde está papá? Según los agentes, el sistema ponía bajo vigilancia constante a los objetivos identificados por Lavender. Se les seguía la pista hasta que llegaban a sus casas, momento en el que eran bombardeados, a menudo con toda su familia. Sin embargo, a veces los agentes bombardeaban las casas sin comprobar si había objetivos en su interior, matando a civiles en el proceso.

Además, según los informes, el sistema Lavender es una ampliación del uso que Israel hace de las tecnologías de vigilancia contra los palestinos tanto en la Franja de Gaza como en Cisjordania.

Fuente: The Verge

Los comentarios de Disqus están cargando....