‘Una vez que se pasa al modo automático, la generación de objetivos se vuelve loca’
En el ejército israelí, el término “objetivo humano” se refería en el pasado a un operativo militar de alto rango que, según las reglas del Departamento de Derecho Internacional del ejército, puede ser asesinado en su casa privada incluso si hay civiles alrededor. Fuentes de inteligencia dijeron a +972 y Local Call que durante las guerras anteriores de Israel, dado que esta era una forma “especialmente brutal” de matar a alguien (a menudo matando a una familia entera junto al objetivo), esos objetivos humanos se marcaban con mucho cuidado y solo se bombardeaba a los comandantes militares de alto rango en sus casas, para mantener el principio de proporcionalidad según el derecho internacional.
Pero después del 7 de octubre, cuando militantes liderados por Hamás lanzaron un asalto mortal contra comunidades del sur de Israel, matando a unas 1.200 personas y secuestrando a 240, el ejército, dijeron las fuentes, adoptó un enfoque radicalmente diferente. En el marco de la “Operación Espadas de Hierro”, el ejército decidió designar a todos los agentes del ala militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar. Y eso lo cambió todo.
La nueva política también planteó un problema técnico para la inteligencia israelí. En guerras anteriores, para autorizar el asesinato de un único objetivo humano, un oficial tenía que pasar por un proceso de “incriminación” complejo y prolongado: comprobar las pruebas de que la persona era efectivamente un miembro de alto rango del ala militar de Hamás, averiguar dónde vivía, sus datos de contacto y, por último, saber cuándo estaba en casa en tiempo real. Cuando la lista de objetivos incluía sólo unas pocas docenas de agentes de alto rango, el personal de inteligencia podía encargarse individualmente del trabajo que implicaba incriminarlos y localizarlos.
Sin embargo, una vez que la lista se amplió para incluir a decenas de miles de agentes de menor rango, el ejército israelí pensó que tenía que recurrir a software automatizado e inteligencia artificial. El resultado, según testifican las fuentes, fue que el papel del personal humano en la incriminación de los palestinos como agentes militares fue dejado de lado, y AI hizo la mayor parte del trabajo en su lugar. Según cuatro de las fuentes que hablaron con +972 y Local Call, Lavender —que fue desarrollado para crear objetivos humanos en la guerra actual— ha marcado a unos 37.000 palestinos como sospechosos de “militantes de Hamás”, la mayoría de ellos jóvenes, para ser asesinados (el portavoz de las FDI negó la existencia de una lista de asesinatos de ese tipo en una declaración a +972 y Local Call).
“No sabíamos quiénes eran los agentes jóvenes, porque Israel no los rastreaba rutinariamente [antes de la guerra]”, explicó el oficial superior B. a +972 y Local Call, iluminando la razón detrás del desarrollo de esta máquina de objetivos en particular para la guerra actual. “Querían permitirnos atacar [a los agentes jóvenes] automáticamente. Ese es el Santo Grial. Una vez que se pasa a lo automático, la generación de objetivos se vuelve loca”.
Las fuentes dijeron que la aprobación para adoptar automáticamente las listas de asesinatos de Lavender, que anteriormente se habían utilizado solo como una herramienta auxiliar, se concedió aproximadamente dos semanas después de que el personal de inteligencia verificara "manualmente" la precisión de una muestra aleatoria de varios cientos de objetivos seleccionados por el sistema de inteligencia artificial. Cuando esa muestra descubrió que los resultados de Lavender habían alcanzado una precisión del 90 por ciento en la identificación de la afiliación de un individuo con Hamas, el ejército autorizó el uso generalizado del sistema. A partir de ese momento, dijeron las fuentes, si Lavender decidía que un individuo era un militante de Hamas, se les pedía esencialmente que lo trataran como una orden, sin ningún requisito de verificar de forma independiente por qué la máquina tomó esa decisión o examinar los datos de inteligencia en bruto en los que se basa.
"A las 5 a.m., [la fuerza aérea] venía y bombardeaba todas las casas que habíamos marcado", dijo B. "Eliminábamos a miles de personas. No las revisábamos una por una, poníamos todo en sistemas automatizados, y tan pronto como uno de [los individuos marcados] estaba en casa, inmediatamente se convertía en un objetivo. “Lo bombardeamos a él y a su casa”.
“Fue muy sorprendente para mí que nos pidieran bombardear una casa para matar a un soldado de infantería, cuya importancia en el combate era tan baja”, dijo una fuente sobre el uso de la IA para marcar a supuestos militantes de bajo rango. “Apodé a esos objetivos ‘objetivos basura’. Aun así, los encontré más éticos que los objetivos que bombardeamos solo por ‘disuasión’: edificios altos que son evacuados y derribados solo para causar destrucción”.
Los resultados letales de esta relajación de las restricciones en la etapa inicial de la guerra fueron asombrosos. Según datos del Ministerio de Salud palestino en Gaza, del que el ejército israelí ha dependido casi exclusivamente desde el comienzo de la guerra, Israel mató a unos 15.000 palestinos –casi la mitad del número de muertos hasta ahora– en las primeras seis semanas de la guerra, hasta que se acordó un alto el fuego de una semana el 24 de noviembre.
“Cuanta más información y variedad, mejor”
El software Lavender analiza la información recogida sobre la mayoría de los 2,3 millones de habitantes de la Franja de Gaza a través de un sistema de vigilancia masiva, y luego evalúa y clasifica la probabilidad de que cada persona en particular sea activa en el ala militar de Hamás o la Yihad Islámica Palestina. Según las fuentes, la máquina otorga a casi todas las personas de Gaza una calificación de 1 a 100, expresando la probabilidad de que sean militantes.
Lavender aprende a identificar las características de los operativos conocidos de Hamás y la Yihad Islámica Palestina, cuya información fue suministrada a la máquina como datos de entrenamiento, y luego a localizar esas mismas características —también llamadas “rasgos”— entre la población general, explicaron las fuentes. Un individuo al que se le encuentren varias características incriminatorias diferentes alcanzará una calificación alta, y por lo tanto se convertirá automáticamente en un objetivo potencial para el asesinato.
En “El equipo humano-máquina”, el libro al que se hace referencia al principio de este artículo, el actual comandante de la Unidad 8200 aboga por un sistema de este tipo sin mencionar a Lavender por su nombre. (El comandante tampoco es nombrado, pero cinco fuentes en 8200 confirmaron que el comandante es el autor, como informó también Haaretz). Al describir al personal humano como un “cuello de botella” que limita la capacidad del ejército durante una operación militar, el comandante lamenta: “Nosotros [los humanos] no podemos procesar tanta información. No importa cuántas personas hayas asignado para producir objetivos durante la guerra: aún no puedes producir suficientes objetivos por día”.
La solución a este problema, dice, es la inteligencia artificial. El libro ofrece una breve guía para construir una “máquina de objetivos”, similar en descripción a Lavender, basada en IA y algoritmos de aprendizaje automático. En esta guía se incluyen varios ejemplos de los “cientos y miles” de características que pueden aumentar la calificación de un individuo, como estar en un grupo de WhatsApp con un militante conocido, cambiar de teléfono celular cada pocos meses y cambiar de dirección con frecuencia.
“Cuanta más información y más variedad, mejor”, escribe el comandante. “Información visual, información celular, conexiones de redes sociales, información del campo de batalla, contactos telefónicos, fotos”. Aunque los humanos seleccionan estas características al principio, continúa el comandante, con el tiempo la máquina llegará a identificar las características por sí sola. Esto, dice, puede permitir a los militares crear "decenas de miles de objetivos", mientras que la decisión real de atacarlos o no seguirá siendo humana.
El libro no es la única vez que un alto comandante israelí insinuó la existencia de máquinas de objetivos humanos como Lavender. +972 y Local Call han obtenido imágenes de una conferencia privada dada por el comandante del centro secreto de inteligencia artificial y ciencia de datos de la Unidad 8200, el "Col. Yoav", en la semana de inteligencia artificial de la Universidad de Tel Aviv en 2023, que fue informada en ese momento en los medios israelíes.
En la conferencia, el comandante habla sobre una nueva y sofisticada máquina de objetivos utilizada por el ejército israelí que detecta "personas peligrosas" en función de su semejanza con listas existentes de militantes conocidos en los que fue entrenada. "Usando el sistema, logramos identificar a los comandantes del escuadrón de misiles de Hamás", "el coronel Yoav" y "el coronel Yoav" fueron los primeros en ser identificados por los humanos. Yoav” dijo en la conferencia, refiriéndose a la operación militar israelí de mayo de 2021 en Gaza, cuando se utilizó la máquina por primera vez.
0k 20
Hemos deshabilitado la autenticación con Facebook. Si entras a Mediatize con una cuenta de Facebook, lee esto.
*
‘Una vez que se pasa al modo automático, la generación de objetivos se vuelve loca’
En el ejército israelí, el término “objetivo humano” se refería en el pasado a un operativo militar de alto rango que, según las reglas del Departamento de Derecho Internacional del ejército, puede ser asesinado en su casa privada incluso si hay civiles alrededor. Fuentes de inteligencia dijeron a +972 y Local Call que durante las guerras anteriores de Israel, dado que esta era una forma “especialmente brutal” de matar a alguien (a menudo matando a una familia entera junto al objetivo), esos objetivos humanos se marcaban con mucho cuidado y solo se bombardeaba a los comandantes militares de alto rango en sus casas, para mantener el principio de proporcionalidad según el derecho internacional.
Pero después del 7 de octubre, cuando militantes liderados por Hamás lanzaron un asalto mortal contra comunidades del sur de Israel, matando a unas 1.200 personas y secuestrando a 240, el ejército, dijeron las fuentes, adoptó un enfoque radicalmente diferente. En el marco de la “Operación Espadas de Hierro”, el ejército decidió designar a todos los agentes del ala militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar. Y eso lo cambió todo.
La nueva política también planteó un problema técnico para la inteligencia israelí. En guerras anteriores, para autorizar el asesinato de un único objetivo humano, un oficial tenía que pasar por un proceso de “incriminación” complejo y prolongado: comprobar las pruebas de que la persona era efectivamente un miembro de alto rango del ala militar de Hamás, averiguar dónde vivía, sus datos de contacto y, por último, saber cuándo estaba en casa en tiempo real. Cuando la lista de objetivos incluía sólo unas pocas docenas de agentes de alto rango, el personal de inteligencia podía encargarse individualmente del trabajo que implicaba incriminarlos y localizarlos.
Sin embargo, una vez que la lista se amplió para incluir a decenas de miles de agentes de menor rango, el ejército israelí pensó que tenía que recurrir a software automatizado e inteligencia artificial. El resultado, según testifican las fuentes, fue que el papel del personal humano en la incriminación de los palestinos como agentes militares fue dejado de lado, y AI hizo la mayor parte del trabajo en su lugar. Según cuatro de las fuentes que hablaron con +972 y Local Call, Lavender —que fue desarrollado para crear objetivos humanos en la guerra actual— ha marcado a unos 37.000 palestinos como sospechosos de “militantes de Hamás”, la mayoría de ellos jóvenes, para ser asesinados (el portavoz de las FDI negó la existencia de una lista de asesinatos de ese tipo en una declaración a +972 y Local Call).
“No sabíamos quiénes eran los agentes jóvenes, porque Israel no los rastreaba rutinariamente [antes de la guerra]”, explicó el oficial superior B. a +972 y Local Call, iluminando la razón detrás del desarrollo de esta máquina de objetivos en particular para la guerra actual. “Querían permitirnos atacar [a los agentes jóvenes] automáticamente. Ese es el Santo Grial. Una vez que se pasa a lo automático, la generación de objetivos se vuelve loca”.
Las fuentes dijeron que la aprobación para adoptar automáticamente las listas de asesinatos de Lavender, que anteriormente se habían utilizado solo como una herramienta auxiliar, se concedió aproximadamente dos semanas después de que el personal de inteligencia verificara "manualmente" la precisión de una muestra aleatoria de varios cientos de objetivos seleccionados por el sistema de inteligencia artificial. Cuando esa muestra descubrió que los resultados de Lavender habían alcanzado una precisión del 90 por ciento en la identificación de la afiliación de un individuo con Hamas, el ejército autorizó el uso generalizado del sistema. A partir de ese momento, dijeron las fuentes, si Lavender decidía que un individuo era un militante de Hamas, se les pedía esencialmente que lo trataran como una orden, sin ningún requisito de verificar de forma independiente por qué la máquina tomó esa decisión o examinar los datos de inteligencia en bruto en los que se basa.
"A las 5 a.m., [la fuerza aérea] venía y bombardeaba todas las casas que habíamos marcado", dijo B. "Eliminábamos a miles de personas. No las revisábamos una por una, poníamos todo en sistemas automatizados, y tan pronto como uno de [los individuos marcados] estaba en casa, inmediatamente se convertía en un objetivo. “Lo bombardeamos a él y a su casa”.
“Fue muy sorprendente para mí que nos pidieran bombardear una casa para matar a un soldado de infantería, cuya importancia en el combate era tan baja”, dijo una fuente sobre el uso de la IA para marcar a supuestos militantes de bajo rango. “Apodé a esos objetivos ‘objetivos basura’. Aun así, los encontré más éticos que los objetivos que bombardeamos solo por ‘disuasión’: edificios altos que son evacuados y derribados solo para causar destrucción”.
Los resultados letales de esta relajación de las restricciones en la etapa inicial de la guerra fueron asombrosos. Según datos del Ministerio de Salud palestino en Gaza, del que el ejército israelí ha dependido casi exclusivamente desde el comienzo de la guerra, Israel mató a unos 15.000 palestinos –casi la mitad del número de muertos hasta ahora– en las primeras seis semanas de la guerra, hasta que se acordó un alto el fuego de una semana el 24 de noviembre.
“Cuanta más información y variedad, mejor”
El software Lavender analiza la información recogida sobre la mayoría de los 2,3 millones de habitantes de la Franja de Gaza a través de un sistema de vigilancia masiva, y luego evalúa y clasifica la probabilidad de que cada persona en particular sea activa en el ala militar de Hamás o la Yihad Islámica Palestina. Según las fuentes, la máquina otorga a casi todas las personas de Gaza una calificación de 1 a 100, expresando la probabilidad de que sean militantes.
Lavender aprende a identificar las características de los operativos conocidos de Hamás y la Yihad Islámica Palestina, cuya información fue suministrada a la máquina como datos de entrenamiento, y luego a localizar esas mismas características —también llamadas “rasgos”— entre la población general, explicaron las fuentes. Un individuo al que se le encuentren varias características incriminatorias diferentes alcanzará una calificación alta, y por lo tanto se convertirá automáticamente en un objetivo potencial para el asesinato.
En “El equipo humano-máquina”, el libro al que se hace referencia al principio de este artículo, el actual comandante de la Unidad 8200 aboga por un sistema de este tipo sin mencionar a Lavender por su nombre. (El comandante tampoco es nombrado, pero cinco fuentes en 8200 confirmaron que el comandante es el autor, como informó también Haaretz). Al describir al personal humano como un “cuello de botella” que limita la capacidad del ejército durante una operación militar, el comandante lamenta: “Nosotros [los humanos] no podemos procesar tanta información. No importa cuántas personas hayas asignado para producir objetivos durante la guerra: aún no puedes producir suficientes objetivos por día”.
La solución a este problema, dice, es la inteligencia artificial. El libro ofrece una breve guía para construir una “máquina de objetivos”, similar en descripción a Lavender, basada en IA y algoritmos de aprendizaje automático. En esta guía se incluyen varios ejemplos de los “cientos y miles” de características que pueden aumentar la calificación de un individuo, como estar en un grupo de WhatsApp con un militante conocido, cambiar de teléfono celular cada pocos meses y cambiar de dirección con frecuencia.
“Cuanta más información y más variedad, mejor”, escribe el comandante. “Información visual, información celular, conexiones de redes sociales, información del campo de batalla, contactos telefónicos, fotos”. Aunque los humanos seleccionan estas características al principio, continúa el comandante, con el tiempo la máquina llegará a identificar las características por sí sola. Esto, dice, puede permitir a los militares crear "decenas de miles de objetivos", mientras que la decisión real de atacarlos o no seguirá siendo humana.
El libro no es la única vez que un alto comandante israelí insinuó la existencia de máquinas de objetivos humanos como Lavender. +972 y Local Call han obtenido imágenes de una conferencia privada dada por el comandante del centro secreto de inteligencia artificial y ciencia de datos de la Unidad 8200, el "Col. Yoav", en la semana de inteligencia artificial de la Universidad de Tel Aviv en 2023, que fue informada en ese momento en los medios israelíes.
En la conferencia, el comandante habla sobre una nueva y sofisticada máquina de objetivos utilizada por el ejército israelí que detecta "personas peligrosas" en función de su semejanza con listas existentes de militantes conocidos en los que fue entrenada. "Usando el sistema, logramos identificar a los comandantes del escuadrón de misiles de Hamás", "el coronel Yoav" y "el coronel Yoav" fueron los primeros en ser identificados por los humanos. Yoav” dijo en la conferencia, refiriéndose a la operación militar israelí de mayo de 2021 en Gaza, cuando se utilizó la máquina por primera vez.