En 2021, se publicó en inglés un libro titulado “El equipo hombre-máquina: cómo crear sinergia entre la inteligencia humana y artificial que revolucionará nuestro mundo” bajo el seudónimo de “General de brigada Y.S.”. En él, el autor, un hombre que, según hemos confirmado, es el actual comandante de la unidad de inteligencia de élite israelí 8200, defiende el diseño de una máquina especial que pudiera procesar rápidamente cantidades masivas de datos para generar miles de “objetivos” potenciales para ataques militares en el fragor de una guerra. Esa tecnología, escribe, resolvería lo que describió como un “cuello de botella humano tanto para localizar los nuevos objetivos como para tomar decisiones para aprobarlos”.
Resulta que esa máquina existe realmente. Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como “Lavender”, que se dio a conocer aquí por primera vez. Según seis oficiales de inteligencia israelíes, que sirvieron en el ejército durante la actual guerra en la Franja de Gaza y tuvieron una relación directa con el uso de la IA para generar objetivos para asesinatos, Lavender ha desempeñado un papel central en los bombardeos sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra. De hecho, según las fuentes, su influencia en las operaciones militares fue tal que esencialmente trataron los resultados de la máquina de IA "como si fuera una decisión humana".
Formalmente, el sistema Lavender está diseñado para marcar a todos los agentes sospechosos de las alas militares de Hamás y la Jihad Islámica Palestina (PIJ), incluidos los de bajo rango, como objetivos potenciales de bombardeo. Las fuentes dijeron a +972 y Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que registró hasta 37.000 palestinos como presuntos militantes -y sus hogares- para posibles ataques aéreos.
Durante las primeras etapas de la guerra, el ejército dio una amplia aprobación a los oficiales para que adoptaran las listas de asesinatos de Lavender, sin exigirles que comprobaran minuciosamente por qué la máquina tomaba esas decisiones ni que examinaran los datos de inteligencia en bruto en los que se basaban. Una fuente afirmó que el personal humano a menudo sólo servía como “sello de goma” para las decisiones de la máquina, y añadió que, normalmente, dedicaban personalmente sólo unos “20 segundos” a cada objetivo antes de autorizar un bombardeo, sólo para asegurarse de que el objetivo marcado por Lavender fuera un hombre. Esto se produjo a pesar de saber que el sistema comete lo que se considera “errores” en aproximadamente el 10 por ciento de los casos, y se sabe que ocasionalmente marca a individuos que sólo tienen una conexión vaga con grupos militantes, o ninguna conexión en absoluto.
Además, el ejército israelí atacó sistemáticamente a los individuos seleccionados mientras estaban en sus casas, normalmente de noche, mientras sus familias estaban presentes, en lugar de durante el curso de la actividad militar. Según las fuentes, esto se debía a que, desde lo que consideraban un punto de vista de inteligencia, era más fácil localizar a los individuos en sus casas particulares. Se utilizaron otros sistemas automatizados, incluido uno llamado “¿Dónde está papá?”, que también se reveló aquí por primera vez, específicamente para rastrear a los individuos seleccionados y llevar a cabo atentados cuando habían ingresado en las residencias de sus familias.
El resultado, como testificaron las fuentes, es que miles de palestinos, la mayoría de ellos mujeres y niños o personas que no participaron en los combates, fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de inteligencia artificial.
“No estábamos interesados en matar a los agentes [de Hamas] solo cuando estaban en un edificio militar o participaban en una actividad militar”, dijo A., un oficial de inteligencia, a +972 y Local Call. “Por el contrario, las FDI los bombardearon en las casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones”.
La máquina Lavender se suma a otro sistema de inteligencia artificial, “The Gospel”, sobre el que se reveló información en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí. Una diferencia fundamental entre los dos sistemas está en la definición del objetivo: mientras que The Gospel marca edificios y estructuras desde los que el ejército afirma que operan militantes, Lavender marca a personas y las pone en una lista de objetivos a eliminar.
Además, según las fuentes, cuando se trataba de apuntar a supuestos militantes jóvenes marcados por Lavender, el ejército prefería utilizar únicamente misiles no guiados, comúnmente conocidos como bombas “tontas” (en contraste con las bombas de precisión “inteligentes”), que pueden destruir edificios enteros sobre sus ocupantes y causar bajas significativas. “No se quiere desperdiciar bombas caras en personas sin importancia: es muy caro para el país y hay escasez [de esas bombas]”, dijo C., uno de los oficiales de inteligencia. Otra fuente dijo que ellos personalmente habían autorizado el bombardeo de “cientos” de casas particulares de supuestos operativos subalternos marcados por Lavender, y que muchos de estos ataques mataron a civiles y familias enteras como “daños colaterales”.
En una medida sin precedentes, según dos de las fuentes, el ejército también decidió durante las primeras semanas de la guerra que, por cada operativo subalterno de Hamas marcado por Lavender, era permisible matar hasta 15 o 20 civiles; en el pasado, el ejército no autorizó ningún “daño colateral” durante los asesinatos de militantes de bajo rango. Las fuentes agregaron que, en caso de que el objetivo fuera un alto funcionario de Hamas con el rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones el asesinato de más de 100 civiles en el asesinato de un solo comandante.
La siguiente investigación está organizada de acuerdo con las seis etapas cronológicas de la producción de objetivos altamente automatizados del ejército israelí en las primeras semanas de la guerra de Gaza. En primer lugar, explicamos la máquina Lavender, que marcó a decenas de miles de palestinos mediante inteligencia artificial. En segundo lugar, revelamos el sistema “¿Dónde está papá?”, que rastreó a estos objetivos y avisó al ejército cuando entraron en sus casas. En tercer lugar, describimos cómo se eligieron bombas “tontas” para atacar estas casas.
En cuarto lugar, explicamos cómo el ejército relajó el número permitido de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, observamos cómo un software automatizado calculó de forma incorrecta la cantidad de no combatientes en cada hogar. Y en sexto lugar, mostramos cómo en varias ocasiones, cuando se atacaba una casa, generalmente de noche, el objetivo individual a veces no estaba dentro en absoluto, porque los oficiales militares no verificaban la información en tiempo real.
.
0k 20
Hemos deshabilitado la autenticación con Facebook. Si entras a Mediatize con una cuenta de Facebook, lee esto.
*
Resulta que esa máquina existe realmente. Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como “Lavender”, que se dio a conocer aquí por primera vez. Según seis oficiales de inteligencia israelíes, que sirvieron en el ejército durante la actual guerra en la Franja de Gaza y tuvieron una relación directa con el uso de la IA para generar objetivos para asesinatos, Lavender ha desempeñado un papel central en los bombardeos sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra. De hecho, según las fuentes, su influencia en las operaciones militares fue tal que esencialmente trataron los resultados de la máquina de IA "como si fuera una decisión humana".
Formalmente, el sistema Lavender está diseñado para marcar a todos los agentes sospechosos de las alas militares de Hamás y la Jihad Islámica Palestina (PIJ), incluidos los de bajo rango, como objetivos potenciales de bombardeo. Las fuentes dijeron a +972 y Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que registró hasta 37.000 palestinos como presuntos militantes -y sus hogares- para posibles ataques aéreos.
Durante las primeras etapas de la guerra, el ejército dio una amplia aprobación a los oficiales para que adoptaran las listas de asesinatos de Lavender, sin exigirles que comprobaran minuciosamente por qué la máquina tomaba esas decisiones ni que examinaran los datos de inteligencia en bruto en los que se basaban. Una fuente afirmó que el personal humano a menudo sólo servía como “sello de goma” para las decisiones de la máquina, y añadió que, normalmente, dedicaban personalmente sólo unos “20 segundos” a cada objetivo antes de autorizar un bombardeo, sólo para asegurarse de que el objetivo marcado por Lavender fuera un hombre. Esto se produjo a pesar de saber que el sistema comete lo que se considera “errores” en aproximadamente el 10 por ciento de los casos, y se sabe que ocasionalmente marca a individuos que sólo tienen una conexión vaga con grupos militantes, o ninguna conexión en absoluto.
Además, el ejército israelí atacó sistemáticamente a los individuos seleccionados mientras estaban en sus casas, normalmente de noche, mientras sus familias estaban presentes, en lugar de durante el curso de la actividad militar. Según las fuentes, esto se debía a que, desde lo que consideraban un punto de vista de inteligencia, era más fácil localizar a los individuos en sus casas particulares. Se utilizaron otros sistemas automatizados, incluido uno llamado “¿Dónde está papá?”, que también se reveló aquí por primera vez, específicamente para rastrear a los individuos seleccionados y llevar a cabo atentados cuando habían ingresado en las residencias de sus familias.
El resultado, como testificaron las fuentes, es que miles de palestinos, la mayoría de ellos mujeres y niños o personas que no participaron en los combates, fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de inteligencia artificial.
“No estábamos interesados en matar a los agentes [de Hamas] solo cuando estaban en un edificio militar o participaban en una actividad militar”, dijo A., un oficial de inteligencia, a +972 y Local Call. “Por el contrario, las FDI los bombardearon en las casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones”.
La máquina Lavender se suma a otro sistema de inteligencia artificial, “The Gospel”, sobre el que se reveló información en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí. Una diferencia fundamental entre los dos sistemas está en la definición del objetivo: mientras que The Gospel marca edificios y estructuras desde los que el ejército afirma que operan militantes, Lavender marca a personas y las pone en una lista de objetivos a eliminar.
Además, según las fuentes, cuando se trataba de apuntar a supuestos militantes jóvenes marcados por Lavender, el ejército prefería utilizar únicamente misiles no guiados, comúnmente conocidos como bombas “tontas” (en contraste con las bombas de precisión “inteligentes”), que pueden destruir edificios enteros sobre sus ocupantes y causar bajas significativas. “No se quiere desperdiciar bombas caras en personas sin importancia: es muy caro para el país y hay escasez [de esas bombas]”, dijo C., uno de los oficiales de inteligencia. Otra fuente dijo que ellos personalmente habían autorizado el bombardeo de “cientos” de casas particulares de supuestos operativos subalternos marcados por Lavender, y que muchos de estos ataques mataron a civiles y familias enteras como “daños colaterales”.
En una medida sin precedentes, según dos de las fuentes, el ejército también decidió durante las primeras semanas de la guerra que, por cada operativo subalterno de Hamas marcado por Lavender, era permisible matar hasta 15 o 20 civiles; en el pasado, el ejército no autorizó ningún “daño colateral” durante los asesinatos de militantes de bajo rango. Las fuentes agregaron que, en caso de que el objetivo fuera un alto funcionario de Hamas con el rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones el asesinato de más de 100 civiles en el asesinato de un solo comandante.
La siguiente investigación está organizada de acuerdo con las seis etapas cronológicas de la producción de objetivos altamente automatizados del ejército israelí en las primeras semanas de la guerra de Gaza. En primer lugar, explicamos la máquina Lavender, que marcó a decenas de miles de palestinos mediante inteligencia artificial. En segundo lugar, revelamos el sistema “¿Dónde está papá?”, que rastreó a estos objetivos y avisó al ejército cuando entraron en sus casas. En tercer lugar, describimos cómo se eligieron bombas “tontas” para atacar estas casas.
En cuarto lugar, explicamos cómo el ejército relajó el número permitido de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, observamos cómo un software automatizado calculó de forma incorrecta la cantidad de no combatientes en cada hogar. Y en sexto lugar, mostramos cómo en varias ocasiones, cuando se atacaba una casa, generalmente de noche, el objetivo individual a veces no estaba dentro en absoluto, porque los oficiales militares no verificaban la información en tiempo real.
.