entrar registro

‘Lavender’: la máquina de inteligencia artificial que dirige la oleada de bombardeos de Israel en Gaza (ENG)

5 visitas
|
votos: 5 · 2
|
karma: 103
|

Como parte de la guerra entre Israel y Hamás, la Fuerza de Defensa de Israel (FDI) ha utilizado inteligencia artificial para realizar de forma rápida y automática gran parte del proceso de determinación de qué bombardear. Israel ha ampliado enormemente el bombardeo de la Franja de Gaza, que en guerras anteriores se había visto limitado por la falta de objetivos de la Fuerza Aérea israelí. (Tr: #1 y #2)

comentarios (3)
  1. Black_Bergman
    En 2021, se publicó en inglés un libro titulado “El equipo hombre-máquina: cómo crear sinergia entre la inteligencia humana y artificial que revolucionará nuestro mundo” bajo el seudónimo de “General de brigada Y.S.”. En él, el autor, un hombre que, según hemos confirmado, es el actual comandante de la unidad de inteligencia de élite israelí 8200, defiende el diseño de una máquina especial que pudiera procesar rápidamente cantidades masivas de datos para generar miles de “objetivos” potenciales para ataques militares en el fragor de una guerra. Esa tecnología, escribe, resolvería lo que describió como un “cuello de botella humano tanto para localizar los nuevos objetivos como para tomar decisiones para aprobarlos”.

    Resulta que esa máquina existe realmente. Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como “Lavender”, que se dio a conocer aquí por primera vez. Según seis oficiales de inteligencia israelíes, que sirvieron en el ejército durante la actual guerra en la Franja de Gaza y tuvieron una relación directa con el uso de la IA para generar objetivos para asesinatos, Lavender ha desempeñado un papel central en los bombardeos sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra. De hecho, según las fuentes, su influencia en las operaciones militares fue tal que esencialmente trataron los resultados de la máquina de IA "como si fuera una decisión humana".

    Formalmente, el sistema Lavender está diseñado para marcar a todos los agentes sospechosos de las alas militares de Hamás y la Jihad Islámica Palestina (PIJ), incluidos los de bajo rango, como objetivos potenciales de bombardeo. Las fuentes dijeron a +972 y Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que registró hasta 37.000 palestinos como presuntos militantes -y sus hogares- para posibles ataques aéreos.

    Durante las primeras etapas de la guerra, el ejército dio una amplia aprobación a los oficiales para que adoptaran las listas de asesinatos de Lavender, sin exigirles que comprobaran minuciosamente por qué la máquina tomaba esas decisiones ni que examinaran los datos de inteligencia en bruto en los que se basaban. Una fuente afirmó que el personal humano a menudo sólo servía como “sello de goma” para las decisiones de la máquina, y añadió que, normalmente, dedicaban…

    0    k 20
  2. Black_Bergman
    PASO 1: GENERACIÓN DE OBJETIVOS

    ‘Una vez que se pasa al modo automático, la generación de objetivos se vuelve loca’

    En el ejército israelí, el término “objetivo humano” se refería en el pasado a un operativo militar de alto rango que, según las reglas del Departamento de Derecho Internacional del ejército, puede ser asesinado en su casa privada incluso si hay civiles alrededor. Fuentes de inteligencia dijeron a +972 y Local Call que durante las guerras anteriores de Israel, dado que esta era una forma “especialmente brutal” de matar a alguien (a menudo matando a una familia entera junto al objetivo), esos objetivos humanos se marcaban con mucho cuidado y solo se bombardeaba a los comandantes militares de alto rango en sus casas, para mantener el principio de proporcionalidad según el derecho internacional.

    Pero después del 7 de octubre, cuando militantes liderados por Hamás lanzaron un asalto mortal contra comunidades del sur de Israel, matando a unas 1.200 personas y secuestrando a 240, el ejército, dijeron las fuentes, adoptó un enfoque radicalmente diferente. En el marco de la “Operación Espadas de Hierro”, el ejército decidió designar a todos los agentes del ala militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar. Y eso lo cambió todo.

    La nueva política también planteó un problema técnico para la inteligencia israelí. En guerras anteriores, para autorizar el asesinato de un único objetivo humano, un oficial tenía que pasar por un proceso de “incriminación” complejo y prolongado: comprobar las pruebas de que la persona era efectivamente un miembro de alto rango del ala militar de Hamás, averiguar dónde vivía, sus datos de contacto y, por último, saber cuándo estaba en casa en tiempo real. Cuando la lista de objetivos incluía sólo unas pocas docenas de agentes de alto rango, el personal de inteligencia podía encargarse individualmente del trabajo que implicaba incriminarlos y localizarlos.

    Sin embargo, una vez que la lista se amplió para incluir a decenas de miles de agentes de menor rango, el ejército israelí pensó que tenía que recurrir a software automatizado e inteligencia artificial. El resultado, según testifican las fuentes, fue que el papel del personal humano en la incriminación de los palestinos como agentes militares fue dejado de lado, y AI hizo la mayor parte del trabajo en su lugar. Según cuatro de las fuentes que hablaron con +972 y Local Call, Lavender —que fue desarrollado para…

    0    k 20
  3. AshMostaza
    Interesante.

    Podrían planear una saturación de una zona para que caiga en todas las cuadriculas a la vez
    0    k 20
suscripciones por RSS
ayuda
+mediatize
estadísticas
mediatize
mediatize