97.3 FM

Israel ha sido derrotado y ha colapsado su «arma maravilla»

Beirut. Por Alastair Crooke (*), Al Mayadeen

Israel ha sido derrotado y ha colapsado su «arma maravilla» Beirut. Por Alastair Crooke (*), Al Mayadeen

El derecho internacional se basa en la responsabilidad humana y la rendición de cuentas en última instancia cuando los seres humanos matan a otros seres humanos. La ley con respecto a los combatientes armados es la más extensa, pero la responsabilidad personal se aplica igualmente al asesinato de civiles, mujeres y niños.

Pero, ¿qué ocurre si se afirma que el asesinato está dirigido por una “máquina”, por la Inteligencia Artificial, basada en la “ciencia” algorítmica?

¿Queda de algún modo eximida la responsabilidad humana por matar a “otros” por la intención “científica” de las listas de asesinatos generadas por máquinas de IA, cuando “se vuelven locas”?

Esta es la cuestión planteada por el uso de la IA “Lavender” por parte de las fuerzas israelíes para proporcionar a Israel listas de asesinatos en Gaza.

El periodista israelí Yuval Abraham ha escrito un relato detallado, con múltiples fuentes, en el que detalla cómo las fuerzas israelíes han marcado a decenas de miles de gazatíes como sospechosos de ser asesinados utilizando un sistema de inteligencia artificial con escasa supervisión humana y una política permisiva con las bajas.

El creador del sistema, el actual comandante de la unidad de élite de inteligencia israelí 8200, había defendido anteriormente el diseño de una “máquina de objetivos” basada en IA y algoritmos de aprendizaje automático que pudiera procesar rápidamente cantidades masivas de datos para generar miles de “objetivos” potenciales para ataques militares, en el fragor de una guerra.

Como ha detallado Abraham, “formalmente, el sistema Lavender está diseñado para marcar a todos los presuntos operativos de las alas militares de Hamás y la Yihad Islámica Palestina (YIP), incluidos los de bajo rango, como objetivos potenciales de bombardeo”. Las fuentes dijeron a +972 y Local Call que durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que marcó hasta 37.000 palestinos como presuntos militantes -y sus hogares- para posibles ataques aéreos”.

“Durante las primeras etapas de la guerra, el ejército dio su aprobación general para que los oficiales adoptaran las listas de asesinatos de Lavender, sin ningún requisito para comprobar a fondo por qué la máquina hizo esas elecciones o para examinar los datos de inteligencia en bruto en los que se basaban. Una fuente declaró que el personal humano a menudo sólo servía de “sello de goma” para las decisiones de la máquina, añadiendo que, normalmente, sólo dedicaban personalmente unos “20 segundos” a cada objetivo antes de autorizar un bombardeo”.

Sin rodeos: El “genocidio” generado por IA clava una estaca en el corazón del Derecho Internacional Humanitario.

“El resultado es que miles de palestinos -en su mayoría mujeres y niños o personas que no participaban en los combates- fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA”.

Entonces, ¿quién es responsable? ¿Quién debe rendir cuentas?

El sistema era defectuoso desde el principio. Las fuerzas militares de Al-Qassam de Hamas operan desde profundos túneles subterráneos, donde tienen sus dormitorios, todo lo cual las hace impermeables a los programas de reconocimiento facial operados desde el reconocimiento aéreo israelí sobre Gaza.

En segundo lugar, como explicó un alto cargo de la oficina “B” a Abraham, “no sabíamos quiénes eran los operativos de ‘bajo nivel’ [en la superficie]”. Los combatientes Qassam y los civiles de Gaza no parecen diferentes. No hay ninguna característica que identifique al “hombre de Hamas” que lo distinga positivamente de cualquier otro varón de Gaza, por lo que Lavender identificó a estos “objetivos” como “afiliados a Hamas” en líneas fronterizas fluidas, como que alguna vez se unieron a algún grupo de WhatsApp que incluía a un miembro de Hamas, o que prestaron su teléfono a sus familias o se lo dejaron cargando en casa.

“Querían permitirnos atacar [a los operativos subalternos] automáticamente. Ese es el Santo Grial. Una vez que te vuelves automático, la generación de objetivos se vuelve loca”.

“Según las fuentes, la máquina da a casi todas las personas de Gaza una calificación del 1 al 100, que expresa la probabilidad de que sean militantes”.

Habiendo pasado algunos años trabajando en Gaza, permítanme decir que todo el mundo conocía o hablaba con alguien de Hamas en Gaza. Hamas ganó abrumadoramente las elecciones allí en 2006: Por tanto, casi todo el mundo podría decirse -de un modo u otro- que está “afiliado”.

Aún peor: “A las 5 de la mañana, [la aviación] venía y bombardeaba todas las casas que habíamos marcado”, cuenta la fuente “B”. “Eliminamos a miles de personas. No las revisábamos una por una, sino que lo poníamos todo en sistemas automatizados, y en cuanto una de [las personas marcadas] estaba en casa, se convertía inmediatamente en objetivo. Le bombardeábamos a él y a su casa”.

“El ejército prefería utilizar sólo bombas «tontas»… No quiere gastar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]”, dijo “C”.

El autor del sistema Lavender -el general de brigada Yossi Sariel- había escrito anónimamente en The Human Machine Team (2021) que la sinergia entre “la inteligencia humana y la artificial revolucionará nuestro mundo”. Evidentemente, su entusiasmo por esta revolución en la guerra fue creído por los dirigentes israelíes (y también por algunos en Washington; véase, por ejemplo, este artículo de John Spencer, catedrático de Estudios de Guerra Urbana en la academia militar de élite del ejército estadounidense, WestPoint). De ahí la repetida afirmación de Netanyahu de que Israel estaba al borde de una “gran victoria” en Gaza con 19 de las 24 brigadas de Hamás desmanteladas. Ahora sabemos que era una tontería.

La IA iba a ser el arma secreta de Israel. Yossi Sariel (creador de Lavender) ha hecho recientemente su mea culpa (de lo que informa The Guardian): «Los críticos de Sariel, en un informe citado por The Guardian, creen que el hecho de que la Unidad 8200 diera prioridad a la tecnología “adictiva y excitante” frente a métodos de inteligencia más anticuados había conducido al desastre. Un veterano funcionario declaró a The Guardian que la unidad dirigida por Sariel había “seguido la nueva burbuja de inteligencia [de IA]”».

Por su parte, Sariel declaró a sus colegas tras el 7 de octubre: “Acepto la responsabilidad de lo ocurrido en el sentido más profundo de la palabra”.

“Fuimos derrotados. Yo fui derrotado”, sentencio Sariel.

Sí, y como resultado decenas de miles de palestinos inocentes, mujeres y niños han sido brutalmente asesinados. Y Gaza reducida a escombros. El reportaje de investigación de Yuval Abraham debería remitirse a la Corte Internacional de Justicia (CIJ) para que examine las pruebas del “presunto genocidio” en Gaza.

(*) Alastair Crooke es un antiguo diplomático británico, fundador y director del “Foro sobre Conflictos”, con sede en Beirut.

43 Aniversario

Radio Segovia, La Poderosa del Norte.

× Contáctanos