La política electoral, si bien no debe desestimarse, no puede ubicarse en el centro de ninguna acción política radical seria, orientada a cambiar las instituciones que sustentan el sistema político, desmantelar las ideologías hegemónicas y fomentar el tipo de conciencia de masas en que habría de basarse un cambio social y político desesperadamente necesario.
Sophia Goodfriend
Campaña de asesinatos de alta tecnología: por qué la acción humana sigue siendo crucial en la guerra de Israel apoyada en la IA
La destrucción que Israel ha desatado sobre Gaza evoca una época de guerras analógicas. Cráteres que engullen complejos residenciales, calles enteras reducidas a escombros y nubes de polvo que no dejan pasar la luz del sol. El ejército israelí ha lanzado más explosivos sobre el enclave de 321 kilómetros cuadrados que los contenidos en las bombas nucleares que arrasaron Hiroshima y Nagasaki en la Segunda Guerra Mundial. La magnitud y densidad de la destrucción rivaliza con los episodios más devastadores de los bombardeos de ciudades de la historia reciente, desde el Blitz de Londres hasta décadas de contrainsurgencia en Vietnam.
No obstante, en contraste con esas guerras del siglo XX, el asalto israelí en Gaza es básicamente una campaña de asesinatos de alta tecnología. A comienzos de abril, una investigación de +972 y Local Call reveló el papel protagonista de la IA en la carnicería. De acuerdo con seis oficiales israelíes del servicio secreto, los militares han utilizado una máquina de IA apodada Lavender para generar decenas de miles de objetivos humanos condenados a morir por formar parte supuestamente de los brazos armados de Hamás o la yihad palestina. Los datos obtenidos se introducían entonces en un sistema automático de seguimiento llamado ¿Dónde está papá?, que permite al ejército matar a cada uno en su casa, junto con toda su familia y a menudo con muchos de sus vecinos.
Aquellas revelaciones siguieron a una investigación anterior de +972 y Local Call sobre otro sistema generador de objetivos mediante IA, llamado Habsora (El Evangelio). Mientras que Lavender genera objetivos humanos, Habsora marca edificios y estructuras que supuestamente desempeñan funciones militares. Un exoficial del servicio secreto explicó a +972 que esta tecnología permite al ejército israelí operar fundamentalmente una “fábrica de asesinatos masivos”.
La última investigación hizo furor en la prensa internacional, en que hubo comentaristas que conjuraron escenas de armas basadas en IA que escapan al poder de sus operadores humanos y matan compulsivamente. Sin embargo, personas expertas en derecho internacional y guerra basada en IA subrayaron a +972 que la carnicería en Gaza es fruto de decisiones humanas concertadas. Y junto con las altas esferas del ejército y de la clase política israelí, en la matanza pueden estar implicados sectores enteros de la industria tecnológica civil mundial.
Generación rápida y autorización rápida
Con una tasa de muertes diaria en Gaza más alta que cualquier otra guerra del siglo XXI, se ve que el compromiso de minimizar las bajas de civiles en los asesinatos selectivos, en la medida en que se hubiera respetado alguna vez, simplemente se lo ha llevado el viento. De acuerdo con las fuentes, los mandos militares israelíes han rebajado significativamente los criterios aplicados a la hora de decidir qué objetivos pueden ser atacados en sus hogares, al tiempo que han subido el umbral del número de muertos civiles permitido en cada golpe, en algunos casos autorizando el asesinato de cientos de civiles para matar a un único objetivo militar importante. Como dijo el portavoz del ejército israelí, Daniel Hagari, al comienzo de la guerra, lo que interesa es “causar el máximo daño”.
Para que quede claro, Israel no se basa en armas totalmente autónomas en la guerra actual en Gaza; más bien, los servicios secretos utilizan sistemas de localización de objetivos apoyados por inteligencia artificial para clasificar a personas e infraestructuras civiles en función de la probabilidad de que estén relacionadas con organizaciones combatientes. Esto acelera y amplía rápidamente el proceso por el que el ejército elige a quién matar, generando más objetivos en un solo día que el personal humano puede definir durante todo un año.
La rápida generación de objetivos conlleva la necesidad de una rápida autorización: los oficiales de inteligencia que hablaron con +972 admitieron dedicar apenas 20 segundos a dar el visto bueno a los ataques individuales, a pesar de saber que Lavender se equivoca al identificar los objetivos —incluso según sus propios criterios laxos— en aproximadamente el 10% de los casos. Muchos se limitaron a asegurarse de que la persona a la que iban a matar era un hombre, convirtiendo así la mayor parte de Gaza en una trampa mortal.
“Lo que me llamó la atención del informe [de +972] es el grado de autonomía y fiabilidad que las fuerzas armadas otorgaron a esta tecnología”, ha declarado a +972 Alonso Gurmendi Dunkelberg, profesor de Relaciones Internacionales en el King’s College de Londres. “Permite al ejército firmar fríamente el ataque sistemático contra una población civil.”
Ben Saul, profesor de Derecho Internacional y relator especial de la ONU sobre Derechos Humanos y Lucha contra el Terrorismo, afirma que la excesiva dependencia de estos sistemas confiere un barniz de racionalidad a la devastación que Israel ha provocado en Gaza. Los llamados sistemas inteligentes pueden determinar el objetivo, pero los bombardeos se llevan a cabo con munición tonta, no guiada e imprecisa, porque el ejército no quiere utilizar bombas caras en lo que un oficial de inteligencia calificó de “objetivos basura”. “Israel tiene abogados militares; tiene un sistema de justicia militar; tiene procedimientos operativos y normas de combate que se supone que le ayudan a respetar los derechos humanos internacionales”, dice Saul, “pero esta [guerra] está [librándose] muy lejos de las normas humanitarias básicas”.
La ONU, grupos de derechos humanos y decenas de gobiernos han advertido de que Israel incumple continuamente la legislación internacional en materia de derechos humanos, así como las disposiciones fundamentales de las Convenciones de Ginebra y La Haya, de las que es signatario. Cada uno de estos tratados prohíbe el asesinato sistemático y deliberado de civiles. Sin embargo, los juristas afirman que estos sistemas de alta tecnología han favorecido un incumplimiento sistemático del derecho internacional durante los últimos seis meses y medio de guerra, en los que Israel ha matado a más de 34.000 gazatíes, herido a más de 76.000, y hasta 11.000 más siguen en paradero desconocido.
Convertir a los palestinos en números
El hecho de que estas máquinas sean manejadas y explotadas por personas reales tiene graves implicaciones para los militares israelíes. Puede que Lavender y ¿Dónde Está Papá? se presenten como sistemas basados en IA, pero incluso los jefes militares israelíes afirman que no actúan de forma autónoma: una cadena de mando concertada dicta cómo se ponen en marcha estas tecnologías. Como dijo a +972 Zach Campbell, investigador principal de vigilancia en Human Rights Watch, “Sí, esta tecnología es problemática, pero también se trata de cómo se utilizan estos sistemas. Y esas son decisiones humanas”.
Los funcionarios del gobierno israelí dejaron claras sus intenciones tras los terribles sucesos del 7 de octubre. En los primeros días de la guerra, el presidente israelí Isaac Herzog proclamó que “no hay civiles inocentes en Gaza”, y los ministros del gabinete declararon que la guerra era el comienzo de otra Nakba. Otros políticos pidieron que toda la franja fuera “arrasada”. Bombas de dos mil libras arrasaron barrios enteros; las excavadoras arrasaron escuelas y hospitales, y secciones enteras de la Franja fueron consideradas zonas de exterminio. Estos comandos coincidían con los esfuerzos, que llevaban años gestándose, para transformar el ejército israelí en lo que el sociólogo Yagil Levy denominó recientemente “un ejército generador de muerte”.
“El problema no está en la IA”, dice a +972 Brian Merchant, un reportero tecnológico que investiga el desarrollo sin paliativos de los sistemas de IA. “El problema es lo que la IA permite hacer a los militares. Proporciona una justificación para ser más violentos, para ser más descuidados, para hacer valer una agenda que ya tenían o que buscan un pretexto para justificar.”
Mona Shtaya, investigadora no residente del Instituto Tahrir de Política de Oriente Próximo, afirma que esto es lo que ocurre desde hace tiempo en la estrategia militar israelí contra los palestinos; Lavender es solo la más reciente de una larga lista de armas algorítmicas en el arsenal de Israel. Por ejemplo, los algoritmos policiales predictivos y los sistemas de reconocimiento facial analizan montones de datos extraídos de numerosas fuentes, como redes sociales, datos de teléfonos móviles y grabaciones de drones. Al igual que Lavender, estos sistemas utilizan los datos para asignar a los palestinos una calificación de seguridad. Esa calificación puede determinar cualquier cosa, desde quién debe ser detenido en un puesto de control en Hebrón, arrestado frente a la mezquita de Al Aqsa o asesinado en un ataque con drones en Gaza.
“Estos sistemas convierten a los palestinos en números”, declara Shtaya a +972. “Permiten a las autoridades calificarnos, deshumanizarnos, no pensar en el hecho de que somos personas, sino justificar nuestra muerte basándose en una estadística. Por eso hemos visto aumentar la violencia desde que Israel empezó a basarse en estos sistemas.” En opinión de Shtaya, los sistemas de selección de objetivos impulsados por IA son el resultado natural de la inversión desenfrenada de Israel en vigilancia masiva. “Es el ciclo del desarrollo tecnológico en Palestina. Cada sistema es más peligroso”.
Una cadena de suministro algorítmica
El abuso de la IA puede tener sus raíces en las políticas militares, pero también implica a amplios sectores de la industria tecnológica civil. Los sistemas de selección de objetivos basados en IA dependen de montones de datos de vigilancia extraídos y analizados por empresas privadas de nueva creación, conglomerados tecnológicos mundiales y técnicos militares. Las empresas tecnológicas de los complejos de oficinas de Silicon Valley diseñan las bases de datos de imágenes de Google que las tropas israelíes utilizan para detener a los civiles que huyen de los bombardeos aéreos. Los algoritmos de moderación de contenidos determinados por la dirección corporativa de Meta en Nueva York ayudan a los sistemas policiales predictivos a clasificar a los civiles según su probabilidad de unirse a grupos activistas. Las empresas de seguridad con sede en Petah Tikvah transfieren el contenido de los teléfonos móviles a los técnicos militares que elaboran listas de asesinatos.
La dependencia de Israel de productos tecnológicos civiles para llevar a cabo sus operaciones letales choca con muchas de las políticas y condiciones de uso de las empresas con las que colabora. El mes pasado, el New York Times reveló que el ejército israelí está utilizando una base de datos de Google Images para identificar y clasificar a civiles en toda la Franja de Gaza. Cheyne Anderson, ingeniero de software de Google y miembro del grupo No Tech for Apartheid, una coalición de trabajadores tecnológicos que se oponen a los contratos con el ejército israelí, declaró a +972 que se trata de un grave uso indebido de la tecnología de Google.
“Estos sistemas no están concebidos para decidir sobre la vida o la muerte de personas en los campos de batalla de Oriente Medio; están destinados a fotografías familiares”, explica Anderson. “Llevar algo así a una zona de guerra […] atenta directamente contra nuestras políticas de privacidad y nuestras condiciones de uso”. De hecho, las políticas de privacidad de Google prometen que los usuarios deben prestar “su consentimiento explícito para compartir cualquier información personal sensible” con terceros. En sus protocolos de actividades peligrosas e ilegales, Google advierte de que Google Images no debe utilizarse “para promocionar actividades, bienes, servicios o información que causen daños graves e inmediatos a las personas”.
A pesar de las evidentes infracciones de sus políticas establecidas, Google y otros conglomerados tecnológicos no han impedido que el ejército israelí utilice sus productos en la actual guerra contra Gaza o en las décadas de dominio militar de Israel sobre los territorios palestinos ocupados. Muchas de estas empresas privadas se benefician del intercambio, ya que los civiles palestinos a los que se niega el recurso a las protecciones básicas de la privacidad ofrecen un suministro ilimitado de datos con los que las empresas de vigilancia pueden perfeccionar sus productos. “Estas empresas forman parte de una vasta cadena de suministro algorítmica fundamental para la guerra actual”, ha declarado a +972 Matt Mahmoudi, investigador de Amnistía Internacional. “Sin embargo, no se han quejado.”
A medida que aumenta la lista de abusos israelíes en Gaza, estas empresas pueden verse implicadas legalmente en las violaciones sistemáticas del derecho internacional por parte de Israel. “Es un cuento con moraleja para cualquier empresa”, afirmó Mahmoudi. “No solo están violando el derecho internacional en materia de derechos humanos, no solo se arriesgan a que se deteriore su reputación, sino que se arriesgan a ser consideradas cómplices de algo que seguramente se tipificará a su debido tiempo como delito grave”.
Las acusaciones de crímenes de guerra no han impedido a los oficiales del ejército israelí prometer que todo el derramamiento de sangre producirá avances sin precedentes en la guerra impulsada por IA. En su intervención en el Día Anual de la IA de la Universidad de Tel Aviv en febrero, la general de brigada Yael Grossman, comandante de la unidad Lotem, dijo a una multitud de líderes de la industria tecnológica civil y militar que el ejército sigue desplegando sistemas de vanguardia. “La fricción genera datos”, dijo. “Nos permite crecer mucho más rápido y ampliar nuestras posibilidades con las diferentes soluciones que ofrecemos en el campo de batalla.”
Históricamente, estos eslóganes han movilizado a los gobiernos occidentales y a los conglomerados tecnológicos en torno a las proezas militares israelíes. Pero hoy, la marea puede estar cambiando. Los gobiernos occidentales han comenzado a considerar la posibilidad de retener las ventas de armas, y el personal de Google y otros grandes conglomerados tecnológicos se están rebelando contra los contratos de sus empresas con el ejército israelí. En medio del desprecio de Israel por las normas internacionales, Shtaya dice que este cambio radical puede ser la única esperanza para controlar los sistemas de armas emergentes. “Lo que ocurre en Palestina no se limita al ejército israelí”, explica Shtaya. “El abuso de estos sistemas es un problema mundial.”
[Fuente: Viento Sur. Sophia Goodfriend es doctoranda de Antropología en la Universidad Duke, especializada en derechos digitales y vigilancia digital en Israel/Palestina]
7 /
5 /
2024