Cómo Israel está usando la inteligencia artificial para perpetrar un genocidio

La Inteligencia Artificial es ante todo una herramienta. No decide por sí misma cómo es usada, son las personas que la emplean las que deciden de qué manera aprovechan su potencial. Si existe un sector en el cual el factor humano en el uso de la IA tiene las implicaciones más graves posibles es en el de la defensa y la seguridad, pues queda en las manos de quienes toman las decisiones definir si aprovechan la tecnología para generar el menor impacto posible o para aumentar el nivel de destrucción en un combate.

El genocidio que está cometiendo Israel en Palestina demuestra cuán importante es el factor humano detrás de la herramienta. El uso mortífero que está teniendo la IA en el territorio palestino no se debe a la tecnología en sí misma, es más, esta podría ser fácilmente aprovechada para evitar tanta barbarie, sino a que quienes han estado a cargo de la guerra han decidio darle un uso pensado en maximizar el daño que pueden causar al territorio y a la población palestina.

Para la identificación de presuntos miembros de Hamás, las Fuerzas Militares israelíes están utilizando tres softwares de IA: Habsora, Lavender y Where’s Daddy. Habsora (que traduce Evangelio), es una IA que identifica edificios y estructuras que podrían albergar a miembros de Hamas. Lavender es un programa que se usa para la identificación de individuos; tanto Habsora como Lavender funcionan buscando patrones con base a una fase previa de “entrenamiento”. Antes de iniciar el ataque israelí, Habsora contaba con una base de datos de 300.000 presuntos miembros de Hamas con datos de sus actividades militares y civiles.  La trifecta se completa con Where’s Daddy, software que hace un seguimiento permanente de los palestinos que se marcan como objetivos.

¿Qué es lo que ha hecho tan mortal entonces a la IA? La manera en la que Israel ha decidido utilizarla. La combinación de las tres IA le ha permitido a las fuerzas israelíes procesar una enorme cantidad de información para identificar a los objetivos y poder conocer todos sus movimientos, saber en todo momento dónde están y, más importante aún, con quién están. De acuerdo a las investigaciones realizadas por el medio británico The Guardian y el medio israelí +972/Local Call, antes de atacar a las personas identificadas como objetivos se tenía claro el número de civiles que podían morir.

Where´s Daddy tiene un nombre especialmente siniestro (“¿Dónde está papi?”) porque se diseñó para priorizar de manera intencional el rastreo de las personas cuando están durmiendo en las noches en sus hogares, con sus familias.

El ejército israelí utiliza entonces la IA para destruir un pueblo, para atacar en los momentos más vulnerables y a las poblaciones más vulnerables, con pleno conocimiento de que están atacando a civiles e incluso de la cantidad de civiles que van a morir con el ataque. Han establecido unos perversos “rangos aceptables por objetivo”, que van desde 15 civiles si se trata de un soldado hasta 300 personas si es un alto mando.

Con la IA las fuerzas de ocupación de Israel tienen la capacidad de minimizar por completo la pérdida de vidas humanas, pues podrían haber centrado sus ataques en los momentos donde sólo hubiera presencia de presuntos militantes de Hamas. Al fin y al cabo, las IA les permiten saber en todo momento dónde están, con quiénes están y qué otras personas hay en los lugares donde se encuentran. En cambio, y de manera intencional, han decidido usar la tecnología para acabar con la mayor cantidad de vidas palestinas posibles con cada ataque.

Israel es la muestra viva de que el problema no es la IA, son las personas que definen cuál va a ser su uso.

Alejandro Toro