No es nada novedoso decir que la Inteligencia Artificial ha llegado para revolucionar por completo todos los aspectos de la vida. En una época donde la innovación se ha vuelto una constante, los desarrollos en IA parecen presentar una transformación de la forma de hacer las cosas sólo equiparable con el surgimiento del Internet, con un potencial aún mayor al que tuvo en su momento la web.
Pero, como pasa con la mayoría de las innovaciones, su potencial puede ser aprovechado para mejorar la vida en sociedad o para destruirla. Estamos en un momento histórico particular, pues la irrupción de las IA se ha dado con el regreso de las guerras entre países con dos conflictos armados internacionales en curso en los que se está evidenciando el uso militar que puede tener la inteligencia artificial.
El primer uso registrado de un sistema autónomo para la baja de objetivos militares se dió en el 2020 en Libia, cuando las tropas del Gobierno de Fayez al Sarraj utilizaron drones automáticos de fabricación turca para atacar a soldados que apoyaban al mariscal Jalifa Haftar.
Con la guerra entre Rusia y Ucrania, ha sido el lado ucraniano el que se ha encargado de apostar en mayor medida por herramientas, no solamente armas autónomas, que utilicen la inteligencia artificial al tener un costo inferior a los instrumentos de guerra tradicionales, poder acoplar de forma fácil hardware y software de fácil acceso en el mercado (controles de consolas de videojuegos y código de programación disponible en Internet por ejemplo) y la capacidad de involucramiento de la sociedad civil.
Uno de los principales usos de la IA por el lado ucraniano ha sido mediante la reconfiguración de una aplicación utilizada para la recolección de impuestos, con la que ahora los ciudadanos ucranianos pueden subir fotos y videos que permiten obtener información sobre las tropas rusas, información que se sube a una base de datos gestionada por las Fuerzas Militares, pero que necesita de empresas privadas para ser inteligencia procesable.
En el caso de la invasión de Israel a Palestina lo que se está evidenciando es el terrible potencial que tiene la IA para acabar con vidas humanas. Israel está utilizando una combinación de tres IA (Habsora, Lavender y Where´s Daddy?) para la identificación y localización de objetivos militares.
Un uso que debería servir para limitar las bajas ha sido en cambio uno de los principales impulsores del genocido; la identificación de objetivos se acompaña con la estimación de bajas civiles y para los mandos militares israelíes la baja de un soldado raso de Hamás tiene un rango aceptable de 15 civiles muertos como daño colateral, 300 para el caso de un oficial. Con este sistema se identificaron en las primeras semanas del conflicto a 37.000 objetivos militares, lo que combinado con los “rangos aceptables por objetivo” ayuda a entender la masacre de la población palestina.
En Colombia los grupos armados ilegales han empezado a implementar dentro de sus tácticas de guerra el uso de drones, reportando el Ejército en el mes de junio un total de 17 ataques con drones en un período de seis semanas.
De acuerdo al Instituto Internacional de Estudios para la Paz de Estocolmo (SIPRI por sus siglas en inglés), en este momento no hay ámbitos de la actividad militar donde no haya un uso de la IA. Son cinco los principales aspectos donde se ve la IA en el campo militar: sistemas autónomos de combate (drones), análisis de bases de datos, detección y análisis de amenazas, evaluación de la situación en el campo de batalla, y la realización de “simulaciones” para probar equipos y tácticas.
Ahora, ¿se está en un escenario donde la IA reemplazará por completo el factor humano en las Fuerzas Militares del mundo? De acuerdo a los expertos, no estamos en ese estado desde un punto de vista tecnológico – todavía no existen robots capaces de reemplazar a un soldado humano – ni es deseable desde un punto de vista ético.
Según Anna Nadibaidze, investigadora del Centro de Estudios sobre la Guerra y del Departamento de Ciencias Políticas y Gestión Pública de la Universidad del Sur de Dinamarca, perder el factor humano abre el riesgo de que no exista una capacidad moral en el combate, pues se asume que el operador humano puede en teoría sentir compasión y empatía, aspectos que hasta ahora no puede brindar ninguna IA.
Pretender que se prohíba el uso de la IA en el sector defensa es un absurdo. De lo que se debe hablar es cómo se regula para que se ponga al servicio de la seguridad humana y no para la guerra que aniquila. Israel es el ejemplo perfecto de cómo la respuesta a esta pregunta depende por completo del factor humano; las IA para la identificación de objetivos pudieron haber sido usadas para minimizar las bajas, pero las decisiones tomadas por las personas a cargo de la guerra han sido el factor para que sean letales.