Inteligencia artificial, selecci髇 de objetivos militares (targeting) y ataques indiscriminados contra la poblaci髇 civil
El pasado 2 de julio la Secretaría de Investigación, el Observatorio de Derecho Internacional Humanitario (ODIH) y el Seminario Permanente de Teoría e Historia del Derecho Internacional (SEMPITHIDIA) del Instituto Gioja organizaron la conferencia "Inteligencia artificial, selección de objetivos militares (targeting) y ataques indiscriminados contra la población civil", que estuvo a cargo de Marta Bo, abogada e investigadora del Graduate Institute of International and Development Studies (Ginebra) y del TMC Asser Institute (La Haya). El encuentro fue presentado por Marcos Kotlik, coordinador académico del ODIH.
Para comenzar, la oradora subrayó la importancia de mover el debate que está concentrado principalmente en los problemas ocasionados por las armas completamente autónomas (full autonomous weapon system) hacia otros tipos de aplicaciones de inteligencia artificial que no implican una autonomía total del sistema de armas pero crean situaciones de colaboración entre seres humanos y la inteligencia artificial, lo que se conoce como equipo máquina-humano.
Luego se enfocó en los riesgos que implica la integración de la inteligencia artificial en las armas y en el proceso de selección de objetivos militares. En este sentido, mencionó los problemas de identificación errónea de objetivos como un riesgo que la inteligencia artificial lleva en sí misma junto con problemas de fiabilidad y previsibilidad. “Los riesgos pueden traducirse en ataques contra civiles y entonces pueden traducirse en crímenes de guerra”, aseveró.
Seguidamente, brindó dos ejemplos de inteligencia artificial en armas: armas autónomas y armas semiautónomas. En el primer caso, son armas que pueden detectar, seleccionar y atacar objetivos militares sin intervención humana y, en el segundo, “hubo previamente una lista de objetivos militares predeterminados por agentes humanos y el dron se lanza en un área, busca, detecta y ataca los objetivos militares que fueron previamente decididos y aprobados”, detalló.
Más adelante, se refirió a las las aplicaciones de la inteligencia artificial en el proceso de targeting en general. En este marco, contó que hay proyectos, como el proyecto Maven, que compilan la aplicación de la inteligencia artificial en el análisis de videos o fotos que fueron registrados por drones. Y explicó que, normalmente, estos videos y fotos son analizados por analistas humanos pero en el futuro se prevé que, en lugar de un analista humano, se aplique la inteligencia artificial para seleccionar y tomar imágenes relevantes para luego tomar una decisión sobre qué objetivos atacar. “Acá la inteligencia artificial sería utilizada para tomar decisiones. La inteligencia artificial ofrece una sugerencia a un agente humano que luego va a tomar una decisión, pero en esas situaciones hay que ver en qué medida la decisión del agente humano está influenciada (...). Si se toma una decisión que no es correcta, eso puede producir un ataque contra la población civil”, analizó.
Por otro lado, compartió que en un futuro no tan lejano se integrará el reconocimiento automático de objetivo en las armas semiautónomas y para mejorar la prestación del software,conocido como ATR, se está pensando en integrar machine learning y otros tipos de inteligencia artificial. “Cuando hablamos del machine learning en situaciones de guerra y de selección de objetivos militares hay problemas que pueden implicar una identificación errónea de objetivos. Estos problemas se deben a cuestiones inherentes al machine learning en sí y por la utilización en contextos de guerra porque hay una falta de entrenamiento y mala calidad de datos. Hay una discrepancia entre los datos que se utilizan para entrenar el algoritmo para que tome decisiones correctas y los datos reales del campo de batalla”, desarrolló y agregó que además “es muy difícil codificar nociones de derecho internacional humanitario en estos algoritmos, como la noción de población civil, por ejemplo”.
Hacia el final, se refirió al problema de punibilidad que se da frente a los ataques cometidos con armas autónomas o semiautónomas o en situaciones de colaboración equipo-máquina. En esta línea, puntualizó que el cuadro normativo es problemático porque hay un elemento de intencionalidad que va a precluir la punibilidad de ataques que derivan de errores y además la inteligencia artificial puede exacerbar problemas que ya existen en el enjuiciamiento de los crímenes de guerra.
Asimismo, señaló que los ataques indiscriminados, que se caracterizan por una falta de focalización y distinción, no están codificados en el Protocolo Adicional I a los Convenios de Ginebra de 1949 y en el Estatuto de Roma entonces los elementos del delito (actus reus y mens rea) de ataques indiscriminados no están definidos de manera clara y esta falta de claridad pone problemas en el contexto del enjuiciamiento. Dentro de este marco, subrayó que “es necesario clasificar, reflexionar y discutir sobre los elementos de los delitos de ataques indiscriminados y definir si la intencionalidad es un elemento necesario o no de este delito”. Y concluyó: “Los riesgos en el derecho penal son punibles por dolus eventualis o imprudencia. Si luego vamos a hablar de errores, esto será aún más problemático para la atribución de responsabilidad penal para ataques a la población civil”.