¡Seguinos!

Año XXIV - Edición 430 16 de octubre de 2025

Buscar

Gestión algorítmica en las políticas de seguridad de los países

  • Notas

En el Aula 384 de Posgrado, el pasado 25 de septiembre, se realizó la conferencia “Gestión algorítmica en las políticas de seguridad de los países y la adiaforización como un atraso humanitario”,organizada por el Observatorio de Derecho Internacional Humanitario, la Maestría en Relaciones Internacionales y el Seminario Permanente de Investigación “Teoría e Historia del Derecho Internacional de la Antigüedad a la Actualidad” (SEMPITHIDIA). La exposición estuvo a cargo de Thami Covatti Piaia, doctora en Derecho por la Universidad Federal de Río Grande do Sul (UFRGS), y la moderación fue realizada por Emiliano Buis.

En sus palabras iniciales, Emiliano Buis destacó la trayectoria académica y profesional de la expositora, subrayando su labor en el campo del derecho internacional y su interés por el impacto de la tecnología en las políticas públicas contemporáneas.

Tras la introducción, Thami Covatti Piaia comenzó su presentación explicando el trasfondo de su investigación y los motivos que la llevaron a abordar la relación entre la gestión algorítmica y los derechos humanos. Señaló que su interés surgió de la convergencia entre sus estudios en derecho y tecnología, especialmente al observar cómo los sistemas automatizados de decisión se incorporan progresivamente en las políticas de seguridad a nivel global. Durante su exposición, la ponente desarrolló el concepto de adiaforización, al que definió como “el dejar la responsabilidad entre nosotros, especialmente con las personas que no son americanas”, vinculando esta idea con una pérdida de sensibilidad moral frente a las consecuencias humanas de las decisiones automatizadas. En este sentido, explicó cómo los procesos de digitalización y automatización en la gestión estatal, lejos de neutralizar el sesgo o la injusticia, tienden a desplazar la responsabilidad ética hacia las máquinas o los algoritmos, generando un preocupante “vacío de responsabilidad”.

Piaia ejemplificó su análisis con el caso del gobierno de Donald Trump en Estados Unidos, destacando cómo las políticas migratorias se apoyaron en tecnologías de vigilancia, rastreo y reconocimiento facial para ejecutar deportaciones masivas. Esta automatización, sostuvo, no solo deshumaniza a las personas afectadas sino que también invisibiliza la cadena de decisiones detrás de cada acto administrativo. “¿Quiénes son las personas realmente perjudicadas?”, se preguntó la expositora, invitando al público a reflexionar sobre las implicancias éticas y humanitarias de la delegación tecnológica de decisiones que afectan derechos fundamentales.

Finalmente, advirtió que la gestión algorítmica, en lugar de representar un avance hacia la eficiencia, puede significar, cuando no está acompañada de regulación y control democrático, un verdadero retroceso humanitario. Con ello, llamó a promover una mirada crítica y responsable sobre el uso de la inteligencia artificial en la formulación de políticas públicas, especialmente en materia de seguridad, migración y derechos humanos. La conferencia concluyó con un intercambio de preguntas entre los asistentes, quienes destacaron la profundidad y vigencia del tema abordado.