El uso de la Inteligencia Artificial para detectar sesgos
El pasado 5 de septiembre, en el Aula 1 de Extensión Universitaria, se llevó adelante la jornada “El uso de la Inteligencia Artificial para detectar sesgos y estereotipos en la argumentación jurídica”, organizada conjuntamente por el Programa "Género y Derecho", el posgrado en Violencia de Género en Entornos Digitales y la Red de Profesoras de la Facultad, se centró en la temática “Inteligencia Artificial, ética y justicia: herramientas para detectar, mitigar y desarmar estereotipos de género en las decisiones judiciales”.
La apertura estuvo a cargo de Natalia de la Torre, coordinadora del Programa “Género y Derecho”, quien también tuvo a su cargo la presentación, moderación y comentarios generales. En su introducción, De la Torre planteó una reflexión inicial desde la perspectiva del derecho civil, destacando cómo tradicionalmente este campo se aproximó al fenómeno de la inteligencia artificial desde una postura preventiva. Sin embargo, subrayó que el encuentro proponía un cambio de enfoque, pues los/as expositores/as lograban, en sus palabras, “darle una vuelta de tuerca a la situación respecto a la detección de sesgos de género en la argumentación jurídica en las decisiones y resoluciones judiciales”.
La primera intervención estuvo a cargo de Ana Correa (OlivIA), quien abordó el análisis de la inteligencia artificial desde el campo del derecho de las personas. Su exposición se centró en el doble aspecto de la herramienta: por un lado, su potencial para aportar eficiencia y agilidad en la gestión de procesos, y por otro, los riesgos asociados a la reproducción de sesgos en la toma de decisiones automatizadas. Correa insistió en la importancia de detectar tempranamente esos problemas para reducir sus consecuencias y evitar errores que impacten negativamente en el acceso a la justicia.
En segundo lugar, Rita Custet (AVERAGE IA) se ocupó de destacar la necesidad de construir bases éticas sólidas para el uso de la inteligencia artificial en el ámbito judicial. Desde su experiencia en tribunales, explicó cómo la utilización de estas tecnologías exige un marco regulatorio claro que oriente a los operadores jurídicos. Custet remarcó también las ventajas que la IA ofrece en la práctica cotidiana, particularmente en tareas de organización de información y análisis de grandes volúmenes de datos, pero advirtió que dichas ventajas no deben ser pensadas en términos de sustitución, sino de complementación del trabajo humano.
Posteriormente, intervinieron Victoria Santamaría Guglielmetti y Sebastián Luján, representantes de “Género y Justicia”. Ambos se enfocaron en el problema del juzgamiento con perspectiva de género y en los desafíos que enfrentan los sistemas judiciales para incorporar herramientas que permitan fortalecer esa mirada. Santamaría explicó que la propuesta consistía en desarrollar instrumentos tecnológicos que apoyen y optimicen la labor de los/as operadores/as jurídicos/as, pero sin reemplazarlos, de manera de asegurar tanto la eficiencia como la sensibilidad frente a las cuestiones de género. Advirtió, además, que muchos sectores judiciales continúan desoyendo los mandatos constitucionales en esta materia, lo cual genera daños que, en sus palabras, “son muy difíciles de reparar”.
Por su parte, Sebastián Luján profundizó en la mecánica de funcionamiento de la herramienta en desarrollo, pero a la vez realizó una crítica hacia el modo en que se han estructurado hasta ahora las capacitaciones judiciales en perspectiva de género. Según señaló, estas instancias resultan “altamente fragmentadas y muy parciales”, lo que dificulta la creación de un cambio sostenido en la cultura institucional. Para Luján, el uso de la inteligencia artificial podría servir como complemento que ayude a sistematizar y ampliar la formación, siempre que se utilice con un marco crítico y participativo.
Más adelante, tomó la palabra Ivana Feldfeber (Data Género), quien aportó desde su experiencia en el análisis de desigualdades a partir de datos. Feldfeber relató que el trabajo de su organización comenzó incluso antes de la aparición de Chat GPT y otras herramientas de uso masivo, en un contexto donde predomina el temor frente a la inteligencia artificial y su capacidad de reproducir y amplificar sesgos. Subrayó la necesidad de diseñar bases de datos con criterios claros y transparentes, pues, de lo contrario, cualquier desarrollo tecnológico corre el riesgo de consolidar prácticas discriminatorias bajo la apariencia de objetividad.
Finalmente, Yazmín Quiroga (AymurAY) presentó un análisis específico sobre resoluciones judiciales en causas con perspectiva de género, señalando las dificultades que enfrenta la difusión de este tipo de investigaciones debido a las restricciones derivadas de la protección de datos personales. Quiroga enfatizó que este obstáculo no debe ser un impedimento para avanzar, sino un incentivo para crear metodologías innovadoras que permitan compatibilizar la transparencia con el respeto a la privacidad.
La jornada concluyó con un espacio de intercambio entre ponentes y participantes, que permitió articular los distintos enfoques y problematizar las tensiones entre la innovación tecnológica y las exigencias de la justicia con perspectiva de género.