¡Seguinos!

Año XIX - Edición 349 26 de noviembre de 2020

Buscar

Inteligencia artificial y aprendizaje automático: el agujero negro de los datos

  • Notas

El pasado 4 de noviembre se llevó adelante la jornada “Inteligencia artificial y aprendizaje automático: el agujero negro de los datos”, en cuyo marco disertó Johanna Caterina Faliero (PhD, doctora en Derecho con tesis doctoral distinguida en protección de datos personales). La presentación estuvo en manos de Laura N. Lora (directora del Seminario sobre Sociología Jurídica Instituto Gioja). Organizaron el Seminario de Sociología Jurídica (Instituto Gioja) y el Departamento de Ciencias Sociales.

Tras una breve introducción por parte del director del Departamento de Ciencias Sociales, Ricardo Rabinovich-Berkman, y Laura N. Lora, tomó la palabra la expositora.
En el marco de las técnicas de procesamiento y de tratamiento de datos en materia de protección de datos personales, sostuvo: “Naturalmente hay nuevos desafíos en materia de privacidad, intimidad, autodeterminación informativa, que nosotros desde lo jurídico tenemos que abarcar no simplemente desde lo regulatorio sino también desde las consecuencias y los impactos y desde la perspectiva de mitigar los efectos dañinos que pueda llegar a tener”.

Asimismo, explicó que “los algoritmos son instrucciones y podrían llegar a ser analógicas. El punto es que realizamos un quiebre y hemos redefinido no solamente el efecto, sino la trascendencia de los algoritmos y la importancia simbólica que tienen en nuestras vidas”. Y analizó: “Es así como estamos inmersos hoy en día en sociedades que son netamente dataístas, que giran alrededor de los datos personales, que son deterministas, sobre nosotros y sobre nuestras identidades digitales; son sociedades que, asimismo, son algoritmocentristas, es decir, buscan que todo pase por algoritmos como signo de confiabilidad”.

En este sentido, remarcó que “como operadores del derecho tenemos la necesidad imperante de buscar nuevas respuestas que nos permitan responder regulatoriamente a estas nuevas amenazas que existen con una perspectiva no simplemente reactiva sino también preventiva y precautoria”.

Por otro lado, señaló que las técnicas de procesamiento que se van insertando en los sistemas de procesamiento, tales como el aprendizaje automático y la inteligencia artificial, reconocen en los datos un valor comercial innegable. “Hoy en día los datos son el activo intangible de mayor valor que tenemos en nuestras sociedades. Es por eso que muchos dicen que son el petróleo de nuestros tiempos y es natural que la serialización de las prácticas abusivas a las cuales se someten los titulares de los datos hoy en día tenga un efecto absolutamente expansivo, máxime cuando se complejizan las técnicas de procesamiento”, planteó.

En cuanto a la evolución de la protección de datos personales, detalló que “trasciende los límites de lo que es la protección a la privacidad y a la intimidad como los derechos más embrionarios de la protección constitucional en materia de protección de datos personales”. Por lo tanto, puntualizó: “Es allí donde nos posamos sobre el derecho de la autodeterminación informativa como el derecho de pleno gobierno que tenemos cada uno de nosotros sobre los datos que a nosotros se refieren”.

En esta línea, comentó que “esto nos inserta en un contexto donde al masificarse las técnicas de procesamiento de datos, también se incrementan cualitativa y cuantitativamente varias cosas: las velocidades de procesamiento, los volúmenes de procesamiento y, a su vez, las capacidades de relacionamiento de estos datos. Hoy en día se cruzan los datos y esto permite, obviamente, perfeccionar las técnicas en general de perfilamiento”.
Seguidamente, reflexionó que “hoy en día tenemos sociedades de control y de vigilancia, que se basan en el perfilamiento para el control y que realizan la toma de decisiones de carácter automatizado, fundando estas decisiones en lo que sería targeting y segmentación, que desde lo jurídico no es otra cosa que discriminación, ya sea lícita o ilícita”.

En este contexto, sostuvo que, como consecuencia, se vulnera sistemáticamente la autodeterminación informativa como derecho: “Esta sistematicidad de las prácticas abusivas que se han instalado y combinado con la materialización contractual de las mismas a través de las cláusulas abusivas que muchas veces actúan como cláusulas maximizadoras de ganancias y de beneficios a través de la explotación económica de los datos, implica que se diluyen los límites que teníamos incorporados a la privacidad; esa privacidad se va redefiniendo en un contexto que hoy día es posprivado: los límites protectorios que antes nos servían eran adecuados para otros contextos de tratamiento pero no para los contextos y las técnicas que hoy tenemos”.

Luego se refirió a quiénes son los que realizan estas acciones de perfilamiento: “Este es un juego que no solamente va de la mano del sector privado (...), sino también el sector público. Hoy en día el Estado es el mayor acaparador de datos personales y aquel que más perfila a la ciudadanía en términos generales y que más capacidades tiene de entrecruzar estos datos, entre sí mismos (entre los diferentes organismos y entidades de carácter estatal) y también con el aporte de datos que comprende del sector privado por medio de la cooperación de las empresas. El entrecruzamiento de las bases termina de completar el perfilamiento”.

Además, especificó que “entre los repositorios de datos se insertan las técnicas de procesamientos de datos y hay técnicas que son de elevado riesgo y que son intrínsecamente riesgosas si tuviéramos que calificarlas desde lo jurídico y que son las técnicas de big data, data mining, inteligencia artificial, machine learning, aprendizaje automático o deep learning. Todas ellas son disciplinas que tienen un elevado riesgo por el tipo de algoritmos que utilizan para procesar estos datos de carácter personal”.

Video