AD 134/2020
Desarrollo de la IA en relación con la Protección de Datos de Carácter Personal, la ética y la desigualdad
Resumen: La utilización de técnicas aplicadas de Inteligencia Artificial en los distintos ámbitos de la sociedad, generalmente implica un tratamiento de datos personales, los cuales, conllevan numerosas ventajas, estando este sector, cada vez más conectado con el sector tecnológico, lo cual, también conlleva un claro impacto con riesgos potenciales en la protección de datos, la privacidad, la discriminación y la desigualdad. En la presente publicación analizamos los impactos que la Inteligencia Artificial tiene sobre la privacidad y los derechos humanos.
Palabras clave: IA (inteligencia Artificial), Protección de Datos, sesgos, ética, transparencia, tecnología, algoritmo.
Abstract: The use of applied techniques of Artificial Intelligence in the different areas of society generally implies the processing of personal data, which entails numerous advantages, since this sector is increasingly connected with the technological sector, which also entails a clear impact with potential risks in data protection, privacy, discrimination and inequality. In this publication, we analyze the impacts that AI has on privacy and human rights.
Keywords: AI (Artificial Intelligence), Data Protection, biases, ethic, transparency, technology, algorithm
INTRODUCCIÓN
Los sistemas de IA se están desarrollando a una velocidad vertiginosa, cambiando de esta manera nuestras vidas, ofreciendo muchos beneficios para los ciudadanos, las empresas, y para la sociedad en su conjunto. Sin embargo, estos beneficios se producirán siempre que esta tecnología esté centrada en el ser humano, sea ética, sostenible y respete los derechos y valores fundamentales. Algunos de los progresos en ciertas áreas de la IA son en particular, en relación con el procesamiento de gran cantidad de información, el incremento de la rapidez de los procesos y la mejora en la toma de decisiones, el análisis y predicción del comportamiento humano y sus características en campos como la robótica, la visión computacional y sistemas automáticos, la creación de nuevas formas de participar en procesos democráticos, la mejora de la eficiencia del sector público e industrial, la mejora de la salud haciendo diagnósticos más precisos, mejora de las investigaciones científicas, incremento de la eficiencia agrícola, contribución a la reducción de los efectos del cambio climático y su adaptación, etc.[1]
Debido a que la tecnología se está convirtiendo en una parte cada vez más central de la vida de las personas, estas deben poder confiar en ella, y del mismo modo, esta, debe cumplir con los principios de protección de datos, así pues, para conseguir esto, el ámbito tecnológico y jurídico deben trabajar conjuntamente.
Para entender de qué estamos hablando, debemos saber que la IA es la capacidad de una máquina de actuar como lo hace una mente humana, considerando sus aspectos de creatividad y capacidad de realizar análisis e inferencias a partir de información compleja, e incluso incompleta[2]. En otras palabras, la IA es la ciencia e ingeniería de hacer máquinas inteligentes; hacer que las máquinas repliquen las funciones cognitivas de la mente humana (pensar, razonar, aprender, entender, comunicarse) para lo que se aplican fórmulas matemáticas, ecuaciones. Se encarga del análisis de datos aplicando algoritmos, los cuales, explicándolo de un modo práctico, se encargan de analizar una tabla de datos: imaginemos un Excel con las típicas tablas, filas y columnas; cada fila es una persona y cada columna una característica (por ejemplo, nombre, altura, sexo, profesión, etc.).
Por otra parte, hay que tener en cuenta que el desarrollo de la IA es un fenómeno transfronterizo y que afecta a toda la humanidad.
Muchas son las dudas que despierta la IA entre usuarios, investigadores, especialistas y autoridades, como la transparencia en protección de datos (siendo este, solo, uno de los muchos problemas que plantea en este ámbito la IA), los sesgos y prejuicios desde el punto de vista de los derechos humanos, la desigualdad de oportunidades entre los diferentes países del mundo y entre los trabadores, etc.
¿CÓMO AFECTA LA IA EN EL ÁMBITO DE LA PROTECCIÓN DE DATOS Y LOS DERECHOS HUMANOS?
Entorno a la IA, existe la preocupación sobre los riesgos del uso de la IA, los riesgos relacionados con la privacidad, la protección de datos y la declaración de ética relacionado con la dignidad humana, resaltando, por ejemplo, el desarrollo de la IA en combinación con las preocupaciones en incremento sobre la vigilancia y sus posibilidades de uso para coartar derechos fundamentales y libertades[3].
Los datos procesados, la forma en que se diseñan las aplicaciones y el alcance de la intervención humana pueden afectar a los derechos, a la libre expresión, la protección de los datos personales, la privacidad y las libertades políticas. La IA generalmente conlleva el tratamiento de datos personales y, por consiguiente, toda empresa que desee incorporar soluciones de IA para el tratamiento automatizado de los activos de información deberá cumplir con las disposiciones normativas que incluye el RGPD (o la normativa aplicable según el país) a efectos de garantizar el cumplimiento normativo en materia de protección de datos personales, ya sea en calidad de responsable, encargado o corresponsable del tratamiento de datos personales en que se incluye una solución de IA.
Esta ciencia, aumenta las posibilidades de rastrear y analizar los hábitos diarios de la gente. Por ejemplo, existe el riesgo potencial de que la IA sea utilizada; violando las normas sobre protección de datos de la UE y otra normativa, por las autoridades estatales u otras entidades para la vigilancia masiva, y por los empleadores para observar el comportamiento de sus empleados. Al analizar grandes cantidades de datos e identificar los vínculos entre ellos, la IA también puede utilizarse para rastrear y desanonimizar datos sobre personas, creando nuevos riesgos de protección de los datos personales, incluso con respecto a conjuntos de datos que no incluyen en sí mismos datos personales. La IA también es utilizada por los intermediarios en línea para dar prioridad a la información para sus usuarios y para realizar la moderación del contenido.
En esta línea, uno de los aspectos críticos de los tratamientos de datos personales basado en IA se relaciona con el concepto de transparencia, tanto desde la perspectiva de los interesados como de los operadores del tratamiento. Subrayando el rápido avance del Big Data y de la IA, especialmente el “machine learning”, en particular con el desarrollo del profundo aprendizaje de las tecnologías, se permitirá a los algoritmos resolver complejas operaciones a través de posibles decisiones, haciendo incluso esos procesos más opacos. En muchas ocasiones, los individuos otorgan su consentimiento de forma explícita al tratamiento de datos que lleva a cabo el sistema de IA, pero a su vez, no se le informa de la extensión y finalidad ulterior del tratamiento de sus datos. En todo caso, el responsable del tratamiento de datos personales que incorpora soluciones de IA deberá proporcionar a los interesados la información necesaria, conforme a los arts. 13 y 14 RGPD, en relación al contenido y la fase específica del procedimiento de IA. Específicamente, la forma que recomienda la AEPD para realizar este deber de informar, conforme al art. 11 LOPDGDD, es la presentación mediante capas. Asimismo, en el caso de que en el componente IA existan datos personales que puedan ser recuperables hay que informar sobre dicha circunstancia a los interesados y, en su caso, disponer de una base jurídica legitimadora para su comunicación o tratamiento posterior. Así pues, esta característica de falta de transparencia u opacidad, ha sido llamada en el ámbito de la IA como “efecto de caja negra”. Si queremos que más gente pueda usar la IA, esas personas deben formar parte del diseño dese el principio, recibiendo una explicación del funcionamiento del sistema de IA en cada caso.
En continuación con lo anterior, y derivado de ello, el respeto a los derechos, la privacidad y la protección de datos son retos cada vez mayores por el desarrollo de la IA y ese desarrollo debería complementarse con la ética y los derechos humanos en consideración. Así, pues, tanto el profiling como los procedimientos de decisión automatizadas más o menos avanzados, persiguen dar la respuesta correcta a una persona, sabiendo poco o mucho de ella, pero sin tener en cuenta a la persona en sí, sino su pertenencia a grupos de personas como ella (en función de los datos de los grupos que se han estudiado previamente). De este modo, algunos conjuntos de datos usados para entrenar el “machine learning” basado en sistemas de IA, se han detectado que contienen sesgos inherentes –que pueden estar en el dataset, en la mera técnica de estudio o en los resultados-resultantes de decisiones las cuales pueden injustamente discriminar contra ciertos individuos o grupos, potencialmente restringiendo la posibilidad de poder acceder a ciertos servicios o contenidos y esto interfiere con los derechos humanos como la libertad de expresión y de información o resultando de la exclusión de personas a ciertos aspectos personales, sociales o de la vida profesional.
Para combatir esos sesgos, se deberá aplicar la ética humana en la tecnología. Tendremos que marcar límites éticos como el respeto a los derechos fundamentales de las personas, transparencia y respeto al derecho legítimo de acceso a la información de las partes interesadas. Así como obligar a los ingenieros a respetar la integridad física, la seguridad, la salud y los derechos de las personas en la fabricación de robots permitiendo la reversibilidad del comportamiento para que sea seguro y fiable[4]. Los ingenieros de software están tomando decisiones importantes, siendo esto peligroso, ya que los mismos tienen, o deben tener, una buena experiencia en ciencia computacional e ingeniería y en matemáticas, pero, sin embargo, normalmente no tienen experiencia o conocimientos en ética, leyes, sociología, etc. Un ejemplo es el relacionado con los demandantes de empleo, lo cuales se enfrentarán a que su CV sea procesado por un algoritmo y no por un ser humano, y esos algoritmos serán creados por algún ingeniero o ingenieros, y uno de los mayores peligros que ya está ocurriendo gira en torno a ¿qué ocurre si un ingeniero programa sus propios sesgos dentro del algoritmo? el algoritmo es mejor que un humano en relación a los sesgos y la discriminación puesto que no tiene sentimientos ni subconsciente. Al ser humano le puedes decir, está mal ser racista y este afirmará que es verdad, pero a la hora de aplicar el algoritmo, los sentimientos de subconsciente de la persona pueden crear sesgos en él, existiendo investigaciones que lo demuestran.
Las personas hoy día, confían en estar en mejores manos, más seguras, puesto que el algoritmo no tiene subconsciente, pero la realidad es que hoy día tenemos algoritmos racistas, pero, ellos no discriminan sobre la base de la raza solamente sino que hablamos de una discriminación mucho más amplia como puede ser, por ejemplo, el caso de considerar que los que tienen un determinado código postal son menos trabajadores, y luego resulta que esos códigos postales coinciden con personas que provienen de un determinado origen étnico, y probablemente el ingeniero que creo el algoritmo no era consciente de lo que ha creado, pero debería de haberlo hecho. En toda enseñanza, formación y cursos para ingenieros informáticos, debe incluirse un programa de ética, ética en los códigos. Si los ingenieros fueran más conscientes de la enorme influencia política y económica de su trabajo, y tuvieran una gran concienciación de la ética sobre lo que ellos hacen, entonces incluso aunque el dueño de una gran empresa le diga al trabajador de hacer algo que ellos piensan que no ético, ellos podrían rechazarlo o hacer su trabajo de una forma más responsable éticamente. Si hay alguna profesión que refiere una educación en ética hoy día son los programadores[5].
La IA en sí misma no crea prejuicios, simplemente aprende de los datos que le suministra la persona en concreto. El problema es que muchas veces los datos están sesgados, por ejemplo, en relación a la raza o el sexo, ya que al ingeniero o matemático le dicen; tienes que crear un sistema de IA que otorgue el premio Nobel automáticamente. Lo que se debería hacer es intentar coger tres tipos de datos: los datos de la gente que ha ganado el premio Nobel, los datos de gente que ha sido nominada pero no ha ganado, y los datos de gente que no tienen nada que ver, por ejemplo. Entonces intentaríamos analizar los datos tal para que el sistema pudiera reconocer patrones y ver qué cosas tenían en común aquellos que ganaron el premio Nobel. Si el sistema dice que casi el 100% de los que ganan el premio Nobel son hombres, esto se traduce en que el algoritmo va a aprender que ser hombre es una característica casi imprescindible para ganar el premio nobel, así que, si una mujer tuviera méritos para ganarlo, el algoritmo cuando viera que es una mujer, directamente la descartaría. Posible solución: simplemente eliminar ese tipo de datos que pueda crear sesgos problemáticos. Si en la tabla de datos con la que trabaja el algoritmo eliminamos el dato del sexo, este problema desaparecería.
Como último punto a hablar en este artículo, en relación con el impacto de la IA en el mundo actual, hay que tener en cuenta que para que los países puedan aprovechar las oportunidades que la IA ofrece, deben desarrollar y reforzar las necesarias capacidades tecnológicas y de la industria, lo cual, no es posible en todos los países del mundo de forma igualitaria, lo que genera desigualdad entre países. Tal y como manifiesta el taiwanés Kaifu Lee, experto en IA que presidió Google China y autor de “Superpotencias de la inteligencia artificial”, la IA creará billonarios y reemplazará trabajos haciendo a los pobres más pobres y a los ricos más ricos. Así, pues, es posible que países como EE. UU y China continúen teniendo productos con grandes números de usuarios y datos con los que sus empresas obtendrán beneficios, mientras que los países sin su propio software serán más pobres[6]. Pero esto no es solo lo que puede ocurrir, sino que cada vez más estos algoritmos sustituirán a los humanos en muchos trabajos, sobre todos aquellos que necesitan un buen entendimiento de los sentimientos humanos. Los algoritmos necesitan conocer el comportamiento humano. Los trabajos van a ir cambiando a una velocidad vertiginosa, irán desapareciendo y emergiendo nuevos, puesto que se van a producir grandes revoluciones en décadas, y el gran problema que esto supone es el problema de readaptación del ser humano, el cual tiene que reinventarse con el gran problema psicológico que esto supone, sobre todo para las personas de mayor edad.
CONCLUSIONES
Como toda revolución ocurrida en la historia del ser humano (agrícola, revolución industrial, tecnológica, etc.), la revolución que conlleva los avances en sistemas de IA aporta tanto beneficios como inconvenientes, sin embargo, existen determinados aspectos en relación con estos avances que chocan con aspectos legales y humanos que deben ir resolviéndose a medida que esta tecnología va desarrollándose.
Especial importancia tiene el conocimiento por parte de los interesados del funcionamiento de estos sistemas, debiendo el sistema de IA, aportar información suficiente al interesado, tanto para cumplir con las normas sobre protección de datos como para que estos tengan conocimiento de los riesgos y medidas que suponen estos sistemas a nivel técnico.
En relación al problema de los sesgos, por supuesto no es un problema propio de la IA en sí, y no afecta solo a los ingenieros que crean los códigos, sino también es responsabilidad de los gobiernos que tendrán que intervenir de alguna manera, así como de los clientes o consumidores quienes deben ser más conscientes de lo que ocurre en relación con esta tecnología.
La regulación debe establecer un marco de derechos y obligaciones en relación con la IA, debiendo regularse el diseño y fabricación de los sistemas de IA y posteriormente cuestiones de seguridad como consecuencia de la coexistencia de la IA con las personas. La ley debe definir principios y normas que permitan resolver los conflictos éticos, legales y de seguridad derivados de la robótica y la inteligencia artificial. Además, puesto que la tecnología afecta a la humanidad, las decisiones a adoptar deben involucrar en la toma de decisión a científicos, empresarios, gobernantes y a las personas.
Marta Vargas González
26 de agosto de 2020
Referencias bibliográficas y otros recursos:
- European Commission. WHITE PAPER On Artificial Intelligence – A European approach to excellence and trust. Brussels, 19.2.2020 COM (2020) 65 final.
- Agencia Española de Protección de Datos. Febrero 2020. Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial. Una introducción.
- ICDPPC (International Conference of Data Protection and Privacy Commissionaers). Declaration on Ethics and Data Protection in Artificial Intelligence. 40th International Conference of Data Protection and Privacy Commissioners Tuesday 23rd October 2018, Brussels.
- Revista Jurídica de la Universidad de León, núm. 4, 2017, pp. 25-50.
- Yuval Noah Harari & Rusell Brand. Penguin Talks. The future of Education. https://www.youtube.com/watch?v=j0uw7Xc0fLk&t=1652s%20Subject:%20(15)%20The%20Future%20of%20Education%20%20Yuval%20Noah%20Harari%20&%20Russell%20Brand%20-%20Penguin%20Talks
- Justo Barranco. La Vanguardia. Actualizado a 18/02/2020 03:30. Recuperado de https://www.lavanguardia.com/cultura/20200218/473646311159/la-inteligencia artificial-crea-riqueza-y-desigualdad.html

Marta Vargas González
Jurista, Delegado de Protección de Datos, consultora especializado en privacidad y seguridad de la información. Graduada en Derecho, Máster en Asesoría jurídica. Enfocada en el estudio del desarrollo de las nuevas tecnologías desde un punto de vista técnico y legal.
Perfil digital: linkedin.com/in/marta-vargas-gonzález-668327b3
[1] WHITE PAPER On Artificial Intelligence – A European approach to excellence and trust. Brussels, 19.2.2020 COM (2020) 65 final. European Commission.
[2] Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial. Una introducción. AEPD. Febrero 2020.
[3] Declaration on Ethics and Data Protection in Artificial Intelligence. ICDPPC (International Conference of Data Protection and Privacy Commissionaers). 40th International Conference of Data Protection and Privacy Commissioners Tuesday 23rd October 2018, Brussels
[4] Revista Jurídica de la Universidad de León, núm. 4, 2017, pp. 25-50
[5]https://www.youtube.com/watch?v=j0uw7Xc0fLk&t=1652s%20Subject:%20(15)%20The%20Future%20of%20Education%20-%20Yuval%20Noah%20Harari%20&%20Russell%20Brand%20-%20Penguin%20Talks
[6] https://www.lavanguardia.com/cultura/20200218/473646311159/la-inteligencia-artificial-crea-riqueza-y-desigualdad.html