Saltar al contenido

¡LA INTELIGENCIA ARTIFICIAL Y SUS “BIAS” EN EL SISTEMA DE JUSTICIA! A cargo de la Mg. Karin Tafur

AD 2/2020

Abstract:

El uso de la inteligencia artificial está impactando de modo muy positivo los diferentes sectores económicos del mercado, privado y público. Actualmente está siendo usado de modo casi discreto en el sector público, en específico en el Departamento de justicia, para mejorar su eficiencia y asertividad. Lamentablemente, no han sido advertidos de los peligros que ello implica.

Palabras claves:

  • Inteligencia artificial
  • Bias
  • Prejuicio
  • Discriminación
  • Justicia
  • Algoritmo

La inteligencia artificial (IA) ha traído muchas ventajas a la sociedad, entre ellas, se puede mencionar, por ejemplo, la personalización de la educación[2], que beneficia a niños con problemas de aprendizaje; en la salud, el último progreso es la detección de cáncer (en un estadío más temprano) superando la precisión de los médicos[3]; el reconocimiento facial y de emociones que ayudará a la eficiencia en el sistema de justicia; la ciberseguridad, etc.

Para adentrarnos en el tema es importante entender ¿qué es la inteligencia artificial? Al respecto existen muchas definiciones, entre ellas, una de las más claras es la que la considera como la “rama de la ciencia de la computación que se encarga de los sistemas que imitan comportamientos cognitivos de los seres vivos, tales como ver, leer, hablar aprender, tomar decisiones, etc., y un subcampo de ésta, conocida como machine learning, se encarga de los algoritmos que aprenden patrones a través de la alimentación sucesiva de datos digitales”[4].

Conocedores de los beneficios que trae la inteligencia artificial, países como China y Estonia, se han concentrado en avanzar esta tecnología, desarrollando jueces virtuales, que permitirán aportar a sus respectivos sistemas judiciales, lo que todo sistema judicial en el mundo está deseoso de tener: rapidez, eficiencia, imparcialidad, seguridad y previsibilidad. La decisión, que esta tecnología tome, será de las más confiables dado que, estará basada en información que se ha obtenido de los casos previos, desarrollando patrones de respuesta estándar y/o generalizadas; asimismo, debido a que es una “maquina” carente de emoción, tendrá una verdadera imparcialidad en su resolución.

En Estonia, por ejemplo, se espera que próximamente sus jueces-IA, inicien sus actividades resolviendo demandas de cantidades, no superiores a 7 mil euros, que deberán ser presentados en soporte digital y cuyo proceso termina con la emisión de la sentencia del juez-IA. Por su parte, China hace unos años atrás ya contaba con jueces-IA; sin embargo, en 2019 dio un paso más allá, al dar a conocer la creación de un centro de litigios online, llamado Tribunal de Internet de Pekín, desarrollado plenamente con inteligencia artificial (donde se podrá comprobar la trazabilidad de las pruebas, entre otros) en la que los jueces-IA tendrán la función de resolver litigios no complejos.

Sin embargo, indican que antes de dedicarse a resolver casos en el Tribunal de Internet de Pekín, tendrán que servir de apoyo, como asistentes, de los jueces de carne y hueso, para luego resolver como jueces, en función del cargo que se les otorgue en el mencionado Tribunal[5]

Conocedores de las ventajas que trae consigo la inteligencia artificial: eficiencia, fiabilidad, imparcialidad, previsibilidad, etc., se evidencia el gran interés que ésta despierta; después de todo es un sistema matemático y objetivo.

Actualmente la policía y el sistema de Justicia Criminal de Estados Unidos usan herramientas como la Inteligencia Artificial, para la evaluación de riesgos, mediante el análisis de grandes cantidades de datos que pueden estar asociadas con futuras posibilidades de actividades criminales y los utilizan con fines predictivos [vigilancia predictiva] que permite a los Departamentos de Policía, por ejemplo, asignar más recursos a las áreas más afectadas por el crimen; así como, a los Tribunales a establecer de forma más estratégica los importes de la fianza, la duración de las condenas, etc[6].

En 2016, investigadores periodísticos de ProPublica[7], dieron a conocer que los diversos Juzgados de Estados Unidos hacían uso de algoritmos predictivos para ayudar determinar a los jueces si un acusado, por ejemplo, debería esperar la sentencia en prisión o fuera de ella. Lo que descubrieron, como consecuencia de ello, fue que, lamentablemente, estos algoritmos eran significativamente desventajosos para los acusados de color (o de raza negra), dado que, normalmente, los resultados sugerían a los jueces que los acusados de color podían ser más reincidentes en un 44.9% mientras que un acusado blanco podría serlo solo en 23.5%[8]. Por lo cual, se evidenciaba que el uso de algoritmos en el sistema de justicia, ayudaba a perpetuar el perjuicio o discriminación contra las personas de color.

Ahora te preguntarás ¿qué es lo que sucede con esta inteligencia artificial? ¿Parece no ser tan confiable como se decía?

Como se indicaba, la mayoría de las aplicaciones utilizadas por la justicia criminal en EEUU se centran en herramientas de evaluación de riesgos. De acuerdo a Larry SCHWARTZTOL, Director Ejecutivo del Programa de Justicia Criminal en Harvard Law School (2017), las intervenciones tecnológicas están cargadas de preguntas normativas. De hecho, si bien la evaluación del riesgo idealmente debería mejorar el sesgo humano [prejuicios o discriminación, en inglés conocido como “bias”], algunos nuevos algoritmos [contenidos en la inteligencia artificial] han recibido duras críticas por la fuerte correlación de sus resultados con [determinada predilección de] raza [que induciría a la discriminación]. Algunos de estos sesgos pueden estar enraizados, en principio, en los datos que se utilizan para entrenar los algoritmos. Además, los algoritmos de evaluación de riesgos todavía están programados por humanos, por lo que la toma de decisiones en humanos, por pequeña que sea, todavía tiene el potencial de introducir sesgos [es decir, cierta discriminación][9].

Pese a lo preocupante del sesgo como consecuencia del uso de la Inteligencia Artificial (que nos conduce a la perpetuación de la discriminación ya existente o a patrones de conductas estandarizados, pero no por eso aceptados actualmente), solo algunas empresas tecnológicas han creado equipos para detectar este sesgo (prejuicios o discriminación) que produce los datos, para eliminarlas, haciéndolas más neutrales e inclusivas.

Ahora, sabiendo que existen personas que corrigen dicho sesgo, ya sea provenientes de la formula del algoritmo o de los datos recolectados, esta corrección ¿será suficiente para considerar a la Inteligencia artificial libre de cualquier sesgo prejuicioso o discriminatorio? Después de todo la corrección del algoritmo discriminador es guiada por otro ser humano que, si bien, puede ser el o la mejor representante de la humanidad, pero aun así por el solo hecho de ser un ser humano seguirá teniendo prejuicios como cualquier otro.

Después de leer esto, ¿aún estás entusiasmado por el ingreso de la IA en el sistema de justicia? o ¿por ser juzgado por un juez robot?

Mg. Karin Tafur[1]

8 de enero de 2020


Fotografía de la autora del artículo "La inteligencia artificial y sus "bias" en el sistema de justicia", Karin Tfur

Karin TAFUR, es Jurista, Legal Tech Entrepreneur y Speaker (Magister en Ciencias Jurídicas por la Universidad Pompeu Fabra; Seleccionada por la Fundación Rafel del Pino para el Summer Course in Law & Economic- John M. Olin Center for Law, Economic and Business, Harvard Law School y, actualmente, cursa el Programa “Strategic Management and Innovation” en Copenhagen Business School). Su principal misión es investigar las implicancias de la tecnología en el sector legal y en la sociedad, e incentivar su uso, de modo responsable e inclusivo.

 


CITA DE ARTÍCULO:   TAFUR, Karin. ¡La inteligencia artificial y sus “bias” en el sistema de justicia! En Adefinitivas, enero-2020. https://adefinitivas.com/

Bibliografía ([10])

ANGWIN, Julia; LARSON, Jeff; MATTU, Surya and Lauren KIRCHNER. Machine Bias. There´s software used across the country to predict future criminals. And it´s biases against blacks. En ProPublica, Mayo-2016. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

CONFILEGAL. China y Estonia desarrollan «jueces virtuales» basados en Inteligencia Artificial para resolver demandas de cantidad. Octubre-2019. https://confilegal.com/20191013-china-y-estonia-desarrollan-jueces-virtuales-basados-en-inteligencia-artificial-para-resolver-demandas-de-cantidad/

CNBC. How AI could reinforce biases in the Criminal Justice System. Marzo- 2019. https://www.youtube.com/watch?v=ZMsSc_utZ40

FARID, Hany. The danger of predictive algorithms in criminal justice. TED, octubre-2018. https://www.youtube.com/watch?v=p-82YeUPQh0

FUENTES CABRERA, José. ¿Por qué no debes confundir Big Data, Business Intelligence e Inteligencia artificial? En Forbes, octubre- 2019. https://www.forbes.com.mx/por-que-no-debes-confundir-big-data-business-intelligence-e-inteligencia-artificial

HAUSER, Robin. Can we protect AI from our biases? | Robin Hauser. TED Institute, febrero-2018. https://www.youtube.com/watch?v=eV_tx4ngVT0

IYENGAR, Vinay. Artificially Intelligent Criminal Justice Reform. En Harvard Political Review, julio-2017. https://harvardpolitics.com/online/artificially-intelligent-criminal-justice-reform/

MCKINNEY, S.M., SIENIEK, M., GODBOLE, V. y otros. International evaluation of an AI system for breast cancer screening. En Nature. Nº 577, enero-2020. https://www.nature.com/articles/s41586-019-1799-6#citeas

O’NEIL, Cathy. The era of blind faith in big data must end. TED, septiembre-2017. https://www.youtube.com/watch?v=_2u_eHHzRto

SCHMELZER, Ron. AI Applications In Education. En Forbes, julio-2019. SCHMELZER, Ron. AI Applications In Education. En Forbes, julio-2019. shttps://www.forbes.com/sites/cognitiveworld/2019/07/12/ai-applications-in-education/

STANDFORD LAW SCHOOL’S CENTER FOR LEGAL INFORMATICS (CodeX). Future Law 2019- How will Technology shape the future of Law. Abril-2019. https://law.stanford.edu/press/futurelaw-2019-how-will-technology-shape-the-future-of-law/

THE GUARDIAN. The Guardian view on crime and algorithms: big data makes bigger problems. Febrero-2019. https://www.theguardian.com/commentisfree/2019/feb/04/the-guardian-view-on-and-algorithms-big-data-makes-bigger-problems

UMOJA NOBLE, Safiya. How biased are our algorithms? TED, abril-2014. https://www.youtube.com/watch?v=UXuJ8yQf6dI


[1]  Karin TAFUR, es Jurista, Legal Tech Entrepreneur y Speaker (Magister en Ciencias Jurídicas por la Universidad Pompeu Fabra; Seleccionada por la Fundación Rafel del Pino para el Summer Course in Law & Economic- John M. Olin Center for Law, Economic and Business, Harvard Law School y, actualmente, cursa el Programa “Strategic Management and Innovation” en Copenhagen Business School). Su principal misión es investigar las implicancias de la tecnología en el sector legal y en la sociedad, e incentivar su uso, de modo responsable e inclusivo. Contacto: karin.tafur@outlook.com

[2]  SCHMELZER, Ron. AI Applications In Education. En Forbes, julio-2019. SCHMELZER, Ron. AI Applications In Education. En Forbes, julio-2019. https://www.forbes.com/sites/cognitiveworld/2019/07/12/ai-applications-in-education/

[3]  MCKINNEY, S.M., SIENIEK, M., GODBOLE, V. y otros. International evaluation of an AI system for breast cancer screening. En Nature. Nº 577, enero-2020. https://www.nature.com/articles/s41586-019-1799-6#citeas

[4]  FUENTES CABRERA, José. ¿Por qué no debes confundir Big Data, Business Intelligence e Inteligencia artificial? En Forbes, octubre- 2019. https://www.forbes.com.mx/por-que-no-debes-confundir-big-data-business-intelligence-e-inteligencia-artificial/

[5]  CONFILEGAL. China y Estonia desarrollan «jueces virtuales» basados en Inteligencia Artificial para resolver demandas de cantidad. Octubre-2019. https://confilegal.com/20191013-china-y-estonia-desarrollan-jueces-virtuales-basados-en-inteligencia-artificial-para-resolver-demandas-de-cantidad/

[6] IYENGAR, Vinay. Artificially Intelligent Criminal Justice Reform. En Harvard Political Review, julio-2017 [Corchetes y traducción propia]. https://harvardpolitics.com/online/artificially-intelligent-criminal-justice-reform/

[7]  ANGWIN, Julia; LARSON, Jeff; MATTU, Surya and Lauren KIRCHNER. Machine Bias. There´s software used across the country to predict future criminals. And it´s biases against blacks. En ProPublica, mayo-2016. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[8] FARID, Hany. The danger of predictive algorithms in criminal justice. TED, octubre-2018 [traducción propia]. https://www.youtube.com/watch?v=p-82YeUPQh0

[9] IYENGAR, Vinay. Artificially Intelligent Criminal Justice Reform. En Harvard Political Review, julio-2017 [Corchetes y traducción propia]. https://harvardpolitics.com/online/artificially-intelligent-criminal-justice-reform/

[10]  Las ideas vertidas en este artículo fueron tomadas de la siguiente bibliografía

Deja un comentario

A %d blogueros les gusta esto: