Saltar al contenido
Me Too

El asesino silencioso del “Movimiento Me too”. A cargo de Karin Tafur.

AD 31/2020

Abstract:

La tecnología ha permitido que movimientos tan importantes como el “Me Too” hayan llegado a cada rincón del planeta, permitiendo que se escuche la voz y demandas de todas las mujeres. Sin embargo, cuando las mujeres pensaban que gracias a ello podrían apresurar y conseguir la igualdad de derechos y oportunidades que merecen, se descubre que la futura realidad podría ser peor que la que viven actualmente.  

Palabras clave:

Inteligencia artificial, análisis predictivo, bias, prejuicio, sesgo, discriminación, sexismo, desigualdad de género, discriminación laboral, discriminación financiera, me too, amazon, apple, regulación, justicia, mujer.

Un breve hashtag se hizo totalmente viral en noviembre de 2017, y el mensaje decía:

     “Me Too

Si todas las mujeres que han sido acosadas o agredidas sexualmente, escribieran “Me too”, como un estado, podríamos dar a las personas una idea de la magnitud del problema.”[2]

Tweet de Alyssa Milano 15 de octubre de 2017

 

El twit fue compartido por la actriz Alyssa Milano y, así fue como el #MeToo fue retwiteado y compartido por mujeres de todo el mundo, convirtiéndose en uno de los más virales. Desde ese día el “Movimiento Me Too” da voz a mujeres, de todo el mundo, que fueron acosadas o agredidas sexualmente–, se convirtió en viral en todo el planeta. Pero, para ser más específica, este movimiento empezó hace más de 10 años atrás[3] con la activista Tarana Burke, “su objetivo era “difundir un mensaje para las sobrevivientes [de las agresiones sexuales, para hacerlas saber que nos están solas]: que son escuchadas, que son entendidas.”[4]

Desde esa fecha (2017), el “Movimiento Me Too” viene ayudando y alentando a millones de mujeres de todo el mundo a hablar, no solo sobre las agresiones o el acoso sexual, sino, también, las anima a elevar la voz y denunciar la desigualdad salarial, la inequidad de oportunidad laboral y de promoción; la disparidad (discriminación) con que las mujeres son tratadas por el sistema de justicia; en el sector educativo (absoluta falta de paridad en eventos académicos, colaboraciones, publicaciones y promociones). Discriminación que se extiende no solo en el sector público sino, también, en el privado.

Ante esa realidad, el “Movimiento Me Too” está intentando ayudar a que las mujeres mejoren su calidad de vida en la sociedad pidiendo algo que por justicias nos corresponde, tener igualdad, es decir tener los mimos derechos y oportunidades que los hombres.

A nivel gubernamental y regulatorio se ven atisbos de mejora (claro en diferente medida, en cada país), pero aún nada concreto a nivel regulatorio. De momento no existe un marco normativo vigoroso que sancione la desigualdad de derechos y oportunidades, ese requerimiento es meramente moral.

En estos días, la realidad indica que el “Movimiento Me Too, está logrando un incipiente debate sobre esta gran discriminación masiva contra las mujeres.

Cuando estamos a punto de ver la luz, cuando creemos que pronto ese patrón de conducta discriminadora, empezará a cambiar, nace el análisis predictivo de la Inteligencia Artificial. 

Ahora, te preguntarás ¿qué es eso? y ¿qué tiene que ver con el Movimiento Me Too?  

Para entender ¿qué es el análisis predictivo de la Inteligencia Artificial?, se debe comprender que, “el análisis de datos conduce naturalmente al análisis predictivo utilizando datos recopilados para predecir lo que podría suceder. Las predicciones se basan en datos históricos y se basan en la interacción humana para consultar datos, validar patrones, crear y luego probar supuestos.

Los supuestos extraídos de experiencias pasadas presuponen que el futuro seguirá los mismos patrones (…)”[5].

El problema de ello es que esta Inteligencia Artificial “puede perpetuar fácilmente los patrones existentes de sesgo (bias o prejuicio) y discriminación (…). Lo que es peor, la «apariencia de objetividad» en torno a los sistemas de alta tecnología en general puede oscurecer el hecho de que producen resultados que no son mejores, y a veces son mucho peores, que los obtenidos «de los seres humanos”” [6]. Y, de acuerdo con Lucy BERNHOLZ, Directora de la Sociedad Civil Digital Lab e Investigadora Senior en la Universidad Stanford (PACS), la idea de que las personas pueden eliminar el bias (prejuicio o sesgo) [de los datos], es ciencia ficción, porque rotundamente todos los humanos tenemos bias. De hecho [pese a no haber una regulación que lo exija] las empresas están intentando eliminar el bias existente, solo para evitar ser regulados[7].

Sabiendo ello, lo siguiente que te preguntarás es y ¿qué tiene que ver esta tecnología predictiva con el Movimiento Mee too?

Pues muy sencillo, – pese al esfuerzo del Movimiento Me Too, esta discriminación histórica y masiva, que vivimos todas las mujeres, se incrustará en todos los sectores, sin posibilidad de cambio, gracias a la implementación y uso de esta tecnología predictiva, que como indican los expertos perpetúa los patrones de comportamiento preexistentes (sí, ese, el sexista, discriminatorio y transgresor de nuestros derechos fundamentales). A continuación, casos reales que demuestran ello:

EFECTOS NEGATIVOS DE LA TECNOLOGÍA PREDICTIVA:

Discriminación contra las mujeres a nivel Laboral,

De acuerdo con REUTERS, en 2014, Amazon había desarrollado un programa automatizado para “cazar a los mejores talentos”, donde se “usó inteligencia artificial para dar puntaje de los candidatos, que van de una a cinco estrellas”[8]. En 2015, para la empresa fue evidente que el programa era sexista.

“En efecto, el sistema de Amazon se enseñó a sí mismo que los candidatos masculinos eran preferibles. Y, penalizaba los currículums que incluían la palabra «femenino», como en «capitán del club de ajedrez femenino» (…). Amazon editó los programas para hacerlos neutrales a estos términos particulares. Pero eso no garantizaba que las máquinas no idearan otras formas de clasificar a los candidatos que pudieran resultar discriminatorias. Finalmente, según Amazon, disolvió el sistema a principios de 2017 porque los ejecutivos perdieron la esperanza en el proyecto[9].

Discriminación contra las mujeres a nivel Financiero,

David Heinemeier denunció el 9 de noviembre de 2019 en Twitter, que el programa aplicado por Apple Card, era vergonzosamente sexista. Señaló que su esposa y él presentaban declaraciones de impuestos conjuntas, que viven en una situación de propiedad comunitaria, y que están casados por mucho tiempo y, sin embargo, el algoritmo del black box de Apple le da a él 20 veces más el límite de crédito que tiene su esposa[10], y así empezaron a llegar más reclamaciones contra el algoritmo sexista de Apple Card. Actualmente, la tarjeta de Apple está siendo investigada por el Departamento de Servicios Financieros del Estado de Nueva York.

Pese a ello, lo que hace que el tema sea alarmante es lo indicado por el Comisionado, Rohit CHOPRA, de la Comisión Federal de Comercio de EEUU, quien advierte que“los algoritmos no sólo no son públicos, sino que muchas empresas los tratan como secretos comerciales patentados. Para empeorar las cosas, el aprendizaje automático significa que los algoritmos pueden evolucionar en tiempo real sin un rastro de papel en los datos, entradas o ecuaciones utilizadas para desarrollar una predicción [mostrando su preocupación por lo difícil que es probar la discriminación en esta tecnología]. Las víctimas de los algoritmos discriminatorios rara vez, si es que alguna vez, saben que han sido victimizados [mostrando su preocupación por lo difícil que es darse cuenta de estar siendo discriminada por esta tecnología]”.[11]  Dos elementos que hacen mucho más preocupante este programa porque lo hace asesino silencioso de un derecho tan fundamental como el de la igualdad.

El problema de esto, es que como la inteligencia artificial (programa predictivo) no está regulada, no tenemos certeza de que su uso haya cesado en Amazon, o inclusive en Apple u otras empresas en el resto del mundo, pues al no estar regulada, absolutamente nadie (salvo en ciertas excepciones) puede corroborar ello; cuyo uso inadecuado, podría afectar negativamente la vida del 50% de la humanidad (las mujeres) perpetuando su vida a una discriminación sistemática.

Se debe exigir una regulación robusta que no solo sancione administrativamente la vulneración de los derechos fundamentales por el uso de programas predictivos, sino, punitivamente, para que haya un verdadero cambio de conducta en cuanto a la Inteligencia Artificial predictiva. En caso contrario seguiremos viendo a esta tecnología en todos los sectores del mercado, prometiendo maravillas inalcanzables y, calificando a su regulación, como inconvenientes administrativos superables.

https://adefinitivas.com/arbol-del-derecho/nuevas-tecnologias/me-too/(abre en una nueva pestaña)

Karin Tafur[1],

9 de marzo de 2020


CITA DE ARTÍCULO: TAFUR, Karin.  El asesino silencioso del “Movimiento Me too”. En Adefinitivas, marzo-2020. [https://adefinitivas.com/arbol-del-derecho/nuevas-tecnologias/me-too/]
Imagen de la autora Karin Tafur
Karin Tafur

Karin TAFUR, es Jurista, Legal Tech Entrepreneur y Speaker (Magister en Ciencias Jurídicas por la Universidad Pompeu Fabra; Seleccionada por la Fundación Rafel del Pino para el Summer Course in Law & Economic- John M. Olin Center for Law, Economic and Business, Harvard Law School y, actualmente, cursa el Programa “Strategic Management and Innovation” en Copenhagen Business School). Como Jurista su principal misión es investigar las implicancias de la tecnología en el sector legal y en la sociedad, así como incentivar su desarrollo y uso, de modo responsable e inclusivo.


Referencias ([12])

BBC News. “Gender study finds 90% of people are biased against women”. Marzo, 2020. https://www.bbc.com/news/world-51751915

BERNHOLZ, Lucy. “Women in Data Science Conference”. Stanford University. Marzo, 2020 (time 4:29:52). https://www.youtube.com/watch?v=by3lyP-mAiU

DASTIN, Jeffrey. “Amazon scraps secret AI recruiting tool that showed bias against women”. Reuters. Octubre, 2018.

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

HARRIS, Aysha. “She Founded Me Too. Now She Wants to Move Past the Trauma”. New York Times. Octubre, 2018. https://www.nytimes.com/2018/10/15/arts/tarana-burke-metoo-anniversary.html

HAUSER, Robin. “Can we protect AI from our biases?”. Robin Hauser. TED Institute, febrero, 2018. https://www.youtube.com/watch?v=eV_tx4ngVT0

LEE, Samantha and Shana LEBOWITZ. “20 cognitive biases that screw up your decisions”. Business Insider. Agosto, 2015. https://www.businessinsider.com/cognitive-biases-that-affect-decisions-2015-8?IR=T  

Si no tienes acceso a Business Insider ouedes intentar ver la infografía de LEE, Samantha y Shana LEBOWITZ en: HALE, Tom. “Twenty Cognitive Biases That Could Be Helping You Make Bad Decisions”. Iflscience. Octubre, 2015. https://www.iflscience.com/brain/20-cognitive-biases-which-make-you-form-bad-decisions/

LOI, Michele. “People Analytics must benefit the people. An ethical analysis of data-driven algorithmic systems in human resources management”. Algorithm Watch. Marzo, 2020. https://algorithmwatch.org/wp-content/uploads/2020/03/AlgorithmWatch_AutoHR_Study_Ethics_Loi_2020.pdf

NASIRIPOUR, Shahien, SURANE, Jennifer y Sridhar NATARAJAN. “Apple Card’s Gender-Bias claims look familiar to old-School Banks. Bloomberg Businessweek. Noviembre, 2019. https://www.bloomberg.com/news/articles/2019-11-11/apple-card-s-ai-stumble-looks-familiar-to-old-school-banks

NORTH, Anna. “7 positive changes that have come from the #MeToo movement”. VOX. Octubre, 2019. https://www.vox.com/identities/2019/10/4/20852639/me-too-movement-sexual-harassment-law-2019

O’NEIL, Cathy. “The era of blind faith in big data must end”. TED. Septiembre, 2017. https://www.youtube.com/watch?v=_2u_eHHzRto

O’NEIL, Cathy. “Weapons of Math Destruction”. TED. Junio, 2015. https://www.youtube.com/watch?v=gdCJYsKlX_Y

RASO, Filippo and others. Artificial Intelligence & Human Rights. Berkman Klein Center, For Internet & Society at HARVARD UNIVERSITY. Septiembre, 2018, p. 7. https://cyber.harvard.edu/sites/default/files/2018-09/2018-09_AIHumanRightsSmall.pdf

REAVIE, Vance. “Do you know the difference between Data Analytics and AI Machine Learning?”. Forbes. Agosto, 2018.

https://www.forbes.com/sites/forbesagencycouncil/2018/08/01/do-you-know-the-difference-between-data-analytics-and-ai-machine-learning

VINCENT, James. “Apple’s credit card is being investigated for discriminating against women, Customers say the card offers less credit to women than men”. The Verge. Noviembre, 2019. https://www.theverge.com/2019/11/11/20958953/apple-credit-card-gender-discrimination-algorithms-black-box-investigation

WOMEN IN DATA SCIENCE CONFERENCE. Stanford University. Marzo, 2020. https://www.youtube.com/watch?v=by3lyP-mAiU

WOMEN IN DATA SCIENCE CONFERENCE. “Ethics Panel”. Stanford University. Marzo, 2020.

UNITED NATION DEVELOPMENT PROGRAMME. “Almost 90% of Men/Women Globally Are Biased Against Women”. Marzo, 2020. https://www.undp.org/content/undp/en/home/news-centre/news/2020/Gender_Social_Norms_Index_2020.html

http://hdr.undp.org/sites/default/files/hd_perspectives_gsni.pdf

UMOJA NOBLE, Safiya. “How biased are our algorithms?”. TED. Abril, 2014. https://www.youtube.com/watch?v=UXuJ8yQf6dI


Bibliografía

[1]  Karin TAFUR, es Jurista, Legal Tech Entrepreneur y Ponente (Magister en Ciencias Jurídicas por la Universidad Pompeu Fabra; Seleccionada por la Fundación Rafel del Pino para el Summer Course in Law & Economic- John M. Olin Center for Law, Economic and Business, Harvard Law School y, actualmente, cursa el Programa “Strategic Management and Innovation” en Copenhagen Business School). Su principal misión como Jurista es investigar las implicancias de la tecnología en el sector legal y en la sociedad, así como incentivar su desarrollo y uso, de modo responsable e inclusivo.

[2]  Traducción del mensaje compartido en Twitter por la actriz Alyssa Milano [traducción propia].

[3]  HARRIS, Aysha. “She Founded Me Too. Now She Wants to Move Past the Trauma”. New York Times. Octubre, 2018. [Traducción y corchetes propio] https://www.nytimes.com/2018/10/15/arts/tarana-burke-metoo-anniversary.html

[4]  NORTH, Anna. “7 positive changes that have come from the #MeToo movement”. VOX. Octubre, 2019. https://www.vox.com/identities/2019/10/4/20852639/me-too-movement-sexual-harassment-law-2019

[5]  REAVIE, Vance. “Do you know the difference between Data Analytics and AI Machine Learning?”. Forbes. Agosto, 2018 [Traducción propia].

https://www.forbes.com/sites/forbesagencycouncil/2018/08/01/do-you-know-the-difference-between-data-analytics-and-ai-machine-learning

[6]  RASO, Filippo and others. Artificial Intelligence & Human Rights. Berkman Klein Center, For Internet & Society at HARVARD UNIVERSITY. Septiembre, 2018, p. 7 [Traducción propia, puntos suspensivos, paréntesis y negrita, propia]. https://cyber.harvard.edu/sites/default/files/2018-09/2018-09_AIHumanRightsSmall.pdf

[7] BERNHOLZ, Lucy. “Women in Data Science Conference”. Stanford University. Marzo, 2020 (time 4:29:52) [Traducción, corchetes, paréntesis y negritas, propia].

https://www.youtube.com/watch?v=by3lyP-mAiU

[8]  DASTIN, Jeffrey. “Amazon scraps secret AI recruiting tool that showed bias against women”. Reuters. Octubre, 2018 [Traducción propia].

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

[9] DASTIN, Jeffrey. “Amazon scraps secret AI recruiting tool that showed bias against women”. Reuters. Octubre, 2018 [Traducción, negrita y paréntesis propia].

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

[10] VINCENT, James. “Apple’s credit card is being investigated for discriminating against women, Customers say the card offers less credit to women than men”.The Verge. Noviembre, 2019 [Traducción y negritas propia].

https://www.theverge.com/2019/11/11/20958953/apple-credit-card-gender-discrimination-algorithms-black-box-investigation

[11] NASIRIPOUR, Shahien, SURANE, Jennifer y Sridhar NATARAJAN. “Apple Card’s Gender-Bias claims look familiar to old-School Banks. Bloomberg Businessweek. Noviembre, 2019 [Traducción, negrita y corchete propia]. https://www.bloomberg.com/news/articles/2019-11-11/apple-card-s-ai-stumble-looks-familiar-to-old-school-banks

[12]  Las ideas vertidas en el presente artículo fueron tomadas mayormente de la siguiente Referencias.

Deja un comentario

A %d blogueros les gusta esto: