Autores externos al inLab FIB: Sara García Arias, criminóloga y especialista en género e igualdad

Cada vez está más presente la inteligencia artificial (IA) en la toma de decisiones de muchos aspectos de nuestras vidas: desde algoritmos de recomendación de compras hasta la selección de candidaturas en entrevistas de trabajo. Debido a la importancia de los sistemas de IA en nuestra sociedad, es necesario preguntarse si en el momento de crear estos algoritmos no sólo se siguen parámetros éticos, sino también, y más concretamente, si se aplica la perspectiva de género.

IA y los sesgos: desigualdades de género

Las diferencias de género y los estereotipos sexistas impregnan la sociedad en la que vivimos, un hecho que invariablemente lleva a que la IA se alimente de sesgos, basados en prejuicios, y se conformen traductores automáticos o buscadores de imágenes sexistas. No obstante, estos son ejemplos de conjunto de datos sesgados más evidentes y en los que ya se están intentando aplicar soluciones: Google Translate, por ejemplo, traduce a la vez al femenino y al masculino una palabra sin diferencia de género en el inglés.
 
¿Qué pasaría si nos encontramos con un conjunto de datos representativo de la realidad, sin un sexismo explícito, sin sesgos cognitivos, y no aplicamos un enfoque de género? Seguramente nos toparíamos ante una situación parecida a la de Amazon, que se vio obligado a cancelar un proyecto en el que una IA experta en reclutamiento discriminaba los CV que incluían la palabra “mujer” entre su texto. Este algoritmo se alimentaba de un conjunto de datos donde la mayoría de candidaturas eran masculinas, por ende, aprendió a priorizar a los hombres por encima de las mujeres.
 
Es por este motivo por el que, a pesar de tener un conjunto de datos representativo de la realidad a nivel mostral y aparentemente no sesgado, es fundamental la perspectiva de género desde el primer momento en el que se diseña un algoritmo.
 

¿Qué es el enfoque de género?

Cuando se habla de perspectiva o enfoque de género, nos referimos a un análisis e identificación de la existencia de construcciones sociales y culturales propias entre mujeres y hombres con un trasfondo de desigualdad y discriminación hacia las mujeres. El objetivo de la aplicación del enfoque de género no es únicamente ser conscientes de estas diferencias sino de crear y poner en marcha soluciones para evitar que se sigan reproduciendo.
Uno de los conceptos que explican estas desigualdades es la socialización diferencial de género: mujeres y hombres aprenden y reproducen los roles y estereotipos de cada género. Por tanto, el tiempo y los espacios están distribuidos de manera diferente según seas socializado como mujer o como hombre.
Esto implica, por ejemplo, que las mujeres se ocupen más de la esfera privada, es decir, del cuidado y la familia, mientras que los hombres se desarrollan más en una esfera pública (según el Institut Català de la Dona (2020), las mujeres solicitan el 91,1% de las excedencias para el cuidado de las hijas, hijos y/o familiares, mientras que los hombres lo piden el 9,8% de los casos).
 

Los problemas de la IA sin enfoque de género

¿Cómo afecta esto a la configuración de una IA? Pues, por ejemplo, esta diferenciación de género provoca que un porcentaje importante de las mujeres trabajen a tiempo parcial (Institut Català de la Dona, 2020). Por tanto, si quisiéramos conformar una IA con el objetivo de buscar una candidatura óptima para cubrir un puesto de trabajo a jornada completa, con el conjunto de datos con el que se entrenará, la IA acabará descartando a las mujeres. A pesar de tener unos datos representativos de la realidad, si no han sido tratados con perspectiva de género, la IA tomará decisiones discriminatorias.

 

Integración de la perspectiva de género en el mundo STEM

Para evitar perpetuar estas diferencias de género en el momento de crear un algoritmo de IA es necesario tener en cuenta todas estas variables con un enfoque de género. ¿Cómo hacerlo?

A corto plazo, en primer lugar, crear equipos multidisciplinares entre ingenierías y ciencias sociales con el objetivo de fusionar y complementar conocimientos, de modo que se identifiquen posibles desigualdades entre el conjunto de datos y se puedan crear algoritmos éticos e igualitarios. En segundo lugar, crear algoritmos no discriminatorios y hacer auditorías y monitoreo de los mismos, de tal manera que se podrá detectar cualquier sesgo en el resultado. Por último, abogar por la transparencia y divulgación de los algoritmos para que la sociedad los pueda entender y cuestionar.

A largo plazo, por un lado incidir en la formación y sensibilización en perspectiva de género de manera transversal en las ingenierías que sirva para realizar un análisis y tratamiento de los datos dirigido a evitar desigualdades y, por otro lado, amplificar y diversificar el conjunto de profesionales de ingenierías fomentando en concreto el acceso de las mujeres en las ciencias.

Cada uno de estos temas supone una área de investigación por sí misma e invitamos al mundo STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) a adentrarse sin miedo en la aplicación del enfoque de género y en materias de igualdad en general.

Tenemos claro que este cambio no se producirá de un día para otro, pero es nuestro deber crear tecnología que sea efectiva y justa para todas las personas y el mundo. Tomar conciencia nos permitirá formar parte de la solución y no seguir perpetuando modelos discriminatorios que conforman la realidad en la que vivimos pero no el mundo que queremos construir.

 

BIBLIOGRAFIA / REFERENCIAS 

Institut Català de la Dona, 2020. Dossier Dones i Treball

http://dones.gencat.cat/web/.content/03_ambits/Observatori/03_dossiers_estadistics/2020-Dossier-Dones-i-Treball.pdf

Kuczmarski, J. (2018). Reducing gender bias in Google Translate

https://www.blog.google/products/translate/reducing-gender-bias-google-translate/

Otterbacher, J., Bates, J. & Clough, P. (2017) Competent Men and Warm Women: Gender Stereotypes and Backlash in Image Search Results. In: Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems. 2017 CHI Conference on Human Factors in Computing Systems, 6-11 May 2017, Colorado Convention Center, Denver, CO. Association for Computing Machinery , pp. 6620-6631. http://eprints.whiterose.ac.uk/111419/7/Exploring_bias_FINAL_6_toshare.pdf

Zhou, P., Shi, W., Zhao, J., Huang, K., Chen, M., Cotterell, R. & Chang, K. (2019). Examining gender bias in languages with grammatical gender. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 5276–5284, Hong Kong, China. Association for Computational Linguistics. https://arxiv.org/pdf/1909.02224.pdf