Autores externos al inLab FIB: Sara García Arias, criminóloga y especialista en género e igualdad
Cada vez está más presente la inteligencia artificial (IA) en la toma de decisiones de muchos aspectos de nuestras vidas: desde algoritmos de recomendación de compras hasta la selección de candidaturas en entrevistas de trabajo. Debido a la importancia de los sistemas de IA en nuestra sociedad, es necesario preguntarse si en el momento de crear estos algoritmos no sólo se siguen parámetros éticos, sino también, y más concretamente, si se aplica la perspectiva de género.
IA y los sesgos: desigualdades de género
¿Qué es el enfoque de género?
Los problemas de la IA sin enfoque de género
¿Cómo afecta esto a la configuración de una IA? Pues, por ejemplo, esta diferenciación de género provoca que un porcentaje importante de las mujeres trabajen a tiempo parcial (Institut Català de la Dona, 2020). Por tanto, si quisiéramos conformar una IA con el objetivo de buscar una candidatura óptima para cubrir un puesto de trabajo a jornada completa, con el conjunto de datos con el que se entrenará, la IA acabará descartando a las mujeres. A pesar de tener unos datos representativos de la realidad, si no han sido tratados con perspectiva de género, la IA tomará decisiones discriminatorias.
Integración de la perspectiva de género en el mundo STEM
Para evitar perpetuar estas diferencias de género en el momento de crear un algoritmo de IA es necesario tener en cuenta todas estas variables con un enfoque de género. ¿Cómo hacerlo?
A corto plazo, en primer lugar, crear equipos multidisciplinares entre ingenierías y ciencias sociales con el objetivo de fusionar y complementar conocimientos, de modo que se identifiquen posibles desigualdades entre el conjunto de datos y se puedan crear algoritmos éticos e igualitarios. En segundo lugar, crear algoritmos no discriminatorios y hacer auditorías y monitoreo de los mismos, de tal manera que se podrá detectar cualquier sesgo en el resultado. Por último, abogar por la transparencia y divulgación de los algoritmos para que la sociedad los pueda entender y cuestionar.
A largo plazo, por un lado incidir en la formación y sensibilización en perspectiva de género de manera transversal en las ingenierías que sirva para realizar un análisis y tratamiento de los datos dirigido a evitar desigualdades y, por otro lado, amplificar y diversificar el conjunto de profesionales de ingenierías fomentando en concreto el acceso de las mujeres en las ciencias.
Cada uno de estos temas supone una área de investigación por sí misma e invitamos al mundo STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) a adentrarse sin miedo en la aplicación del enfoque de género y en materias de igualdad en general.
Tenemos claro que este cambio no se producirá de un día para otro, pero es nuestro deber crear tecnología que sea efectiva y justa para todas las personas y el mundo. Tomar conciencia nos permitirá formar parte de la solución y no seguir perpetuando modelos discriminatorios que conforman la realidad en la que vivimos pero no el mundo que queremos construir.
BIBLIOGRAFIA / REFERENCIAS
Institut Català de la Dona, 2020. Dossier Dones i Treball
Kuczmarski, J. (2018). Reducing gender bias in Google Translate
https://www.blog.google/products/translate/reducing-gender-bias-google-translate/
Otterbacher, J., Bates, J. & Clough, P. (2017) Competent Men and Warm Women: Gender Stereotypes and Backlash in Image Search Results. In: Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems. 2017 CHI Conference on Human Factors in Computing Systems, 6-11 May 2017, Colorado Convention Center, Denver, CO. Association for Computing Machinery , pp. 6620-6631. http://eprints.whiterose.ac.uk/111419/7/Exploring_bias_FINAL_6_toshare.pdf
Zhou, P., Shi, W., Zhao, J., Huang, K., Chen, M., Cotterell, R. & Chang, K. (2019). Examining gender bias in languages with grammatical gender. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 5276–5284, Hong Kong, China. Association for Computational Linguistics. https://arxiv.org/pdf/1909.02224.pdf