Autors/es externs a l’inLab FIB: Sara García Arias, criminòloga i especialista en gènere i igualtat
Cada vegada està més present la intel·ligència artificial (IA) en la presa de decisió de molts aspectes de les nostres vides: des d’algorismes de recomanació de compres fins a la selecció de candidatures en entrevistes de feina. Degut a la importància del sistemes de IA en la nostre societat cal preguntar-se si a l’hora de crear aquests algorismes no només se segueixen paràmetres ètics sinó també, i més concretament, si s’aplica la perspectiva de gènere.
IA i els biaixos: desigualtats de gènere
Les diferències de gènere i els estereotips sexistes impregnen la societat en la que vivim, un fet que invariablement porta a que la IA s’alimenti de biaixos cognitius, basats en prejudicis, i es conformin traductors automàtics o cercadors d’imatges sexistes. No obstant, aquests són exemples de conjunt de dades esbiaixat més evidents i en els quals ja s’estan intentant aplicar solucions: Google Translate, per exemple, tradueix alhora al femení i al masculí una paraula sense diferència de gènere en anglès.
Què passaria si ens trobem amb un conjunt de dades representatiu de la realitat, sense un sexisme explícit, sense biaixos cognitius, i no apliquem un enfocament de gènere? Segurament ens toparíem amb una situació semblant a la de Amazon, que es va veure obligat a cancel·lar un projecte en el què una IA experta en reclutament discriminava els CV que incloïen la paraula “dona” entre el seu text. Aquest algorisme s’alimentava d’un conjunt de dades on la majoria de candidatures eren masculines, per consegüent, va aprendre a prioritzar els homes per sobre de les dones.
És per aquest motiu que, tot i tenir un conjunt de dades representatiu de la realitat a nivell mostral i aparentment no esbiaixat, és fonamental la perspectiva de gènere des del primer moment en què es dissenya un algorisme.
Què és l’enfocament de gènere?
Quan es parla de perspectiva o enfocament de gènere ens referim a un anàlisi i identificació de l’existència de construccions socials i culturals pròpies entre dones i homes amb un rerefons de desigualtat i discriminació envers les dones. L’objectiu de l’aplicació de l’enfocament de gènere no és únicament ser conscients d’aquestes diferències sinó crear i posar en marxa solucions per a evitar que es segueixin reproduint.
Un dels conceptes que expliquen aquestes desigualtats és la socialització diferencial de gènere: dones i homes aprenen i reprodueixen els rols i estereotips de cada gènere. Per tant, els temps i els espais estan distribuïts de manera diferent segons siguis socialitzat com a dona o com a home.
Això implica, per exemple, que les dones s’ocupin més de l’esfera privada, és a dir, de les cures i la família, mentre que els homes es desenvolupen més en una esfera pública (segons l’Institut Català de la Dona (2020), les dones demanen el 91,1% de les excedències per a la cura de filles, fills i/o familiars mentre que els homes ho demanen el 9,8% dels casos).
Els problemes de les IA sense enfocament de gènere
Com afecta això a la configuració d’una IA? Doncs, per exemple, aquesta diferenciació de gènere provoca que un percentatge important de les dones treballi a temps parcial (Institut Català de la Dona, 2020). Per tant, si volguéssim conformar una IA amb l’objectiu de cercar una candidatura òptima per a cobrir un lloc de treball a jornada complerta, amb el conjunt de dades amb el que s’entrenarà, la IA acabarà descartant a les dones. Tot i tenir unes dades representatives de la realitat, si no han estat tractades amb perspectiva de gènere, la IA prendrà decisions discriminatòries.
Integració de la perspectiva de gènere en el món STEM
Per evitar perpetuar aquestes diferències de gènere a l’hora de crear un algorisme d’IA és necessari tenir en compte totes aquestes variables amb un enfocament de gènere. Com fer-ho?
A curt termini, en primer lloc, crear equips multidisciplinaris entre enginyeries i ciències socials amb l’objectiu de fusionar i complementar coneixements, de manera que s’identifiquin possibles desigualtats entre el conjunt de dades i es puguin crear algorismes ètics i igualitaris. En segon lloc, crear algorismes no discriminatoris i fer auditories i monitoreig dels mateixos, amb la qual cosa es permetrà detectar qualsevol biaix en el resultat. Per últim, advocar per la transparència i divulgació dels algorismes per a que la societat els pugui entendre i qüestionar.
A llarg termini, d’una banda incidir en la formació i sensibilització en perspectiva de gènere de manera transversal en les enginyeries que serveixi per a realitzar un anàlisi i tractament de les dades dirigit a evitar les desigualtats i, d’altra banda, ampliar i diversificar el conjunt de professionals d’enginyeries fomentant en concret l’accés de les dones a les ciències.
Cadascun d’aquests temes suposa una àrea d’investigació per sí mateixa i convidem al món STEM (Ciència, Tecnologia, Enginyeria i Matemàtiques) a endinsar-se sense por en l’aplicació de l’enfocament de gènere i en matèries d’igualtat en general.
Tenim clar que aquest canvi no es produirà d’un dia per l’altre, però és el nostre deure crear tecnologia que sigui efectiva i justa per a totes les persones i el món. Prendre’n consciència ens permetrà formar part de la solució i no seguir perpetuant aquests models discriminatoris que conformen la realitat en la què vivim però no el món que volem construir.
BIBLIOGRAFIA / REFERÈNCIES
Institut Català de la Dona, 2020. Dossier Dones i Treball
Kuczmarski, J. (2018). Reducing gender bias in Google Translate
https://www.blog.google/products/translate/reducing-gender-bias-google-translate/
Otterbacher, J., Bates, J. & Clough, P. (2017) Competent Men and Warm Women: Gender Stereotypes and Backlash in Image Search Results. In: Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems. 2017 CHI Conference on Human Factors in Computing Systems, 6-11 May 2017, Colorado Convention Center, Denver, CO. Association for Computing Machinery , pp. 6620-6631. http://eprints.whiterose.ac.uk/111419/7/Exploring_bias_FINAL_6_toshare.pdf
Zhou, P., Shi, W., Zhao, J., Huang, K., Chen, M., Cotterell, R. & Chang, K. (2019). Examining gender bias in languages with grammatical gender. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 5276–5284, Hong Kong, China. Association for Computational Linguistics. https://arxiv.org/pdf/1909.02224.pdf