Hagamos una prueba. Vaya a Google Translate y pídale que traduzca ‘boss’ (jefe/a). Respuesta: jefe. Nuevo test: pongamos ‘nurse’ (enfermera/o). Resultado: enfermera. Si opta por ‘baby sitter’ (cuidador/a de niños) la respuesta será ‘niñera’ y en cambio si escribe ‘doctor’ el resultado que le devolverá será ‘médico’. ¿Cuál es el problema? Que en inglés el género es invariable y que estos resultados y cambios de género son culpa del motor de machine learning que utiliza el traductor del gigante de Silicon Valley.
Entre sus miles de millones de páginas con contenido en inglés y castellano de todo el mundo, el sistema de inteligencia artificial que se esconde tras Google Translate ha decidido que cuando uno pregunta por las palabras médico (doctor) o jefe (boss) la respuesta debe darse en masculino y que cuando se pregunta por enfermeros (nurse) o cuidadores de niños (baby sitter) las personas que desempeñan esos empleos son mujeres. Esto es: que asimila esos trabajos en función del género de quienes cree que los representa en su mayoría y reproduce, por tanto, los estereotipos más sexistas.
“Hay mucha investigación sobre la parcialidad de los algoritmos en materia de edad u origen étnico, pero no tanta de género en particular y es importante porque es algo muy común”, cuenta Kate McCurdy, ingeniera lingüista en la plataforma de aprendizaje de idiomas Babbel y que ha desarrollado distintas investigaciones para demostrar que en las traducciones entre idiomas online se pueden producir importantes errores a costa de la presunción de género que hacen los algoritmos de inteligencia artificial.
“Los algorimos cogen toneladas de datos, de lo que la gente escribe en las webs, de los documentos… y esa es la base a partir de la que se entrenan los modelos después”, explica. ¿Cuál es el problema? Que si todas esas webs y documentos están repletos de estereotipos sexistas (por ejemplo: las muñecas son de niñas, a las niñas les gusta el rosa) cuando uno busca en Google encuentra que su araña repite todos estos estereotipos.
“Hay asociaciones automáticas que no deberían existir, cosas que son verdaderamente importantes de aprender”. La dificultad se agranda cuando acudimos a las traducciones automáticas entre idiomas. En general, estos sistemas utilizan el inglés como base. Es decir: si buscamos una traducción del español al polaco, la herramienta pasará la palabra española al inglés y de ahí al polaco. ¿El problema? En inglés el género no modifica las palabras, por lo que cuando esta diferención es requerida afloran los sesgos de género.
La investigación de McCurdy va más allá y demuestra que el sexismo no solo se demuestra en las traducciones directas de las palabras, sino también a la hora de catalogar los adjetivos que las acompañan. Así, entienden que hay atributos que son masculinos y otros que son masculinos. Tal y como figura en su estudio, para traducir del inglés al alemán la expresión "la mesa es dura" (the table is hard) uno de los traductores con los que se trabajó ofreción la traducción der tisch en referencia a la mesa, concepto masculino que se refiere a la mesa que objeto. Sin embargo, cuando se pidió traducir "la mesa es suave" (the table is soft), el traductor se fijó en el concepto suave (atributo femenino) para traducir la misma palabra (table) por la alemana die Tabelle, expresión femenina, correspondiente a la expresión "tabla de figuras", dando por tanto lugar a un error de traducción.
Si buscamos la palabra ‘programador’ también nos devolverá el concepto en masculino. “La parcialidad está en la sociedad. Eso es muy difícil de cambiar. Pero tenemos que empezar a reconocer estos problemas y trabajar para atajarlos. En su réplica online un buen comienzo pasa por incorporar desarrolladores de todas las condiciones, edades, sexos y orígenes, para que quienes trabajen en esos algoritmos dejen una impronta de diversidad en ellos”.
Para la investigadora, proveer los inputs adecuados a estos sistemas es fundamental. Y celebra que sistemas tan extendidos como el de Google admitan el feedback de los usuarios sobre las traducciones. “Cuando más supervisión humana, mejor funcionarán estos sistemas”, cuenta. En cualquier caso, anima a los usuarios a ser escépticos ante estos sistemas para no confiar a ciegas en los sistemas y estereotipos (a veces dañinos) que reproducen.