Los sesgos de género pueden ser muy dañinos para algunas personas. Los roles de género clásicos y la clasificación por "hombre" y "mujer" se están quedando cada vez más obsoletos. La tecnología debe adaptarse a ello y Google ya ha dado un paso para reconocer este cambio: modificando su reconocimiento de imágenes.
Hasta ahora, su IA de reconocimiento identificaba a las personas por género, ya fuera "hombre" y "mujer". Para las personas transexuales o no binarias esto era un problema, ya que generaba sesgos injustos. Ahora, la IA de Google no identificará más por género, y usará una única etiqueta: "persona".
Según un correo electrónico de Google enviado a los desarrolladores, existen 2 razones para realizar este cambio: es imposible inferir el género de alguien simplemente por su apariencia e intentar hacerlo así podría perpetuar sesgos de género equivocados o incluso dañinos.
La IA de Google no clasificará por géneros
No son los újnicos motivos; Google aseguró que eliminar estas etiquetas también seguía el segundo de sus Principios de Inteligencia Artificial: evitar crear o reforzar prejuicios dañinos. Los sistemas de reconocimiento de imagen suelen tener problemas para esto; en un estudio, los investigadores descubrieron que los algoritmos adolecían de este problema.
Estos investigadores descubrieron que los algoritmos entrenados en un conjunto de datos sesgado deliberadamente con imágenes de cocina, las mujeres tenían un 33% más de probabilidades de aparecer, y si estaban cocinando, tenían un 68%. El algoritmo tenía mucha más posibilidades de predecir que una mujer estaba cocinando, incluso cuando la imagen era de un hombre calvo en una cocina. Los sistemas también suelen confundir a las personas trans y no binarias.
Este cambio, si bien puede que no guste a todo el mundo, evitará prejuicios dañinos que estén basados en roles perpetuos de género, como el que dictamina que la mujer debe estar en la cocina o clasificaciones de género erróneas en personas trans o no binarias.
Ya hay quién se ha posicionado en contra; Business Insider asegura que un desarrollador de la misma Google acusó a la firma de priorizar la corrección política sobre la calidad del producto final. El lingüista y programador Angus B. Grieve Smith explicó en su Twitter lo siguiente: "Cada vez que se clasifica automáticamente a las personas, ya sea por su género u orientiación sexual, se debe decidir qué categorías usar en primer lugar, y eso viene con muchas suposiciones".
Via | Business Insider.