El algoritmo de recorte de Twitter y sus problemas: prefiere personas blancas, jóvenes y delgadas
Una nueva investigación demuestra los sesgos del algoritmo de recorte de imágenes de Twitter. Prefiere versiones idealizadas de usuarios jóvenes, olvidándose de grupos vulnerables.
11 agosto, 2021 20:17Noticias relacionadas
Hace ya unos meses, Twitter estuvo envuelta en polémica debido al cuestionable sistema de recorte de fotografías en la timeline. Después de eliminarlo en España y en el resto del mundo, Twitter realizó un concurso abierto para que usuarios y entidades independientes pudieran determinar qué sesgos tenían dichos algoritmos.
Y la competición ha dado sus frutos. Los participantes del concurso, organizado en colaboración con AI Village, confirmó lo que ya sabíamos y un poco más. En definitiva y según los resultados del primer puesto, el recorte de Twitter prefiere a caras delgadas, jóvenes, con piel clara (como mucho morena) y texturas de piel suaves, con rasgos faciales arquetípicos del sexo femenino.
Estos resultados no son ni mucho menos alentadores, ya que demuestran que el algoritmo busca un tipo de persona completamente idealizada, y que pocas veces responde al arquetipo de usuario común. Especialmente para personas obesas, racializadas o que tengan facciones más agresivas o duras en sus rostros.
Twitter y su sistema
La polémica surgió debido a que una serie de investigadores descubrieron el tinte racista que tenían estos algoritmos de recorte fotográfico. Un recorte que se desactivó temporalmente el pasado mes de mayo. Cuando una foto se sube siendo más larga de lo que admite la previsualización de la llamada timeline de Twitter, la red social aplica un recorte para previsualizar la imagen.
Los investigadores aclararon que este sistema antes de ser desactivado priorizaba mucho antes los rostros de las personas blancas y no de las personas negras o de piel más oscura. Los nuevos resultados buscan, según Twitter, profundizar más en el problema.
Y es que además de todo lo comentado ya, los resultados del concurso en segundo y en tercer lugar también dejaron claro que el sistema estaba totalmente sesgado. No priorizaba a personas con cabellos blancos o grises, provocando una discriminación por edad. Y además, en cuanto a la escritura, el sistema priorizaba otros idiomas, como el inglés, antes que otros dialectos menos comunes como el árabe.
El ganador de la competición, Bogdan Kukynych, usó un software de inteligencia artificial llamado StyleGan2, que generaba rostros fotorealistas variando los rasgos faciales, el color de piel y la obesidad de los mismos. Pasó dichos rostros y sus variantes por el algoritmo de recortes de Twitter para ver cuáles prefería.
El problema de la IA
Quizás lo más grave de este asunto es que no está limitado simplemente al algoritmo de Twitter. Vicenzo di Cicco, que ganó una mención de honor en el concurso, mostró como el ralgoritmo también favorecía los emojis de tonos de piel más claros sobre todos más oscuros.
Roya Pakzad, concursante que ganó el tercer puesto, también reveló problemas en el algoritmo, en este caso en el sistema de reconocimiento de escritura, revelando que el algoritmo prefería el inglés antes que el árabe en el recorte de imágenes.
Ya hemos visto casos anteriores de este estilo. Y es que el desarrollo de la IA ha tenido siempre un problema respecto al racismo y al sexismo; la clave está en que las IAs actuales y sus desarrollos están condicionados por la raza de las personas, priorizando siempre a las personas blancas o con facciones más idealizadas, como personas normativas, delgadas y jóvenes.
Para muestra, un botón. Unos investigadores presentaron una IA que se encargaba de realzar y 'des-pixelar' fotos borrosas, con el problema consecuente de que cambiaba las facciones de las caras e incluso les cambiaba el tono de piel. Otro caso documentó como un algoritmo provocó la detención de un hombre racializado inocente, debido a un falso positivo de una IA.