En los últimos días Internet ha cargado contra los creadores de una IA racista, que parte de imágenes de personas negras, latinas y asiáticas y las convierte en blancas; pero en realidad es un error que demuestra el trabajo que aún queda.
Hace unas semanas unos investigadores presentaron PULSE (Photo Upsampling via Latent Space Exploration), una IA capaz de convertir imágenes pixeladas en fotografías realistas; en otras palabras, de 'des-pixelar' nuestras fotos.
Los resultados son sorprendentes, si biene este no es el único proyecto similar; en OMICRONO hemos hablado en muchas ocasiones de sistemas capaces de generar personas de la nada, e incluso de crear mujeres desnudas.
¿Es esta una IA racista?
PULSE funciona como otros sistemas similares, basándose en una ingente cantidad de fotografías de gente real, y generando resultados una y otra vez en 'generaciones', hasta que se queda sólo con los mejores. En este caso, es capaz de partir de una imagen pixelada y tener una idea generalizada de cómo es la persona que oculta.
Como hemos dicho, nada fuera de lo normal. Pero el verdadero motivo por el que PULSE se ha hecho famosa es por una imagen que se hizo viral, de uno de los resultados posibles, basada en una fotografía de Barack Obama, ex-presidente de los EEUU.
La imagen habla por si sola. El problema no está en las facciones de la cara, que la IA parece haber reconocido correctameente, o en detalles como el peinado o la forma de la nariz; hay que decir que, en esos aspectos, la IA ha funcionado de manera excepcional teniendo en cuenta la imagen de partida.
El problema está, evidentemente, en que ha convertido a Obama en un hombre blanco; y justo en estos momentos, en los que EEUU y el mundo viven un momento crítico en la lucha contra el racismo, es justo lo que el sector tecnológico no necesitaba.
Las IA no detectan la raza, y eso no es bueno
Y no es sólo Obama. Como ha demostrado el especialista en 'machine learning' Robert Osazuwa, PULSE tiende a cambiar la raza de las personas que aparecen en las fotografías; pero lo más chocante es que siempre las convierte en personas blancas.
Desde personas asiáticas como la actriz Lucy Liu, a latinas como la congresista Alexandria Ocasio-Cortez, sus facciones se mantienen en su mayor parte, exceptuando los ojos y el color de la piel. Como resultado, parece que la IA en realidad sirve para averiguar cómo sería una persona si fuese blanca.
En nuestras pruebas, realizadas en la versión web de la herramienta, hemos tenido problemas hasta para que detecte caras de personas no blancas. Siempre aparece el mismo error: "No pudimos encontrar una cara".
Hay dos razones por las que ocurre esto. La primera es algo tan simple como que no se han usado suficientes imágenes de personas de color para el 'aprendizaje' de la IA. Como hemos apuntado más arriba, estos modelos generacionales funcionan partiendo de una base de datos con una gran cantidad de entradas, a partir de los cuales la IA 'aprende' dónde tiene que fijarse. Sin embargo, esta IA ha sido entrenada con FFHQ, una base obtenida de fotos de Flickr, que en teoría debería ser mucho más variada.
Otro motivo está en el propio código del algoritmo (y por eso decimos que puede ser una 'IA racista'); como apuntan expertos, es posible que PULSE no sea capaz de detectar el color de la piel de las personas que analiza. Esta omisión da lugar a un 'bug', que simplemente aplica un color 'por defecto' de los aprendidos; sin embargo, esto no explicaría porqué los ojos de las personas asiáticas también se ven afectados.
Sea como sea, esta polémica demuestra los desafíos a los que se enfrentan este tipo de sistemas inteligentes. Ahora que se habla mucho de cámaras con IA, y de reconocimiento facial automático que puede terminar en multas y otras penas para los acusados, es algo importante que recordar.