La eliminación de los sesgos es uno de los principales desafíos a los que se enfrenta la tecnología hoy en día. Para poner sobre la mesa los problemas existentes, durante el CES 2021 se ha celebrado una sesión en la que se han expuesto diferentes iniciativas para eliminar o reducir los sesgos en el uso de la inteligencia artificial.
Las técnicas de IA se basan, fundamentalmente, en la agregación y análisis de datos. Con esa información se crean los patrones a partir de los cuales se toman las decisiones. Si los conjuntos de datos no son lo suficientemente diversos las barreras de sesgo seguirán estando ahí.
“Desarrollamos productos y servicios para todo el mundo, por lo que en su diseño se deberían tener en cuenta múltiples perspectivas, especialmente aquellas que históricamente han estado poco representadas”, ha manifestado Annie Jean-Baptiste, responsable de inclusión de producto de Google. Quien añadió que “solo los inputs inclusivos conducen a outputs inclusivos. No se puede asumir que sabes lo que la gente necesita sin preguntarles”.
El problema del origen de los datos
La escasez de modelos representativos es una de las causas de la falta de diversidad en la IA. Taniya Mishra, fundadora y CEO de MySureStart, lo lleva observando desde hace más de una década: “Uno de los principales problemas es que, en la actualidad, los futuros profesionales del ámbito tecnológico no se ven reflejados en los desarrollos actuales”.
De ahí que el objetivo de su startup sea incorporar la diversidad a la IA desde el primer momento en el que los estudiantes tienen contacto con esta tecnología durante su formación, y así participen en ella con sus singularidades.
“Es esencial contar con modelos que recojan los diferentes perfiles de población para reflejar toda la heterogeneidad existente”, ha defendido Kimberly Sterling, directora de economía de la salud e investigación de resultados de ResMed, empresa especializada en dispositivos y plataformas de salud digital. “En el caso de la atención médica las particularidades importan mucho, no se pueden tomar decisiones que afectan a la salud a partir de modelos que buscan solo lo común”.
Los sesgos de género y raciales son los más habituales, y sobre los que se suele poner el foco, pero no son los únicos. Jean-Baptiste ha explicado cómo una vez desarrollado el Asistente de Google le sometieron a lo que ha denominado “inclusion crackerjack”. Personas con características poco representadas en los algoritmos de aprendizaje y que ponen a prueba sus productos antes de su salida al mercado. “Tenemos que asegurarnos de que cumplen con unos criterios de accesibilidad”. En este caso solo tuvieron que realizar unas modificaciones leves.
Mishra ha llamado la atención sobre la falta de representación en estos desarrollos tecnológicos de dos grupos de población. “Cuando a principios de los años 2000 preparé mi doctorado sobre reconocimiento de voz, los conjuntos de datos que estaban disponibles solo incluían a lectores que hablaban correctamente, es decir, caucásicos, con un acento estándar y una pronunciación perfecta”. Admite que ahora hay más diversidad, pero todavía hay mucho trabajo por hacer, “por ejemplo, con voces de niños y ancianos”.
Un punto de vista con el que también coincide Sterling. La directiva de ResMed defiende la importancia de identificar aquellas poblaciones que están poco representadas y trabajar con las empresas para eliminar los sesgos. “Solo así podremos ofrecer productos que supongan un cambio en la vida de las personas”. Aboga por la necesidad de probarlos con hipótesis o ejemplos reales, para comprobar si los modelos de predicción cumplen con las expectativas: “No se trata de trabajar con un promedio, sino con la diversidad”.
La problemática está sobre la mesa. Entre las soluciones que propusieron las ponentes figura trabajar más estos aspectos en la cultura de empresa, utilizar conjuntos de datos actualizados y no confundir la igualdad con la equidad (todas las personas no pueden ser evaluadas con los mismos criterios).
En cuanto a los desarrollos tecnológicos, donde ahora se está poniendo especial foco en la seguridad, apuntan que es imprescindible tener en cuenta los sesgos en el diseño para mejorar la accesibilidad y aquí es donde hay que contar con la participación del mayor número de tipologías de población.