Quién quiere tecnología ética? Perdonen que empiece con una pregunta pero es un punto de partida fundamental para el que no hay una clara respuesta. Años atrás plantearlo era incluso bizarro. Ahora, la explosión de aplicaciones de la inteligencia artificial (IA), sus imperfecciones y sus derivados usos ilícitos han hecho florecer innumerables iniciativas, declaraciones, manifiestos, principios, guías, análisis, etc. enfocados en la medición del impacto social de estos sistemas y en el desarrollo de una IA ética.
Parece que, ahora sí, le hemos visto las orejas al lobo. Instituciones, gobiernos, compañías de tecnología y consultoras, think tanks y todo tipo de organizaciones se han subido al carro. Gigantes tecnológicos como Google o Facebook han creado sus códigos éticos y principios. Microsoft ha creado el Instituto de Investigación AI Now “para garantizar que los sistemas de IA sean sensibles y respondan a los complejos dominios sociales en los que se aplican”. La Unión Europea tiene varios proyectos relacionados. También gobiernos como el de Reino Unido, donde la Cámara de los Lores ha declarado su intención de que Inglaterra lidere este camino. Cuentan con un Centro de Ética de los Datos e Innovación (CDEI) y, a diferencia de España, con un plan al respecto.
Como declaración de intenciones suena bien pero, ¿se cumplen? Llevar a la práctica las declaraciones, guías y códigos es complicado, sobre todo para quienes no pretenden hacerlo. “Te dicen ‘querido usuario, no te preocupes, nunca compartiremos datos sin tu permiso’ mientras, de facto, lo hacen”, aseguró Jonnathan Penn, tecnólogo y escritor asociado al Centro Berkman Klein de la Universidad de Harvard University, durante el seminario HUMAINT sobre el impacto ético, legal, social y económico de la IA organizado por el Centro Común de Investigación de la Comisión Europea el pasado febrero en Sevilla.
Como ejemplo, Penn citó un análisis de 1.000 aplicaciones Android realizado por la organización sin ánimo de lucro Privacy International, que encontró que el 61% de ellas comparte información con Facebook de forma instantánea en el momento que un usuario abre la aplicación, sin preguntarle y sin importar que este tenga o no una cuenta en la citada red social. También ha quedado al descubierto cómo Google comparte datos altamente sensibles de usuarios categorizados por búsquedas como “salud mental”, “cáncer”, “impotencia” o “abuso de drogas”. Lo revelaba una demanda presentada en Europa por el navegador web privado Brave, la organización Open Rights Group y University College London, que acusan al buscador de violación del Reglamento General de Protección de Datos (GDPR) por “fuga masiva de datos muy íntimos”.
El CEO de Google, Sundar Pichai, publicaba hace unos meses una lista de principios para el desarrollo de la IA donde aseguraba que incorporarán sus principios de privacidad en el desarrollo y uso de sus tecnologías de inteligencia artificial. ¿Se refiere a los mismos principios que les han llevado a compartir datos de usuarios de centenares de aplicaciones de Android con Facebook sin su permiso o a los que les han permitido vender sus búsquedas más íntimas a terceros?
Algoritmos justos
Más allá de la privacidad de datos, existen otros muchos riesgos asociados al diseño e implementación de sistemas de IA. Por ejemplo, los sesgos algorítmicos. “Todas las decisiones no triviales están sesgadas. Falta comprensión del contexto de uso y un mapeo riguroso de los criterios de decisión por parte de estos sistemas, que además carecen de justificaciones explícitas para los criterios elegidos”, aseguraba también en el seminario HUMAINT Ansgar Koene, investigador en el Instituto de Investigación de Economía Digital en la Universidad de Nottingham, creador del proyecto UnBias contra los “a menudo involuntarios y siempre inaceptables” sesgos algorítmicos.
Dichos sesgos pueden tener efectos graves. Entre los casos descubiertos se ha encontrado discriminación por género a la hora de buscar trabajo, por raza a la hora de ser juzgado o por cuestiones de salud a la hora de establecer la prima de un seguro. El empleo, la dignidad, la libertad, la renta e incluso la salud están en juego. Los ejemplos son numerosos, no solo de sesgos sino también de fallos e imprevistos. The Verge reveló en 2018 cómo un error de codificación de un algoritmo provocó una reducción injustificada de la cobertura del sistema de salud de Arkansas (EE.UU) para pacientes con parálisis cerebral, a los que se les asignaron menos horas de cuidados de las que realmente les correspondían.
¿Cómo desarrollar algoritmos justos? Koene señala que no se trata solo de un problema técnico, sino que necesita una construcción socialmente definida. En un contexto muy diferente pero de total aplicación a este caso, decía la directora de la División de Creatividad en Cultura de la UNESCO, Jyoti Hosagrahar, que “hacer de la cultura un elemento central de las políticas de desarrollo es el único medio de garantizar que este se centre en el ser humano y sea inclusivo y equitativo”. Y esto incluye a la IA.
Es obvio que el desarrollo ético de la tecnología va más allá de sus algoritmos, como señala también Virginia Dignum, miembro del Grupo de Expertos de Alto Nivel de la Comisión Europea sobre Inteligencia Artificial y profesora en el Departamento de Ciencias de la Computación en la Universidad de Umeå (Suecia). Dignum, organizadora de seminario HUMAINT junto con la investigadora española Emilia Gómez, cita varios niveles de responsabilidad para el desarrollo de sistemas ‘éticos por diseño’ que aseguren que estos procesos tengan en cuenta las implicaciones éticas y sociales de la IA (a mayor autonomía, mayor responsabilidad). Menciona como una de las posibles vías la creación de una certificación que asegure su aceptación por parte de las personas y aumente la confianza en estos sistemas.
La experta también destaca los retos que esto conlleva: identificar valores humanos relevantes y que puedan estar alineados. ¿Existen valores universales? ¿Qué normas culturales, teorías éticas, códigos, normas y leyes tener en cuenta? ¿Cómo ponderar las diferencias entre lo que se acepta socialmente, lo que se es éticamente correcto o lo que se permite legalmente? ¿Quién y por qué tiene algo que decir en esto; diseñadores, usuarios, propietarios, fabricantes… todos? ¿Cómo implementar sistemas basados en ello?
A estas preguntas trata de responder el grupo de expertos de la CE al que pertenece Dignum en el primer borrador de su documento de directrices AI Ethics Guidelines. La investigadora reconoce que es un texto aún muy vago, poco concreto. Tal vez por ello han recibido una cantidad ingente de comentarios con los que no saben cómo van a lidiar.
IA explicable
Otro reto en el desarrollo de tecnologías de inteligencia artificial éticas es hacer sus resultados comprensibles e interpretables. “La IA es una especie de oráculo: su respuesta puede ser acertada, pero no tenemos ni idea de dónde viene”, afirma Dignum. Por eso compañías, universidades, centros de investigación tratan de dar con fórmulas que permitan conocer cómo estos sistemas llegan hasta un resultado concreto. Es lo que se conoce como ‘IA explicable’. Pero ¿qué es una explicación? “Debe adaptarse al usuario y explicar lo que el sistema puede y no puede hacer. Que sea correcta pero no demasiado compleja; que sea comprensible, completa y oportuna”, señala Dignum.
Para Dignum, hacer a un sistema interpretable no siempre pasa por hacer transparente la caja negra que es hoy la IA. “Es una ilusión creer que cada sistema será transparente. Las organizaciones no son transparentes”, asegura. Por eso cree más viable una solución intermedia que proporcione ciertos parámetros que permitan saber cómo se ha obtenido un resultado sin desvelar detalles que comprometan patentes u, optar, por otra parte, por sistemas de certificación que no dejen dichos detalles al descubierto.
En cualquier caso, la investigadora señala que todos estos son elementos importantes pero no los únicos a considerar: “No se trata solo de la IA sino de todo el sistema: cómo se usa, quién lo usa, con qué propósito, en qué contexto, con qué modelo de negocio…”. Penn va un paso atrás y considera relevante plantearse si realmente necesitamos cuantificar cada parte de nuestras vidas, si está justificado en base a necesidades humanas el desarrollo de ciertas aplicaciones basadas en datos e IA.
El tecnólogo también considera que, para generar una confianza genuina en estas tecnologías, es imprescindible que su valor sea distribuido. Si bien Penn reconoce que la IA está aumentando las capacidades de los humanos, cree que, por el momento, no hay señales de beneficios de la lA para el bien común. “No confío en que nada vaya a cambiar. El futuro prometedor que se nos ha vendido no lo es tanto como parece; no lo será, al menos, hasta que tengamos protecciones sociales”, añade.
Penn también cree que el nombre “inteligencia artificial” es un engaño, dado que esta no es inteligente. Cree que un nombre más adecuado sería ‘procesamiento complejo de información’. Pero claro, eso no vende. Como historiador de la ciencia, recuerda que los orígenes de la IA estaban enfocados en la resolución de problemas, no en la inteligencia. También que su foco estaba puesto en el comportamiento humano, algo más cercano a la visión de Hosagrahar de un desarrollo centrado en las personas.
El dilema de la tecnología ética no es uno, sino muchos. En el ámbito de los negocios, se dan contradicciones entre el deber moral, el deseo de maximizar los beneficios y las obligaciones con los accionistas; en el de la ética, de valores comunes, de marcos y teorías éticas; en el de la Gobernanza, entre las fuerzas que se empeñan por perpetuar el statu quo y las que abogan por un cambio de sistema y de modelo de desarrollo; en las líneas de investigación, debatiéndose entre la búsqueda de la eficiencia, de la automatización o de la inteligencia; en la idoneidad de crear o no una tecnología si su uso no va a responder a una necesidad humana y va, más bien, a representar un peligro para la humanidad; y hasta en su propia denominación, si es que realmente la IA merece llevar el nombre de ‘inteligencia’.
Nadie dijo que fuera fácil, pero conocer los obstáculos en el camino es el primer paso para superarlos. Aprovechemos la ventaja, ahora que aún estamos a tiempo.
Entre los efectos secundarios de una IA no ética se encuentran los denominados deepfakes, que emplean sistemas de aprendizaje profundo para generar contenido falso. El caso más reciente es el de GPT2, que utiliza un texto dado para escribir las siguientes oraciones, basándose en sus predicciones de lo que debería venir a continuación. Su capacidad para hacerlo -escriben en The Guardian- “supera los límites de lo que se creía posible”. Sus creadores -parte de la organización sin ánimo OpenAI, respaldada por Elon Musk- se niegan a hacerlo público por temor a que sea usado con malas intenciones. También está thispersondoesnotexist.com, sistema que genera una foto de una persona ficticia cada vez que alguien entra en la página. O la tecnología Face2Face que Buzzfeed popularizó con su falso vídeo de Obama.
La investigadora de Google Brain Ben Kim ha desarrollado un sistema de pruebas con vectores de activación de concepto (TCAV, por sus siglas en inglés) que permite a un usuario preguntar a un sistema de aprendizaje profundo qué importancia ha jugado un concepto específico en su razonamiento para llegar a un resultado concreto. Por ejemplo, cuán sensible es una predicción de "cebra" a la presencia de rayas. Si el usuario no sabe qué preguntar, el sistema puede descubrir conceptos por él.