Política Digital
Una ética universal para la inteligencia artificial
Frente al empeño por seguir anclados en la imposibilidad de desarrollar un sistema ético para la IA que satisfaga a todas las perspectivas posibles, los investigadores proponen alternativas viables
26 julio, 2020 07:00En 2016, un grupo de científicos puso en marcha un experimento para averiguar la opinión de los humanos sobre cómo las máquinas deben tomar decisiones cuando se enfrentan a dilemas morales. En específico, frente a disyuntivas como a quién debería salvar un coche autónomo ante un accidente inevitable. El juego -llamado ‘la máquina de la moral’- fue creado por investigadores del Instituto Tecnológico de Massachusetts (MIT) para desarrollar un sistema ético para este tipo de vehículos, y la investigación aún continúa.
El resultado, como ya imaginarán, no fue nada concluyente, ya que se detectaron “claras diferencias entre los grupos occidentales, orientales y meridionales”. Por ejemplo, el grupo occidental mostró una marcada preferencia por salvar a los niños, mientras que el grupo oriental se decantó por salvar a los mayores. Los investigadores atribuyen esto a una cultura oriental más marcada de respeto a los mayores. Por otra parte, los países del clúster occidental salvaron a más personas en el cómputo global, algo que los científicos achacan que son culturas individualistas.
El experimento es un ejemplo claro de la aproximación actual a la ética de la tecnología y, en específico, de la inteligencia artificial (IA). Esta parte de la premisa de que primero debemos ponernos de acuerdo en una serie de valores subyacentes que no son comunes y sí subjetivos y contextuales, dependientes de cada cultura. Ahí es cuando surgen los problemas. ¿Tiene sentido abordar un dilema como el que plantea el MIT tratando de integrar todas ellas? ¿Es posible? Y, si no, ¿cuál es la alternativa?
A estas preguntas trata de responder la propuesta de un grupo de investigadores en Reino Unido y China en un artículo publicado en la revista Philosophy & Technology. Es su respuesta a algo que ven como una realidad incuestionable: que para poder beneficiarse del potencial a nivel global de la IA será necesaria la cooperación internacional en muchas áreas de gobierno y unos estándares éticos globales.
La tarea no se presenta fácil. Las barreras a la cooperación entre Europa y América del Norte, por un lado, y Asia Oriental, por el otro, “tienen un impacto descomunal en el desarrollo de la ética y la gobernanza de la IA”, dicen los investigadores. Sin embargo, son optimistas sobre la posibilidad de conseguirlo. Creen que incluso las diferencias más fundamentales son salvables, ya que la cooperación no requiere alcanzar un acuerdo sobre principios y estándares para todas las áreas de IA. También que a veces es posible llegar a un acuerdo sobre cuestiones prácticas a pesar del desacuerdo sobre valores o principios más abstractos.
El objetivo no es que todas las partes del mundo estén sujetas a las mismas normas, estándares y regulaciones relacionadas con la IA, o que siempre se necesite un acuerdo internacional. Se trata de identificar qué temas sí requieren de ello. Para ello identifican primero las principales barreras para la colaboración intercultural. La desconfianza entre las diferentes regiones y culturas es una de las mayores. Especialmente cuando hablamos de las relaciones entre EEUU y China, con un historial de tensiones políticas que ha aumentado significativamente en los últimos años y que ha pisado el acelerador durante la pandemia de coronavirus. El encuadre actual no es de colaboración sino de competición, de luchar por ganar la carrera de la IA.
Las tradiciones filosóficas divergentes en estas regiones llevan a una percepción de diferencias de valor significativas e irresolubles entre las culturas orientales y occidentales en temas clave como la privacidad de los datos. También es motivo de recelo la influencia pública y política de los gigantes tecnológicos a ambos lados, o las percepciones y reacciones al sistema de crédito social chino. La retórica adversaria de los líderes políticos tampoco ayuda. “Una exacerbación continua de esta cultura de desconfianza podría socavar severamente las posibilidades de cooperación global en el desarrollo y la gobernanza de la IA”, señalan los investigadores.
Otra barrera es la necesidad de equilibrar la cooperación global con la coexistencia de enfoques diferenciados cultural y geográficamente, sobre todo en los aspectos más sensibles. Se trata de evitar que una o dos naciones impongan sus valores al resto del mundo.
La lengua y el lenguaje también se aprecian como obstáculos, como “una barrera práctica importante para una mayor comprensión intercultural sobre el desarrollo, la gobernanza y la ética de la IA”.
Para atajar esto, los investigadores subrayan la necesidad de soslayar malentendidos y percepciones erróneas que consideran que están más profundamente arraigados e impregnan incluso los debates de alto nivel intelectual. Por ejemplo, se tiende a pensar que Oriente y Occidente tienen valores fundamentales muy diferentes, lo que lleva a visiones diferentes, tal vez contradictorias, de cómo se debe desarrollar y usar la IA y gobernarla desde una perspectiva ética. “Si bien las diferencias de valor entre culturas existen, las afirmaciones sobre cómo se manifiestan esas diferencias a menudo dependen de suposiciones sin evidencia empírica”, subrayan los autores. “La idea de que las tradiciones éticas orientales y occidentales están esencialmente en conflicto también es muy simplista”, añaden.
Argumentan además que los Principios de IA de Pekín y principios similares desarrollados en todo el mundo muestran una superposición sustancial en los desafíos clave, con conceptos y valores comunes como que la IA debería beneficiar a toda la humanidad, respetar la privacidad humana, la dignidad, la libertad, la autonomía y los derechos, y ser lo más justa posible, reduciendo discriminaciones y prejuicios, mejorando su transparencia, explicabilidad y previsibilidad. Sin embargo, gobiernos con diferentes culturas pueden interpretar y priorizar los mismos principios de manera diferente en la práctica.
Los investigadores creen que se deben entender los mayores puntos de desacuerdo y distinguir explícitamente entre los relacionados con la ética y los problemas de gobernanza, ya que a veces puede ser posible que los grupos acuerden los mismos principios de gobernanza a pesar de justificarlos con diferentes supuestos éticos. También hablan de la necesidad de encontrar formas de colaborar a pesar de los desacuerdos. Es lo que se llama ‘consenso superpuesto’, donde diferentes grupos y culturas pueden tener diferentes razones para apoyar las mismas normas y pautas prácticas.
¿Cómo trasladar esto a la práctica? Sus recomendaciones pasan por desarrollar agendas de investigación sobre ética y gobernanza de la IA que requieran cooperación intercultural, velar por una traducción de buena calidad de documentos clave, ubicar en continentes alternos las principales conferencias de investigación en IA (y sobre ética y gobernanza de esta tecnología), y establecer programas conjuntos o de intercambio para estudiantes de doctorado y posdoctorado.
Todo esto en realidad no es nada nuevo, se lleva aplicando décadas en otros ámbitos. Así que no se trata de inventar la rueda. Tampoco lo han hecho los impulsores de la ‘máquina de la moral’ del MIT. Lo que subyace a este juego es el ‘dilema del tranvía’ planteado por la filósofa británica Philippa Foot en 1967. Este plantea la pregunta de si, ante la posibilidad de que un tranvía atropelle a cinco personas en medio de la vía, sería correcto encaminarlo por otra vía en la que solo hay una, cuando parece inadmisible hacer algo como matar a un hombre sano para usar sus órganos para salvar a cinco personas que de otro modo morirían.
En realidad, Foot planteó este dilema con una idea contraria al uso que se le está dando. “Se ha distorsionado lo que ella quería decir, porque en realidad lo utilizó como argumento para explicar que nuestras sociedades son tan individualistas a nivel metodológico que son incapaces de resolver dilemas como el que ella expone”, asegura la fundadora de Ethical Tech Society y experta en filosofía del derecho Lorena Jaume-Palasí.
El problema, dice Jaume-Palasí, es que “no entendemos que nuestra vida en las democracias es normativamente individualista. Es decir, que nuestra ética, nuestro derecho y nuestro día a día se basa en una cultura profundamente individualista. “Ese individualismo transpira no sólo en nuestras prácticas culturales, sino también las reglas que nos damos, los servicios y la forma en la que los creamos, nuestra economía, etc.”, asegura.
Sin embargo -sostiene- si uno se sale de ese individualismo metodológico y adquiere una mirada más estructural, la pregunta que se haría no es a quién tiene que salvar o atropellar, sino quién ha puesto a esas personas a las vías, o por qué solo hay esas dos vías. El mensaje de fondo es que no se puede regular el bosque creando reglas para cada árbol, porque el bosque no es la suma de todos los árboles. De igual modo, la sociedad no es la suma de todas las personas. “Por ello se requiere una normativa mucho más sistémica, cuya ausencia es uno de los principales puntos débiles de la democracia. Hacen falta matices cuanto se trata de entender las sociedades: si solo se parte de los intereses del individuo se diluirán los intereses del colectivo”, asegura la experta.
En efecto, la máquina de la moral del MIT trata de construir posibles escenarios con implicaciones morales para una multitud de individuos, pero no mira a la sociedad ni piensa en soluciones estructurales. Se hace obvia entonces la premisa errónea de partida: no tiene sentido tratar de resolver un dilema imposible, de imponer ciertas visiones como valores comunes, ni de crear estándares basados en lo individual o en las diferencias, sino de integrar una mirada estructural y sistémica con una colaboración intercultural que no obligue ni se base en las diferencias, en el competir versus colaborar, en la separación de culturas.
Marco ético universal
En Ético por diseño: principios para una buena tecnología científicos australianos proponen un marco ético universal para la tecnología, tras comparar una variedad de juicios morales y perspectivas. Su punto de partida filosófico es que la humanidad y los seres humanos importan de manera especial. “Incluso quienes cuestionarían esto estarían de acuerdo en que aspectos particulares de la humanidad tienen valor y deben ser defendidos. Entre ellos, nuestra capacidad comunitaria o de construir una vida en nuestros propios términos, la libertad de conciencia o la felicidad.
Los autores de Ético por diseño: principios para una buena tecnología proponen ocho principios:
rn1. “Deber” antes que “poder”: que podamos hacer algo no significa que debamos hacerlo.
rn2. No instrumentalismo: nunca diseñar tecnología en la que las personas sean solo una parte de la máquina.
rn3. Autodeterminación o libertad de aquellos afectados por su diseño.
rn4. Responsabilidad: anticipar y diseñar para todos los usos posibles.
rn5. Beneficio neto: maximizar lo bueno, minimizar lo malo.
rn6. Justicia: tratar los casos similares de la misma manera y los diferentes de forma diferente.
rn7. Accesibilidad: que el diseño incluya al usuario más vulnerable.
rn8. Propósito: diseñar con honestidad, claridad y aptitud de propósito.