Científicos de universidades de Cambridge y Pekín han publicado un paper en el que defienden que se eliminen las barreras culturales y se despliegue una colaboración entre regiones del mundo en materia de ética y gobernanza aplicadas a la inteligencia artificial (IA). Su argumento es que las diferencias entre Europa y Estados Unidos, y entre ambos y China, no deben ser un obstáculo para el diálogo.
Los desarrollos de la inteligencia artificial y sus técnicas, como el aprendizaje profundo, van a afectar de lleno a la evolución y transformación d las economías, las sociedades y las culturas en el ámbuto nacional, internacional y mundial. Esto ha dado lugar a que se preste cada vez más atención a la ética de la IA: ¿Cómo debe desarrollarse esta tecnología? o ¿Cómo debe regularse para garantizar un uso adecuado de la misma? son dos de las preguntas que requieren de una respuesta coordinada de forma global.
"Para lograr los beneficios mundiales de la inteligencia artificial se requerirá la cooperación internacional en muchas esferas de la gobernanza y las normas éticas, al tiempo que se tendrán en cuenta las diversas perspectivas y prioridades culturales", así arranca este documento antes de enumerar los obstáculos que existen hoy en día para lograr este objetivo, destacando entre ellos "la desconfianza entre las culturas" y los problemas de coordinación entre los países, más bien, entre los gobiernos de los países.
En concreto, este paper se centra en los obstáculos a la cooperación que existen entre Europa y América del Norte, por una parte, y el Asia oriental, por otra, como regiones que actualmente tienen "un impacto excesivo" en el desarrollo de la ética y la gobernanza de la IA.
Sin embargo, los autores inciden en que hay dos razones "para ser optimistas" y conseguir una mayor cooperación intercultural en favor de la ética y la gobernanza de la IA. La primera es que la cooperación que se precisa no requiere que se llegue a un acuerdo sobre principios y normas para todas las esferas de la IA, mientras que la segunda apunta que es posible, a veces, llegar a un acuerdo sobre cuestiones prácticas a pesar de los desacuerdos sobre valores o principios más abstractos.
De hecho, matizan que al reclamar una cooperación intercultural, "no queremos decir necesariamente que todas las partes del mundo deban ajustarse a las mismas normas, estándares y regulaciones relacionadas con la IA, o que siempre se necesite un acuerdo", sino más bien "identificar qué cuestiones necesitarán normas o acuerdos, y donde se necesitará más variación cultural". Este es el desafío.
¿Cómo conseguirlo? "El mundo académico tiene un papel clave que desempeñar en la promoción de la cooperación intercultural en materia de ética y gobernanza de la IA, mediante el fomento de un mayor entendimiento mutuo y la aclaración de los casos en los que serán necesarias y posibles diferentes formas de acuerdo", explican los investigadores.
Para ello, formulan una serie de recomendaciones sobre medidas e iniciativas prácticas, entre ellas la traducción y publicación multilingüe de documentos clave, programas de intercambio de investigadores y elaboración de programas de investigación sobre temas interculturales. Son los académicos los que puede "construir puentes interculturales e incorporar conocimientos especializados interculturales en una gama más amplia de proyectos de investigación sobre ética y gobernanza", aspotillan en sus conclusiones.
Por último, subrayan el hecho de elaborar programas de investigación sobre ética y gobernanza de la IA que requieran una cooperación intercultural y la necesidad de ua mayor colaboración intercultural en los proyectos de investigación "desempeñará un papel crucial en la creación de una comunidad internacional de investigación que pueda apoyar la cooperación política internacional".
Así, los investigadores destacan que un proyecto de investigación que, por ejemplo, "podría ser adecuado para esa colaboración sería llevar a cabo ejercicios de previsión comparativa que exploren las diferencias de visiones y preocupaciones sobre el impacto de la IA en la sociedad". Un punto de partida fácil podría ser intentar generar un consenso en torno a evitar determinados resultados negativos, es decir, evitar las amenazas de seguridad.
El reto es poder "cocrear futuros positivos compartidos", ya que estos "puede representar una excelente manera de profundizar en matices dentro de los valores compartidos" para frenar el efecto que pueden provocar "los malentendidos" que "alimentan la desconfianza y las diferencias entre las prioridades sociales y políticas que con frecuencia parecen sobredimensionarse". Por ello, ante "lo vientos políticos que favorecen cada vez más el aislacionismo", para los investigadores "nunca ha ha sido más importante para la comunidad investigadora trabajar más allá de las divisiones nacionales y culturales en busca de una IA globalmente beneficiosa".