Haga clic aquí para salvarnos a todos
Inteligencia artificial humana, solidaria y en pro de los Objetivos de Desarrollo Sostenible. Varias propuestas para hacer el que la IA florezca en beneficio de las personas y del planeta.rn
31 enero, 2020 07:00En su libro Haz clic aquí para matarlos a todos el ‘gurú’ de la ciberseguridad Bruce Schneier alerta de los riesgos de la era hiperconectada para la seguridad. Los explora no solo desde la perspectiva técnica sino con la mirada en las implicaciones de afrontar problemas del siglo XXI con la mentalidad del siglo XX y legislación del siglo XIX. Schneier sugiere políticas orientadas a disfrutar de los beneficios de la tecnología a la vez que evitamos las consecuencias de su inseguridad.
Aprovechar la tecnología para mejorar la vida de las personas, y hacerlo con un enfoque no constreñido por los modos de hacer de siglos o décadas anteriores es el objetivo. Y lo es en todos los aspectos. Esto incluiría dejar de mirar a la maximización del beneficio económico como único objetivo empresarial. Que el desarrollo tecnológico se base en el principio de la solidaridad y que responda a las necesidades marcadas por los Objetivos de Desarrollo Sostenible (ODS).
¿Es esta una utopía posible? Propuestas no faltan. Un equipo de investigadores de España, Suecia, Alemania y EE.UU ha realizado un profuso análisis -publicado en Nature Communications- sobre cómo la inteligencia artificial (IA) puede ayudar a conseguir los ODS o tener, al contrario, un efecto negativo en ellos. El grupo está liderado por el español Ricardo Vinuesa, profesor en el KTH Royal Institute of Technology (Suecia).
En su estudio, los autores hacen una revisión de evidencias que relacionan diferentes aplicaciones y desarrollos de IA con cada uno de los 169 objetivos reconocidos en los 17 ODS para la Agenda 2030. ¿Cuáles son los resultados? Primero, las buenas noticias. La revisión muestra que la IA puede actuar como un facilitador de 134 objetivos (79%) en todos los ODS, generalmente a través de una mejora tecnológica que puede permitir superar ciertas limitaciones actuales. Sin embargo, 59 objetivos pueden experimentar un impacto negativo del desarrollo de la IA. ¿Cuáles son estos y cómo se conectan?
Impacto de la IA en ODS sociales
El estudio divide los ODS en tres categorías, de acuerdo con los tres pilares del desarrollo sostenible: sociedad, economía y medio ambiente. En cuanto a su impacto social, 67 objetivos podrían potencialmente beneficiarse de las tecnologías basadas en IA. En el ODS 1 sobre ausencia de pobreza, el ODS 4 sobre educación de calidad, el ODS 6 sobre agua limpia y saneamiento, el ODS 7 sobre energía limpia y asequible, y el ODS 11 sobre ciudades sostenibles, la IA puede actuar como facilitador para su consecución mediante el apoyo a la provisión de servicios de alimentos, salud, agua y energía a la población. También puede apuntalar sistemas con bajas emisiones de carbono, por ejemplo, al apoyar la creación de economías circulares y ciudades inteligentes que utilicen eficientemente sus recursos mediante redes inteligentes y una gama de tecnologías interconectadas.
Al contrario, la IA puede afectar negativamente a 31 objetivos en la categoría social. En muchos casos, tienen que ver con cómo las mejoras tecnológicas permitidas por la IA pueden implementarse en países con diferentes valores culturales y riqueza. A menudo esto requiere recursos computacionales masivos que además tienen un requerimiento energético muy alto y una elevada huella de carbono. Se estarían comprometiendo el ODS 7 sobre energía limpia y el ODS 13 sobre la acción climática. “Algunas estimaciones sugieren que la demanda total de electricidad de las tecnologías de la información y las comunicaciones (TIC) podría requerir hasta el 20% de la demanda mundial de electricidad para 2030, de alrededor del 1% actual”, señala el análisis.
La IA también puede desencadenar desigualdades que pueden actuar como inhibidores en los ODS 1, 4 y 5. Si bien puede ayudar a identificar áreas de pobreza y fomentar la acción internacional utilizando imágenes satelitales, también puede dar lugar a requisitos de cualificación adicionales para cualquier trabajo, lo que aumenta las desigualdades inherentes.
Otro inconveniente importante -dicen- es que los desarrollos basados en IA tradicionalmente se basan en las necesidades y valores de las naciones en las que se está desarrollando. Si se trata de regiones en las que falta el escrutinio ético, transparencia y control democrático, la IA podría permitir el nacionalismo, el odio hacia las minorías y sesgar los resultados electorales.
Se ha documentado el uso de big data e IA para explotar las debilidades psicológicas para influir en la toma de decisiones o incluso controlar el comportamiento social, con el consecuente daño a la cohesión social, los principios democráticos e incluso los derechos humanos. “Uno de los mayores problemas es la falta de información recibida por los ciudadanos sobre el tipo de datos analizados y las consecuencias que esto puede tener en sus vidas”, señalan.
También es importante tener en cuenta que la tecnología de IA está distribuida de manera desigual. Que pequeños agricultores no puedan acceder a sus beneficios dificulta alcanzar objetivos del ODS 2 sobre hambre cero. Lo mismo sucede con el ODS 5 sobre igualdad de género. “Se ha encontrado que las incrustaciones de palabras, una técnica popular en el procesamiento del lenguaje natural, exacerban los estereotipos de género existentes”, afirman los autores. El estudio señala también el problema de la falta de diversidad de género, racial y étnica en la fuerza laboral de IA, teniendo en cuenta que la diversidad es uno de los principios básicos que respaldan la innovación y la resiliencia social.
Economía, política y medio ambiente
En el aspecto económico, dice el análisis que la IA puede facilitar 42 objetivos -esencialmente mediante el aumento de la productividad- e inhibir 20, sobre todo por el aumento de la brecha económica no solo entre países sino dentro de cada nación. En política, puede contribuir al aumento de la polarización si el contenido al que acceden los usuarios se adapta a sus ideas preconcebidas, que tenderá a reforzar y a radicalizar. “A pesar de que la evidencia científica actual refuta el determinismo tecnológico de las noticias falsas, los impactos a largo plazo de la IA en este sentido, por lo que se necesita un cambio de paradigma para promover la cooperación y limitar las posibilidades de control del comportamiento ciudadano”, señala el estudio.
La intensidad de los datos de las aplicaciones de IA crea otro problema: la necesidad de información cada vez más detallada para mejorar los algoritmos, lo que entra en conflicto con la necesidad de un manejo y protección más transparentes de los datos personales. Otra preocupación es que los enfoques basados en datos para la vigilancia pueden obstaculizar el acceso equitativo a la justicia debido al sesgo del algoritmo, particularmente hacia las minorías. Los algoritmos de IA pueden actuar como un espejo que refleja sesgos y políticas injustas, lo que, al tiempo, supone una oportunidad para identificar y corregir ciertos errores en los procedimientos existentes. También para ayudar a identificar las fuentes de desigualdad y conflicto, y con ello potencialmente reducir las desigualdades.
En relación con la acción climática, la vida bajo el agua y la vida en tierra (ODS 13, 14 y 15), el estudio identifica 25 objetivos para los cuales la IA podría actuar como un facilitador. Los beneficios de la IA podrían derivarse de la posibilidad de analizar bases de datos interconectadas a gran escala para desarrollar acciones conjuntas destinadas a preservar el medio ambiente. También puede usarse para ayudar a mejorar la salud de los ecosistemas, prevenir y reducir significativamente la contaminación marina, o ayudar a identificar tendencias de desertificación. Estos esfuerzos podrían verse perjudicados por las altas necesidades de energía para las aplicaciones de IA, especialmente si se utilizan fuentes de energía no neutras en carbono.
Críticas y recomendaciones
El estudio revela cuestiones importantes como los sesgos hacia la publicación de resultados positivos en IA. Asimismo, señala importantes riesgos más allá de tecnología per se, como que crezca el sesgo para publicar resultados positivos y el hecho de que descubrir aspectos perjudiciales pueda requerir estudios a más largo plazo, o la probabilidad obvia de que solo los proyectos de IA con el mayor potencial para maximizar las ganancias sean financiados, en base a intereses comerciales y, por tanto, aquellas con potencial para lograr ciertos ODS no se prioricen si su impacto económico esperado no es alto.
El documento señala la necesidad de cubrir lagunas de investigación sobre el papel de la IA en los ODS, dado que una fracción de las evidencias son experimentos controlados en laboratorio que hay que extrapolar. También se necesita más investigación en seguridad para garantizar sistemas robustos y evitar el pirateo. Los investigadores reclaman asimismo nuevas metodologías para garantizar que el impacto de las nuevas tecnologías se evalúe desde el punto de vista de la eficiencia, la ética y la sostenibilidad, antes de lanzar implementaciones de IA a gran escala. En cuanto a las desigualdades, piden más desarrollos de la IA en países menos ricos y enfoques descentralizados para un desarrollo más equitativo de la tecnología.
Con respecto al papel de las instituciones y gobiernos, los investigadores señalan una serie de barreras para la adopción de sistemas de inteligencia artificial como parte de su proceso de toma de decisiones, incluida la necesidad de establecer medidas para la seguridad cibernética y la necesidad de proteger la privacidad de los ciudadanos y sus datos. Ambos aspectos tienen implicaciones en los derechos humanos con respecto a los temas de vigilancia, seguimiento, comunicación y almacenamiento de datos, así como la automatización de procesos sin estándares éticos rigurosos.
El problema es que ni los individuos ni los gobiernos parecen ser capaces de seguir el ritmo de estos desarrollos tecnológicos, como es obvio por la falta de legislación adecuada para garantizar la viabilidad a largo plazo de estas nuevas tecnologías. Los autores sugieren que un primer paso para revertir esta tendencia es establecer marcos regulatorios adecuados para ayudar a dirigir el vasto potencial de la IA hacia el mayor beneficio para las personas y el medio ambiente, así como hacia el logro de los ODS. Para ello, los responsables de la formulación de políticas deben tener una comprensión suficiente de los desafíos de la IA. Eso permitirá formular políticas sólidas, en lugar de ineficaces y contraproducentes.
El estudio concluye: “Estamos en un punto crítico para el futuro de la IA. Es necesario un debate global e impulsado por la ciencia para desarrollar principios y legislación compartidos entre naciones y culturas para dar forma a un futuro en el que la IA contribuya positivamente al logro de todos los ODS y a desbloquear beneficios que podrían ir mucho más allá de estos. Todos los actores en todas las naciones deben estar representados en este diálogo para garantizar que nadie se quede atrás”.
IA solidaria
En sintonía con estas propuestas está la del científico jefe de programa Global Pulse de la ONU, el español Miguel Luengo-Oroz. En un texto publicado en Nature Machine Intelligence, el experto en datos propone el concepto de ‘IA solidaria’ y defiende que la solidaridad debe ser el principio base de toda inteligencia artificial. Sobre el consenso de que la IA es una tecnología con doble rasero, argumenta que este enfoque puede proporcionar un marco y una narrativa para enfrentar el desafío de usar la IA en beneficio de la humanidad.
Miguel Luengo-Oroz sostiene que pocas de las pautas éticas de IA existentes consideran el principio de solidaridad por adelantado. Esto -en su opinión- debería implicar compartir la prosperidad creada por la tecnología, implementar mecanismos para redistribuir el aumento de la productividad para todos y compartir las cargas, asegurándose de que la IA no aumente la desigualdad y que nadie se quede atrás. “Compartir prosperidad significaría, por ejemplo, que se pagara a cualquiera cuyas acciones proporcionen datos para entrenar modelos de IA, por ejemplo, a través de un sistema de regalías”, ejemplifica. Su propuesta también requeriría evaluar las implicaciones a largo plazo antes de desarrollar y desplegar sistemas de IA. Muy en línea con las propuestas de el estudio sobre IA y ODS.