El plan de la UE contra las IA peligrosas: "hace falta supervisión humana"
La Comisión Europea ha presentado sus propuestas de regulación de Inteligencia Artificial, diseñadas para lo que considera posibles IA peligrosas.
19 febrero, 2020 17:44Noticias relacionadas
Cada cierto tiempo la historia se repite. Una nueva tecnología cambia completamente nuestras vidas, no siempre para bien, y los legisladores tardan años en desarrollar leyes adaptadas y actualizadas para los tiempos modernos.
Lo hemos visto con los drones y más recientemente, con el reconocimiento facial; y el peligro es que lo mismo ocurra con la Inteligencia Artificial. El problema es que, en este último caso, las consecuencias pueden ser mucho peores.
Que los desarrollos de Inteligencia Artificial deben ser regulados es algo que piden hasta los propios desarrolladores; es una tecnología con un potencial increíble, tanto para bien como para mal.
La lucha de la UE contra IA peligrosas
Es por eso que la Unión Europea quiere que, al menos esta vez, los países miembro estén preparados para la revolución de la IA. Para esa y otras cuestiones la Comisión europea ha publicado hoy (pdf) sus propuestas para la regulación de la Inteligencia Artificial, así como para el Big Data y tecnologías relacionadas como el reconocimiento facial.
El objetivo es crear un marco de referencia que permita el desarrollo de IA, pero manteniendo a raya los sistemas "de alto riesgo", como los define el texto. En concreto, se refiere a los sistemas automatizados de relacionados con la salud, el transporte, o incluso la elaboración de nuevas políticas.
Todas son áreas en las que ya hay desarrollos muy interesantes, pero también potencialmente peligrosos. Lejos de regular excesivamente este mercado, los comisarios afirman que el objetivo es ofrecer unas "reglas claras" en esos casos, para evitar posibles abusos.
Para ello, la clave estará en los propios seres humanos. Y es que la propuesta de la UE se basa principalmente en garantizar que las acciones de las IA son vigiladas y controladas por personas de verdad; para ello, es necesaria una mayor transparencia, además de la posibilidad de rastrear la toma de decisiones para comprender mejor cómo se han tomado.
Según el texto, esta transparencia debería permitir que los gobiernos comprueben y certifiquen los datos usados como base para el desarrollo de IA. Con el "aprendizaje automático", una red neuronal es capaz de llegar a conclusiones para las que no fue programada; es lo que permite a esta tecnología, por ejemplo, crear contenido falso que parece real.
La importancia de los datos
Sin embargo, estas decisiones no se toman porque sí, sino que se basan en una serie de datos iniciales; dependiendo de estos datos, los resultados pueden variar. Por ejemplo, que una IA identifique a potenciales criminales dependiendo del color de su piel. Es ese tipo de desarrollos lo que la UE quiere evitar.
Además, está la cuestión de la privacidad, como en el uso del reconocimiento facial automático; la Comisión Europea ya advirtió que las reglas actuales de protección de datos ya impiden muchos usos de esta tecnología, aunque también admite que algunas aplicaciones relacionadas con la seguridad no pueden ser prohibidas.
Es demasiado pronto para saber si esta base que ha puesto la Comisión Europea será suficiente contra una posible amenaza relacionada con IA; pero como mínimo, era una base necesaria.