Inteligencia artificial: la UE prohibirá la puntuación social y la vigilancia biométrica masiva
Bruselas presenta la primera norma sobre inteligencia artificial cuyo objetivo es generar confianza y potenciar la inversión.
21 abril, 2021 13:24Noticias relacionadas
- Inteligencia artificial para intentar prevenir problemas del software en las empresas
- El espectacular show de 1.500 drones que crean un código QR gigante en China
- Ya puedes crear humanos virtuales hiperrealistas: gratis, en pocos minutos y desde tu navegador
- Endesa destinará más de 1.200 millones hasta 2023 para mejorar el suministro eléctrico
La Comisión Europea ha presentado finalmente este miércoles su esperado reglamento sobre inteligencia artificial, cuyo objetivo es generar confianza en esta tecnología y potenciar la inversión y la innovación. La Unión Europea aspira a fijar los estándares internacionales en este sector, como ya hizo en materia de protección de datos, y mantener así una posición de liderazgo mundial.
El reglamento todavía tiene que ser negociado y aprobado tanto por los Gobiernos de la UE como por la Eurocámara. Una vez que entre en vigor, se aplicará de forma directa en todos los Estados miembros, evitando así la fragmentación regulatoria. "Al establecer las normas, podremos facilitar el advenimiento de una tecnología ética en todo el mundo y velar por que la UE siga siendo competitiva", ha dicho la vicepresidenta ejecutiva de la Comisión y responsable de esta norma, Margrethe Vestager.
El nuevo reglamento de la UE se basa en un enfoque basado en el riesgo, tanto para la seguridad como para los derechos fundamentales de los ciudadanos. En el peldaño más alto de la pirámide se encuentran el número muy limitado de aplicaciones de inteligencia artificial que según Bruselas plantean un "riesgo inadmisible" y que se prohibirán de forma terminante.
En esta situación se encuentran los sistemas que usan técnicas subliminales para eludir la voluntad de los usarios: por ejemplo, juguetes que utilicen la asistencia vocal para incitar a comportamientos peligrosos a los menores. La UE prohibirá también sistemas que permitan la "puntuación social" de los ciudadanos por parte de los Gobiernos, como hace por ejemplo China.
Bruselas también quiere fijar requisitos muy estrictos a todos los sistemas de identificación biométrica remota. Su uso en directo en espacios de acceso público con fines policiales está prohibido en principio. No obstante, se preven una serie de excepciones tasadas: por ejemplo, cuando sea estrictamente necesario para la búsqueda de un menor desaparecido, para prevenir una amenaza terrorista concreta o inminente o para detectar, localizar, identificar o enjuiciar a un autor o sospechoso de delito grave.
Su uso estará sujeto a la autorización de un órgano judicial u otro organismo independiente y a límites desde el punto de vista de la duración, el alcance geográfico y las bases de datos exploradas.
El riesgo es el criterio
En el segundo escalón de la pirámide se encuentran las aplicaciones de inteligencia artificial que según Bruselas presentan un riesgo alto. En esta categoría se encuentran por ejemplo las tecnologías de puntuación en exámenes, programas de clasifiación de currículums para procedimientos de contratación, sistemas de calificación crediticia para acceder a un préstamo o evaluación de la fiabilidad de las pruebas en un procedimiento judicial.
Estos sistemas de alto riesgo estarán sujetos a una serie de obligaciones estrictas antes de poder comercializarse. Entre ellos, procedimientos adecuados de evaluación y mitigación de riesgos, garantías de alta calidad de los datos empleados, registros de actividad, información clara y adecuada a los usuarios y medidas apropiadas de supervisión humana.
En el tercer peldaño del reglamento se encuentran los sistemas de inteligencia artificial de riesgo limitado, a los que se impondrá obligaciones específicas de transparencia. Es el caso de los deep fake o de los bots. Al utilizar robots conversacionales, se deberá avisar a los usuarios de que están interactuando con una máquina para que pueda tomar una decisión informada de continuar o no.
Finalmente, el reglamento no fija ninguna obligación para aplicaciones que plantean riesgo mínimo o nulo, tales como videojuegos o filtros de correo basura. Bruselas sostiene que la inmensa mayoría de los sistemas de inteligencia artificial entra en esta categoría en la base de la pirámide. Para las empresas incumplidoras, la nueva norma prevé la retirada de productos del mercado y multas para los casos más graves.