Prohibición de prácticas como la vigilancia indiscriminada de forma generalizada o los sistemas puntación (scoring) realizados a partir de la Inteligencia Artificial, definición y control de los sistemas de IA considerados de "alto riesgo", creación de autoridades nacionales y europeas de supervisión y multas de hasta el 4% de los ingresos anuales para aquellos que no respeten la regulación.
Estas son algunas de las medidas recogidas en la propuesta regulatoria que ha elaborado la Comisión Europea (CE) para salvaguardar los derechos y los valores fundamentales a la hora de utilizar la Inteligencia Artificial, que está previsto se presente el próximo 21 de abril, pero cuyo borrador se acaba de filtrar.
El documento, de 81 páginas, hace especial énfasis en la gestión de lo que denomina sistemas de Inteligencia Artificial de "alto riesgo", con el fin de que su uso no presente un "riesgo inaceptable" a la protección de la seguridad, los derechos fundamentales y los valores de la unión. De hecho, la expresión 'high-risk' se repite más de 250 veces a largo de todo el texto.
La propuesta establece dos categorías. La primera engloba a los sistemas para la identificación biométrica de personas en espacios de acceso público y aquellos que se usen como componentes de seguridad en la gestión y operación de redes de infraestructuras públicas esenciales, que deberán estar sujetos a procedimientos de evaluación de conformidad más estrictos a través de un organismo autorizado.
La segunda categoría hace referencia a aquellos sistemas de Inteligencia Artificial de alto riesgo cuya evaluación debe ser realizada por el propio proveedor. Entre ellos se encuentra aquellos que se emplean en situaciones críticas para la vida y la salud de las personas y sus propiedades, así como los que se utilizan en procesos de selección en el ámbito formativo y laboral, de determinación de solvencia económica o de decisión de prestación de servicios y beneficios sociales.
Otro de los elementos claves de la legislación incluida en el borrador filtrado consiste en la elaboración de una lista de prácticas prohibidas que se pueden llevar a cabo con la Inteligencia Artificial y que Bruselas considera que contravienen los valores de la Unión Europea (UE) o violan derechos fundamentales recogidos en la legislación del Viejo Continente.
En concreto, estará prohibido utilizar sistemas de Inteligencia Artificial para la "vigilancia indiscriminada aplicada de forma generalizada a todas las personas sin diferenciación". Así, apunta, por ejemplo, a métodos como los que incluyen "el seguimiento y la vigilancia de personas en entornos digitales o físicos, así como la agregación y los análisis automatizados de datos personales de diversas fuentes".
Excepciones para la seguridad nacional
No obstante, el texto apunta que algunas prácticas con IA de estas características podrían ser permitidas cuando sean empleadas por autoridades públicas o en su representación con el fin de salvaguardar la seguridad pública, actuación que estará sujeta a las debidas garantías de los derechos y libertades de terceros.
Asimismo, se prohíben sistemas de IA diseñados o utilizados de tal manera que manipulen el comportamiento, las opiniones o las decisiones humanas a través de arquitecturas de elección u otros elementos de las interfaces de usuario, así como aquellos que exploten información o predicciones sobre una persona o grupo de personas con el fin de atacar sus vulnerabilidades o circunstancias especiales.
Asimismo, el borrador propone la prohibición del uso de la IA para otorgar una "puntuación" o scoring a las personas, incluido de forma online, a partir del análisis de su comportamiento en diferentes contextos o la predicción de características de personalidad.
El documento advierte de que esto puede llevar a un trato "perjudicial sistemático" a determinadas personas o grupos en contextos sociales no relacionados con aquellos en los que los datos se generaron o recopilaron originalmente o en un grado "desproporcionado" respecto a la gravedad de su comportamiento social.
Multas para los incumplidores
Con el fin de que que garantizar su cumplimiento, el texto también incluye la posibilidad de que los Estados miembros multen a todos aquellos actores que infrinjan la regulación, unas penalizaciones que deberán ser "eficaces, proporcionadas y disuasivas".
En concreto, el borrador recoge que aquellos que incumplan la ley se enfrentan a multas que podrían alcanzar los 20 millones de euros o, en el caso de las empresas, hasta el 4% de sus ingresos anuales a nivel global del año precedente, el importe que sea mayor.
Asimismo, se establece la creación de un 'Consejo Europeo de Inteligencia Artificial' que estará compuesto por un representante de cada Estado miembro y uno de la Comisión Europea, cuya misión será emitir recomendaciones y opiniones relevantes, con foco en la lista de prácticas prohibidas y la de sistemas de alto riesgo.
Sin embargo, el documento también incide en que los Estados miembros desempeñan un papel "clave" en la aplicación y ejecución de esta regulación, por lo que cada país deberá designar a una o varias autoridades nacionales para que supervisen su cumplimiento.
Además, también deberán establecer una única autoridad nacional supervisora para lograr una mayor eficiencia organizativa entre todos los países de la Unión Europea y establecer un punto de contacto oficial con el público y otros actores del sector.
Por otro lado, el documento también se propone impulsar el desarrollo de la IA. Así, para garantizar un marco legal que sea favorable a la innovación, preparado para el futuro y resistente a las interrupciones, alienta a las países a poner en marcha sandbox regulatorios relacionados con esta tecnología con el fin de facilitar el desarrollo y la prueba de sistemas innovadores bajo una "estricta supervisión regulatoria".