El eterno debate entre regulación y desarrollo tecnológico está más de actualidad que nunca. Frente a los que opinan que la regulación limita el desarrollo tecnológico, el Gobierno de España ha publicado el 11 de marzo de 2025 una nota de prensa en la que confirma el lanzamiento del anteproyecto de ley de gobernanza de la inteligencia artificial.
Dicha norma se alinea con el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, de Inteligencia Artificial, aplicable desde el 2 de agosto de 2024, si bien su entrada en vigor está siendo escalonada hasta su plenitud el próximo 2 de agosto de 2027.
La futura norma española, inspirada en la europea, tratará por un lado de garantizar un uso de dicha tecnología que sea ético, inclusivo y beneficioso para los ciudadanos españoles y por el otro fomentar la innovación.
La idea es que este Anteproyecto se tramite por la vía de urgencia, para que, previos los trámites oportunos, vuelva al Consejo de Ministros para su aprobación y luego remitido a las Cortes para ser aprobado como proyecto de ley en el Congreso.
En línea con el Reglamento Europeo reconocerá los 4 niveles de riesgo de los sistemas de inteligencia artificial (prohibidos, alto riesgo, menor riesgo, sin riesgo) a cada uno de los cuales se les asignan diferentes obligaciones de mayor a menor intensidad recíprocamente, y se definirán y cuantificarán las sanciones correspondientes en función de la infracción de que se trate y la graduación que haga en cada caso el supervisor en atención a las circunstancias concurrentes a cada caso.
En la nota de prensa del Consejo de Ministros se ofrece un listado de ejemplos de sistemas prohibidos y de alto riesgo para facilitar la identificación de los mismos así como una aproximación a las sanciones que concretará el texto normativo.
No ayuda a mi juicio la diversidad de organismos supervisores que comunica la nota de prensa encargados de velar por el cumplimiento de las normas en materia de inteligencia artificial. Y es que, como principio general, establece que las autoridades encargadas de vigilar los sistemas de alto riesgo serán las que por defecto ya estén supervisando al sector afectado cuando se trate de productos sujetos a legislación armonizada.
Adicionalmente, serán competentes:
-
la Agencia Española de Protección de Datos (para sistemas de gestión de migraciones y asilo asociados a las Fuerzas y Cuerpos de Seguridad del Estado);
-
el CGPJ para sistemas de IA en administración de justicia y la Junta Electoral Central (para sistemas de procesos electorales);
-
el Banco de España para sistemas de clasificación de solvencia crediticia;
-
la Dirección General de Seguros (para sistemas de seguros)
-
la CNMV para sistemas de mercados de capitales.
En el resto de los casos, la autoridad competente será la AESIA, creada por la disposición adicional séptima de la Ley 28/2022, de 21 de diciembre, de fomento del ecosistema de las empresas emergentes, conforme a la exigencia prevista en el artículo 91, de la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público y cuyo estatuto fue aprobado por Real Decreto 729/2023, de 22 de agosto.
En cuanto al fomento de la innovación, se centra la nota de prensa del Consejo de ministros en el impulso del conocido “sandbox”, entorno controlado de pruebas que trata de facilitar el desarrollo, la formación, las pruebas y validación de sistemas innovadores de inteligencia artificial durante un tiempo limitado antes de su comercialización o puesta en servicio.
Ello sobre la base de la coordinación entre el regulador y los proveedores de la tecnología, en ese marco de supervisión que garantiza un mejor cumplimiento de las obligaciones legales en un entorno guiado y de mayor flexibilidad que la regulación tradicional.
De hecho España ya lanzó en diciembre su primera convocatoria lo cual servirá para ir ofreciendo pautas y orientaciones para futuros desarrollos. En esta convocatoria, cuyo último trámite se produjo el pasado 6 de marzo con la publicación de una resolución de la secretaría de estado de digitalización e inteligencia artificial en la que se notifican las solicitudes admitidas y desistidas de la convocatoria para el acceso al entorno controlado de pruebas para una inteligencia artificial confiable, han sido admitidos más de 40 sistemas, que tendrán en los próximos meses que desarrollar sus proyectos.
Entre los sistemas que forman parte de dicha convocatoria se observan por ejemplo sistemas de scoring crediticio, verificación de edad, filtrado de curriculums, historias clínicas, triaje inteligente, supervisión de infraestructuras críticas,…
Todo este desarrollo normativo visto por algunos como una limitación al desarrollo tecnológico pueda serlo frente a otros países para los que los derechos fundamentales no es una prioridad pero también lo cierto es que la regulación aporta seguridad jurídica y permite a los involucrados en el sector económico correspondiente tener mayores garantías de futuro que si no hubiera regulación, máxime cuando los desarrollos de la tecnología los puedes lanzar en entornos controlados de pruebas donde el regulador te acompaña en la evolución.