La Eurocámara da un paso crucial hacia la aprobación de la primera normativa a nivel mundial diseñada específicamente para regular la Inteligencia Artificial. Los comités de Mercado Interior y Libertades Civiles han adoptado este jueves (por una amplia mayoría de 84 votos a favor, 7 en contra y 12 abstenciones) sus enmiendas a esta Ley, cuya principal novedad es que imponen toda una serie de restricciones a ChatGPT y otros modelos de lenguaje basados en la IA.
En concreto, el nuevo reglamento obligará a ChatGPT y similares a cumplir con requisitos de transparencia adicionales, como revelar que el contenido fue generado por Inteligencia Artificial, diseñar el modelo de forma que se garantice que no producirá contenido ilegal y publicar resúmenes de datos protegidos por derechos de autor utilizados para entrenar al algoritmo. Estas limitaciones no figuraban en la propuesta original de la Comisión de abril de 2021.
"Dado el profundo impacto transformador que la IA tendrá en nuestras sociedades y economías, la Ley de IA es muy probablemente la pieza legislativa más importante en este mandato. Es la primera legislación de este tipo en todo el mundo, lo que significa que la UE puede liderar el camino para hacer que la IA sea fiable, segura y centrada en el ser humano", ha dicho uno de los ponentes del texto, el eurodiputado liberal rumano Dragos Tudorache.
[Fraude, suplantación y desinformación: Europol alerta sobre los usos delictivos de ChatGPT]
Las enmiendas todavía tienen que ser ratificadas en el pleno de junio. A partir de ahí, empezarán las negociaciones entre la Eurocámara y los Gobiernos de los 27 para pactar la versión definitiva del reglamento, que debería estar lista antes de las elecciones europeas de la primavera de 2024.
El nuevo reglamento de la UE se basa en un enfoque basado en el riesgo, tanto para la seguridad como para los derechos fundamentales de los ciudadanos. En el peldaño más alto de la pirámide se encuentran el número muy limitado de aplicaciones de inteligencia artificial que según Bruselas plantean un "riesgo inadmisible" y que se prohibirán de forma terminante.
La propuesta original de la Comisión incluía en esta categoría sistemas que usan técnicas subliminales para eludir la voluntad de los usuarios o los modelos que permitan la "puntuación social" de los ciudadanos, como hace por ejemplo China. También planteaba requistos muy estrictos a todos los sistemas de identificación biométrica remota.
La Eurocámara quiere ampliar y endurecer esta lista de prohibiciones para incluir en todos los casos los sistemas de identificación biométrica remota "en tiempo real" en espacios públicos, así como los sistemas de identificación biométrica a distancia "post, con la única excepción de las fuerzas del orden para la persecución de delitos graves y sólo previa autorización judicial.
También entrarían en la lista negra los sistemas de categorización biométrica que utilizan datos sensibles (género, raza, etnia, estado de ciudadanía, religión, orientación política); sistemas policiales predictivos (basados en perfiles, ubicación o conducta delictiva pasada); sistemas de reconocimiento de emociones o la recopilación indiscriminada de datos biométricos procedentes de redes sociales o cámaras de vigilancia para crear bases de datos de reconocimiento facial.
En el segundo escalón de la pirámide se encuentran las aplicaciones de inteligencia artificial que según Bruselas presentan un riesgo alto. En esta categoría se encuentran por ejemplo las tecnologías de puntuación en exámenes, programas de clasificación de currículums para procedimientos de contratación, sistemas de calificación crediticia para acceder a un préstamo o evaluación de la fiabilidad de las pruebas en un procedimiento judicial.
[Inteligencia artificial: la UE prohibirá la puntuación social y la vigilancia biométrica masiva]
La Eurocámara quiere añadir a esta lista los sistemas de IA para influir en los votantes en las campañas políticas, así como los sistemas de recomendación utilizados por las grandes plataformas de redes sociales.
Estos sistemas de alto riesgo estarán sujetos a una serie de obligaciones estrictas antes de poder comercializarse. Entre ellos, procedimientos adecuados de evaluación y mitigación de riesgos, garantías de alta calidad de los datos empleados, registros de actividad, información clara y adecuada a los usuarios y medidas apropiadas de supervisión humana.
En el tercer peldaño del reglamento se encuentran los sistemas de inteligencia artificial de uso general, a los que se impondrá obligaciones específicas de transparencia. Es el caso de los deep fake, de los bots o del ChatGPT y modelos similares.
El Parlamento Europeo quiere además que el reglamento reconozca un derecho universal para todos los ciudadanos a querellarse contra los sistemas de Inteligencia Artificial y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que tengan una incidencia significativa sobre sus derechos.