La autoridad europea de protección de datos apoya la innovación en IA siempre que "se respete el RGPD"
- El EDPB ha reunido a los principales actores del ecosistema para reflexionar sobre el uso de datos personales para el despliegue de modelos de IA.
- Más información: Urtasun se enfrenta al sector digital: pretende usurpar el control de la propiedad intelectual ante la IA
El Consejo Europeo para la Protección de Datos (EDPB, por sus siglas en inglés) publicó hace unos días un dictamen sobre el uso de datos personales para el despliegue y desarrollo de los modelos de inteligencia artificial (IA) a raíz de la solicitud de la Autoridad Irlandesa de Protección de Datos (DPA), que buscaba una armonización normativa de este aspecto a escala europea.
En concreto, la opinión vertida por el EDPB aborda cómo y cuándo se pueden considerar anónimos los modelos de IA, si se puede utilizar el interés legítimo como base jurídica para desarrollarlos y en qué condiciones y, por último, qué ocurre si se despliega un modelo de IA utilizando datos personas que han sido procesados de forma ilegal. Además, aborda la gestión de los datos de terceros.
El Consejo organizó un encuentro entre las partes interesadas, además de reunirse con la Oficina de Inteligencia Artificial de la Unión Europea, para dar respuesta a las cuestiones mencionadas sobre esta tecnología de rápida evolución que, en sus propias palabras, "conlleva una importante repercusión en la sociedad".
Sobre la cuestión del anonimato, el dictamen precisa que la autoridad relativa a la protección de datos de cada región debe evaluar caso por caso para determinarlo. Entre las cuestiones que se deben tener en cuenta cita algunas como que sea improbable la identificación directa o indirecta de las personas cuyos datos se hicieron para crear ese modelo o extraerlos mediante consultas.
Mientras, respecto al interés legítimo, el análisis de la EDPB incluye algunas consideraciones que las autoridades regionales deben tener en cuenta a la hora de evaluar si el interés legítimo es una base jurídica adecuada para el tratamiento de datos personales para el desarrollo de modelos de IA. La entidad menciona algunos ejemplos como los agentes conversacionales para ayudar a los usuarios y su aplicación en el terreno de la ciberseguridad, de los que dice que pueden ser beneficiosos siempre que se respeten los derechos de privacidad de los usuarios.
En esta línea, también se definen algunos criterios para evaluar si los usuarios pueden esperar que se utilice su información en determinados casos. Entre ellos, se incluye si esta información está o no a disposición del público, la relación entre ambos interesados, el servicio para el que se prestan, el contexto en el que se recopilaron los datos, la fuente, los posibles usos a posteriori y si los individuos son conscientes de que dicha información está online.
Además, el organismo recoge algunas medidas que ayudan a la mitigación del impacto negativo de estos usos, por ejemplo, facilitar a los particulares el ejercicio de su derecho de rectificación, eliminación o corrección.
Por otro lado, sobre la posibilidad de que un modelo de IA se desarrolle con datos tratados ilegalmente, la autoridad reconoce que esto podría repercutir en la licitud de su despliegue, a menos que este de haya anonimizado de forma correcta.
Oportunidades y desafíos
La presidenta de la EDPB, Anu Talus, apunta en un comunicado que la inteligencia artificial puede aportar multitud de "oportunidades y beneficios" a diferentes ámbitos e industrias, pero, a su vez, remarca la importancia de garantizar que estas innovaciones cumplan unos principios éticos y de seguridad.
"La EDPB quiere apoyar la disrupción responsable de la IA garantizando la protección de los datos personas y respetando el Reglamento General de Protección de Datos", precisa.
Así, desde la institución avanzan que están trabajando actualmente en el desarrollo de directrices sobre cuestiones más específicas.