Las empresas denuncian la incertidumbre relativa al futuro Reglamento Europeo de Inteligencia Artificial (IA Act, en inglés), aunque precisan que esto no debe ser un impedimento para seguir avanzando en la implementación de esta herramienta en los procesos de las firmas.
"Asumamos que vamos a vivir sin tener respuesta a todas las preguntas que vamos a tener", ha afirmado Elena Mora, directora de Privacidad y Protección del Dato en Mapfre durante una mesa redonda celebrada en el marco del Chief Data Officer Day de 2023. "Pero eso no puede ser la parálisis, hay que seguir avanzando", ha puntualizado.
[Fuentes de la UE ven "improbable" que la Ley de IA vea la luz durante la Presidencia española]
Mora ha explicado que las lecciones derivadas del Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés) "son obvias" y "comunes" a la IA Act, ya que, en ambos, el objetivo es gestionar el uso de la tecnología para "garantizar los derechos y libertades de los ciudadanos".
Además, ha añadido que los dos son proyectos globales que afectan de forma transversal a las organizaciones, sin depender de una sola área en concreto. "Es vital que todo el mundo sea consciente de las leyes del juego", ha afirmado. Así, ha destacado la "la concienciación, la divulgación y el control" como el camino a seguir para una correcta implantación de esta legislación.
En la misma línea, Tomás Arteaga, responsable del área de Data Science y Analytics en Deutsche Bank, ha explicado que una de las mayores preocupaciones que experimenta su empresa para con esta ley es cómo aterrizarla. Por ello, ha precisado que llevan años incorporando modelos de riesgo o iniciativas relacionadas con la explicabilidad para adelantarse a los requerimientos que impondrá la futura normativa.
En este sentido, ha recordado algunos proyectos que Deutsche Bank tiene en España relacionados con la inteligencia artificial, entre ellos, la recomendación de productos de inversión, factoría de modelos y la gestión de información en tiempo real. A nivel global, asimismo, emplean esta tecnología para detectar transacciones sospechosas de ser fraudulentas.
Gestión del riesgo de la IA
En su turno, Miguel Utrilla Burgaz, director senior de Análisis de Servicios Financieros y Datos en EY, ha desgranado algunas de las particularidades de los borradores que se han dado a conocer del futuro Reglamento Europeo de IA. "Lo que viene a decir la Unión Europea es que no es lo mismo que Netflix se equivoque recomendando una película, que un algoritmo decida mal sobre un procedimiento sanitario", ha resumido.
Así, la ley aborda, especialmente, las áreas de riesgo de esta herramienta y las prohibiciones derivadas, donde se encuentran, por ejemplo, las puntuaciones sociales, la inferencia en las emociones de los trabajadores o los sistemas de identificación en tiempo real. Según ha recordado, las sanciones por incumplimiento podrían llegar hasta el 6% de la facturación.
Utrilla ha apuntado que la normativa no se traducirá en una guía procedimental a seguir, sino que desarrollará unas líneas que estandaricen y definan buenas prácticas que permitan escalar a los actores de este ecosistema.
Por otro lado, el representante de EY ha señalado que los distintos borradores de la ley se han ido adaptando a las nuevas vertientes de la IA que han surgido, entre ellas, la IA generativa. Según ha explicado, en las diferentes revisiones compartidas del documento se han introducido particularidades relativas a esta modalidad como la necesidad de que sea transparente, la prohibición de generar contenido que infrinja la ley o la obligatoriedad de emplear datos de entrenamientos que respeten la propiedad intelectual.