Parlamento Europeo.

Parlamento Europeo. GRUPO SOCIAL ONCE

Política Digital

España lidera el aterrizaje práctico de la ética en la futura ley europea de inteligencia artificial

Esta región ha presentado dos directrices centradas en las competencias y en las herramientas para la aplicación de la ética del futuro reglamento.

7 julio, 2024 01:12

La intensidad regulatoria que marca la agenda europea hace que, en ocasiones, se pasen por alto documentos que a priori no parecen determinantes, pero que son los que terminarán marcando el desarrollo de las leyes con mayor renombre. Y es que, aunque la fama y el impacto se la lleven las grandes normas frente al despliegue de los estándares asociados para su aplicación efectiva, lo cierto es que uno no podría existir sin el otro. 

Si hablamos de las legislaciones relevantes que han visto la luz en los últimos meses, no se puede pasar por alto el Reglamento Europeo de Inteligencia Artificial (IA Act, en inglés), una de las disposiciones más importantes del territorio comunitario en el ámbito tecnológico. La norma, que está a la espera de su publicación en el Diario Oficial de la Unión Europea (el BOE europeo), tras lo que entrará oficialmente en vigor, se ha convertido en un hito en la región, no solo por su carácter pionero, sino por la aproximación que hace a esta herramienta desde un enfoque basado en el riesgo. 

Los debates sobre el impacto y la aplicabilidad de esta regulación se han sucedido de forma interminable desde que se empezó a conocer su contenido, una conversación que en las últimas semanas parece haberse detenido a la espera de que la ley supere su último escollo normativo. 

Sin embargo, en este impasse han salido adelante dos estándares que marcarán el buen devenir de esta legislación y su aplicación práctica y que parecen haberse pasado por alto. Se trata de las "Directrices de herramientas para tratar las cuestiones éticas en el ciclo de vida de los sistemas de IA" y las "Orientaciones para mejorar las competencias de las organizaciones en materia de ética y asuntos sociales de la IA". 

La creación de ambas se aprobó el pasado 7 de junio durante el Plenario del Comité Europeo Conjunto de Normalización de Inteligencia Artificial celebrado en Bath (Reino Unido) y su autoría tiene nombre español, concretamente el de Juan Pablo Peñarrubia, vicepresidente del Consejo de Colegios Profesionales de Ingeniería Informática de España (CCII), experto en IA y ética digital e impulsor de ambos documentos. 

De la teoría a la práctica 

Peñarrubia explica en una entrevista con DISRUPTORES -EL ESPAÑOL que, en el primer estándar, centrado en las herramientas, destaca el aterrizaje, ofreciendo a las empresas y directivos que quieran cuidar los aspectos éticos de la inteligencia artificial un conjunto de soluciones "realistas, viables y, sobre todo, prácticas". "La ética teórica y académica de poco sirve si no puede llevarse a la práctica real y masiva", insiste. 

La practicidad, así, es la clave de este proyecto, que apuesta por guiar a las compañías e instituciones de todo tipo en la incorporación de mecanismos concretos para incluir cuestiones éticas en la toma de decisiones sobre los sistemas de IA, evitando que se desperdicien tiempo y recursos. 

Mientras, en el estándar dedicado a la capacitación, el objetivo que subyace es acompañar a las organizaciones en el desarrollo de competencias relacionadas con el uso ético de esta tecnología en todos los estamentos (desde la dirección general hasta el personal administrativo), proporcionándoles un marco de referencia. "La capacitación (...) es esencial para abordar y resolver cuestiones éticas de la IA", afirma el experto. 

Peñarrubia precisa que las dos iniciativas de estandarización están orientadas a todo tipo de organizaciones, independientemente de su tamaño o sector de actividad, así como del ámbito público o privado. 

El impulsor explica que lo reseñable de ambas guías es que ayudarán a pasar de las palabras "a la práctica real, viable y sostenible" no solo en el ámbito de la IA, sino también en el de la ética empresarial y la responsabilidad social. Según cuenta, su aplicación permitirá materializar de forma real una IA confiable, en línea con la visión europea, y aportará seguridad en el ámbito informático, ofreciendo una dirección en la que caminar para el desarrollo de productos y servicios alineados con los aspectos de fiabilidad. 

"Será un camino complejo y largo, pero es esencial la consolidación de la cultura compartida de la responsabilidad y ética de las tecnologías informáticas para la sostenibilidad de la sociedad digital", afirma. 

Los retos

No obstante, Peñarrubia reconoce que el camino hasta aquí no ha estado exento de retos, donde destaca la falta de confianza de las organizaciones y empresas sobre la utilidad y viabilidad de incorporar la ética a la toma de decisiones. 

El experto explica que las últimas décadas han dejado diferentes ejemplos sobre cómo el uso poco ético de diferentes tecnologías puede ser un riesgo para una compañía. Por ello, apunta, incorporar las cuestiones éticas como un elemento más para la toma de decisiones es "imprescindible" en la gobernanza y confiabilidad de herramientas como la IA.

Así, afirma, el desafío es hacerlo de forma valiosa y práctica, algo que reconoce que no ha sido fácil, pero sí relevante. 

También, señala que otro de los retos que han tenido que afrontar en el desarrollo de ambas iniciativas es separar la idea de que la ética supone imponer una determinada moral o valores. "En este caso hemos hecho un planteamiento con un cierto espíritu disruptivo, al proponer herramientas prácticas independientes de una fundamentación ética concreta", cuenta. 

Esto, precisa, permite a las organizaciones adaptar las herramientas que proponen a cada caso e integrar la propia ética corporativa, es decir, los códigos éticos de cada firma. "Llevar la ética de la IA a la práctica requiere soluciones flexibles y plenamente adaptables a cada caso de uso", apunta. 

El papel de España 

El despliegue de ambas iniciativas tiene especial relevancia para España porque son los primeros estándares europeos relacionados con la inteligencia artificial propuestos desde este país y con liderazgo español en su desarrollo. En concreto, han salido adelante en el seno de la Asociación Española de Normalización (UNE), que es la entidad que formalmente participa y representa a España en el Comité Europeo Conjunto de Normalización de Inteligencia Artificial. 

A pesar de que esta región ya ha participado en diferentes proyectos relacionados con la estandarización, según Peñarrubia, hasta el momento no existía ningún proyecto impulsado por ella, lo que convierte a la aceptación a ambas guías en motivo de celebración. 

"Es esencial que España aporte iniciativas e influya en la estandarización internacional europea en materia de IA, dada la importancia de esta tecnología para la competitividad empresarial y de país a corto y largo plazo", insiste el experto. "Que además esta contribución incluya el uso ético de los sistemas de IA supone influir desde España en un asunto de la máxima preocupación política y social". 

En la dirección adecuada 

Peñarrubia avanza que este tipo de estándares tendrán un protagonismo progresivo en la sociedad digital, ya que la gobernanza y confiabilidad son dos elementos esenciales para el buen desempeño de este ecosistema. "Iniciativas como estas promovidas desde España son el camino y la solución a la sostenibilidad y gobernabilidad de las tecnologías informáticas", afirma. 

"Los efectos serán progresivos, pero lo importante es que se pasa de la inacción a avanzar en la dirección adecuada", insiste. 

El experto en IA precisa que algunos de los estándares europeos se publicarán de forma paralela a la entrada en vigor del Reglamento Europeo de Inteligencia Artificial y, en el caso de las iniciativas lideradas desde España, se prevé que estén disponibles para su uso en 2026.