Inteligencia artificial y marco legal
La abogada de Vento especialista en startups reflexiona sobre la falta de regulación de una tecnología tan potente como es la inteligencia artificial y los riesgos que ello conlleva
Hace solo una semana se celebraba en A Coruña el Foro Económico de El Español "La Galicia que viene", donde varias de las mesas estaban conformadas por agentes del ecosistema startup gallego. Y es que en el porvenir económico de Galicia las startups tienen un papel protagonista.
La potencia de Galicia en el sector de la biotecnología es actualmente indiscutible y cuenta con reconocimiento mundial. Pero además tenemos "na casa" empresas innovadoras en todos los sectores, y con todo tipo de tecnología -desde deeptech hasta blockchain-.
Muchas startups han visto potencial en la inteligencia artificial (IA) -ya sea como motor de un proyecto, ya como herramienta para acelerar procesos- pero advierten también los posibles riesgos. No es sólo que esta tecnología requiera del acceso a enormes cantidades de datos para su entrenamiento y de gran capacidad de computación; es que actualmente carece de regulación.
La falta de regulación de una tecnología con un potencial de usos tan amplio, y que además puede proceder de cualquier parte del mundo -véase los famosos ChatGPT y Dall-e- genera tal incertidumbre que acaba por resultar en parálisis, a la espera del regulador.
Esta carencia de normativa específica de inteligencia artificial -que podría llegar a modificar normativa actual- nos lleva a aplicar para su uso otras normas que sí tenemos. Por ejemplo, para la obtención y tratamiento de los datos necesarios para entrenar una IA, hay que aplicar la normativa de protección de datos.
De hecho, esta regulación es actualmente el principal escollo para proyectos de IA que requieren de un conjunto de datos de carácter médico: para entrenar a una IA y que pueda, por ejemplo, hacer un diagnóstico temprano de determinada enfermedad, debemos alimentarla de muchas pruebas diagnósticas de la misma dolencia.
La obtención de estos datos no resulta fácil porque normalmente el paciente no ha consentido este uso, porque se trata de datos especialmente sensibles, porque pueden hacerse perfiles de pacientes usando estos datos, porque tiene que dar su conformidad el comité ético de cada hospital.
Cuando la IA tiene origen en países extracomunitarios, es posible que en su desarrollo no se aplique esta normativa, que no obstante debe cumplirse para ofrecer el producto a los ciudadanos de la UE. Es el caso de ChatGPT, desarrollada por OpenAI y que actualmente está siendo investigada de oficio por la Agencia Española de Protección de Datos.
Para resolver esta y otras muchas cuestiones es necesaria una regulación específica de la IA, que permita avanzar con cierta seguridad jurídica en el uso e integración de esta tecnología que va a ser clave en la innovación y el avance de muchos sectores.
En la Unión Europea estamos a la espera del legislador: se está trabajando actualmente sobre una propuesta de regulación de la AI publicada por primera vez en 2021, y que tras seguir su tramitación no parece previsible que se apruebe antes de que acabe 2023.
La propuesta de la UE consiste en regular la tecnología y su uso partiendo de unos principios obligatorios y una clasificación de riesgos de la AI vinculada con el peligro que pueda representar para el respeto de los derechos fundamentales. Algunos usos de la IA que puedan vulnerar estos derechos se prohíben directamente, por ejemplo, realizar sistemas de clasificación ciudadana al estilo del carnet ciudadano de China.
En aquellos casos en que la AI pueda representar un riesgo alto para los derechos fundamentales, la salud o la seguridad de las personas físicas, se imponen determinados requisitos previos a su uso, además de una autorización administrativa que se denomina "evaluación de la conformidad". Además, la UE trabaja en otro texto legal sobre Responsabilidad por IA, con la finalidad de adaptar las normas de responsabilidad extracontractual a los posibles daños causados por esta tecnología.