La inteligencia artificial está en boca de todos, gracias a ChatGPT y a la avalancha de aplicaciones que han llegado a los usuarios desde principios de 2023. Sin embargo, es una herramienta que se lleva utilizando en sanidad desde hace años, con usos que permiten cribar ingentes cantidades de información para ayudar a los profesionales de la medicina, por ejemplo. Pese a los continuos avances de la tecnología quedan muchos retos por superar, incluido el de la regulación, en el que España quiere tener un papel de liderazgo dentro de la UE.
Precisamente, ese es uno de los temas clave que se están debatiendo en la quinta edición del Observatorio de la Sanidad organizado por EL ESPAÑOL e Invertia inaugurado hoy por la ministra de Sanidad, Mónica García. Bajo el título España, como líder de una política sanitaria europea, estas jornadas acogen debates y ponencias como la de Ignasi Belda, nombrado el pasado junio director general de la Agencia Española de Supervisión de la inteligencia artificial (AESIA), un órgano de control pionero en Europa.
Para empezar su ponencia, un repaso a las principales líneas de la regulación de la IA en Europa, Belda explicó el cometido de AESIA, con la que nuestro país es pionero en la UE. "No es un centro de investigación, no es un centro universitario o tecnológico, es una agencia de supervisión de mercado. En otras palabras, la AESIA es a la IA lo que el Banco de España al sector financiero, una entidad que se va a dedicar a supervisar el buen uso de la IA en el mercado nacional, tanto para empresas públicas como privadas".
A continuación, este emprendedor detrás de varias startups de base científica y reconocido experto en derecho, biomedicina y bioingeniería, repasó las grandes líneas maestras del reglamento del Reglamento de Inteligencia Artificial, aprobado en julio por la Comisión Europea y que entró en vigor el pasado 1 de agosto. "Tiene una fuerte inspiración en el reglamento de productos sanitarios (MDR), con una clasificación de 4 categorías basada en el riesgo. Una de ellas es la de aplicaciones prohibidas, como reconocer emociones en puestos de trabajo o centros educativos. Otra aplicación prohibida es el social scoring. No podemos permitir que haya empresas o administraciones públicas que usen la IA para puntuar al ciudadano y que tenga que pagar una tasa de basuras mayor si no hace bien el reciclaje, por ejemplo".
En el extremo contrario están las "aplicaciones de riesgo bajo o riesgo nulo, que son el 98%. Aquí el reglamento es muy laxo, no hay problema en que se use la IA en todas las materias en las que no hay ninguna vida humana o ningún derecho humano fundamental en riesgo. Si me quiero certificar, puedo hacerlo, pero es completamente potestativo, nadie me obliga a hacerlo", explicó el ganador el Premio Princesa de Girona en 2014 y autor del libro Inteligencia artificial: de los circuitos a las máquinas pensantes.
"En el ámbito de las tecnologías sanitarias", señaló Belda, "van a estar en la categoría 2 o 3, por lo que será necesario un certificado de conformidad europea". Aún así, los requisitos para obtenerla son, según él, "cosas de sentido común": que los datos de entrenamiento se hayan obtenido de forma lícita y no hayan violado ningún derecho de autor, que haya una trazabilidad para poder coger la 'caja negra' si hay algún problema, que no haya sesgos... "Algunos de estos requisitos se solapan con los del MDR y, si se cumplen, se obtiene la marca CE para poder operar en el mercado nacional y europeo".
Para poder entregar estos certificados, anunció Belda, "la AESIA va a crear el centro nacional de certificación en IA, que va a operar hasta que se creen organismos o centros certificadores. Esperamos que haya muchos organismos públicos y privados que puedan prestar este servicio público".
Por último, Belda abordó otras cuestiones que se habían mencionado en anteriores ponencias del V Observatorio de la Sanidad. Por un lado, el exceso de regulación como freno a la innovación. Para combatir esas barreras, el director general de AESIA anunció la elaboración de "16 guías para que cualquier emprendedor o empresa pueda descargárselas para entender el reglamento de IA con todo detalle. Vamos a explicarlo de forma muy llana para que cualquier empresa, sin necesidad de tener que pagar consultores, pueda poner a punto su sistema de IA sin depender de terceros".
El otro elemento es el sandbox, el entorno de pruebas aislado en el que se puede ejecutar código de software potencialmente inseguro sin afectar a los recursos de red o a las aplicaciones locales. Belda ve "un paralelismo con un estudio clínico, que es obligado en los dispositivos médicos. Vamos a hacer lo mismo con la IA, con la diferencia de que aquí es optativo. Si una empresa o administración pública quiere realizar un sandbox de su IA, estamos desplegando toda una normativa para que puedan hacerlo. Si sale bien, la certificación para la CE la tendrá mucho más fácil, lo que facilitará la innovación en nuestro país", concluyó.