Integrar al médico en la toma de decisiones de la inteligencia artificial: cómo llevar la ética a esta disrupción tecnológica
Un documento de la patronal de las ‘telecos’ defiende que España puede liderar la IA ética en el ámbito sanitario si supera 28 retos pendientes.
6 febrero, 2022 04:10Noticias relacionadas
- Aplicaciones digitales de salud: la promesa de una atención primaria individualizada que ni existe legalmente en España
- Desconexión, aula conectada, ciberseguridad y reducción de brechas: así es la nueva 'constitución digital europea'
- Inteligencia artificial: el mantra que sigue sin calar en las empresas
Desde hace varios años se ha ido impulsando el uso de la inteligencia artificial en el ámbito de la salud, como ayuda al diagnóstico médico o en la toma de decisiones basadas en datos para tratamientos y experiencias más personalizadas e individualizadas. Sin embargo, el despegue de esta particular confluencia se ha acelerado tras la pandemia de la covid-19, también al calor de una digitalización que cala más y más en los profesionales sanitarios.
Tanto es asi que hubo que esperar hasta junio del pasado curso para que la Organización Mundial de la Salud (OMS) publicara su primer informe en torno a la inteligencia artificial aplicada a la salud. Un documento que no sólo defendía las grandes posibilidades de esta innovación, sino que también ponía el foco en que la ética y los derechos humanos debían ocupar "un papel central en su concepción, despliegue y utilización".
El testigo de esas aspiraciones lo han recogido los gobiernos de medio mundo, especialment en Europa y España en particular. No en vano, Juan Fernando Muñoz, secretario general de Salud Digital del Ministerio de Sanidad, defendía esta semana que esta tecnología "abre posibilidades inexistentes e inimaginadas. capaces de cambiar muchos aspectos de nuestra vida. Pero es fundamental que la integración de la inteligencia artificial se realice de forma respetuosa con la dignidad de las personas y su privacidad, los principios de equidad y bienestar o la sostenibilidad".
Muñoz hacía estas reflexiones en un evento organizado por la patronal de las 'telecos', DigitalES. En dicha cita, el alto cargo aludía a la inclusión de este tema en la agenda pública, a través de la Estrategia Nacional de IA o en la creación de espacios de datos específicos para salud con Gaia-X, el fundmentos sobre el que ir explorando el resto de modelos económicos. "Y que deben ser siempre datos encontrables, accesibles, interoperables, protegidos y eticos", añadía Juan Fernando Muñoz. "Porque los datos son el sustento de la inteligencia artificial, que son siempre de las personas".
Certificaciones y transparencia
La patronal de las telecomunicaciones recoge el guante en un extenso documento en el que propone hasta 28 ideas o recomendaciones para garantizar la ética en la llegada de la inteligencia artificial al ámbito sanitario.
"El sector sanitario posee una criticidad que debe ser valorada a la hora de implantar cualquier solución de inteligencia artificial. Es decir, la dimensión ética tiene que ser parte integral de su desarrollo, pero también de su introducción y posterior seguimiento", reconoce el texto.
Entre las propuestas del grupo de expertos convocado por esta asociación encontramos algunas referentes a la transparencia y explicabilidad de los sistemas de IA. Especialmente relevantes son las peticiones de "promover obligaciones mínimas de transparencia para aplicaciones de menor riesgo" (con el fin de que las personas tengan derecho a saber cuándo están interactuando con un sistema de IA) y la definición de criterios mínimos de explicabilidad que deban ofrecer los sistemas de IA a los profesionales sanitarios.
También hay un capítulo orientado al debate de la privacidad de datos tan sensibles como estos. Al respecto, desde DigitalES piden "otorgar la formación y conocimientos necesarios a las empresas/centros sanitarios para asegurar el cumplimiento de la normativa en protección datos, evitando confusiones o actuaciones ilícitas fuera del margen legal", así como "incorporar mecanismos robustos de pseudoanonimización de los datos que garanticen la privacidad de éstos a la vez que pueden ser utilizados para fines de investigación de nuevos medicamentos, tratamiento de enfermedades..."
Igualmente, el documento analiza las implicaciones en torno a la calidad del dato y la potencial discriminación de determinados colectivos. En este sentido, los expertos recomiendan "requerir a los desarrolladores de sistemas de IA la inclusión de mecanismos de control, incluyendo la intervención humana, que garanticen la no presencia de sesgo de ningún tipo en sus soluciones". Además, se pide "acelerar la interoperabilidad de sistemas, asegurando la privacidad y la calidad de los datos, para ampliar el tamaño de la muestra de información que vaya a ser procesada".
Añaden los expertos consultados aspectos relacionados con la robustez de los sistemas. En ello, el texto exige "promover la implantación de un sistema de protección o de almacenamiento (nube) que permita crear copias de seguridad y proteger los datos de pacientes ante cualquier tipo de inconveniente" y "promover un sistema de certificación para software de IA en sanidad a nivel nacional, basado en criterios objetivos de calidad de las auditorías algorítmicas e impulsar esa certificación a nivel europeo". Un terreno en auge, con certificaciones de amplio alcance ya en marcha en nuestro país (We The Humans o Eticas) que deben llegar ya a este nicho particular de actividad.
Integrar al profesional médico
Pero quizás la recomendación más relevante de todas las incluidas en el documento es la que atañe a la supervisión humana y la responsabilidad de los profesionales médicos en una toma de decisiones donde una inteligencia artificial autónoma esté presente.
Para empezar, el texto reconoce que "es responsabilidad de todas las partes interesadas asegurarse de que los sistemas de IA se utilicen en las condiciones adecuadas y por personas debidamente capacitadas". Por ello, continúa el documento, "las personas deben mantener el control de los sistemas de atención de la salud y las decisiones médicas, de modo que la atribución de responsabilidades en caso de error de juicio del algoritmo nunca recaiga en un ente no humano".
Siguiendo estos pasos, concluye DigitalES, deberíamos ir hacia una regulación "con un enfoque basado en el riesgo necesario para fomentar la confianza en la IA sin obstaculizar su desarrollo responsable". Una normativa que diferencie entre los riesgos mayores y menores en función del daño potencial a las personas y que, además, defina sin ambigüedades los límites de responsabilidad que tendrían los desarrolladores de sistemas de IA para el ámbito sanitario.