Los médicos no se fían de la inteligencia artificial: el 44% rechaza su uso para los tratamientos
El 75% de los facultativos españoles encuestados desconfía de su uso para interpretar imágenes procedentes de pruebas médicas complementarias.
27 septiembre, 2024 03:10Detectar un cáncer de mama, una retinopatía diabética o incluso el asma. Los avances de la inteligencia artificial en el diagnóstico de enfermedades han sido enormes en unos años. Pero los médicos siguen sin fiarse: tres de cada cuatro especialistas españoles rechazan su uso interpretando pruebas de imagen, según una encuesta del portal Medscape.
Aún son más (84%) los que ven negativo su uso en tareas administrativas, y un 62% tampoco confía en las herramientas de machine learning para ayudar en el diagnóstico. Un 55% desaprueba utilizarlas para gestionar las malas praxis.
La encuesta de Medscape, realizada a algo más de mil médicos españoles entre enero y mayo de este año, apunta que, pese a que lo ven como algo inevitable y para lo que van a necesitar formarse, solo una minoría considera que su efecto a día de hoy está siendo positivo.
Cuando se les pregunta sobre el futuro de la inteligencia artificial en el ámbito médico, casi la mitad (46%) lo contempla con entusiasmo. Solo uno de cada diez médicos tiene reticencias sobre el papel que va a jugar en su profesión.
La gran mayoría (84%) considera que es muy importante estar formado sobre el tema, pese a que solo un 11% afirma estar bien informado. Este porcentaje aumenta al 24% cuando se trata de médicos jóvenes.
Pese a esta visión positiva, o quizá por su percepción de que es inevitable, alrededor de la mitad de los profesionales encuestados rechazaría utilizar estas herramientas para la comunicación con los pacientes (54%), establecer tratamientos (44%), utilizar la conversación en la consulta para generar notas clínicas (33%) o ayudar al diagnóstico (22%).
En la actualidad hay algoritmos de inteligencia artificial usados de forma más o menos amplia para tomar o escribir notas, priorizar agendas o predecir la probabilidad de complicaciones como la sepsis.
Sin embargo, donde parece que más está despuntando esta herramienta es en la detección de enfermedades mediante pruebas de imagen. De hecho, los encuestados reconocen que las especialidades de radiodiagnóstico y anatomía patológica —en las que la obtención e interpretación de imágenes juegan un papel fundamental— serán las más beneficiadas por su introducción.
Ignacio Hernández Medrano, neurólogo y fundador de Savana, empresa que aplica inteligencia artificial a datos clínicos para obtener patrones, explicaba en este reportaje que "las pruebas de imagen son las más obvias para una máquina que se dedica a identificar patrones".
Así, la IA ha demostrado especial pericia analizando imágenes del fondo del ojo de los pacientes, procedentes de resonancias magnéticas o incluso de colonoscopias. Hay estudios donde esta herramienta ha puntuado por encima de los profesionales en el análisis y cribado de estas imágenes.
Sin embargo, como también apuntaba en dicho reportaje Julio Mayol, catedrático de Cirugía de la Universidad Complutense de Madrid, "todo funciona muy bien en entornos controlados, pero todavía queda [tiempo] para que veamos de manera general cómo una máquina hace un diagnóstico".
Con todo, los médicos encuestados por Medscape muestran cierta preocupación con que la IA pueda acabar sustituyendo su juicio clínico o invadiendo sus competencias. Un 44% se muestra algo o muy preocupado por ello, mientras que hay un 20% que afirma no estarlo para nada.
Una de las cuestiones que apuntan con mayor frecuencia los encuestados es la falta de una normativa o desarrollo legislativo que establezca el marco de referencia de la inteligencia artificial.
Es decir, entre otras cosas, que, si el uso de IA conduce a un diagnóstico erróneo, ¿quién es el responsable? ¿El médico o el proveedor del software?
Preocupados por ChatGPT
No obstante, los entrevistados para la encuesta se muestran optimistas. El 61% de ellos cree que su uso reducirá las negligencias médicas. Eso sí, hay un 17% que cree que estas aumentarán.
Los médicos no solo están preocupados por lo que la IA haga a su lado de la mesa. Una de las principales reticencias que encuentran es la del uso de las inteligencias artificiales generativas como ChatGPT, Bard o Bing por parte de los pacientes.
Nada menos que un 93% de los encuestados opinan que es "algo" o "muy probable" que los pacientes reciban información médica errónea si utilizan estas herramientas.
Algo similar ocurre cuando se les pregunta si están preocupados por el autodiagnóstico: el 85% confiesa reticencias ante la posibilidad de que un paciente confíe más en la inteligencia artificial que en su propio médico a la hora del diagnóstico.
Solo un 4% admite no estar "nada preocupado" ante esta posibilidad.
Quizá pueda deberse a que un modelo de lenguaje generativo haya demostrado mayor empatía con los pacientes que los propios médicos, como apuntaba un estudio de hace poco más de un año (una eternidad en términos de IA).
Sin embargo, ChatGPT es más un aliado que un rival. Los modelos de lenguaje natural han mostrado un gran potencial ayudando a los médicos a responder consultas por chat.
En lugar de escribir una respuesta desde cero, se ayudan de un borrador escrito por la inteligencia artificial para facilitar información al paciente. Tras dar su visto bueno, lo envían y responden a la consulta de forma adecuada, completa y en tiempo récord, según esta historia de The New York Times.