El ‘Big Data’, como aliado contra el cáncer
Según la OMS, el cáncer es la segunda causa de muerte en el mundo: 9 millones de personas mueren anualmente debido a esta enfermedad. Y cada vez se diagnostican más casos. Solo en España se calcula que en 2019 se diagnosticaron un 12 % más de nuevos casos de cáncer que cuatro años atrás, según datos de la Sociedad Española de Oncología Médica (SEOM). La prevención y el tratamiento eficaz son las únicas herramientas para atajarlo. Y los macrodatos (Big Data), un buen aliado para lograrlo. «Una misma dolencia no afecta por igual a todo el mundo, hay diferentes factores que hay que tener en cuenta: la genética de la persona, el sistema sanitario que lo trata, el entorno donde vive, sus hábitos, su actitud ante la vida… Hoy en día, las técnicas de Big Data nos pueden permitir recoger, integrar y analizar datos de todos estos factores y tener una visión de 360 grados de nuestras dolencias, nuestra salud y su evolución», explica Jordi Conesa, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC). «Esto nos permitirá entender mejor las dolencias, su progresión y sus detonantes, personalizar los tratamientos y predecir factores de riesgo mucho antes», afirma.
De ahí que los datos se hayan convertido en uno de los tesoros más preciados. Un estudio de IBM calculaba que en 2020 se estarían utilizando 25.000 petabytes de información relacionada con la salud en forma de datos con los que avanzar en la lucha contra las enfermedades. Esta cifra supone un incremento del 5.000 % en comparación con ocho años atrás y ha sido posible gracias a los recursos que se destinan a ello. Según el informe Global Big Data in Healthcare, en 2022 la inversión en la industria de los macrodatos en el entorno de la salud será de 30.000 millones de euros.
La razón de que gran parte de la investigación contra el cáncer esté cada vez más relacionada con las técnicas de macrodatos son las posibles aplicaciones de esta herramienta, que admite un sinfín de posibilidades: desde ayudar en la toma de decisiones en los tratamientos oncológicos hasta predecir cómo puede evolucionar el cáncer en un paciente, pasando por apuntar qué tipo de acción es necesario seguir para una prevención efectiva.
Muestra de ello son los proyectos en los que participa desde hace seis años Open Evidence, una empresa surgida de la UOC. «En este tiempo hemos creado una plataforma que nos permite hacer Big Data. Por eso hemos podido desarrollar una aplicación con Badalona Serveis Assistencials que permite hacer cohortes de pacientes a partir de información digital, un proyecto que sirvió para apoyar un plan de acción para la prevención del cáncer en la ciudad. Posteriormente empezamos a trabajar con el Instituto Catalán de Oncología, el Plan director de oncología y el Departamento de Salud de la Generalitat de Cataluña para transformar el texto libre de los informes de anatomía patológica en códigos SNOMED, de manera que esta información puede ser integrada y analizada con otros datos para apoyar el diseño y el análisis de políticas de prevención y tratamiento del cáncer. Para realizar este análisis se utilizaron más de 80.000 informes de anatomía patológica», señala Francisco Lupiáñez Villanueva, profesor de los Estudios de Ciencias de la Información y de la Comunicación de la UOC y cofundador de Open Evidence. «Una vez que los datos están codificados, las aplicaciones son infinitas: desde analizar la efectividad de los tratamientos hasta identificar nuevas oportunidades, si tenemos en cuenta los biomarcadores recogidos en estos informes», señala.
Equipos multidisciplinarios
Hace solo unos meses, a finales de septiembre, expertos de todo el mundo discutían en el congreso internacional del Centro Nacional de Investigaciones Oncológicas (CNIO) cómo el análisis de cantidades ingentes de datos sobre cada cáncer podía ayudar a ampliar los efectos de la inmunoterapia y a prevenir fenómenos como la metástasis o la resistencia a las terapias. Entonces los expertos advertían que una clave para integrar la inteligencia artificial en la oncología reside en la consolidación de equipos multidisciplinarios formados por matemáticos, físicos, químicos, ingenieros, médicos y otros profesionales.
Francisco Lupiáñez Villanueva está de acuerdo con ello y recuerda que, aunque los macrodatos estén permitiendo avanzar en la investigación de la enfermedad, es solo una herramienta. «El Big Data no es magia. Es capacidad de procesamiento de la información y modelos matemáticos. A partir de ahí, la calidad del dato es importante, y también lo es el acceso a los datos y el trabajo en equipo con los médicos y los profesionales sanitarios. Lo que hemos desarrollado es una metodología para poder ir del dato a la acción, pero de una manera realista y factible», afirma Lupiáñez Villanueva.
Su opinión es compartida por Jordi Conesa, quien advierte que los médicos y los investigadores «llevan muchísimo tiempo analizando datos para entender, prevenir y tratar las dolencias. La diferencia ahora es que la cantidad de datos es mayor, más variada, y tenemos técnicas para integrar y analizar datos de diferentes fuentes, lo que requiere equipos más multidisciplinarios».
Conesa, que es experto en tratamiento de datos, lo ilustra con un ejemplo: «Supongamos que los datos son alimentos: estos alimentos los cocinamos e ingerimos diariamente en nuestras casas. En este caso, las herramientas necesarias no deberían ser muy complejas ni difíciles de gestionar. Pero, ¿qué pasaría si tuviéramos que cocinar (y servir) para doscientos comensales? Sería imposible hacerlo solos en nuestra cocina. Por un lado, el número de alimentos aumentaría significativamente y eso incrementaría el número de herramientas necesarias: cazuelas, fogones, espacio de neveras, cuchillos, etc. Y por otro lado, no podríamos procesarlos y cocinarlos solos; necesitaríamos un conjunto de personas, con diferentes roles (chefs que coordinaran el proceso, cocineros, ayudantes de cocina...), trabajando de forma colaborativa para su preparación y cocción. En este caso, como los alimentos (datos) son mucho más voluminosos, no pueden procesarse de la forma normal, se requieren herramientas y procesos más complejos, que es lo que pasa en los entornos de Big Data. Lo importante aquí no es el Big Data, sino utilizar datos relevantes (alimentos de calidad) y tener un equipo multidisciplinario bien coordinado (el equipo de cocina) para analizarlos bien y generar información de valor (los platos resultantes)», concluye.