Donnarumma-Kong_Alia-Zu-tai_11_by-Lagana-1

Donnarumma-Kong_Alia-Zu-tai_11_by-Lagana-1

Ciencia

¿Sueñan las máquinas con los datos?

El Big Data se ha convertido en el nuevo petróleo. Centrifugarlo con la Inteligencia Artificial moviliza ya a empresas, gobiernos y laboratorios. Estas son las claves de la nueva sociedad digital

21 diciembre, 2020 09:08

Tenemos la tecnología. Nunca antes en su historia el ser humano se había enfrentado a una pandemia con herramientas tan poderosas. Será invencible si sabe utilizarlas. Los datos (Big Data), filtrados por la Inteligencia Artificial (IA), han encontrado en esta coyuntura su auténtica pista de pruebas. Es su oportunidad. Su revolución ya puede tomar el Palacio de Invierno de la sociedad digital. El Machine Learning (ML o aprendizaje automático), dentro de la IA, puede salvar a la humanidad de estas y otras encrucijadas dinamitando la estadística clásica con solo apoyarse en los algoritmos.

A finales de los sesenta Philip K. Dick se preguntaba si los androides soñarían con ovejas eléctricas. Pues bien, estamos rozando ya ese escenario aunque los actores interpreten la obra de forma un poco distinta a como la "soñó" el escritor estadounidense. Seguiremos debatiendo si un robot puede pensar, si nos quitará el puesto de trabajo o si pintará como Rembrandt pero la IA aplicada a grandes volúmenes de datos ya consigue realizar operaciones inalcanzables (en tiempo y dimensiones) para la mente humana. “Por primera vez no tenemos una limitación en nuestra capacidad de procesar datos, justo en una época en la que se han disparado de una manera que hasta hace nada era impensable. Podemos imaginar la IA como una excavadora o una maquinaria que trabaja con datos”. Al frente de esta “excavadora”, en el ámbito de la genómica, se encuentra Joaquín Dopazo, director del Área de Bioinformática de la Fundación Progreso y Salud, cuyo equipo realiza modelos matemáticos de un centenar de las llamadas enfermedades raras. Richard Benjamins, Chief AI y Data Strategist de Telefónica y autor de El mito del algoritmo (Anaya) junto a Idoia Salazar, es más contundente: “El Big Data es el petróleo para la IA”.

Este “petróleo” es el nuevo barril de Brent de la nueva economía, que se mueve ya lubricada por las inmensas (y a veces perversas) posibilidades que genera. “Las personas suelen compartir datos personales en Internet sin pensar mucho en las consecuencias. Es un peligro. Las empresas Big Tech los usan para su modelo de negocio de publicidad con consecuencias no deseadas”, añade Benjamins apuntando a algunas de las revelaciones del documental El dilema de las redes, de Jeff Orlowski.
Los avances en IA han roto un techo de cristal que durante muchos años era imposible traspasar para una máquina. Según Pablo Gervás, catedrático de Creatividad Computacional y Procesamiento de Lenguaje Natural de la Universidad Complutense, los algoritmos de la IA tienen distintos grados de paralelismo con ciertas maneras de pensar del ser humano. “Algunos están inspirados en habilidades específicas y otros están basados en procedimientos matemáticos de gran utilidad pero sin parecido con lo que hacen las personas”.

Synaptic Passage, de Daniel Canogar. De Cuando las mariposas del alma baten sus alas (Laboral Centro de Arte).

¿Qué compraremos? ¿Qué quieren ver o leer los usuarios de una plataforma? ¿Cuánta energía se va a consumir y dónde? ¿Cómo evoluciona una enfermedad? ¿Cómo rastrear una epidemia? Los algoritmos aplicados a los datos producen, a juicio de Antonio Bahamonde, catedrático de Ciencias de la Computación e IA de la Universidad de Oviedo, esencialmente predicciones. “Se verán beneficiadas todas las actividades humanas que puedan ser registradas digitalmente. Ahí se encuentran el marketing, la eficiencia energética, la medicina, la producción animal y vegetal… La lista la podemos dejar abierta a otras áreas como la vigilancia, el mundo de los cuidados y otras aplicaciones que veremos en el futuro. También se busca que el ML sea capaz de manejar otros tipos de datos más allá de los números como sonidos, imágenes, vídeos, textos y ondas cerebrales”.

Esta revolución tiene nombres y apellidos. Los trabajos de Yoshua Bengio, Geoffrey Hinton y Yan LeCun desde Montreal, Toronto y Nueva York, respectivamente, han propulsado la IA y abierto puertas al deep learning, recibiendo por ello el prestigioso Premio Turing, e Isabelle Guyon, Bernhard Schölkopf y Vladimir Vapnik han conseguido este año el Fronteras del Conocimiento de la Fundación BBVA por enseñar a las máquinas la habilidad (humana) de clasificar datos. Además, destacan el profesor Andrew Ng, creador del Helicóptero Autónomo de Standford y el robot STAIR; Daphne Koller, creadora junto a Ng de la plataforma educativa Coursera; Gary Marcus, autor de El nacimiento de la mente (Ariel), Mihaela van der Schaar (aplicando las redes Bayesianas al ámbito médico) y Lucila Ohno-Machado, que desde la Universidad de California ha perfeccionado los sistemas de diagnóstico clínico.

La IA también tiene una fuerte presencia en los laboratorios españoles. Además de los nombres consultados en estas páginas, cabría mencionar a Ramón López de Mántaras (del Instituto de Investigación de Inteligencia Artificial), Julio Mayol (Hospital Clínico San Carlos de Madrid), Mar Marcos (Universidad Jaume I) y Carolina García-Vidal, que desde el Hospital Clínic de Barcelona trabaja para reducir la mortalidad por la Covid-19. No es casualidad que buena parte de los expertos en IA estén orientando sus conocimientos al estudio y erradicación de la pandemia. Tanto en el rastreo de los contagios como en la evolución y sintomatología de la enfermedad, además de la creación y producción de las inminentes vacunas, ha intervenido de una forma u otra la Inteligencia Artificial y el procesamiento de datos.

“Con el modelo de aprendizaje automático predecimos cómo afectará el virus a los pacientes”. Concha Bielza

Estas técnicas parecen haber encontrado su elemento, su verdadera justificación, en esta trágica coyuntura. “La IA es muy eficiente analizando patrones retrospectivos para predecir otros futuros. Especialmente en situaciones tan complejas como una pandemia, donde hay tantísimas variables que pueden influir en la propagación del virus”, señala Dopazo, integrante de un consorcio internacional que ha elaborado la primera versión del mapa de la Covid-19. Conocer su cartografía es uno de los primeros pasos hacia la erradicación de este superviviente nato: el SARS-Cov-2.

“Los modelos matemáticos que usamos –añade– permiten predecir qué pasa dentro de la célula cuando es invadida por el virus y qué reacciones causa. Los problemas muchas veces no los provoca la infección en sí sino la cascada de perturbaciones de una respuesta inmune desbocada. Usamos estos modelos con IA para relacionar los efectos de otros medicamentos con el mapa de la enfermedad”.

Como muestra de estos avances, el botón que han pulsado investigadores de la Universidad de Granada y el Hospital Clínico San Cecilio, que han anunciado un modelo de Inteligencia Artificial basado en algoritmos de aprendizaje profundo, capaz de detectar el coronavirus con solo una radiografía de tórax y de diferenciarlo de otras dolencias pulmonares. En una segunda fase aplicarán esta valiosa herramienta para llegar a predecir cuánto tiempo estará ingresado el paciente. Los resultados, publicados en IEEE Journal of Biomedical and Health, cubren una tasa de acierto que oscila entre el 75 y el 80 por ciento.

Beyond Human Perception (2020), de M. Castellanos y A. Valverde. De Cuando las mariposas... (Laboral Centro de Arte).

Concha Bielza y Pedro Larrañaga, autores de Data-Driven Computational neuroscience (Cambridge University Press), codirigen el Computational Intelligence Group de la Universidad Politécnica de Madrid y han participado en proyectos como el Cajal Blue Brain y el Human Brain Project. Ahora trabajan, apoyados por la Fundación BBVA, en otro estudio que analiza datos de más de 30.000 pacientes ingresados por Covid-19 en los hospitales madrileños Ramón y Cajal, la Fundación Jiménez Díaz y La Zarzuela. “A partir del modelo de aprendizaje automático que construiremos con todos estos datos podemos ayudar a los médicos a tomar decisiones sobre tratamientos más racionales. Predeciremos cómo afectará el virus a los pacientes ingresados”, precisa Bielza.

El trabajo de este tándem científico se centra en el comportamiento del SARS-Cov-2 dentro del organismo y cómo reacciona a la medicación según la edad, hábitos del enfermo, etc. Un frente de lucha que resulta esencial en esta fase de la pandemia. Pero, ¿qué peligro corremos de ser mal utilizada toda esta información sobre nosotros mismos? Tan íntima, tan esencial, que podría convertir nuestras sociedades en una auténtica distopía basada en la manipulación a gran escala. Según Larrañaga, “existen retos legales y éticos para gestionar de manera adecuada tanto los datos usados por los algoritmos como los resultados proporcionados”. Y menciona el Reglamento general de protección de datos, la Ley Orgánica de Protección de Datos y garantía de derechos digitales, que permiten a los pacientes conocer qué se hace con sus datos y quién lo hace, y, a nivel europeo, el reglamento UE 2017/745, que va a comenzar a regular el uso de la IA, exigiendo la transparencia de estos procedimientos.

Pero la unión del Big Data y la IA resulta definitiva a la hora de controlar la epidemia a escala social. Hay que entender y detectar la movilidad de la población, monitorizar las restricciones y predecir mejor la propagación del virus. Benjamins y Salazar, en El mito del algoritmo, introducen una cuestión tan importante como sensible en estas circunstancias. Parten de la publicación del Consejo Europeo de Protección de Datos de una declaración sobre el uso de datos personales para luchar contra el coronavirus, donde se indica que las reglas de protección de datos “no deberían” ser un obstáculo para las medidas tomadas contra la pandemia. “Desde entonces –explican en el libro– varios gobiernos de Europa empezaron a hablar con las operadoras de telecomunicaciones de su país para usar su Big Data en la lucha contra el virus. En estos casos, no se trata de datos personales, sino de datos anonimizados y agregados, respetando siempre la privacidad”.

"Podemos imaginar la IA como una excavadora. Por primera vez no tenemos limitación para procesar datos". Joaquín Dopazo

La misma UE ha creado un Grupo de Expertos, que se encarga de seguir y estudiar el intercambio de estos datos (B2G) entre empresas y administraciones públicas, y la Estrategia Europea de Datos, dedicada a garantizar el desarrollo de la IA con vistas a una tecnología y a una sociedad digital “que redunde en el beneficio de las personas desde una economía justa y dentro de una sociedad abierta, democrática y sostenible”.

Pensando en estos principios los desafíos continúan y se hacen, si cabe, más grandes. La tecnología, como la vida, no deja de evolucionar. DeepMind, una filial de Google, acaba de resolver, gracias a la IA, el problema del plegamiento de las proteínas, uno de los grandes enigmas de la biología. El hallazgo será fundamental en medicina, pues ayudará a entender mejor las enfermedades y a elaborar fármacos a medida.

El futuro de los datos y de la IA tendrá, muy probablemente, tres letras: ADN. Se podrá almacenar información de manera masiva sin apenas consumo de energía y con gran resistencia. Un paso más al que se encuentra dedicado Alfonso Rodríguez-Patón, catedrático de la Politécnica de Madrid, que trabaja en lo que él y su equipo denominan “Inteligencia Artificial in vivo” (dispositivos biomoleculares o celulares inteligentes sintéticos). “La IA abarcará no solo a los algoritmos que procesan in silico datos binarios –anuncia en un artículo en El mito del algoritmo–, sino también a los dispositivos biológicos que procesan datos codificados en ADN in vivo (dentro de la célula) e in vitro (en memorias de ADN)”.
En el horizonte, medicina personalizada, producción de alimentos, una nueva economía,bioingeniería…Tenemos la tecnología. ¿Sabremos utilizarla?

@ecolote