La frase "Una imagen vale más que mil palabras" parece haber sido el mantra de uno de los últimos descubrimientos científicos. Y es que un equipo de investigadores internacionales, liderado desde el Instituto de Tecnología de Massachusetts (MIT, por sus siglas en inglés), ha desarrollado un sistema computacional de aprendizaje profundo que permite detectar desastres naturales a partir de las fotografías que se cuelgan en las redes sociales.
Desde la Agencia Iberoamericana para la difusión de la ciencia y la tecnología (Dicyt) explican que este tipo de fenómenos son cada vez más "frecuentes y devastadores" como consecuencia del calentamiento global. Por ello, predecir "dónde y cuándo" se producirán es imprescindible para "articular una respuesta rápida y eficaz" de los servicios de emergencia y de cooperación internacional para salvar vidas.
En el trabajo ha participado Ágata Lapedriza, profesora de la Universitat Oberta de Catalunya (UOC) y líder del grupo de investigación especializada en inteligencia artificial para el bienestar humano (AIWELL), que resalta el papel importante que juega la tecnología en este tipo de situaciones. "Las publicaciones en las redes sociales se pueden utilizar como una fuente de datos de baja latencia para entender la progresión y las consecuencias de un desastre", afirma.
Entrenado con más de 1,7 millones de imágenes
La investigación ha aplicado herramientas de visión por computación entrenadas con 1,7 millones de fotografías para poder analizar, filtrar, detectar catástrofes como inundaciones, incendios forestales e incluso tornados. En concreto, los científicos establecieron un listado con 43 categorías de incidentes de origen natural y diferentes tipos de accidentes con algún grado de intervención humana y otro con una tipología de 49 lugares con los que prepararon al sistema.
Del total, 977.088 imágenes tienen, al menos, una etiqueta positiva que las relaciona con alguno de las incidentes de las categorías, mientras 810.066 imágenes contienen etiquetas de incidentes de clase negativa. Por su parte, las 764.124 fotos de lugares son de clase positiva y 1.023.030 de clase negativa.
Los autores apuntan que las etiquetas negativas permitieron entrenar al sistema para que se eliminasen los falsos positivos, por ejemplo, evitar que se asocie una fotografía de una hoguera a un incendio. A partir de esta base, desarrollaron un modelo para detectar incidentes "siguiendo el paradigma de aprendizaje multitarea y utilizando una red neuronal convolucional".
Una vez desplegado este modelo de 'deep learning', el equipo lo puso a prueba mediante varios experimentos basados en un conjunto de imágenes descargadas de redes sociales como Twitter o Flickr. Según explica Lapedriza, en estas pruebas se detectaron fotografías que correspondían a incidentes reales de los cuales existía registro, como los terremotos ocurridos en 2015 en Nepal o Chile.
Los expertos señalan que el éxito de esta investigación abre las puertas a nuevos retos, entre ellos, la posibilidad de aprovechar las mismas fotografías para determinar la gravedad de los incidentes de forma automática o de su evolución en el tiempo.