tomando fotos del clima

tomando fotos del clima

Fuente: Unsplash/CC0 Dominio público

Un equipo de investigación internacional ha diseñado un sistema de aprendizaje profundo capaz de detectar desastres naturales a partir de imágenes publicadas en las redes sociales. Los investigadores utilizaron herramientas de visión artificial que, tras ser entrenadas con 1,7 millones de fotografías, demostraron ser capaces de analizar, filtrar y detectar desastres reales. El artículo fue publicado en la revista Transacciones IEEE sobre análisis de patrones e inteligencia artificial.

Una de las científicas participantes en el proyecto, liderado por el Instituto Tecnológico de Massachusetts (MIT), fue Àgata Lapedriza, líder del grupo de investigación AIWELL especializado en inteligencia artificial para el bienestar humano, asociado al eHealth Center y miembro del Claustro de Informática, Multimedia y Telecomunicaciones de la Universitat Oberta de Catalunya (UOC).

A medida que avanza el calentamiento global, los desastres naturales como inundaciones, tornados e incendios forestales son cada vez más frecuentes y devastadores. Como aún no existen herramientas para predecir dónde y cuándo ocurrirán tales incidentes, es importante que los servicios de emergencia y las agencias de cooperación internacional puedan responder de manera rápida y efectiva para salvar vidas. “Afortunadamente, la tecnología puede jugar un papel clave en estas situaciones. Las publicaciones en las redes sociales se pueden utilizar como fuente de datos de baja latencia para comprender el progreso y las consecuencias del desastre”, explicó Lapedriza.

La investigación anterior se centró en analizar las publicaciones de texto, pero esta investigación fue más allá. Mientras estuvo en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, Lapedriza contribuyó al desarrollo de la taxonomía de incidentes y la base de datos utilizada para entrenar modelos de aprendizaje profundo y realizó experimentos de validación de tecnología.

Los investigadores compilaron una lista de 43 categorías de eventos, incluidos los desastres naturales (avalanchas, tormentas de arena, terremotos, erupciones volcánicas, sequías, etc.) y accidentes provocados por el hombre (choques de aeronaves, accidentes de construcción, etc.). Esta lista, junto con 49 categorías de lugares, permitió a los investigadores etiquetar las imágenes utilizadas para entrenar el sistema.

Los autores crearon una base de datos llamada Incidents1M, que contenía 1 787 154 imágenes, que luego se usaron para entrenar el modelo de detección de incidentes. De estas imágenes, 977 088 tenían al menos una etiqueta positiva que las vinculaba con una de las clasificaciones de incidentes, mientras que 810 066 tenían etiquetas negativas. Mientras tanto, para la categoría de lugares, 764.124 imágenes tenían etiquetas de clase positiva y 1.023.030 eran de clase negativa.

Evitar falsos positivos

Estas etiquetas negativas significaban que el sistema podía entrenarse para eliminar los falsos positivos; por ejemplo, una imagen de una chimenea no significa que la casa esté en llamas, aunque tiene algunas similitudes visuales. Después de construir la base de datos, el equipo entrenó el modelo para detectar incidentes “basado en un paradigma de aprendizaje multitarea y utilizando una red neuronal convolucional (CNN)”.

Una vez que se entrenó el modelo de aprendizaje profundo para detectar incidentes en las imágenes, el equipo realizó una serie de experimentos para probarlo, esta vez utilizando una gran cantidad de imágenes descargadas de las redes sociales, incluidas Flickr y Twitter. “Nuestro modelo pudo utilizar estas imágenes para detectar incidentes y verificamos si correspondían a incidentes específicos registrados, como los terremotos de Nepal y Chile en 2015”, dijo Lapedriza.

Utilizando datos del mundo real, los autores demostraron el potencial de una herramienta basada en el aprendizaje profundo para extraer información sobre desastres naturales y emergencias humanitarias de las redes sociales. “Esto ayudará a las organizaciones humanitarias a comprender mejor lo que sucede durante los desastres y mejorar la forma en que administran la ayuda humanitaria cuando sea necesario”, dijo.

Después de este logro, el próximo desafío podría ser, por ejemplo, usar las mismas imágenes de inundaciones, incendios u otros incidentes para determinar automáticamente la gravedad de los incidentes o incluso monitorearlos de manera más efectiva a lo largo del tiempo. Los autores también sugirieron que la comunidad científica podría realizar investigaciones combinando el análisis de las imágenes con el análisis del texto adjunto para permitir una clasificación más precisa.

Más información:
Ethan Weber et al., Incidents1M: un conjunto de datos a gran escala de imágenes con desastres naturales, daños e incidentes, Transacciones IEEE sobre análisis de patrones e inteligencia artificial (2022). DOI: 10.1109/TPAMI.2022.3191996

Proporcionado por la Universitat Oberta de Catalunya

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *