Visualizar los posibles impactos de un huracán en los hogares de las personas antes de que llegue puede ayudar a los residentes a prepararse y decidir si deben evacuar.
Los científicos del MIT han desarrollado un método que genera imágenes satelitales del futuro para representar cómo se vería una región después de una posible inundación. El método combina un modelo de inteligencia artificial generativa con un modelo de inundación basado en la física para crear imágenes realistas a vista de pájaro de una región, que muestran dónde es probable que se produzcan inundaciones dada la fuerza de una tormenta que se aproxima.
Como caso de prueba, el equipo aplicó el método a Houston y generó imágenes satelitales que muestran cómo se verían ciertos lugares alrededor de la ciudad después de una tormenta comparable al huracán Harvey, que azotó la región en 2017. El equipo comparó estas imágenes generadas con imágenes satelitales reales. Imágenes tomadas de las mismas regiones después del golpe de Harvey. También compararon imágenes generadas por IA que no incluían un modelo de inundación basado en la física.
El método reforzado por la física del equipo generó imágenes satelitales de futuras inundaciones que eran más realistas y precisas. Por el contrario, el método exclusivo de IA generó imágenes de inundaciones en lugares donde las inundaciones no son físicamente posibles.
El método del equipo es una prueba de concepto, destinada a demostrar un caso en el que los modelos generativos de IA pueden generar contenido realista y confiable cuando se combinan con un modelo basado en la física. Para aplicar el método a otras regiones para representar las inundaciones de futuras tormentas, será necesario entrenarlo con muchas más imágenes de satélite para aprender cómo se verían las inundaciones en otras regiones.
«La idea es: algún día podríamos utilizar esto antes de un huracán, donde proporcionaría una capa de visualización adicional para el público», dice Björn Lütjens, postdoctorado en el Departamento de Ciencias Terrestres, Atmosféricas y Planetarias del MIT, quien dirigió la investigación mientras era estudiante de doctorado en el Departamento de Aeronáutica y Astronáutica del MIT (AeroAstro). “Uno de los mayores desafíos es alentar a las personas a evacuar cuando corren riesgo. Quizás esta podría ser otra visualización que ayude a aumentar esa preparación”.
Para ilustrar el potencial del nuevo método, al que han denominado «Motor de Inteligencia de la Tierra», el equipo lo ha puesto a disposición como un recurso en línea para que otros lo prueben.
Los investigadores informan sus resultados hoy en la revista. Transacciones IEEE sobre geociencia y teledetección. Los coautores del estudio del MIT incluyen a Brandon Leshchinskiy; Aruna Sankaranarayanan; y Dava Newman, profesora de AeroAstro y directora del MIT Media Lab; junto con colaboradores de múltiples instituciones.
Imágenes generativas adversarias
El nuevo estudio es una extensión de los esfuerzos del equipo para aplicar herramientas de inteligencia artificial generativa para visualizar escenarios climáticos futuros.
«Proporcionar una perspectiva hiperlocal del clima parece ser la forma más eficaz de comunicar nuestros resultados científicos», afirma Newman, autor principal del estudio. “La gente se relaciona con su propio código postal, su entorno local donde viven sus familiares y amigos. Proporcionar simulaciones climáticas locales se vuelve intuitivo, personal y relacionable”.
Para este estudio, los autores utilizan una red adversaria generativa condicional, o GAN, un tipo de método de aprendizaje automático que puede generar imágenes realistas utilizando dos redes neuronales competitivas o «adversarias». La primera red “generadora” se basa en pares de datos reales, como imágenes de satélite antes y después de un huracán. Luego se entrena a la segunda red «discriminadora» para distinguir entre las imágenes de satélite reales y las sintetizadas por la primera red.
Cada red mejora automáticamente su rendimiento en función de los comentarios de la otra red. La idea, entonces, es que ese tira y afloja contradictorio debería, en última instancia, producir imágenes sintéticas que sean indistinguibles de la realidad. Sin embargo, las GAN aún pueden producir «alucinaciones» o características objetivamente incorrectas en una imagen realista que no debería estar allí.
«Las alucinaciones pueden engañar a los espectadores», dice Lütjens, quien comenzó a preguntarse si se podrían evitar tales alucinaciones, de modo que se pueda confiar en que las herramientas de inteligencia artificial generativa ayuden a informar a las personas, particularmente en escenarios sensibles al riesgo. «Estábamos pensando: ¿Cómo podemos utilizar estos modelos generativos de IA en un entorno de impacto climático, donde tener fuentes de datos confiables es tan importante?»
Alucinaciones de inundación
En su nuevo trabajo, los investigadores consideraron un escenario sensible al riesgo en el que la IA generativa tiene la tarea de crear imágenes satelitales de futuras inundaciones que podrían ser lo suficientemente confiables como para informar las decisiones sobre cómo preparar y potencialmente evacuar a las personas fuera de peligro.
Por lo general, los formuladores de políticas pueden tener una idea de dónde podrían ocurrir inundaciones basándose en visualizaciones en forma de mapas codificados por colores. Estos mapas son el producto final de una serie de modelos físicos que generalmente comienzan con un modelo de trayectoria de huracán, que luego alimenta un modelo de viento que simula el patrón y la fuerza de los vientos sobre una región local. Esto se combina con un modelo de inundaciones o marejadas ciclónicas que pronostica cómo el viento podría empujar cualquier masa de agua cercana hacia la tierra. Luego, un modelo hidráulico traza dónde se producirán las inundaciones en función de la infraestructura de inundaciones local y genera un mapa visual codificado por colores de las elevaciones de inundaciones en una región en particular.
«La pregunta es: ¿pueden las visualizaciones de imágenes satelitales agregar otro nivel a esto, que sea un poco más tangible y emocionalmente atractivo que un mapa codificado por colores de rojos, amarillos y azules, y al mismo tiempo ser confiable?» dice Lütjens.
El equipo probó primero cómo la IA generativa por sí sola produciría imágenes satelitales de futuras inundaciones. Entrenaron un GAN con imágenes satelitales reales tomadas por satélites cuando pasaban sobre Houston antes y después del huracán Harvey. Cuando encargaron al generador que produjera nuevas imágenes de inundaciones de las mismas regiones, descubrieron que las imágenes se parecían a las típicas imágenes de satélite, pero una mirada más cercana reveló alucinaciones en algunas imágenes, en forma de inundaciones donde las inundaciones no deberían ser posibles (por ejemplo, en lugares de mayor elevación).
Para reducir las alucinaciones y aumentar la confiabilidad de las imágenes generadas por IA, el equipo emparejó la GAN con un modelo de inundación basado en la física que incorpora parámetros y fenómenos físicos reales, como la trayectoria de un huracán que se acerca, marejadas ciclónicas y patrones de inundaciones. Con este método reforzado con la física, el equipo generó imágenes satelitales alrededor de Houston que representan la misma extensión de inundación, píxel por píxel, según lo pronosticado por el modelo de inundación.
«Mostramos una forma tangible de combinar el aprendizaje automático con la física para un caso de uso que es sensible al riesgo, lo que requiere que analicemos la complejidad de los sistemas de la Tierra y proyectemos acciones futuras y posibles escenarios para mantener a las personas fuera de peligro», dice Newman. «Estamos ansiosos por poner nuestras herramientas de IA generativa en manos de los tomadores de decisiones a nivel de la comunidad local, lo que podría marcar una diferencia significativa y tal vez salvar vidas».
La investigación contó con el apoyo, en parte, del Programa MIT Portugal, el Acelerador de Inteligencia Artificial DAF-MIT, la NASA y Google Cloud.