Entrenan aprendizaje automático para predecir desastres como terremotos o pandemias

Los investigadores encontraron la respuesta en una técnica de muestreo secuencial denominada aprendizaje activo.

Un equipo de investigadores de la Universidad Brown y el Instituto Tecnológico de Massachusetts (MIT), en Estados Unidos, han combinado algoritmos estadísticos, que necesitan menos datos para hacer predicciones precisas y eficientes, con una potente técnica de aprendizaje automático y la entrenaron para predecir escenarios, probabilidades y, a veces, incluso la cronología de acontecimientos poco frecuentes, como terremotos, pandemias o tsunamis, a pesar de la falta de registros históricos sobre ellos, para intentar predecirlos.

Y es que cuando se trata de predecir desastres provocados por fenómenos extremos la modelización computacional se enfrenta al reto casi insuperable de que, estadísticamente hablando, estos fenómenos son tan raros que no hay suficientes datos sobre ellos para utilizar modelos predictivos que permitan predecir con exactitud cuándo ocurrirán.

De este modo, el equipo de investigación descubrió que este nuevo marco puede proporcionar una forma de eludir la necesidad de cantidades masivas de datos que tradicionalmente se necesitan para este tipo de cálculos, reduciendo esencialmente el gran reto de predecir acontecimientos raros a una cuestión de calidad sobre cantidad, según publican en la revista ‘Nature Computational Science’.

«Hay que tener en cuenta que se trata de fenómenos estocásticos –afirma George Karniadakis, profesor de matemáticas aplicadas e ingeniería en Brown y autor del estudio–. Un estallido de una pandemia como la COVID-19, una catástrofe medioambiental en el Golfo de México, un terremoto, enormes incendios forestales en California, una ola de 30 metros que haga zozobrar un barco… son sucesos raros y, como son raros, no tenemos muchos datos históricos. No tenemos suficientes muestras del pasado para predecirlos en el futuro. La cuestión que abordamos en el estudio es: ¿Cuáles son los mejores datos posibles que podemos utilizar para minimizar el número de puntos de datos que necesitamos?».

Los investigadores encontraron la respuesta en una técnica de muestreo secuencial denominada aprendizaje activo. Este tipo de algoritmos estadísticos no sólo son capaces de analizar los datos que se les introducen, sino que, lo que es más importante, pueden aprender de la información para etiquetar nuevos puntos de datos relevantes que sean igual o incluso más importantes para el resultado que se está calculando. En el nivel más básico, permiten hacer más con menos.

Eso es fundamental para el modelo de aprendizaje automático que los investigadores utilizaron en el estudio. Denominado ‘DeepOnet’, el modelo es un tipo de red neuronal artificial que utiliza nodos interconectados en capas sucesivas que imitan aproximadamente las conexiones realizadas por las neuronas en el cerebro humano.

‘DeepOnet’ se conoce como operador neuronal profundo. Es más avanzado y potente que las redes neuronales artificiales típicas porque en realidad son dos redes neuronales en una, que procesan los datos en dos redes paralelas. Esto le permite analizar conjuntos gigantescos de datos y escenarios a una velocidad de vértigo para escupir conjuntos igualmente masivos de probabilidades una vez que aprende lo que está buscando.

El cuello de botella de esta potente herramienta, especialmente en lo que se refiere a sucesos poco frecuentes, es que los operadores neuronales profundos necesitan toneladas de datos para entrenarse y hacer cálculos eficaces y precisos.

En el estudio, el equipo de investigación demuestra que, combinado con técnicas de aprendizaje activo, el modelo ‘DeepOnet’ puede entrenarse para saber qué parámetros o precursores buscar que conduzcan al suceso desastroso que se está analizando, incluso cuando no hay muchos puntos de datos.

«No se trata de tomar todos los datos posibles e introducirlos en el sistema, sino de buscar de forma proactiva sucesos que señalen los acontecimientos raros –explica Karniadakis–. Puede que no tengamos muchos ejemplos del suceso real, pero sí esos precursores. A través de las matemáticas, los identificamos, que junto con los sucesos reales nos ayudarán a entrenar a este operador ávido de datos».

En el estudio, los investigadores aplican el método a la determinación de parámetros y distintos rangos de probabilidad de peack peligrosos durante una pandemia, a la detección y predicción de tsunamis y a la estimación de cuándo un barco se partirá por la mitad debido a la tensión.

Por ejemplo, en el caso de los tsunamis, es decir, las que duplican el tamaño de las olas circundantes, los investigadores descubrieron que podían descubrir y cuantificar cuándo se formarían observando las condiciones probables de las olas que interactúan de forma no lineal con el tiempo, dando lugar a olas que a veces triplican su tamaño original.(Europa Press)

Deja una respuesta

Su dirección de correo electrónico no será publicada.

El Periodista