loading request

Modelos climáticos: los límites en el cielo

Henry_ht


Los modeladores climáticos esperan que el aprendizaje automático pueda superar los problemas persistentes que aún nublan sus resultados.

La disciplina del modelado climático ha entrado en su sexta década. Los análisis a gran escala del comportamiento de la Tierra han evolucionado considerablemente, pero siguen existiendo lagunas importantes, algunas persistentes. Uno en particular ayuda a ilustrar los desafíos que ahora se están abordando, casi inevitablemente, mediante el uso de inteligencia artificial (IA) y aprendizaje automático (ML).

“Sin embargo, la importancia de los efectos generales de la nube es una pregunta extremadamente difícil de responder. La distribución de la nube es un producto de todo el sistema climático, en el que están involucradas muchas otras reacciones. Las respuestas confiables solo se pueden obtener mediante un modelo numérico completo de las circulaciones generales de la atmósfera y los océanos junto con la validación por comparación de los tipos y cantidades de nubes observadas con las producidas por el modelo. Desafortunadamente, las observaciones de las nubes con suficiente detalle para una validación precisa de los modelos no están disponibles en la actualidad «.

Este pasaje proviene de uno de los informes fundamentales sobre el cambio climático, la revisión de Woods Hall de 1979 realizada por el Grupo de estudio ad hoc del gobierno de EE. UU. Sobre dióxido de carbono y clima. Fue presidido por el meteorólogo pionero, el profesor Jule Charney del MIT, el hombre que introdujo las computadoras en el pronóstico del tiempo con John von Neumann. La mayor parte de lo que dijo el grupo de Charney sobre las nubes se mantiene en la actualidad.

Las nubes importan porque, más de 40 años después, todavía existe un debate científico sobre hasta qué punto a veces calientan y a veces enfrían el planeta, y qué impacto tiene el equilibrio en la temperatura global. En pocas palabras, las nubes que están más altas en la atmósfera y más delgadas atrapan el calor; las que son más bajas y gruesas reflejan los rayos del sol.

Una investigación publicada en septiembre por un equipo conjunto de la Universidad de Liverpool, el Imperial College de Londres y el Centro Nacional de Oceanografía del Reino Unido destacó que esta falta de claridad es una de las principales razones por las que los modelos a macroescala difieren sobre los objetivos que deben establecerse para las emisiones de carbono.

Además, el problema es hoy más urgente porque, como el clima de la Tierra ya está cambiando, también lo están las proporciones (alto: bajo. Grueso: delgado) y la ubicación de las nubes y, por extensión, su influencia.

Las nubes han resultado difíciles de modelar porque desafían la naturaleza de las estrategias de macro modelado reconocidas (al igual que varios otros factores que estos modelos luchan por adoptar, como los remolinos en las corrientes oceánicas).

El caballo de batalla, utilizado por los principales contribuyentes a los informes de evaluación publicados por el Panel Intergubernamental sobre Cambio Climático, es el modelo de circulación general (GCM), una técnica que utiliza ecuaciones de dinámica de fluidos y termodinámica, complementada con parametrización.

Los GCM y sus extensiones son extremadamente complejos y se ejecutan en millones de líneas de código. Como ejemplo de los aproximadamente 20 GCM considerados de clase mundial, el modelo atmosférico y oceánico acoplado HadCM3 (AO-GCM), desarrollado por el Hadley Center en la Met Office del Reino Unido, puede ejecutar simulaciones a lo largo de más de mil años.

En algunos otros aspectos, los GCM se ejecutan a resoluciones muy bajas. Se basan en imponer una cuadrícula 3D sobre la esfera de la Tierra. En implementaciones anteriores, las cajas de la cuadrícula tenían varios cientos de kilómetros cuadrados y media docena de capas verticales. Algunas de las limitaciones eran inherentes a los límites máximos de complejidad de los modelos a medida que evolucionaban, pero otra limitación importante siempre ha sido la capacidad computacional. El modelado climático ha probado y alcanzado los límites de casi todas las generaciones de supercomputadoras, y se dice que cada duplicación de la resolución espacial necesita un aumento de diez veces en el procesamiento.

A medida que avanzamos hacia la era de las supercomputadoras de exaescala y el procesamiento cuántico potencialmente sale del laboratorio, las resoluciones aumentan, como señala el Met Office, hoy en día está aprovechando 256 veces más potencia de procesamiento, pero los máximos de resolución permanecen en un rango entre los cientos más bajos. -de-kilómetros y decenas superiores.

Las nubes, por el contrario, son eventos altamente localizados y comparativamente breves, que requieren una resolución más fina para ser abordados con el detalle que se cree necesario. Todavía caen por los huecos. Entonces hay una complicación adicional.

Pensamos en los modelos climáticos en términos de los pronósticos que producen. Junto con los objetivos de alto perfil, como mantener el aumento de la temperatura por debajo de 2 ° C, cada semana parece traer una nueva observación más específica de eventos sobre el nivel del mar, la posible extinción de especies o las migraciones de la población. Y se reconoce ampliamente la necesidad de este tipo de modelado más granular.

Dentro de la propia comunidad de modelos, otra tarea importante, particularmente a medida que los modelos se refinan y amplían, implica mirar hacia el pasado: ¿el modelo tiene en cuenta cómo el clima del mundo ya se ha comportado si lo ejecuta al revés? De poco interés para el público, este llamado retrocasting es muy importante para la validación.

Nuevamente, y muy probablemente debido a la brevedad y la naturaleza local de las nubes, hay muy pocos datos históricos disponibles con los que comparar el modelado de nubes.

La combinación de falta de resolución, conocimiento y perspicacia parecería ser un territorio fértil para el aprendizaje automático, y varios proyectos de investigación buscan aprovechar estas técnicas.

Cloud Brain es el apodo que se le da a la investigación respaldada y realizada en parte por Vulcan, la empresa creada por el fallecido fundador de Microsoft, Paul Allen, con equipos de investigación en la Universidad de Columbia y la Universidad de California en Irvine.

Su última investigación aborda la preocupación de que los parámetros derivados a través del aprendizaje automático basado en redes neuronales y luego insertados en los GCM en proyectos de pioneros han llevado a una «inestabilidad dramática».

Su artículo describe las herramientas que ha desarrollado para predecir y analizar dicha inestabilidad y propone formas de mejorar el rendimiento acoplado. Argumenta: «De manera tranquilizadora, las parametrizaciones de ML parecen comportarse de acuerdo con nuestra intuición física, creando el potencial para acelerar las parametrizaciones actuales y desarrollar parametrizaciones más precisas basadas en datos».

La estrategia Cloud Brain reconoce que existen obstáculos de confianza para la adopción e integración generalizadas de elementos de modelado basados en ML. Es necesario convencer a una comunidad científica más amplia, y se puede contar con los escépticos del cambio climático para aprovechar esas innovaciones de manera predecible.

Otra iniciativa, la Climate Modeling Alliance (CliMa), busca desarrollar no solo mejoras a los modelos existentes, sino uno completamente nuevo mediante la combinación de una gama de tecnologías emergentes.

“Nuestro modelo climático utilizará muchos más datos que cualquier otro modelo climático. Observaciones de la Tierra: desde el espacio, desde flotadores en el océano, desde el suelo ”, explica el investigador principal de CliMa y profesor de Caltech, Tapio Schneider. “Y los datos también se generan computacionalmente con simulaciones de alta resolución, por ejemplo, de nubes. Lo que estamos haciendo es integrar simulaciones de alta resolución de estos pequeños parches del globo y hacer que el modelo aprenda de esos procesos, de esas simulaciones «.

Para ilustrar aún más el enfoque más radical de CliMa, el equipo está construyendo su modelo en el relativamente nuevo lenguaje de programación Julia para la computación de alto rendimiento para acelerar el desarrollo.

En junio, CliMa dijo que había alcanzado su primer hito, un v0.1 que comprende “código para simulaciones de grandes remolinos de flujos turbulentos en la atmósfera y océanos y para núcleos dinámicos de GCM para el océano y la atmósfera”. Se dirige a las arquitecturas de GPU que se están transfiriendo de gráficos a ML debido a su paralelismo y al creciente soporte de infraestructura de IA.

La alianza tiene como objetivo una versión 1.0 de 2023, aunque esta era una fecha límite anterior a Covid, con la versión 0.1 como un «primer paso» en términos de validación de la estrategia, el uso de Julia y, al igual que con Cloud Brain, la construcción de aceptación dentro la comunidad de investigación climática. El equipo ya está compuesto por miembros del Laboratorio de Propulsión a Chorro de la NASA, el Instituto de Tecnología de Massachusetts y la Escuela de Postgrado Naval de EE. UU., Así como de Caltech.

Sin embargo, antes de que cualquier parte de este trabajo pase a la corriente principal, el IPCC está programado para publicar su sexto informe principal (AR6) en etapas durante el transcurso de 2021 y 2022 (aunque ha advertido que algunas fechas pueden estar sujetas a cambios), comenzando con una revisión de la ciencia física la próxima primavera, seguida de hallazgos sobre mitigación e impacto.

Algunas técnicas avanzadas ya están encontrando su camino en los diversos modelos ya establecidos que alimentan AR6, aunque la medida en que se necesitan (o son capaces) de AI y ML para rellenar grietas como nubes y corrientes oceánicas necesariamente llevará un poco más de tiempo para demostrar. .

Dado que parecen ofrecer soluciones no solo a desafíos de larga data sino también cada vez más pertinentes, con suerte no por mucho más tiempo.

octubre 14, 2021

Contenido relacionado