Modelos climáticos: los límites en el cielo

Los modeladores climáticos esperan que el aprendizaje automático pueda superar los problemas persistentes que aún empañan sus resultados.

La disciplina del modelado climático ha entrado en su sexta década. Los análisis a gran escala del comportamiento de la Tierra han evolucionado considerablemente, pero siguen existiendo brechas significativas, algunas persistentes. Uno en particular ayuda a ilustrar los desafíos que ahora se abordan, casi inevitablemente, mediante el uso de inteligencia artificial (IA) y aprendizaje automático (ML).

“Sin embargo, la importancia de los efectos generales de las nubes es una pregunta extremadamente difícil de responder. La distribución de las nubes es un producto de todo el sistema climático, en el que intervienen muchas otras retroalimentaciones. Solo se pueden obtener respuestas confiables a través de un modelo numérico integral de las circulaciones generales de la atmósfera y los océanos junto con la validación mediante la comparación de los tipos y cantidades de nubes observadas con las producidas por el modelo. Desafortunadamente, las observaciones de nubes con suficiente detalle para una validación precisa de los modelos no están disponibles en la actualidad”.

Este pasaje proviene de uno de los informes fundamentales sobre el cambio climático, la revisión de Woods Hall de 1979 realizada por el Grupo de estudio ad hoc sobre dióxido de carbono y clima del gobierno de EE. UU. Fue presidido por el meteorólogo pionero, el profesor Jule Charney del MIT, el hombre que introdujo las computadoras en el pronóstico del tiempo con John von Neumann. La mayor parte de lo que dijo el grupo de Charney sobre las nubes se mantiene hoy.

Las nubes son importantes porque más de 40 años después, todavía existe un debate científico sobre hasta qué punto a veces calientan y a veces enfrían el planeta, y qué impacto tiene el equilibrio en la temperatura global. En pocas palabras, las nubes que están más altas en la atmósfera y más delgadas atrapan el calor; las que son más bajas y gruesas reflejan los rayos del sol.

La investigación publicada en septiembre por un equipo conjunto de la Universidad de Liverpool, el Imperial College de Londres y el Centro Nacional de Oceanografía del Reino Unido destacó que esta falta de claridad es una de las principales razones por las que los modelos a macroescala difieren sobre los objetivos que deben establecerse para las emisiones de carbono.

Además, el tema es hoy más apremiante porque como el clima de la Tierra ya está cambiando, también lo están haciendo las proporciones (alta:baja. gruesa:delgada) y las ubicaciones de las nubes y, por extensión, su influencia.

Las nubes han resultado difíciles de modelar porque desafían la naturaleza de las estrategias de macromodelado reconocidas (al igual que muchos otros factores que estos modelos luchan por adoptar, como los remolinos en las corrientes oceánicas).

El caballo de batalla, utilizado por los principales contribuyentes a los informes de evaluación publicados por el Panel Intergubernamental sobre el Cambio Climático, es el modelo de circulación general (GCM), una técnica que extrae ecuaciones de dinámica de fluidos y termodinámica, complementada con parametrización.

Los GCM y sus extensiones son extremadamente complejos y se ejecutan en millones de líneas de código. Como ejemplo de los aproximadamente 20 GCM considerados de clase mundial, el modelo atmosférico y oceánico acoplado HadCM3 (AO-GCM), desarrollado por el Centro Hadley en la Oficina Meteorológica del Reino Unido, puede ejecutar simulaciones durante más de mil años.

En algunos otros aspectos, los GCM se ejecutan a resoluciones muy bajas. Se basan en imponer una cuadrícula 3D sobre la esfera de la Tierra. En implementaciones anteriores, las cajas de la cuadrícula tenían varios cientos de kilómetros cuadrados y tenían alrededor de media docena de capas verticales. Algunas de las limitaciones eran inherentes a los techos de complejidad de los modelos a medida que evolucionaban, pero otra limitación importante siempre ha sido la capacidad computacional. El modelado climático ha probado y alcanzado los límites de casi todas las generaciones de supercomputadoras, y se dice que cada duplicación de la resolución espacial necesita un aumento de diez veces en el procesamiento.

A medida que avanzamos en la era de las supercomputadoras a exaescala y el procesamiento cuántico potencialmente sale del laboratorio, las resoluciones están aumentando, como señala Met Office, hoy en día está aprovechando 256 veces más poder de procesamiento, pero los máximos de resolución permanecen en un rango entre los cientos inferiores. -de-kilómetros y decenas superiores.

Las nubes, por el contrario, son eventos altamente localizados y comparativamente breves, que requieren una resolución más fina para abordarlos con el detalle que se considera necesario. Todavía caen por los huecos. Entonces hay otra complicación.

Pensamos en los modelos climáticos en términos de los pronósticos que producen. Junto con los objetivos de alto perfil, como mantener el aumento de la temperatura por debajo de los 2 °C, cada semana parece traer una nueva observación más específica sobre el nivel del mar, la posible extinción de especies o las migraciones de la población. Y se reconoce ampliamente la necesidad de este tipo de modelado más granular.

Dentro de la propia comunidad de modelado, otra tarea importante, particularmente a medida que los modelos se refinan y amplían, implica mirar hacia el pasado: ¿el modelo explica cómo se ha comportado el clima mundial si se ejecuta hacia atrás? De poco interés para el público, este llamado retrospectivo es muy importante para la validación.

Una vez más, y muy probablemente debido a la brevedad y la naturaleza local de las nubes, hay muy pocos datos históricos disponibles con los que comparar el modelado de nubes.

La combinación de falta de resolución, conocimiento y perspicacia parece ser un territorio fértil para el aprendizaje automático, y una serie de proyectos de investigación buscan aprovechar tales técnicas.

Cloud Brain es el apodo que se le da a la investigación respaldada y realizada en parte por Vulcan, la empresa creada por el difunto fundador de Microsoft, Paul Allen, con equipos de investigación de la Universidad de Columbia y la Universidad de California, Irvine.

Su última investigación aborda la preocupación de que los parámetros derivados a través de ML basado en redes neuronales y luego insertados en GCM en proyectos pioneros han llevado a una «inestabilidad dramática».

Su documento describe las herramientas que ha desarrollado para predecir y analizar dicha inestabilidad y propone formas de mejorar el rendimiento acoplado. Argumenta: «De manera tranquilizadora, las parametrizaciones de ML parecen comportarse de acuerdo con nuestra intuición física, creando el potencial para acelerar las parametrizaciones actuales y desarrollar parametrizaciones basadas en datos más precisas».

La estrategia Cloud Brain reconoce que existen obstáculos de confianza para la adopción e integración generalizadas de elementos de modelado basados en ML. Es necesario convencer a una comunidad científica más amplia, y se puede contar con los escépticos del cambio climático para aprovechar tales innovaciones de manera predecible.

Otra iniciativa, la Alianza de Modelado Climático (CliMa), busca desarrollar no solo mejoras a los modelos existentes, sino uno completamente nuevo mediante la combinación de una gama de tecnologías emergentes.

“Nuestro modelo climático utilizará muchos más datos que cualquier otro modelo climático. Observaciones de la Tierra: desde el espacio, desde flotadores en el océano, desde el suelo”, explica Tapio Schneider, investigador principal de CliMa y profesor de Caltech. “Y los datos también se generan computacionalmente con simulaciones de alta resolución, por ejemplo, de nubes. Lo que estamos haciendo es incorporar simulaciones de alta resolución de estos pequeños parches del globo y hacer que el modelo aprenda de esos procesos, de esas simulaciones”.

Para ilustrar aún más el enfoque más radical de CliMa, el equipo está construyendo su modelo en el lenguaje de programación comparativamente nuevo Julia para computación de alto rendimiento para acelerar el desarrollo.

En junio, CliMa dijo que había alcanzado su primer hito, una v0.1 que comprende «código para simulaciones de grandes remolinos de flujos turbulentos en la atmósfera y los océanos y para núcleos dinámicos de GCM para el océano y la atmósfera». Se dirige a las arquitecturas de GPU que se están migrando de gráficos a ML debido a su paralelismo y al aumento de la compatibilidad con la infraestructura de IA.

La alianza apunta a un lanzamiento 2023 1.0, aunque esta era una fecha límite anterior a Covid, con v0.1 como un «primer paso» en términos de validar la estrategia, el uso de Julia y, como con Cloud Brain, construir aceptación dentro la comunidad de investigadores del clima. El equipo ya está compuesto por miembros del Laboratorio de Propulsión a Chorro de la NASA, el Instituto de Tecnología de Massachusetts y la Escuela de Posgrado Naval de EE. UU., así como Caltech.

Sin embargo, antes de que cualquiera de estos trabajos pase a la corriente principal, el IPCC tiene previsto publicar su sexto informe principal (AR6) por etapas en el transcurso de 2021 y 2022 (aunque ha advertido que algunas fechas pueden estar sujetas a cambios), comenzando con una revisión de la ciencia física la próxima primavera, seguida de hallazgos sobre mitigación e impacto.

Algunas técnicas avanzadas ya se están abriendo camino en los diversos modelos ya establecidos que alimentan AR6, aunque la medida en que la IA y el ML son necesarios (o son capaces) para rellenar grietas como nubes y corrientes oceánicas necesariamente llevará un poco más de tiempo para demostrar. .

Dado que parecen ofrecer soluciones no solo para desafíos de larga data sino también para desafíos cada vez más pertinentes, es de esperar que no mucho más.