Hemos actualizado nuestro Política de privacidad para aclarar cómo usamos sus datos personales.

Usamos cookies para brindarle una mejor experiencia. Puede leer nuestro Política de cookies aquí.

Publicidad
artículo

Sistema a exaescala Aurora para avanzar en la investigación cosmológica: construyendo el universo en una supercomputadora

artículo

Sistema a exaescala Aurora para avanzar en la investigación cosmológica: construyendo el universo en una supercomputadora

Crédito: Pixabay
tiempo de lectura :

El estudio del universo a través del campo de la cosmología se ha disparado, pero todavía hay sorpresas guardadas y mucho por descubrir. Ha habido nuevas observaciones asombrosas de los estudios del cielo, y junto con los experimentos terrestres en física de partículas, ahora hay unModelo descriptivo integral de cosmología. A partir de esta investigación, los cosmólogos saben que pequeñas fluctuaciones desde las primeras etapas del desarrollo del universo fueron las semillas de la estructura del universo tal como es hoy, que la materia oscura existe y que el universo no solo se está expandiendo., sino también que la tasa de expansión está aumentando.

Esta es un área de investigación a la que se dirigen los científicos que se preparan para la próxima supercomputadora de exaescala Intel-HPE, Aurora, que se alojará en el Laboratorio Nacional Argonne del Departamento de Energía de EE. UU. DOE. Con el apoyo de Argonne Leadership Computing Facility ALCF Aurora Early Science Program, un equipo de cosmología dirigido por el Dr. Salman Habib, director de la División de Ciencias Computacionales CPS de Argonne y miembro distinguido de Argonne, está contribuyendo a la revolución en la investigación cosmológica. Con el apoyo del Exascale Computing Project ECP, el equipo de ExaSky desarrolló el marco del Código de Cosmología Acelerado Híbrido / Hardware HACC diseñado para ejecutar simulaciones de cosmología en supercomputadoras. Ahora están desarrollando el código para Aurora y los próximos sistemas de exaescala del país.

“Es emocionante que los investigadores puedan plantear preguntas y encontrar respuestas sobre el universo ejecutando simulaciones de supercomputadoras. La capacidad de hacer física cosmológica se ha expandido con la evolución de las supercomputadoras utilizadas en la investigación. Usando computadoras en la década de 1980, los científicos apenas podían llevaruna simulación por computadora de la formación de estructuras cosmológicas. Las supercomputadoras han mejorado en factores de millones en el campo de la ciencia computacional. Ahora podemos hacer cosas que no podríamos haber imaginado hace unas décadas, lo que permite una forma completamente nueva de hacer investigación., el uso de supercomputadoras a exaescala como la supercomputadora Aurora de Argonne permitirá a los científicos realizar simulaciones completas del universo tal como lo ven los estudios de la próxima generación, en lugar de solo pequeñas partes del universo observable ”, afirma Habib.

Las simulaciones de cosmología de HACC permiten a los investigadores seguir la evolución de las estructuras con gran detalle. Crédito: Joseph A. Insley, Silvio Rizzi y el equipo de HACC, Laboratorio Nacional de Argonne.

investigación de cielo oscuro


La investigación del equipo de HACC conectará algunas de las simulaciones cosmológicas de escala extrema más grandes y detalladas del mundo con datos a gran escala obtenidos del Legacy Survey of Space and Time LSST realizado en el Observatorio Rubin, actualmente en construcción en Chile.Este estudio astronómico proporcionará algunas de las observaciones más completas hasta la fecha del cielo visible. Las simulaciones complementan las observaciones al permitir sondas únicas del universo utilizando cálculos basados ​​en la física subyacente. Al implementar el aprendizaje automático e intensivo en datos de vanguardia ML, este enfoque combinado marcará el comienzo de una nueva era de inferencia cosmológica dirigida a los avances científicos.

La etiqueta de investigación "Cielo oscuro" del equipo se refiere al hecho de que el universo está dominado por materia oscura y energía oscura la causa de la aceleración cósmica. La materia oscura es única porque no emite ni absorbe luz, pero puede ser indirectamenteobservada por su influencia gravitacional. La Energía Oscura es un elemento hipotético misterioso que ejerce una presión repulsiva, comportándose como lo opuesto a la gravedad, lo que hace que la tasa de expansión del universo aumente, según sea necesario para coincidir con las observaciones. Los modelos de simulación del equipo incluyen tantocálculos físicos de materia oscura y energía oscura, así como materia atómica o visible conocida porque los componentes de materia oscura y visible interactúan a través de la gravedad. “Estamos tratando de construir literalmente un universo dentro de la computadora que sea representativo de lo que una observación puede decirnos. HACCLos modelos de software se han construido con las capacidades físicas necesarias y se pueden ejecutar en una supercomputadora de exaescala como Aurora. Describen el comportamiento demateria normal en un contexto cosmológico: física de gases, gas caliente, estrellas, galaxias, explosiones astrofísicas, e incluyen aspectos como la inyección de agujeros negros ”, indica Habib.

Simulaciones cosmológicas del universo utilizando el código HACC


Las simulaciones se realizan actualmente en una variedad de supercomputadoras capaces de ejecutar el código HACC, incluidas las supercomputadoras en varios laboratorios nacionales como Summit en el Laboratorio Nacional Oak Ridge, Cori en el Laboratorio Nacional Lawrence Berkeley y Theta en el Laboratorio Nacional Argonne. Pero es elcapacidades ejemplificadas por oportunidades de exaescala, como las que presenta Aurora para ejecutar las simulaciones más completas que entusiasman a Habib.

El código HACC es un marco de código cosmológico de cuerpos N que fue desarrollado por el equipo de Habib; incluye tratamientos de gravedad, dinámica de gases e incluye mecanismos astrofísicos como modelos de subred. El código tuvo sus orígenes en 2008 en el Laboratorio Nacional de Los Alamos.impulsado por las perspectivas de ejecutarse en el primer sistema de petaescala. Después de mudarse al Laboratorio Nacional Argonne en 2011, el trabajo continuó en el código que finalmente se convirtió en HACC. El desarrollo de HACC está financiado actualmente por la Oficina de Ciencias del DOE como parte del esfuerzo de Desarrollo de Aplicaciones ExaSkydentro del Exascale Computing Project ECP del DOE. El código HACC está escrito en su totalidad por el equipo y tiene una dependencia mínima de las bibliotecas o software externos.

El código HACC es único porque está diseñado para ejecutarse en todas las arquitecturas informáticas posibles a un nivel de alto rendimiento. "El uso de los resultados de las simulaciones de supercomputadoras ejecutadas con HACC permite a los investigadores observar miles de millones de objetos en el universo, como galaxiasy cómo se distribuyen. El propósito de las simulaciones es modelar esta estructura a gran escala, para hacer predicciones precisas sobre la distribución de galaxias, así como la distribución subyacente de masa y gas caliente en el universo. Nuestro equipo es capaz de hacerpredicciones para estadísticas cosmológicas con un alto nivel de precisión, hasta el nivel de porcentaje de precisión ”, afirma Habib. El marco CosmoTools es una biblioteca de herramientas dentro de HACC que se utiliza para permitir la extracción de información relevante al mismo tiempo que se ejecuta la simulación.; también se puede utilizar en modo de posprocesamiento. Cuando el equipo ejecuta simulaciones complejas, ponen los datos a disposición de otros investigadores a través del servicio ALCF Petrel que permite investigardesea compartir datos a gran escala.

“Las simulaciones deben ser de alta resolución y trabajar junto con los requisitos físicos. Nuestro equipo debe escribir código que capture toda la física necesaria. Las simulaciones se pueden usar para ajustar los detalles de los modelos físicos para determinar las opciones óptimas de parámetros mientrasejecutar una simulación de levantamiento del cielo. Cuando se ejecuta una campaña de simulación, es posible ajustar los parámetros internos, determinar los errores asociados y descubrir cómo encontrar soluciones para mitigar cualquier problema de simulación ”, indica Habib.

El equipo de investigación de HACC tiene una estrecha relación con el personal de ALCF en la optimización de cómo se ejecuta HACC en el hardware de supercomputadoras de ALCF. Este trabajo suele ser útil para evaluar el rendimiento de las supercomputadoras a medida que se instalan y para identificar y ayudar a resolver cualquier problema quedeben arreglarse antes de que el sistema sea finalmente aceptado.

Prueba del software HACC para que se ejecute en futuras supercomputadoras de exaescala


HACC se escribió específicamente para ejecutarse en sistemas acelerados y está diseñado para ejecutarse tanto en CPU como en GPU. La parte física del código consiste en muchas partículas que interactúan entre sí utilizando diferentes núcleos de interacción, según la física de lo que se está modelando. Estos núcleos funcionan mejor con GPU y están muy optimizados. En general, el código puede ejecutarse a más del 50 por ciento del rendimiento máximo disponible. El código HACC se puede ejecutar con varios modelos de programación. Por ejemplo, ya se escribió para ejecutarutilizando OpenCL, que fue muy útil al prepararse para Aurora. El equipo está transfiriendo los kernels para que se ejecuten en compiladores y bibliotecas Intel oneAPI DCP ++ que permiten la computación heterogénea en varias opciones de hardware. También aprovecharán el almacenamiento distribuido de objetos asincrónicos de Intel DAOS, que es un almacén de objetos de escalabilidad horizontal definido por software de código abierto que proporciona un gran ancho de banda, baja latencia y operaciones de E / S altas. El equipo utiliza Joint Laboratorio de recursos de evaluación de sistemas JLSE en Argonne para que el nuevo hardware de Intel se pruebe con HACC.Además, el equipo está trabajando en estrecha colaboración con Intel en las actualizaciones de hardware y software.

Desafíos para la investigación futura en física cosmológica


Escribir código para trabajar en supercomputadoras es complejo. Habib afirma: “Es especialmente desafiante evolucionar el código HACC para un sistema de exaescala que aún no existe y se está desarrollando continuamente. Nuestro mayor desafío es cómo evolucionar el software HACCpara seguir el ritmo de la evolución del hardware ".

“Una de las cosas que ya vemos que suceden en el campo de la investigación cosmológica es que se están implementando técnicas de inteligencia artificial IA y aprendizaje automático ML y esto solo aumentará a medida que aumente el tamaño de los datos”, continuó Habib.Creo que habrá una confluencia de la computación convencional de alto rendimiento y la IA / ML que definirá la próxima generación de trabajo interesante. Los métodos de IA / ML serán esenciales para abordar problemas científicos que involucren cantidades excepcionalmente grandes de datos ".

"Aurora se está posicionando como la primera supercomputadora que puede realizar modelado y simulaciones de alto rendimiento, análisis de datos, así como AI / ML en la misma máquina. Nuestro equipo está ansioso por utilizar una supercomputadora de este tipo y creo que esuna señal de lo que vendrá ”, concluyó.

La ALCF es una instalación para usuarios de la Oficina de Ciencias del DOE. La investigación para ExaSky fue apoyada por el Exascale Computing Project, un proyecto conjunto de la Oficina de Ciencia y la Administración Nacional de Seguridad Nuclear del Departamento de Energía de EE. UU., Responsable de brindar un ecosistema de exaescala capaz,incluyendo software, aplicaciones y tecnología de hardware, para respaldar el imperativo de computación a exaescala de la nación.

Este artículo se produjo como parte del programa editorial de Intel, con el objetivo de destacar la ciencia, la investigación y la innovación de vanguardia impulsadas por las comunidades de HPC e IA a través de tecnología avanzada. El editor del contenido tiene los derechos de edición final y determina qué artículosse publican.


Publicidad