La astrofísica revela el conjunto de universos más grande jamás simulado: cómo la gravedad dio forma a la distribución de la materia oscura

Para comprender cómo se formó el universo, los astrónomos, AbacusSummit, han creado más de 160 simulaciones de cómo la gravedad da forma a la distribución de la materia oscura.

La matriz de simulación cósmica recién lanzada es la más grande jamás producida, registrando colectivamente casi 60 billones de partículas.

El conjunto de simulación, llamado AbacusSummit, será útil para extraer los secretos del universo de los próximos estudios del universo, esperan sus creadores. Presentan AbacusSummit en varios trabajos de investigación publicados recientemente en Avisos mensuales de la Royal Astronomical Society.

AbacusSummit es producto de investigadores del Centro de Astrofísica Computacional (CCA) del Flatiron Institute (CCA) en la ciudad de Nueva York y del Centro de Astrofísica | Harvard y Smithsonian. Consta de más de 160 simulaciones y muestra cómo se mueven las partículas en el universo debido a su gravedad. Estos modelos, conocidos como simulaciones de N-body, capturan el comportamiento de la materia oscura, una fuerza misteriosa e invisible que constituye el 27% del universo e interactúa solo por gravedad.

Cómo la gravedad dio forma a la distribución de la materia oscura

La colección de AbacusSummit incluye cientos de simulaciones de cómo la gravedad da forma a la distribución de la materia oscura en todo el universo. Aquí, se muestra una instantánea de una de las simulaciones a una escala de aumento de 1.200 millones de años luz. Las simulaciones replican las estructuras a gran escala de nuestro universo, como la red cósmica y los cúmulos masivos de galaxias. Crédito: Equipo AbacusSummit; Planificación y diseño de Lucy Reading-Ikanda

dice Lehman Garrison, autor principal de uno de los nuevos artículos e investigador de CCA.

Garrison dirigió el desarrollo de las simulaciones de la encimera junto con la estudiante graduada Nina Maksimova y el profesor de astronomía Daniel Eisenstein, quienes trabajan en el Centro de Astrofísica. Las simulaciones se realizaron en una supercomputadora del Departamento de Energía de EE. UU. En las instalaciones de computación de liderazgo de Oak Ridge en Tennessee.

READ  Video dramático del vuelo de desafío en helicóptero a Marte capturado por la NASA para Perseverance

Muchos estudios espaciales producirán mapas del universo con un detalle sin precedentes en los próximos años. Estos dispositivos espectroscópicos de energía oscura incluyen (DESI), el Telescopio Espacial Roman Nancy Grace, el Observatorio Vera Sea Robin y la nave espacial Euclid. Uno de los objetivos de estas misiones de gran presupuesto es mejorar las estimaciones de los parámetros cosmológicos y astrofísicos que determinan cómo se comporta y se ve el universo.

Los científicos harán estas estimaciones mejoradas comparando las nuevas observaciones con simulaciones por computadora del universo con diferentes valores para diferentes parámetros, como la naturaleza de la energía oscura que separa el universo.

AbacusSummit aprovecha la computación paralela

El contador aprovecha el procesamiento informático paralelo para acelerar en gran medida sus cálculos de cómo se mueven las partículas debido a su gravedad. El método de procesamiento secuencial (arriba) calcula la atracción entre cada par de partículas una por una. En cambio, el procesamiento paralelo (en la parte inferior) divide el trabajo en múltiples núcleos de computación, lo que permite que se calculen simultáneamente múltiples interacciones de partículas. Crédito: Fundación Lucy Reading-Ikkanda / Simons

“La próxima generación de estudios cosmológicos cartografiará el universo con gran detalle y explorará una amplia gama de cuestiones cosmológicas”, dice Eisenstein, coautor de los nuevos artículos de MNRAS. Pero aprovechar esta oportunidad requiere una nueva generación de ambiciosas simulaciones numéricas. Creemos que AbacusSummit será un paso audaz para la sinergia entre cuenta y experiencia. “

El proyecto de una década fue abrumador. Los cálculos de N-cuerpos, que intentan calcular los movimientos de objetos, como los planetas, que interactúan con la gravedad, han sido el desafío número uno en el campo de la física desde los días de Isaac Newton. El truco proviene de la interacción de cada objeto con cualquier otro objeto, independientemente de su distancia. Esto significa que a medida que agrega más cosas, la cantidad de interacciones aumenta rápidamente.

READ  La nueva tecnología podría revolucionar los procedimientos de imágenes médicas

No existe una solución general al problema de N-cuerpos para tres o más cuerpos masivos. Los cálculos disponibles son solo estimaciones aproximadas. Un método común es congelar el tiempo, calcular la fuerza total que actúa sobre cada objeto y luego empujar cada elemento en función de la fuerza total que experimenta. Luego, el tiempo avanza un poco y el proceso se repite.

Con este enfoque, AbacusSummit ha procesado una gran cantidad de partículas gracias a un código inteligente, un nuevo método numérico y mucha potencia de cálculo. La supercomputadora Summit era la más rápida del mundo en el momento en que el equipo realizó los cálculos; Sigue siendo la computadora más rápida de EE. UU.

El equipo diseñó la base de código para Summit AbacusSummit, llamada Abacus, para aprovechar al máximo la potencia de procesamiento paralelo de Summit, donde se pueden realizar muchos cálculos simultáneamente. En particular, Summit cuenta con varias GPU, o GPU, que sobresalen en el procesamiento paralelo.

La ejecución de cálculos de N cuerpos utilizando procesamiento paralelo requiere un diseño de algoritmo cuidadoso porque toda la simulación requiere una gran cantidad de memoria para el almacenamiento. Esto significa que el contador no solo puede hacer copias de la simulación para que trabajen diferentes nodos de la supercomputadora. En cambio, el código divide cada simulación en una cuadrícula. El cálculo inicial proporciona una aproximación justa de los efectos de las partículas distantes en cualquier punto dado de la simulación (que juegan un papel mucho menor que las partículas cercanas). Luego, el contador agrupa y separa las células cercanas para que la computadora pueda trabajar en cada grupo de forma independiente, combinando aproximaciones de partículas distantes con cálculos precisos de partículas cercanas.

READ  Nuevo diseño de la misión de la ESA dirigida por el Reino Unido para detectar el cambio climático

“El algoritmo de contador encaja bien con las capacidades de las supercomputadoras modernas, proporcionando un patrón de cálculo muy regular para el paralelismo masivo de las GPU compartidas”, dice Maximova.

Gracias a su diseño, el contador alcanzó velocidades muy altas, refrescando 70 millones de partículas por segundo por nodo de la supercomputadora Summit, mientras analizaba las simulaciones mientras se ejecutaban. Cada partícula representa una masa de materia oscura 3 mil millones de veces la masa del Sol.

“Nuestra visión era crear este código para entregar las simulaciones necesarias para este nuevo estudio de galaxias específico”, dice Garrison. “Escribimos el código para hacer simulaciones mucho más rápidas y precisas que nunca”.

Eisenstein, miembro de la colaboración DESI, que recientemente comenzó su estudio para mapear una parte sin precedentes del universo, dice que está ansioso por usar el contador en el futuro.

“La cosmología está dando un salto hacia adelante debido a la fusión interdisciplinaria de observaciones asombrosas y la computación moderna”, dice. “La próxima década promete ser una época fascinante en nuestro estudio de la extensión histórica del universo”.

Referencia: “Abacus Top: Enorme colección deSalud, Simulación N-body de alta resolución ”por Nina A. Maksimova, Lyman H. Garrison, Daniel J. Eisenstein, Boriana Hadziska, Sunak Bose y Thomas P. Satterthwaite, 7 de septiembre de 2021, mNotificaciones periódicas de la Royal Astronomical Society.
DOI: 10.1093 / mnras / stab2484

Otros coautores de Abacus Summit y Abacus incluyen a Sihan Yuan de la Universidad de Stanford, Philip Pinto de la Universidad de Arizona, Sunak Boss de la Universidad de Durham en Inglaterra y el Centro de Investigación en Astrofísica Boriana Hadjiska, Thomas Satterthwaite y Douglas Ferrer. Las simulaciones se ejecutaron en la supercomputadora Summit bajo la asignación del Desafío de Computación Avanzada para Investigación en Computación Científica.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *