Artículo publicado por Rob Mitchum el 1 de octubre de 2012 en la Universidad de Chicago
El Dark Energy Survey (DES) es
uno de los experimentos astrofísicos más ambiciosos jamás iniciados.
Durante cinco años, una cámara especialmente diseñada a bordo de un
telescopio de Chile recopilará imágenes de galaxias lejanas en el cielo
austral cubriendo un área de 5000 grados cuadrados, lo que corresponde,
aproximadamente, a 1/8 del universo visible. Este proyecto generará
petabytes (miles de terabytes) de datos que deben ser laboriosamente
analizados por la colaboración de científicos de 27 instituciones para
encontrar respuestas sobre la naturaleza de la energía oscura, la
materia oscura y las fuerzas que dan forma a la evolución del universo.
Pero los datos recopilados por la cámara solo son una pequeña parte del trabajo previsto para el equipo de DES. Como parte del Grupo de Trabajo en Simulaciones DES (Simulation Working Group), Andrey Kravtsov y Matthew Becker de la Universidad de Chicago (en colaboración con investigadores de la Universidad de Stanford y la Universidad de Michigan) están construyendo y ejecutando complejas simulaciones por ordenador que modelan la evolución de la distribución de materia en el universo. Cuando finalice el proyecto, estas simulaciones pueden incrementar las demandas de análisis de datos del estudio hasta en cien veces más. ¿Por qué se necesita una inversión tan grande de tiempo y trabajo en las simulaciones? Por precisión, dice Kravtsov.
“Básicamente, para lograr los objetivos
científicos del estudio e interpretar los resultados, se necesitan
simulaciones por ordenador que te digan cómo interpretar los datos”,
dice Kravtsov, miembro del Instituto de Computación y profesor de física
y astronomía. “Este tipo de procedimiento es bastante común en los
experimentos de física de partículas, pero creo que no se ha hecho nunca
en experimentos astrofísicos. Pero tiene que hacerse con un experimento
a esta escala”.
La materia oscura y la energía oscura
nunca se han observado directamente, y aun así los astrónomos estiman
que ambos elementos forman hasta el 96 por ciento de la materia y
energía del universo. La existencia de la energía oscura se propuso para
explicar el famoso descubrimiento de 1998 de la expansión acelerada del
universo – una gran sorpresa para los astrofísicos, dado que la teoría
general de la relatividad de Einstein predice que la expansión universal
debería estar frenando debido al tirón gravitatorio de la masa del
universo. En los modelos actuales, la energía oscura actúa de manera
efectiva como fuerza antigravitatoria que supera el efecto de la
gravedad, dirigiendo la expansión acelerada observada.
Dado que los telescopios no pueden
observar directamente la materia oscura o medir la energía oscura, los
astrofísicos deben confiar en las medidas indirectas, que son bastante
complejas. Aquí aparece el Dark Energy Survey, que tuvo su
“primera luz” a principios de mes y usará imágenes de alta calidad del
cielo tomadas por la Cámara de Energía Oscura (DECam) de 570
megapíxeles, diseñada por el Fermilab, para estudiar la energía oscura
usando cuatro métodos distintos.
En cierto modo, la recolección de datos
es solo el principio. Es cómo se analiza e interpreta ese conjunto de
datos lo que realmente cambiará lo que sabemos de los parámetros
fundamentales y forma del universo. Por lo que para asegurar que los
métodos de análisis de los datos son precisos, el grupo de trabajo de
simulaciones trabajará con la colaboración para ponerlas a prueba a
través de una serie de Desafíos Ciegos de la Cosmología.
“Lo que queremos hacer es dar a la gente
que analizará los datos reales un conjunto sintético de datos basados
en las simulaciones”, dice Kravstov. “Les daremos datos observacionales
sintéticos que se generan en base a un universo sintético hipotético con
parámetros que ya conocemos, pero que ellos no conocen. Todo lo que ven
es la distribución de galaxias en el cielo y el espacio, como se
observarían en el estudio real”.
Piensa en el juego de mesa Cluedo, donde
la verdad (el asesino, el arma, y la escena del crimen) están guardados
en un sobre desde el inicio del juego. Los jugadores emplean entonces
preguntas y la lógica para reducir las posibilidades y buscar la
respuesta correcta. En los desafíos ciegos de la cosmología, los
científicos de DES no sabrán los parámetros que pasan a la creación de
los datos sintéticos que están analizando, y usarán sus herramientas y
algoritmos para intentar calcular cuáles son.
“La idea es que apliquen sus técnicas de
análisis y vean si pueden recuperar los verdaderos parámetros”,
continúa Kravstov. “Si lo logran, significa que las técnicas que usarán
sobre los datos reales son robustas y fiables. Si no es así, tendrán que
volver a la pizarra y ver dónde está el problema, y repetir el
proceso”.
No es necesario decir que simular la
evolución de la materia en el universo es un poco más complicado que
barajar unas cartas del Cluedo. Cada simulación empieza con un universo
100 millones de años tras el Big Bang, luego sigue el movimiento de
miles de millones de partículas a lo largo de miles de millones de años,
formando estructuras a gran escala similares a la red cósmica observada
en el universo real. Se requiere código adicional para modelar cómo ve
un observador el cielo sintético desde una posición concreta dentro del
universo, simulando cómo los fotones emitidos por una estrella lejana
rebotan por el universo desviados por las concentraciones de masa dentro
de las estructuras a gran escala. Los aspectos técnicos y sesgos
potenciales del propio DECam también deben simularse, por lo que las
“imágenes” recopiladas dentro del universo sintético son tan similares a
las reales como pueda ser posible.
Para las simulaciones, Becker,
estudiante graduado en el Departamento de Física, implementó un
algoritmo para simular una distorsión particularmente útil, conocida
como lente gravitatoria débil. Cuando la luz viaja desde galaxias
lejanas hasta el telescopio en la Tierra, su camino se ve curvado por la
gravedad cuando pasa cerca de grandes concentraciones de masa en la red
cósmica, por lo que la imagen recibida por el telescopio puede
estirarse o aumentarse sutilmente. El Dark Energy Survey usará
este efecto de lente en los datos reales para detectar la presencia de
cúmulos de materia oscura que no pueden observarse directamente, por lo
que el efecto también tenía que aparecer en los datos sintéticos.
“Las lentes gravitatorias débiles son
realmente importantes para DES y cualquier estudio similar”, dice
Becker, “debido a su sensibilidad respecto a la distribución de masa
real, que transporta una gran cantidad de información sobre cómo creció
la estructura a gran escala del universo en el pasado”.
Aunque la nueva cámara de Chile aún está
en periodo de ajuste antes de empezar a recopilar datos para el
estudio, el equipo de simulación ya ha completado varias simulaciones de
su universo sintético – cada una con unos requisitos de cientos de
miles de horas de cómputo y que generan decenas de terabytes de datos.
Conforme avancen los desafíos ciegos de cosmología y se añadan datos
reales, Kravtsov espera que se requieran un centenar de universos
sintéticos simulados para ajustar en detalle de manera óptima los
métodos de análisis hasta que pueda obtenerse una nueva y precisa visión
sobre la historia del universo.
“En último término, las simulaciones se
usarán principalmente para poner a prueba los métodos empleados para
analizar los datos del estudio”, dice Kravtsov. “Es parte de la
metodología que te permite deducir la ciencia a partir del estudio, pero
es la parte técnica. Finalmente estamos interesados en obtener los
resultados científicos”.
Autor: Rob Mitchum
Fecha Original: 1 de octubre de 2012
Enlace Original
No hay comentarios:
Publicar un comentario