Die Rekonstruktion des Universums
Redaktion
/ Pressemitteilung des Leibniz-Instituts für Astrophysik Potsdam (AIP) astronews.com
19. Februar 2016
Im Rahmen der BOSS-Himmelsdurchmusterung wurden die
Rotverschiebungen von mehr als einer Million Galaxien gemessen und so ein
dreidimensionales Bild der Galaxienverteilung erstellt. Jetzt haben Astronomen
diese Daten mithilfe von Computersimulationen rekonstruiert. Der Vergleich von
Beobachtung und Simulation lieferte neue Erkenntnisse über das Universum.

Gegenüberstellung der Beobachtungsdaten
der zwölften BOSS-Datenveröffentlichung (linke
obere Hälfte) und der Resultate der Simulationen
(rechte untere Hälfte).
Bild:
F. Kitaura (AIP) [Großansicht] |
Die großräumige Verteilung von Galaxien verrät viel über den Ursprung und die
zukünftige Entwicklung des Universums. Eine große Himmelsdurchmusterung, die
sich mit der Galaxienverteilung im Universum beschäftigt, ist der Baryon
Oscillation Spectroscopic Survey (BOSS), welcher wiederum Teil des größeren
Sloan Digital Sky Survey III ist und hochpräzise die Rotverschiebung
von Galaxien misst. Die Rotverschiebung wiederum erlaubt Rückschlüsse auf die
Entfernung der Galaxien.
Bei der Analyse solcher Daten stellt sich stets eine grundlegende Frage: Wenn
man sich das Universum als großes Experiment vorstellt, wie lassen sich dann
Messfehler in den Beobachtungen feststellen? Während reguläre Labor-Experimente
mehrfach wiederholt werden können, kann das Universum nur mithilfe von
Simulationen in leistungsfähigen Computern nachgebildet werden.
Berücksichtigt werden müssen dabei auch statistische Effekte, wie sie sich
beispielsweise durch geringfügige Dichte-Variationen im frühen Universum
ergeben. Um eine so großräumige Struktur wie in den von BOSS erfassten Daten
nachzubilden, bedarf es Millionen von Rechenstunden.
"Wir haben die notwendigen Methoden entwickelt, um Tausende simulierte
Galaxienkataloge zu generieren", erläutert Francisco Kitaura vom
Leibniz-Institut für Astrophysik Potsdam (AIP). "So war es uns möglich, die
statistischen Eigenschaften der Beobachtungsdaten zu reproduzieren."
Die Erstellung der simulierten Kataloge umfasste drei Schritte: Zunächst wurden
Dunkle Materie Felder aus verschiedenen Anfangsbedingungen für unterschiedliche
kosmische Zeitabschnitte erstellt. Danach wurden die Galaxien nach
stochastischen Methoden, die mit statistischen Werten der Beobachtung
übereinstimmen, verteilt. Schließlich sind die jeweiligen Massen für die
Galaxien in Abhängigkeit zu ihrer Umgebung errechnet worden.
Für die Erstellung der Kataloge haben die Astrophysiker dann unterschiedliche
kosmische Zeitabschnitte zusammengesetzt, die die Beobachtungsbedingungen des
BOSS-Surveys, wie den Aufbau der Durchmusterung und die Galaxiendichte in
verschiedenen Entfernungen und für unterschiedliche kosmische Zeiten,
berücksichtigt.
"Dieser neue Ansatz erlaubt es uns die Fehlerwerte der kosmologischen Parameter
zuverlässig aus den Daten herauszufiltern", erklärt Chia-Hsun Chuang ebenfalls
vom AIP. "Der MareNostrum-Supercomputer des Barcelona
Supercomputing Center hat hier die größte Zahl von synthetischen
Galaxienkatalogen mit einem mehr als zehn Mal größeren Volumen als alle
bisherigen Simulationen zusammen erstellt", ergänzt Gustavo Yepes von der
Autonomous University of Madrid.
Der Vergleich der analysierten Beobachtungsdaten mit den errechneten Modellen
lieferte den Astronomen nun neue Erkenntnisse: "Wir verstehen jetzt viel besser,
wie die Verteilung der Galaxien mit der Verteilung der Dunklen Materie im
Universum zusammenhängt. Jetzt werden wir daran arbeiten unsere Methoden weiter
zu optimieren, um die Strukturen, die wir im Universum beobachten, noch besser
zu verstehen", so Kitaura.
Über ihre Studie berichten die Astronomen in einem Fachartikel, der in der
Zeitschrift Monthly Notices of the Royal Astronomical Society
erscheint.
|