Simulationen: Rechenzeit für kosmische Kollisionen

astronews.com Redaktion

Registriertes Mitglied
Realistische Simulationen astrophysikalischer Phänomene benötigen extrem leistungsstarke Computer und in der Regel eine lange Rechenzeit. Ein internationales Forschungsprojekt, das sich mit Neutronensternen und Schwarzen Löchern beschäftigt, bekam nun fast 20 Millionen Stunden Computerzeit bewilligt. Sie sollen genutzt werden, um mehr über die Kollision von Schwarzen Löchern zu erfahren. (8. November 2011)

Weiterlesen...
 

Kibo

Registriertes Mitglied
Solld as jetzt heißen dass wir in 2283 Jahren mit Ergebnissen rechnen (Wortspiel :D) können? Auf wie viele Prozessoren sind die 2 Millionen Stunden denn nun verteilt?
 

entreri73

Registriertes Mitglied
Wenn Die Rechenzeit entspricht 2.250 Prozessoren, die ein Jahr lang ohne Unterbrechung rechnen. nicht nur (aber auch) zur Veranschaulichung dient, kann man wohl von einem Zeitaum in der Größenordnung ausgehen oder sehe ich das falsch ?
 

Infinity

Registriertes Mitglied
Hallo Kibo,

ich denke mal, die haben einfach zwei Millionen Stunden sozusagen spendiert bekommen und dürfen diese Zeit nutzen, um so viele Projekte (also Ergebnisse) wie möglich vorzunehmen. So wie Du zwei Millionen Euro spendiert bekommst und Deinen Hunger so oft wie möglich stillen kannst, ohne 2283 Jahre zu warten und dann einen Großeinkauf zu machen. ;)
 

SRMeister

Registriertes Mitglied
Ich denke die Größenordnung 1 Jahr ist viel zu groß angesetzt.
JUGENE hat allein fast 300.000 CPU Kerne somit könnte man die 20 Mio Std. bereits nach nicht ganz 3 Tagen erreicht haben.
 

FrankSpecht

Registriertes Mitglied
Moin, Stefan,
wenn im Text von "Prozessoren" die Rede ist, denke ich, dass die auch solche meinen und nicht nur ihre Kerne. Demnach hat JUGENE "nur" rund 72.000 Prozessoren ;)
Und ich denke, dieser "PC" (kleiner Scherz) dürfte ziemlich ausgebucht sein.
Der andere Superrechner in Jülich ist JUROPA.

Und die im Text beschriebenen
2.250 Prozessoren, die ein Jahr lang ohne Unterbrechung rechnen
sind mit Sicherheit eine Zahlenspielerei, damit sich ein Bürger ohne Verständnis für Wissenschaft und Computer die Dimension der Zahl "20 Millionen Stunden Rechenzeit" bewusst machen könnte - wenn er wollte.
 

SRMeister

Registriertes Mitglied
Hi Frank,
Naja bei den Simulationen die sie dort machen wollen, werden sie schon alle "logischen" Kerne gut ausreizen. Dass man 4 Kerne in ein Gehäuse packt hat da mehr mas mit Kostenersparnis zu tun. Demnächst werden sie 32, 64 oder 128 Kerne in ein Gehäuse packen und zu Supercomputern zusammenschrauben. Nur so lässt sich Moores Law noch einhalten - die Geschwindigkeit ist ja seit Jahren fast konstant bei ca. 3Ghz geblieben (ok JUGENE ist ne ausnahme).

Möchte aber eigentlich noch mal nen anderen Gedanken anbringen, der mir gerade kam als ich das hier gelesen hab:
Ich sehe in dem FMM Algorithmus gewisse Parallelen zum Holografischen Prinzip.
 

SRMeister

Registriertes Mitglied
Ich geb einfach mal die Kurzform.
Man benutzt die besten Superrechner kombiniert mit den aktuellsten Algorithmen.
Und wohin führt uns das ... wir können immer mehr Teilchen simulieren.
Das liegt auch daran, dass die Algorithmen mit der Komplexität O(n log n) arbeiten - verdoppelt man die Teilchen, vervierfacht sich nicht der Rechenaufwand, wie es "eigentlich sein müsste".
Idealerweise ist der Algorithmus sogar O(n) komplex das wäre, wenn ich die Teilchen verdoppele und sich damit die benötigte Rechenzeit auch nur verdoppelt.
Betrachtet man nicht die Teilchenanzahl sondern ein Raumgebiet, führt es - hier sollte der Aha Effekt kommen ;) - zum holografischen Prinzip.

Im FMM-Algo nutzt man letztlich eine Hierarchie, das heist beispielsweise, ein beliebiges Teilchen agiert nicht mit jedem anderen Teilchen der ganzen Welt, es agiert nur mit seinen nächsten Nachbarn und entfernte Teilchen werden zu wenigen Großen zusammengefasst.

Die Frage ist, wie die (echte) Natur das holografische Prinzip umsetzt - vielleicht ähnlich wie solche Algorithmen im Computer ??
Der Wiki Artikel ist auch sehr interessant!
 

Runzelrübe

Registriertes Mitglied
Hat man da jetzt tatsächlich Stunden vergeben oder doch eher das logischere Gegenstück PetaFLOPS?

19,7×10[SUP]6[/SUP] h Computerzeit auf n 80486er Kernen entsprechen schließlich nicht 19,7×10[SUP]6[/SUP] h Computerzeit auf n Core i7. Kommt also eher drauf an, an welche Rechner man ran darf und wieviel die leisten.

stehen ihnen dafür Supercomputer in Jülich und im französischen Bruyères-le-Châtel zur Verfügung

Kurze Recherche im Internet:

JUGENE: 826 TFLOPS, 294.912 PowerPC 450 (ca. 0,003/CPU)
JUROPA: 275 TFLOPS, 26.304 Core i7 (ca. 0,01/CPU)
TERA100: 1.000 TFLOPS, 17.480 (ca. 0,06/CPU)

Wenn es JUROPA wird, dann wäre die gutgeschriebene Rechenzeit nur ca. 1/6 wert gegenüber TERA100, gegenüber JUGENE aber 3 mal soviel. Kommt sicherlich darauf an, wie die Stunden denn nun wirklich angewendet werden. Bin gespannt.
 

SRMeister

Registriertes Mitglied
Nein, viel einfacher: Jedes "Teilchen" ist quasi sein eigener Prozessor.

Ja schon - aber wieviel Rechenleistung hat dann dieser Prozessor?
Er bräuchte fast unendlich viel Rechenleistung, denn die Kraft des Teilchens kann auf jedes andere Teilchen im Universum wirken und somit muss jedes Teilchen mit jedem Anderen in Verbindung stehen können.
Man sieht aber anhand verschiedener Beispiele das dem im Grenzfall, nicht unbedingt so ist: Schwarze Löcher, Quark Gluon Plasma, vielleicht Bose Einstein Kondensat, wo sich viele Teilchen "zu einem zusammenschließen". Den Beispielen ist gemein, dass man viele Teilchen auf engem Raum hat, dann treten diese holografischen Eigenschaften hervor.
Eigenschaften, die genauso in solchen Simulationen hervortreten.
Also ich finde das zumindest interessant, wenn nicht bedenkenswert.
 

PlanetHunter

Registriertes Mitglied
Ja schon - aber wieviel Rechenleistung hat dann dieser Prozessor?
Er bräuchte fast unendlich viel Rechenleistung,
Mein Spezialgebiet während des Studiums waren Zellularautomaten. In diesen Modellen interagiert jedes "Teilchen" (=Zelle) nur mit den unmittelbaren Nachbarn. Jede Interaktion stellt einen Schritt dar und passiert für alle Teilchen gleichzeitig.
Somit wäre der Rechenaufwand für ein Teilchen sehr überschaubar und vernünftige Ergebnisse würde immer noch dabei herauskommen.
 
Oben