Unklarheiten über das Horizontproblem und die kosmologische Inflations-Theorie

blue.moon

Registriertes Mitglied
Hallo blue.moon,

als pedantischer Mensch tue ich etwas anderes und zitiere im Zusammenhang:



Ohne Muttersprache Englisch zu haben würde ich das jetzt trotzdem so verstehen, dass da ein (best) fit durchgeführt wurde.

Aber ja, die von Dir zitierte Stelle würde ich auch so verstehen wie Du das geschrieben hast.


Freundliche Grüsse, Ralf
Lieber Ralf, ich habe "the" statt "to" gelesen (und geschrieben), ich habe Ptosis ;) - die Planck- Ergebnisse von 2018 wurden wirklich an das flache Lambda CDM Modell angepasst - damit das flache Universum flach bleibt; was sagt uns das über das Standardmodell? Lesch trötet im Video vom Papierflachen Universum 🤭😠 - naja "case done". Ich will nur noch...

Wünsch dir was, blue.moon
 

blue.moon

Registriertes Mitglied
Das ist gar nicht so einfach, weil in Planck immer mehrere Berechnungen angegeben werden, und CODATA ggf auch davon abweichen könnte, weil auch andere Quellen berücksichtigt werden.

Aber wenn Du den Fit meinst, das könnte dort deutlicher stehen.
Merke ich gerade. Aber egal, ich kann später ausgehen - kriminalistische Kampfratte muss einen Verdacht ausräumen...
 

Rainer

Registriertes Mitglied
dann sollten wir sie als Möglichkeit akzeptieren.
habe ich je etwas anderes behauptet? Es ist nur müßig, darüber zu reden, wenn das Thema lautet:

Unklarheiten über das Horizontproblem und die kosmologische Inflations-Theorie​


Da gelten nunmal standard textbook models

Da könntest Du ja gleich mit dem holografischen Prinzip antanzen, oder dass wir alle nur Computersimulationen sind, und es gar kein Universum gibt.
 

TomS

Registriertes Mitglied
Dazu gibt es keine Gleichungen, sondern Skizzen, zB hatte ich ein Video von Susskind gepostet.
Aber Susskind hat das vorher hoffentlich mal berechnet.

In der Physik beruhen Verständnis und Skizzen auf mathematischen Methoden – und nicht umgekehrt das Verständnis auf Skizzen.
 

Rainer

Registriertes Mitglied
Ja, oft. Ich spare mir die Zitate.
Dieses sinnlose stundenlange Gezänk bringt uns nicht weiter, dafür ist mir meine Zeit zu schade.

Exotische Modelle sind nicht das Thema dieses Threads, sonst hätte ich hier gar nichts geschrieben.
Alles was von standard textbook models abweicht IST exotisch. ENDE
 

ralfkannenberg

Registriertes Mitglied
kriminalistische Kampfratte muss einen Verdacht ausräumen...
Off-Topic

Hallo blue.moon,

vor einigen Jahren habe ich in einem Jugendforum einmal einen Artikel über den Orionnebel geschrieben. Besonderen "Spass" machte es, wenn in den SIMBAD-Daten der Universität Strasbourg wieder einmal Sterne im Orionnebel zu finden waren, die über doppelt soweit als der Orionnebel entfernt sind - also der Nebel ist dort und dort, aber einige seiner Sterne sind über doppelt so weit entfernt ..., und noch mehr Spass macht es, wenn man bei der Übernahme der Daten auf Sterne stösst, die einen negativen Abstand zu uns haben.

Gewiss, als Mathematiker weiss ich natürlich, woher das alles kommt, aber wenn man etwas präsentieren möchte ist es trotzdem lästig; schliesslich habe ich mir eine Excel-Datei erstellt und das Datum zugefügt, wann in der SIMBAD-Datenbank wegen neuer Gaia-Daten schon wieder ein Teil der Abstände anders war, und irgendwann habe ich es aufgegeben, mit der Erkenntnis, dass Sternabstände jenseits der 800 Lichtjahre-Marke einfach unzuverlässig sind, auch wenn 5 Nachkommastellen da etwas anderes suggerieren. Aber die zugehörigen Parallaxen sind einfach winzig klein, d.h. nahe bei 0, und da kann es schon mal passieren, dass eine "Optimierung" die über die 0 hinaus ins Negative bringt.

Bei hochelliptischen Kometen hat man übrigens ganz ähnliche Phänomene, nur geht es da um Exzentrizitäten nahe 1; ein bisschen kleiner kehrt er wieder zur Sonne zurück, ein bisschen grösser fliegt er ewig davon. Und dass bei einer Exzentrizität von 0.99999 statt nur 0.9999 die Abstände gleich massiv grösser werden war mir so auch nicht bewusst, obgleich das natürlich triviale Ellipsen-Mathematik ist.

Und miss mal so eine Kometen-Exzentrizität auf 4 oder auch 5 Kommastellen genau ....... - was ich sagen will: da sollte man bei den Abständen nicht Nachkommastellen angeben, sondern sich auf die Grössenordnung bzw. Zehnerpotenz beschränken.


Freundliche Grüsse, Ralf
 
Zuletzt bearbeitet:

ralfkannenberg

Registriertes Mitglied
Danke, allerdings nicht meine Kragenweite.
Ich habe ja nichts dagegen, wenn sich das Threadthema mal ändert.
Das Problem war nur, ... egal.
Hallo Rainer,

hier gibt es stille Mitleser, und wenn Du Fragen mit Tom und Bernhard diskutierst, dann kannst Du fast sicher davon ausgehen, dass der Mehrzahl der stillen Mitleser diese Fragen ebenfalls hat, oder - noch realistischer, nicht über das Wissen verfügt, um diese Fragen überhaupt formulieren zu können.

Man könnte den neuen Thread auch dafür nutzen, einmal darzulegen, welche Vorteile eine sphärische Topologie alles hat und inwiefern sie konsistent zu den Messergebnissen ist, und dann dasselbe für eine weniger triviale Topologie anschauen, wie wir das hier beispielsweise mit einem Torus gemacht haben, oder eine Beispielüberlegung der Effekte der Topologie in einem Spielzeugmodell eines 1-dim. kreisförmigen Universums (Beitrag #272). Und erst danach dann die Verallgemeinerung zu den anderen nicht-trivialen Topologien.


Freundliche Grüsse, Ralf
 
Zuletzt bearbeitet:

Rainer

Registriertes Mitglied
welche Vorteile eine sphärische Topologie alles hat
Naja eigentlich keine, sie ist halt die einfachste. Die FLRW Metrik halt, aus der die Friedmanngleichungen hervorgehen. (die daneben auch flach und hyperbolisch vorsieht)
Die Sphäre ist halt die erste Vorstellung nach der "Explosion", die sich ja die meisten Laien zuerst einmal vorstellen.
Man könnte auch die Epizyklen bzw die Himmelssphären der antiken Vorstellung vom Himmel anführen, die Perfektion der Kugel. Sie entspricht perfekt den kosmologischen Prinzipien der Homogenität und Isotropie.

Aus dem kosmologischen Prinzip folgt, daß das Universum homogen und isotrop ist und somit geometrisch durch die Robertson-Walker-Metrik zu beschreiben ist. Eine überzeugende experimentelle Bestätigung des kosmologischen Prinzips ist die hohe Isotropie der kosmischen Hintergrundstrahlung.

und inwiefern sie konsistent zu den Messergebnissen ist
Dazu weiß ich zu wenig von anderen Topologien. Aber ich werde den Thread wohl verfolgen und ggf ein Wort in den Ring werfen. ;-)

Den Post könnte man in den neuen Thread verschieben....
 
Zuletzt bearbeitet:

blue.moon

Registriertes Mitglied
Lieber Rainer & Co, ich bitte um Mitarbeit - danke vielmals - muss ja nicht sofort sein - ich bin ambivalent aber vielleicht ist "alles" auch bedeutungslos! Siehe *

Mit freundlichen Grüßen,
blue.moon



I

1. https://pdg.lbl.gov/2023/reviews/rpp2023-rev-astrophysical-constants.pdf
Astrophysical Constants and Parameters
2 Seiten
Table 2.1: Revised August 2023 by D.E. Groom (LBNL) and D. Scott (U. of British Columbia).

Die Particle Data Group PDG ist oder soll eine internationale Kollaboration von Teilchenphysikern sein. Sie analysiert und publiziert Forschungsresultate und Eigenschaften von Elementarteilchen, den Grundkräften der Physik, sowie weitere fachrelevante Daten und Fakten.

2. https://www.cosmos.esa.int/documents/387566/387653/Planck_2018_results_L06.pdf/38659860-210c-ffac-3921-e5eac3ae4101
Planck 2018 results. VI. Cosmological parameters

73 Seiten

  • Die Tabelle 2.1. gibt es im Original nicht, nach Tabelle 2 kommt Tabelle 3. PDG wird ihre Veröffentlichung selber zusammengestellt haben. Das finde ich etwas befremdlich.
  • Warum hat PDG erst 2023 publiziert (statt 2018?)
  • Die Sätze Planck 2018 6-parameter fit to flat ΛCDM cosmology 1. Seite unten und ‡ Parameter in 6-parameter ΛCDM fit; † derived parameter in 6-parameter ΛCDM fit; extended model parameter, Planck + BAO data [2]fehlen im Original. Weshalb?
  • Die Berechnungen stimmen überein: ΩK = 0.0007(19) (CMB + BAO) - ΩK = 0,0007 ± 0,0019
  • Die Referenzen stimmen nicht mit dem Original überein, was u.a. daran liegt, dass z.B. diese: „[31] A. G. Riess et al., Astrophys. J. Lett. 934, 1, L7 (2022), [arXiv:2112.04510“ 2018 noch nicht zur Verfügung stand
  • Nur das Original fasst Conclusions zusammen, siehe unten
* Wollen die beiden im kurzen Artikel hinzugefügten Sätze, uns über die wahren Planck 2018 Ergebnisse aufklären und ans Tageslicht bringen, das sie der Mainstream vertuscht, falls dies a) zutrifft, was ich nicht glaube, wenn man nicht ohnehin selber anhand der Berechnungen erkennt, dass das Universum zumindest nicht ganz flach ist oder ist es hyperbolisch, wie du, Rainer, es behauptest (oder in Erwägung gezogen) hast oder ist das Universum – ganz einfach - hinreichend flach? Oder sind die genannten „Ergänzungen und Abänderungen des Originaltextes“ a) Verfälschungen, b) ist das überhaupt erlaubt? Oder sind es c) im Zeitalter von Adobe Photoshop & Co im Grunde wie das meiste im Internet Fakes?

8. Schlussfolgerungen

Dies ist die letzte Veröffentlichung der Planck-Kollaboration zu kosmologischen Parametern und präsentiert unsere besten Schätzungen von Parametern, die die Basis-ΛCDM-Kosmologie definieren, sowie eine breite Palette erweiterter Modelle…

Mehr lesen?


Wie bei PCP13 und PCP15 stellen wir fest, dass das Basismodell ΛCDM eine bemerkenswert gute Übereinstimmung mit den Planck-Leistungsspektren und Linsenmessungen bietet, ohne dass es zwingende Beweise gibt, die für eines der in dieser Arbeit betrachteten erweiterten Modelle sprechen. Im Vergleich zu PCP15 sind die wichtigsten Änderungen in dieser Analyse auf Verbesserungen in der Planck-Polarisationsanalyse zurückzuführen, sowohl bei niedrigen als auch bei hohen Multipolen. Die neuen Planck-Polarisationskarten bieten eine enge Begrenzung der optischen Reionisationstiefe τ aus großräumiger Polarisation (und stimmen mit den vorläufigen HFI-Polarisationsergebnissen überein, die in Planck Collaboration Int. XLVI (2016)) vorgestellt wurden). Diese Revision der Randbedingung für τ erklärt die meisten (kleinen) Änderungen der Parameter, die aus den Temperaturleistungsspektren in diesem Papier im Vergleich zu PCP15. Wir haben eine Reihe von systematischen Effekten charakterisiert, die in PCP15 vernachlässigt werden und die Polarisationsspektren an hohen Multipolen beeinflussen. Durch die Anwendung von Korrekturen für diese Systematik (die hauptsächlich aus Fehlern in der Polarisationseffizienz und Temperatur-zu-Polarisations-Leckage resultieren) haben wir hohe mehrpolige TT,TE,EE-Wahrscheinlichkeiten erstellt, die wesentlich engere Einschränkungen bieten als die alleinige Verwendung der Temperatur. Wir haben zwei TT,TE,EE-Wahrscheinlichkeiten verglichen, die unterschiedliche Annahmen verwenden, um die Polarisationssystematik zu korrigieren und Konsistenz auf dem Niveau von <∼ 0,5σ zu finden. Obwohl die TT,TE,EE-Wahrscheinlichkeiten nicht perfekt sind, können die in dieser Arbeit vorgestellten Ergebnisse der Planck-Parameter als bis zu ihren Fehlerbalken genau angesehen werden.
Das 6-Parameter-Basis-ΛCDM-Modell bietet eine gute Anpassung an die Planck-Leistungsspektren TT, TE und EE sowie an die Planck-Leistungsspektren - die am genauesten gemessenen Parameter in der Kosmologie, von vergleichbarer Präzision wie die Messung des Hintergrund-CMB
Die akustische CMB-Winkelskala wird robust mit einer Genauigkeit von 0,03 % gemessen, um θ∗ = (0,◦5965 ± 0,◦0002) zu sein.
Die Planck-Best-Fit-Base-ΛCDM-Kosmologie ist in sehr guter Übereinstimmung mit BAO, Supernovae, Rotverschiebungs-Raum-Verzerrungsmessungen und BBN-Vorhersagen für Beobachtungen der Elementhäufigkeit. Es gibt eine gewisse Spannung (bei etwa 2,5σ) bei BAO-Messungen mit hoher Rotverschiebung aus Quasar-Ly-α-Beobachtungen, aber keine Standarderweiterung der Basis-ΛCDM-Kosmologie verbessert die Anpassung an diese Daten.
Die neue niedrige Polarisationswahrscheinlichkeit verengt die optische Tiefe der Reionisation im Vergleich zur Analyse von 2015 signifikant und ergibt τ = 0,054 ± 0,007, was auf eine Reionisation in der Mitte hindeutet.
Rotverschiebung von ZRE = 7,7 ± 0,7. Dies stimmt mit astrophysikalischen Beobachtungen von Quasar-Absorptionslinien und Modellen überein, in denen die Reionisation relativ schnell und spät erfolgte. Wir untersuchten allgemeinere Modelle der Reionisation und zeigten, dass unsere kosmologischen Parameterergebnisse unempfindlich gegenüber Restunsicherheiten in der Reionisationsgeschichte sind.
Die primordialen Fluktuationen stimmen mit Gaußschen rein adiabatischen skalaren Störungen überein, die durch ein Leistungsspektrum mit einem Spektralindex ns = 0,965 ± 0,004 gekennzeichnet sind, was mit den Vorhersagen einer langsamen Einfeldinflation übereinstimmt.




In Kombination mit BAO stellen wir fest, dass das Universum räumlich flach, mit hoher Genauigkeit ΩK = 0,0007 ± 0,0019 ist, was mit den Vorhersagen einfacher Inflationsmodelle übereinstimmt. In Kombination mit den BICEPKeck-Daten zur B-Mode-Polarisation finden wir eine Obergrenze von 95 % für das Tensor-zu-Skalar-Verhältnis r0,002 < 0,07.
 
Zuletzt bearbeitet:

blue.moon

Registriertes Mitglied
Lieber Rainer & Co, ich bitte um Mitarbeit - danke vielmals - muss ja nicht sofort sein - ich bin ambivalent aber vielleicht ist "alles" auch bedeutungslos! Siehe *

Mit freundlichen Grüßen,
blue.moon

II

Mehr lesen?


Zusammen mit unserer Messung von ns bevorzugen diese Ergebnisse konkave gegenüber konvexen Inflationspotentialen, was auf eine Hierarchie zwischen den Slow-Roll-Parametern zur Messung der Steigung und Krümmung des Potenzials hindeutet.

Die Planck-Basis-ΛCDM-Kosmologie sagt eine späte Clustering-Amplitude σ8 = 0,811 ± 0,006 und eine Materiedichte voraus
Parameter Ωm = 0,315 ± 0,007. Der Parameter S 8 ≡ σ8Ω0,5 m = 0,831 ± 0,013 ist mit dem DES-Galaxienlinseneffekt kompatibel, und gemeinsame Planck-DES-Linsen, wenn auch in bescheidener Spannung mit DES-Ergebnisse, die auch Galaxienhaufen beinhalten, die einen etwa 2,5σ niedrigeren Wert von S 8 bevorzugen. Es gibt keine offensichtliche Inkonsistenz zwischen der Planck-Basis-ΛCDM-Kosmologie und der Anzahl der Haufen (die entweder durch den thermischen Sunyaev-Zeldovich-Effekt oder durch die Röntgenleuchtkraft ausgewählt wurden), da die Kalibrierung der Haufenmassen mit großen Unsicherheiten behaftet ist.
Die Planck-Basis-ΛCDM-Kosmologie erfordert eine Hubble-Konstante H0 = (67,4±0,5) km s−1Mpc−1 in erheblicher Spannung von 3,6σ mit der neuesten lokalen Bestimmung von Riess et al. (2018b). Das
Planck-Messungen sind in ausgezeichneter Übereinstimmung mit unabhängigen Messungen der inversen Distanzleiter mit BAO-, Supernovae- und Elementhäufigkeitsergebnissen.
Keines der erweiterten Modelle, die wir in dieser Arbeit untersucht haben, löst die Spannung mit dem Wert von H0 von Riess et al. (2018b) überzeugend auf.
Unter Berücksichtigung zusätzlicher relativistischer Freiheitsgrade messen wir die effektive Anzahl der Freiheitsgrade in der Nicht-Photonen-Strahlungsdichte mit Neff = 2,89 ± 0,19 (Neff = 2,99 ± 0,17 einschließlich BAO-Daten), was mit dem im Standardmodell erwarteten Wert 3,046 übereinstimmt. Leichte thermische Relikte, die sich nach dem QCD-Phasenübergang entkoppeln, sind auf dem 2σ-Niveau ausgeschlossen. Die Berücksichtigung eines größeren Neff kann die Spannung mit der lokalen H0-Messung leicht reduzieren und mit BAO konsistent sein. Die marginalisierte Einschränkung von H0 bleibt jedoch in Spannung zu Riess et al. (2018b) bei über 3σ und höhere Werte von Neff werden durch Beobachtungen der Elementhäufigkeit nicht begünstigt.
Durch die Kombination von Planck-Daten mit Pantheon-Supernovae und BAO-Daten ist die Zustandsgleichung der Dunklen Energie eng eingeschränkt zu w0 = −1,03 ± 0,03, was mit einer kosmologischen Konstante übereinstimmt.
Wir haben auch eine Vielzahl von modifizierten Gravitationsmodellen untersucht und keine signifikanten Hinweise auf Abweichungen von ΛCDM gefunden.
Unter Berücksichtigung einer freien, entarteten aktiven Neutrinomasse und in Kombination mit BAO-Messungen erhalten wir die engen 95 % Beschränkung auf die Summe der Massen Pmν < 0,12 eV.
Wir finden eine gute Übereinstimmung zwischen den Vorhersagen von BBN für die Planck-Basis-ΛCDM-Parameter und Beobachtungen der Elementhäufigkeit. Unsicherheiten bei den Atomraten dominieren derzeit das Fehlerbudget für die Interpretation von Deuterium-Häufigkeiten.
Wir haben eine Reihe von Modellen für massive sterile Neutrinos und die Vernichtung von Dunkler Materie untersucht und keine Hinweise auf Abweichungen von der Basis ΛCDM gefunden.


Schlussfolgerungen

Das Gesamtbild von Planck seit der Präsentation unserer ersten Ergebnisse in PCP13 ist von bemerkenswerter Übereinstimmung mit der 6-Parameter-ΛCDM-Kosmologie. Diese Konsistenz wird durch die Hinzufügung der in dieser Arbeit vorgestellten Polarisationsspektren verstärkt. Nichtsdestotrotz gibt es eine Reihe merkwürdiger "Spannungen", sowohl innerhalb der Planck-Daten (die Tendenz von Planck, AL > 1 zu bevorzugen, die in Abschnitt 6.2 diskutiert wird, ist ein Beispiel) als auch mit einigen externen Datensätzen. Einige dieser Spannungen könnten auf kleine systematische Fehler in den Planck-Daten zurückzuführen sein (obwohl wir keine Hinweise auf Fehler gefunden haben, die sich signifikant ändern könnten unsere Ergebnisse) und/oder systematische Fehler in externen Daten. Mit Ausnahme der Diskrepanz zu direkten Messungen von H0 ist jedoch keine dieser Werte signifikant bei mehr als 2–3σ. Solche relativ bescheidenen Diskrepanzen wecken Interesse, zum Teil wegen der hohen Präzision des Planck-Datensatzes.

Wir könnten daher diese Spannungen außer Acht lassen und zu dem Schluss kommen, dass das 6-Parameter-ΛCDM-Modell eine erstaunlich genaue Beschreibung des Universums aus Zeiten vor 380 000 Jahren liefert nach dem Urknall, der die letzte über den CMB beobachtete Streufläche definierte, bis heute mit einem Alter von 13,8 Milliarden Jahren.

Nichtsdestotrotz ist es wichtig zu bedenken, dass die Hauptbestandteile von ΛCDM, nämlich Inflation, dunkle Energie und dunkle Energie auf keiner fundamentalen Ebene verstanden werden. Es gibt daher eine natürliche Tendenz zu spekulieren, dass "Spannungen" Hinweise auf eine neue Physik sein könnten, insbesondere angesichts der Tatsache, dass die Landschaft möglicher neuer Physik immens ist.


In der Post-Planck-Ära bietet das CMB ein enormes Potenzial für weitere Entdeckungen durch hochempfindliche bodengestützte Polarisationsexperimente und möglicherweise einen CMB-Satelliten der vierten Generation. Im nächsten Jahrzehnt wird es ein ehrgeiziges Programm mit großen BAO- und Weak-Lensing-Untersuchungen sowie neuen Techniken wie tiefen 21-cm-Durchmusterungen und Gravitationswellenexperimenten geben. Beweise für neue Physik zu finden, ist daher eine realistische Möglichkeit. Was wir gelernt haben, und das Vermächtnis von Planck, ist, dass alle Signaturen der neuen Physik in der CMB muss klein sein.
 
Zuletzt bearbeitet:

Rainer

Registriertes Mitglied
Warum hat PDG erst 2023 publiziert (statt 2018?)
Codata veröffentlich (wohl seit 1986) jedes Jahr eine aktualisierte Liste, und dies ist nur Teil 2 von mittlerweile über 60 Teilen, die die gesamte Physik einschließlich Teilchen etc beinhaltet. Ich habe natürlich die aktuell neueste verlinkt. Vor 2018 fand sich dort der alte Wert von Planck 2015.
Für die alten Werte einfach zweimal im Link "2023" auf "2017" abändern oder so.
PDG ist übrigens eine andere Abteilung und NIST hat teils veraltete Werte von Codata und beruft sich dabei auf Codata. Ich hab schon mal auf falsche Werte hingewiesen, aber ohne Resonanz, Codata (Don Groom) hat sich bei meinen Korrekturen immer bedankt. Er ist jetzt im Ruhestand, jetzt ist Douglas Scott der Ansprechpartner.
In den Fußnoten findet man teils weitere Werte, die nicht direkt in der Liste stehen. Andere Teile bestehen überwiegend aus Text, wo man sich auch Daten raussuchen kann.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
@Rainer – sorry, das ist jetzt wirklich kein persönlicher Angriff, aber ich denke, du hast einen essentiellen Punkt nicht verstanden.

Naja eigentlich keine, sie ist halt die einfachste. Die FLRW Metrik halt, aus der die Friedmanngleichungen hervorgehen. (die daneben auch flach und hyperbolisch vorsieht)
Alle hier von mir diskutierten Topologien tragen die FLRW Metrik (k=0, +1, -1) und für alle gelten ausnahmslos die Friedmanngleichungen; sie sind in dieser Hinsicht völlig gleichwertig.

Die Sphäre ist halt die erste Vorstellung nach der "Explosion", die sich ja die meisten Laien zuerst einmal vorstellen.
Da stimme ich dir zu.

Aber warum sollte sich die Topologie unseres Universums nach diesem laienhaften Verständnis richten?

… die Perfektion der Kugel. Sie entspricht perfekt den kosmologischen Prinzipien der Homogenität und Isotropie.
Ich hatte weiter oben schon mal erklärt, dass das kosmologischen Prinzip oft falsch dargestellt wird. Es ging letztlich darum, dass uns als Beobachtern kein ausgezeichneter Platz im Universum zukommt.

Insofern verletzen all diese Topologien dieses kosmologischen Prinzip nicht, weil sie weiterhin lokal homogen und isotrop sind.

Aus dem kosmologischen Prinzip folgt, daß das Universum homogen und isotrop ist und somit geometrisch durch die Robertson-Walker-Metrik zu beschreiben ist. Eine überzeugende experimentelle Bestätigung des kosmologischen Prinzips ist die hohe Isotropie der kosmischen Hintergrundstrahlung.
Sorry, Spektrum der Wissenschaft ist nicht das Niveau, auf dem ich argumentiere.
  1. Wie gesagt, die Geometrien auf den diskutierten Topologien sind allesamt vollkommen homogen und lokal isotrop, erfüllen also das kosmologische Prinzip, und bzgl. der Dynamik gilt in allen ausnahmslos die Geometrie der Robertson-Walker-Metrik.
  2. Die Wissenschaft hat sich sich zum Ziel gesetzt, etabliertes Wissen auf den Prüfstand zu stellen und Wissen erweitern, nicht zu konservieren. Man sucht also nach Abweichungen von dieser "hohe Isotropie der kosmischen Hintergrundstrahlung." Und man findet sie! Sie ist nachgewiesen, und ihr Verständnis stellt eine echte Herausforderung dar. Ob das auch für den speziellen Fall nicht-trivialer Topologie gilt bzw. ob die Anisotropien darauf eine Antwort liefern, ist eine offene Frage.
 
Zuletzt bearbeitet:

Rainer

Registriertes Mitglied
Und man findet sie! Sie ist nachgewiesen
Blödsinn. Hast Du das immer noch nicht verstanden? Die Messwerte für ℓ < 12 bzw θ > 15° sind Datenmüll, selbst ein Mittelwert ist nicht signifikant. Und primordiale Moden bleiben über die Inflation sowieso nicht erhalten.

Sorry, Spektrum der Wissenschaft ist nicht das Niveau, auf dem ich argumentiere.
Was soll denn das für ein Niveau sein? Du gibst ohnehin die selben Bedingungen an: FLRW, isotrop, homogen. Viel mehr steht bei Spektrum gar nicht.
(nur) Lokale Isotropie langt dafür nicht, wobei ich mir nicht sicher bin, was Du damit meinst.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Blödsinn. Hast Du das immer noch nicht verstanden? Die Messwerte für ℓ < 12 bzw θ > 15° sind Datenmüll, selbst ein Mittelwert ist nicht signifikant. Und primordiale Moden bleiben über die Inflation sowieso nicht erhalten.
Ich schreibe ja nur ungern ad hominem, aber diese fortgesetzte Arroganz gepaart mit oberflächlichem Halbwissen muss ich mir weder gefallen lassen, noch ist es sinnvoll, falsche Aussagen unkommentiert stehen zu lassen.

1) die Messwerte ℓ < 12 sind nicht pauschal Datenmüll; die Wissenschaftler geben die Fehler explizit an
2) meine Aussage bezog sich nicht speziell auf Anisotropien im Kontext nicht-trivialer Topologien sondern allgemein auf Anisotropien

Es gibt weitere relevante Anisotropien bzw. Anomalien:


Auf weitere Fachveröffentlichungen verweise ich nicht, das habe ich in der Vergangenheit bereits getan, ohne dass @Rainer sie gelesen oder verstanden hätte.

Was soll denn das für ein Niveau sein?
Ein wissenschaftlich seriöses Nivau, das mir persönlich urkundlich bestätigt wurde. Schade, dass man sowas schreiben muss.
 
Oben