Weltall, Neutrinos, Sterne und Leben: Faszinierendes aus der Astroforschung 3662651092, 9783662651094, 9783662651100

Dieses Sachbuch nimmt Sie mit auf eine Reise durch kosmische Epochen, beginnend mit dem Big Bang und der kosmischen Infl

160 12 17MB

German Pages 270 Year 2023

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Weltall, Neutrinos, Sterne und Leben: Faszinierendes aus der Astroforschung
 3662651092, 9783662651094, 9783662651100

Table of contents :
Für den Leser
Inhaltsverzeichnis
Über die Autoren
1 Vorwort
1.1 So fing es an
2 Physik und Erkenntnis
2.1 Frage: Physik ist – was?
2.2 Antwort: Physik ist – dieses!
3 Messgrößen leftarrow-3murightarrow Größenordnungen
3.1 Distanzen
3.2 Energien
4 Eine kurze Reise ins Reich der elementaren Teilchen
4.1 Quarks und Leptonen
4.2 Die Wechselwirkungen
5 Beginn und Ende von Zeit und Raum
5.1 Die Epochen des Universums
6 Das inflationäre Universum
6.1 Unbeachtete Hinweise, Fragen ohne Antworten
6.2 Masse, Zeit, Raum, Raum-Zeit
6.3 Statisches oder dynamisches Universum?
6.4 Ein dynamisches Universum – es expandiert
6.5 Die Problematik der „Zurückrechnung“
7 Nukleosynthese im frühen Universum
7.1 Neutronen kommen und gehen
7.2 Frühe Nukleosynthese, Beginn und Ende
8 Die Mikrowellen-Hintergrund- strahlung
8.1 Die 380.000 Jahr-Marke
8.2 Die Entdeckung der Strahlung
9 Späte Nukleosynthese und Supernovae
9.1 Elemente, elementare Fragen
9.2 Die Sonne – eine unter vielen
9.3 Faszination Triple-alpha
9.4 Supernovae – kosmische Kochkessel der Elemente
9.5 Supernovae – Einblicke und Impressionen
9.6 Supernovae und kosmisches Erstaunen
9.7 Supernovae und Entstehung des Lebens
9.8 Auf der Suche nach Leben im Sonnensystem
10 Relativität
10.1 Spezielle Relativitätstheorie und Highlights
10.2 Allgemeine Relativitätstheorie und Highlights
11 Neutronensterne, Inertialsysteme, Schwarze Löcher
11.1 Physik der Neutronensterne
11.2 Das Gravity-Probe-B-Experiment
11.3 Schwarze Löcher
12 Kosmische Botschaften
12.1 Historie
12.2 Entschlüsselung der kosmischen Strahlung
12.3 Gravitationswellen, die neue Strahlung
12.4 Drei Detektoren
12.5 Noch etwas Wissenswertes
13 Flucht in die Zukunft

Citation preview

Dieter Frekers · Peter Biermann

Weltall, Neutrinos,Sterne und Leben Faszinierendes aus der Astroforschung

Weltall, Neutrinos, Sterne und Leben

Dieter Frekers · Peter Biermann

Weltall, Neutrinos, Sterne und Leben Faszinierendes aus der Astroforschung

Dieter Frekers Institut für Kernphysik Universität Münster Münster, Deutschland

Peter Biermann MPI für Radioastronomie Universität Bonn Bonn, Deutschland

ISBN 978-3-662-65109-4 ISBN 978-3-662-65110-0  (eBook) https://doi.org/10.1007/978-3-662-65110-0 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über 7 http://dnb.d-nb.de abrufbar. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Umschlaggestaltung: DeBlik, Berlin Planung/Lektorat: Caroline Strunz Springer ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

V

Für den Leser Die Autoren dieses Buchs sind übereingekommen, die genderspezifischen Ausdrücke in der im Sprachgebrauch immer noch gebräuchlichen männlichen Form zu belassen. Wir weisen den Leser jedoch darauf hin, dass die männlichen Formen, sofern diese nicht auf einen spezifischen Personenkreis mit direktem Bezug zum Inhalt des Buches hinweisen, lediglich Statthalter für eine genderneutrale Schreibweise sind. Des Weiteren haben die Autoren dieses Buchs versucht, physikalische Zusammenhänge möglichst intuitiv und in leicht lesbarer Form zu vermitteln. Sie haben dabei auf mathematische Gleichungen weitgehend verzichtet. Sollten an einigen Stellen mathematische Abhandlungen auftreten, so sind diese schwarz umrahmt und können ohne großen Verständnisnachteil übersprungen werden. Münster, Februar 2021

VII

Inhaltsverzeichnis 1 1.1

Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

2 2.1 2.2

Physik und Erkenntnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

So fing es an . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

Frage: Physik ist – was?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Antwort: Physik ist – dieses! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3 3.1 3.2

Messgrößen ←→ Größenordnungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

4 4.1 4.2

Eine kurze Reise ins Reich der elementaren Teilchen . . . . . . . . . . . . . . . . . . . . 23

Distanzen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 Energien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

Quarks und Leptonen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 Die Wechselwirkungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

5 5.1

Beginn und Ende von Zeit und Raum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

6 6.1 6.2 6.3 6.4 6.5

Das inflationäre Universum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

7 7.1 7.2

Nukleosynthese im frühen Universum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

8 8.1 8.2

Die Mikrowellen-Hintergrundstrahlung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

9 9.1 9.2 9.3 9.4 9.5 9.6 9.7 9.8

Die Epochen des Universums. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

Unbeachtete Hinweise, Fragen ohne Antworten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Masse, Zeit, Raum, Raum-Zeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Statisches oder dynamisches Universum?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ein dynamisches Universum – es expandiert. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Problematik der „Zurückrechnung“. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

44 48 53 56 59

Neutronen kommen und gehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Frühe Nukleosynthese, Beginn und Ende . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

Die 380.000 Jahr-Marke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 Die Entdeckung der Strahlung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

Späte Nukleosynthese und Supernovae. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 Elemente, elementare Fragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Sonne – eine unter vielen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Faszination Triple-alpha. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Supernovae – kosmische Kochkessel der Elemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Supernovae – Einblicke und Impressionen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Supernovae und kosmisches Erstaunen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Supernovae und Entstehung des Lebens. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Auf der Suche nach Leben im Sonnensystem. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

101 102 111 116 122 134 140 151

VIII

Inhaltsverzeichnis

10 10.1 10.2

Relativität. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

11 11.1 11.2 11.3

Neutronensterne, Inertialsysteme, Schwarze Löcher . . . . . . . . . . . . . . . . . . . . 181

12 12.1 12.2 12.3 12.4 12.5

Kosmische Botschaften. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221

13

Flucht in die Zukunft. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265

Spezielle Relativitätstheorie und Highlights . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 Allgemeine Relativitätstheorie und Highlights. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162

Physik der Neutronensterne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Das Gravity-Probe-B-Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 Schwarze Löcher. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

Historie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Entschlüsselung der kosmischen Strahlung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gravitationswellen, die neue Strahlung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Drei Detektoren. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Noch etwas Wissenswertes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

222 234 243 250 261

IX

Über die Autoren Dr. Dieter Frekers Professor Universität Münster Fellow of the American Physical Society Experimentelle Kern- und Teilchenphysik

Dr. Dr. h.c. Peter Biermann Professor (apl.) Universität Bonn Max-Planck-Institut für Radioastronomie Adjunct Professor University of Alabama, Tuscaloosa, USA Ehrendoktor Universität Bukarest Theoretische Astrophysik und Kosmologie

1

1

Vorwort Mün

ne a r e t s

r

r

na i m

se o r Ast Inhaltsverzeichnis 1.1

So fing es an – 2

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 D. Frekers und P. Biermann, Weltall, Neutrinos, Sterne und Leben, https://doi.org/10.1007/978-3-662-65110-0_1

2

1

1.1

Kapitel 1 · Vorwort

So fing es an

Das Münsteraner Astroseminar ist eine Veranstaltung, die seit nunmehr über 20 Jahren im jährlichen Turnus Ende September/Anfang Oktober jeweils von Freitag bis Samstag am Fachbereich Physik der Universität stattfindet. Zielgruppe ist ein interessiertes Publikum aus allen Lebensbereichen – und natürlich ist der Eintritt frei. An diesen beiden Tagen werden in Vorträgen und Diskussionen die gegenwärtigen Forschungsarbeiten und die neuesten Ergebnisse zu bestimmten Themen und Fragestellungen aus den Bereichen Weltraumforschung, Astrophysik, Astro-Teilchenphysik und Kosmologie in wissenschaftlich verständlicher, aber auch in originell unterhaltsamer Weise von Experten und Wissenschaftlern aus diesen Bereichen vorgestellt. Das Besondere und Außergewöhnliche ist, dass diese Veranstaltung bis ins Detail organisiert wird von Doktorandinnen und Doktoranden aus dem Institut für Experimentelle Kern- und Teilchenphysik. Sie allein definieren das jeweilige Thema, stellen das Programm über die zwei Tage zusammen, laden international anerkannte Wissenschaftler aus den verschiedenen Forschungsgebieten als Sprecher ein, beantragen die nicht unbeträchtlichen finanziellen Mittel, organisieren die Werbe-Kampagnen, sorgen für die Räumlichkeiten und die Technik, stellen in den Pausen Erfrischungen und kleine Snacks zur Verfügung und beteiligen sich in der Regel auch noch selbst mit Kurzvorträgen über ihre eigenen Arbeiten zum jeweiligen Thema. Eine wie immer geartete Einmischung vonseiten der Hochschullehrer findet nicht statt. Das mittlerweile fest in Münster verankerte „Münsteraner Astroseminar“ ist in dieser Art einzig in Deutschland, und der Erfolg zeigt sich sicher auch darin, dass diese Veranstaltung über die Jahre ein immer größeres Publikum aus einem immer größeren Umkreis von Münster anziehen konnte. Dabei hat das Astroseminar im Jahr 2000 ganz bescheiden mit einem Vortrag von einem der Autoren dieses Buchs, Prof. Dr. Dr. h. c. Peter L. Biermann vom Max-Planck-Institut für Radioastronomie und der Universität Bonn, über ein astrophysikalisches Thema angefangen. Der Anlass war eine für Stipendiaten der Studienstiftung e. V.1 organisierte Veranstaltung in Münster. Im Nachgang hierzu hatte der Gastgeber aus dem Institut für Planetologie der Universität Münster, Prof. Dr. Elmar K. Jessberger, die Anwesenden zu sich nach Hause eingeladen, wo bis spät in die Nacht ein kleiner verbliebener Teilnehmerkreis von einer Handvoll Studierenden aus verschiedenen Fachbereichen mit den beiden Kollegen über Fragen zur Astrophysik und Kosmologie diskutieren konnte. Die Studierenden waren hiervon so angetan, dass sie vereinbarten, in dem darauf folgenden Jahr die Veranstaltung in dieser Form erneut und mit einem noch breiter gefächerten Themenspektrum zu wiederholen. Dank einer jungen Medizinstudentin aus diesem kleinen Kreis geriet diese Vereinbarung tatsächlich nicht in Vergessenheit, und im folgenden Jahr ergriff 1

Das Mandat der Studienstiftung: „Die Studienstiftung fördert Studierende, deren Begabung und Persönlichkeit besondere Leistungen im Dienst der Allgemeinheit erwarten lassen“ (Textstelle: 7 https://www.studienstiftung.de/studienfoerderung/, 2019). In diesem Kontext werden insbesondere auch Veranstaltungen wie die hier beschriebene gefördert.

3 1.1 · So fing es an

1

dieser Kreis die Initiative und stellte ein Themen- und Sprecherprogramm zusammen, zu dem die Autoren dieses Buches für eine Vorlesungsreihe über ein frei gewähltes astrophysikalisches Thema eingeladen wurden. Die Anzahl der Interessenten vergrößerte sich, jedoch blieb der Teilnehmerkreis zunächst weiter beschränkt auf die sogenannten „Studienstiftler“. Eine anschließende Umfrage unter den Teilnehmern ergab, dass großes Interesse bestand, diese Form der Veranstaltung auch in den kommenden Jahren fortzusetzen und dabei den Teilnehmerkreis zu erweitern. So folgten weitere jährliche Veranstaltungen, die zunächst wieder von „Studienstiftlern“ organisiert wurden. Eigens entworfene Werbeplakate, angebracht in den universitären Gebäuden, sollten nun aber alle Studierende der verschiedenen Fachrichtungen auf diese Veranstaltung aufmerksam machen, was den Teilnehmerkreis rasch auf etwa 20–30 Personen vergrößerte. Entsprechende Räumlichkeiten mussten gebucht werden, was nicht einfach war, denn die Astro-Veranstaltung war ja immer noch mehr oder weniger privat und unbekannt. Die Organisatoren waren jedoch recht einfallsreich; es gab immer irgend jemanden, der diesen oder jenen Professor oder Hausmeister kannte und bitten konnte, von Freitagnachmittag bis Samstagabend die Räumlichkeiten (und die Schlüssel dafür) zur Verfügung zu stellen. So traf man sich anfangs in einem kleinen Hörsaal der Anatomie, später z. B. im „Pfarrzentrum Heilig-Kreuz“ in Münster. Der Bekanntheitsgrad des Astroseminars begann zu wachsen und die Veranstaltung bekam im Laufe der Zeit ein neues Format mit neuen Gesichtern. Im Jahr 2005 wurde die Veranstaltung erstmalig im Institut für Kernphysik durchgeführt. Die Organisatoren waren mittlerweile Studierende aus diesem Institut, denen es gelang, mit großem Ehrgeiz und großem persönlichen Einsatz ein überregionales Publikum zu erreichen und Wissenschaftler aus dem internationalen Umfeld als Redner für diese Veranstaltung zu gewinnen. Die Besucherzahlen schossen unerwartet in die Höhe und der Seminarraum im Institut für Kernphysik mit etwa 35 Sitzplätzen erwies sich schnell als viel zu klein, sodass schließlich für die folgenden Jahre der große Hörsaal der Physik einschließlich der Technik und des technischen Personals gewonnen werden konnte, und dies auch dank der besonderen und bereitwilligen (auch finanziellen) Unterstützung des Dekans des Fachbereichs. Die Attraktivität der Veranstaltung hat erstaunlicherweise über die Jahre nicht abgenommen, was neben den immer wieder neuen und spannenden Themen auch daran lag, dass jedes Mal besondere „High-lights“ in das Programm eingebaut waren, z. B. ein Vortrag über das Leben im All vom ESA-Astronauten Dr. Gerhard Thiele, eine Theater-Einlage über Victor Hess, den Entdecker der kosmischen Strahlung, oder auch ein besonders amüsanter Vortrag über die „Fact-vs.-Fiction“Physik in der Fernsehserie „Star-Trek“. Kleine Preise für besonders gute Fragen wurden regelmäßig nach jedem Vortrag vergeben, Laborführungen waren im Programm, oder man war als Organisator oder Sprecher einfach Ansprechpartner für Schüler, die sich mit dem Gedanken trugen, ein Studium der Naturwissenschaften aufzunehmen. Der Schüler Andreas M. war 2020 mit 8 Jahren wohl der jüngste Teilnehmer des Astroseminars. Einige Vorträge hatten ihn scheinbar so beeindruckt, dass er eigenständig eine kleine Bilderserie entwarf und sie den Autoren dieses Buchs übermittelte. Zwei seiner Zeichnungen sind deshalb diesem Buch beigefügt (. Abb. 1.1).

4

Kapitel 1 · Vorwort

1

. Abb. 1.1 Die Welt in den Augen eines 8-Jährigen

Sie zeigen, dass Physik ein außerordentlich spannendes und Fantasie beflügelndes Gebiet ist, und das für alle Altersgruppen. Derzeit kann das „Münsteraner Astroseminar“ jedes Jahr mit einer Zahl von 300–500 Besuchern rechnen. Ein Glückwunsch an all die Studierenden, die zu dieser enormen Leistung beigetragen haben ! Dieses Buch soll ein Versuch sein, die Themen, die in den Jahren seit dem Bestehen des Astroseminars angeschnitten wurden, noch einmal Revue passieren zu lassen. Es ist allerdings nicht möglich, die vielen Vorträge im Nachhinein einzeln zusammenzufassen oder zu kommentieren, sodass die Auswahl der Themen in diesem Buch aus dem subjektiven und sehr eingeschränkten Blickwinkel der Autoren erfolgt (. Abb. 1.2). Das Buch beginnt zunächst mit einigen einleitenden Grundlagen zur Methodik der Physik und gibt dann einen kurzen Überblick ob die kosmischen Epochen. Diese werden dann in der Folge detailliert beschrieben, beginnend mit dem „Big Bang“ und der „Kosmischen Inflation“. Hier steht vor allem die Frage im Mittelpunkt, wie zwingend eine solche verblüffende Entwicklungsphase ist, welche nahezu zeitgleich mit dem „Big Bang“ eingeleitet wurde und welche innerhalb einer fast schon grotesk anmutenden Zeit von ca. 10−30 Sekunden wieder abgeschlossen war. Danach taucht es ein in die Phase des „Frühen Universums“ und der „Frühen Element-Synthese“, die etwa einige Mikrosekunden nach dem „Big Bang“ begann und knappe 10 Minuten andauerte. Das Buch beleuchtet dann, wie es zur kosmischen Mikrowellenstrahlung kommt, wie die Elemente in einer SupernovaExplosion entstehen und wie man mit solchen Explosionen, welche für einige Tage mal eben eine ganze Galaxie überstrahlen, eine Eichung der Expansionsgeschwindigkeit des Universums vornehmen kann und dabei ein äußerst überraschendes (und schließlich mit einem Nobelpreis gewürdigtes) Ergebnis erhält. Kapitel mit Abschnitten über Relativität, Schwarze Löcher, Gravitationswellen, kosmische Strah-

5 1.1 · So fing es an

1

lung, Dunkle Materie und über Neutrinos folgen, wobei auch die Frage angeschnitten wird: Wie konnte Leben entstehen und haben Neutrinos, die sich „am Rande der Existenz“ bewegen, etwas damit zu tun? Da der Mensch weder in diesen längst vergangenen Epochen des Universums noch bei den Vorgängen in dessen unbegrenzten Weiten als Zeuge gegenwärtig war, erhebt sich die berechtigte Frage: Woher wei ß man’s, wenn niemand dabei gewesen? Glücklicherweise haben viele dieser vergangenen Ereignisse bis heute fortdauernde Auswirkungen. Diese gilt es im Rahmen der Physik zu verstehen und einzuordnen, um somit ein konsistentes Abbild der Vergangenheit erstellen zu können. Interessanterweise entsteht damit auch gleichzeitig ein Bild über die Zukunft, z. B. über die weitere Entwicklung des Sonnensystems, über das Schicksal von Sternen und Galaxien, und das bis hin zu Epochen, die noch weit entfernt in der Zukunft liegen. Um allerdings zu verstehen, dass „Physik“ nicht eine Ansammlung von Kopfgeburten und Fantasiegebilden in der Vorstellungswelt von Wissenschaftlern ist, halten die Autoren dieses Buchs es zunächst für wichtig, ein wenig Klarheit darüber zu schaffen, was Physik ist und was Physik nicht ist.

. Abb. 1.2 Foto-Reminiszenzen des Astroseminars im großen Hörsaal der Physik

6 Kapitel 1 · Vorwort

1

7

Physik und Erkenntnis

Inhaltsverzeichnis 2.1

Frage: Physik ist – was? – 8

2.2

Antwort: Physik ist – dieses! – 9

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 D. Frekers und P. Biermann, Weltall, Neutrinos, Sterne und Leben, https://doi.org/10.1007/978-3-662-65110-0_2

2

8

2.1

2

Kapitel 2 · Physik und Erkenntnis

Frage: Physik ist – was?

Ja, was denn ...? Hierzu gibt es eine schier endlose Zahl von mehr oder weniger tiefgehenden philosophischen, theologischen oder wie immer auch gearteten, sinnerfüllten Abhandlungen, die versuchen, das Wesen der Naturwissenschaften und die aus ihr erwachsenden Erkenntnisse in ein jeweils passendes Gedankenschema einzubinden. Es ist nicht Ziel dieses Buches, eine Bestandsaufnahme hierzu zu machen. Stattdessen soll hier ein simples, pragmatisches und von theologischen und philosophischen Blickwinkeln unbeeinflusstes Bild gezeichnet werden. Dieses entspricht der täglichen Arbeit von Naturwissenschaftlern, die sich lediglich mit der simplen Frage beschäftigen «Wie passt das alles zusammen?» Hierbei stellt man schnell fest, die Natur ist völlig einfach gestrickt; sie unterhält klare Gesetzmäßigkeiten, die sich mit einiger Intelligenz auch noch äußerst nutzbringend miteinander verbinden und verwerten lassen1 . Im Mittelalter und sogar bis zur Neuzeit hin war genau dies der Stein des Anstoßes, zumindest im christlich-europäischen Kulturraum; das Erforschen von Gesetzmäßigkeiten war als häretisch eingestuft und nicht konform mit göttlicher Lehre2 . Jedoch die Natur offenbart sich uns Menschen freiwillig, von ganz allein und ohne unser Zutun. Keinesfalls schaut der Mensch einem „intelligenten Wesen“ in ungebührlicher oder verbotener Weise in die Karten. Wir werden des Weiteren sogar sehen, dass Prozesse, die sich weit in der Vergangenheit zugetragen haben (z. B. kurz nach dem „Big Bang“ vor 13,8 Mrd. Jahren), eine nachhaltige Wirkung auf die Entwicklung und Beschaffenheit unserer Gegenwart zur Folge haben und auch für die zukünftige Entwicklung von bleibender Relevanz sind. Damit wird es möglich, Vorgänge in vergangenen Epochen vermöge der von der Natur angelegten Gesetzmäßigkeiten detailliert zurückzuverfolgen und nachzuzeichnen. Grundlage hierfür ist die Schaffung von belastbaren und in konsistenter mathematischer Sprache angelegten Beschreibungsmodellen. Diese Modelle müssen sich erschließen lassen allein durch Beobachtungen von Gesetzmäßigkeiten und müssen bereits vom Entwurf her grundsätzlich falsifizierbar, d. h. durch experimentelle Tests (was gleichbedeutend ist mit beobachteten Ergebnissen aus Experimenten) überprüfbar sein. Hierzu gehört insbesondere, dass Modelle in der Lage sind, per mathematischer Schlussfolgerung überprüfbare Voraussagen zu machen. Modelle, die keine überprüfbaren Voraussagen machen oder als Prämisse Dinge beschreiben oder erfinden, die es nicht gibt, sind nicht falsifizierbar und daher unbrauchbar. Ein Beispiel: Ein Modell, welches die Ära vor dem „Big Bang“ beschreibt, hat keine Relevanz, wenn es nicht gleichzeitig und in mathematischer Sprache vorgibt, welches die messbaren Auswirkungen sind. Die in diesem Buch aufgeführten und teilweise spektakulären Szenarien über die Entwicklung unseres Universums basieren deshalb ganz pragmatisch und unemotional auf bekannten physikalischen Gesetzen und etablierten Modellen und sind keine Fantasiegebilde. 1

Ein triviales Beispiel: Kraft erzeugt Bewegungsänderung (das Gesetz); damit kann man sich zielsicher von A nach B bewegen (der Nutzen).

2

Der Leser mag sich z. B. mit der Biografie des letzten Stauferkönigs Friedrich II. (1194–1250) und seiner erstaunlich modernen Sichtweise zur Erkennung von Gesetzmäßigkeiten mittels Beobachtungen und Experimenten befassen.

9 2.2 · Antwort: Physik ist – dieses!

2

. Abb. 2.1 Das Wesen der Physik

Die . Abb. 2.1 fasst das Erstellen von physikalischen Modellen zur Beschreibung der Gesetzte der Natur in einfacher Weise zusammen. In Worten: 1 man starte mit Beobachtungen, 2 man finde Gesetzmäßigkeiten und schaffe ein Modell zu deren Beschreibung in mathematischer Sprache, 3 man mache Voraussagen auf Grundlage des entwickelten Modells, 4 man teste die Voraussagen und überprüfe die Gültigkeit des Modells, 5 man verbessere (z. B. durch weitere Beobachtung und mit besserer Technik) das Modell und starte wieder mit Punkt 2. Ein zentrales Merkmal ist dabei die Einfachheit des Modells, d. h. die Beschränkung auf eine minimale Anzahl von relevanten Parametern. Man erinnere sich an die Vielzahl der natürlich vorkommenden Elemente zusammen mit ihren stabilen Isotopen (ca. 250), die sich letztendlich zusammensetzen aus nur 3 unterschiedlichen Bausteinen, dem Proton, dem Neutron und dem Elektron. Des Weiteren ist die Mächtigkeit eines Beschreibungsmodells gegeben durch seine Fähigkeit, korrekte und überprüfbare Voraussagen zu machen. In dieser Weise haben sich beispielsweise die Quantenmechanik oder auch das Standardmodell der Elementarteilchen etabliert, indem sie bis heute allen experimentellen Prüfungen mit einer erstaunlichen Genauigkeit (teilweise bis in die 15. Dezimalstelle) standhalten konnten. 2.2

Antwort: Physik ist – dieses!

In dem folgenden Abschnitt soll versucht werden, die Argumentation umzudrehen, um herauszustellen, was Physik NICHT ist und was Physik auf keinen Fall leistet. Auch diese Auslassungen sind für das Verständnis dieses Buchs bedeutend, um

10

2

Kapitel 2 · Physik und Erkenntnis

einen kritischen Blick zu den Abläufen in der Vergangenheit oder solchen in großen Entfernungen beibehalten zu können. Die einzelnen Thesen sind: 1 Physik ist beschreibend und NICHT erklärend, 2 Physik beansprucht NICHT Wahrheit, 3 Physik führt NIEMALS Wahrheitsbeweise, 4 Physik ist NIEMALS exakt, 5 Physik beschreibt NICHT Dinge, die NICHT in Erscheinung treten (d. h. Dinge, die es NICHT gibt). In der öffentlichen Wahrnehmung der Naturwissenschaften und insbesondere der Physik werden diese wichtigen Merkmale häufig nicht beachtet oder auch schlichtweg unterschlagen, was dann zu völlig abwegigen Argumentationsketten führen kann. Dass dem so ist, liegt zum großen Teil auch an der teilweise unpräzisen und laxen Sprache der Physiker und Wissenschaftler, wenn sie von «Beweisen» reden, aber «Nachweise» meinen oder von «RICHTIG und WAHR» reden, aber lediglich «RICHTIG im Rahmen der Messgenauigkeit» meinen. Zu beachten ist hier insbesondere der Begriff «im Rahmen der Messgenauigkeit»!! Wir kommen später noch einmal darauf zurück. Dies mag alles ein wenig spitzfindig und philosophisch klingen, deshalb an dieser Stelle etwas mehr Erklärung zu den einzelnen Thesen: These 1: Physik ist beschreibend und NICHT erklärend

Die Gesetzmäßigkeiten der Natur, welche sich in der Physik manifestieren, sind die Grundlagen dafür, dass ein Wesen, insbesondere ein intelligentes Wesen, sich einen Plan erstellen kann, um sich in der Natur zurechtzufinden. Bereits ein Kleinkind beginnt mit der Erstellung eines solchen Plans, um Bewegungsabläufe zu verstehen und zu koordinieren. Es macht dies mühelos und ohne die Mathematik, einzig allein durch Experimentieren, durch Beobachten und durch Kommunizieren. Später kommt die Mathematik ins Spiel, mit deren Hilfe physikalische Vorgänge modellhaft beschrieben werden können. Die Mathematik ist dabei lediglich ein Hilfsmittel oder, wenn man so will, die Sprache, in der Modelle/Gesetzmäßigkeiten untereinander kommuniziert werden (also z. B. zurückgelegter Weg = Geschwindigkeit × Zeit) und logisch miteinander verknüpft werden. Die Physik erhebt dabei nicht den Anspruch, irgend etwas zu erklären, sie beschreibt lediglich die Dinge in dem für den Menschen relevanten Lebensbereich, um damit verifizierbare und belastbare Voraussagen erstellen zu können. Eine Erklärung, warum die Dinge so sind, wie sie sind, und nicht anders, ist für den Plan nicht von Bedeutung. Wichtig bleibt aber, dass ein Modell sich einfügt in ein in sich geschlossenes einheitliches und einfaches Gesamtmodell der Natur, oder anders formuliert, für die Physik ist die Natur inhärent simpel und inhärent gesetzmäßig, oder im Umkehrschluss salopp formuliert, es ist unphysikalisch, für jeden Regenbogen auf der Wiese oder für jede Sternschnuppe am Himmel ein eigenes Modell konstruieren zu wollen. Partikularmodelle oder auch die Abkehr von Gesetzmäßigkeiten sind für Voraussagen und Planerstellungen unbrauchbar. «Wunder gibt es immer wieder», so ertönte es einst, diese gehören jedoch nicht in den Bereich voraussagbarer physikalischer Gesetzmäßigkeiten, aber sie werden

11 2.2 · Antwort: Physik ist – dieses!

2

auch nicht von der Physik negiert. Dafür gibt es kein Mandat. Die Physik steht deshalb nicht im Konflikt mit Religions- und Glaubensfragen. These 2: Physik beansprucht NICHT Wahrheit

Es ist ebenfalls nicht von Bedeutung, dass ein Beschreibungsmodell ultimativ richtig und wahr ist. Einzig von Bedeutung ist, dass es im Rahmen der für «mich» relevanten Genauigkeit vernünftige Voraussagen machen kann, um somit ein Fortschreiten und einen Fortschritt bzw. eine sinnvolle Planung zu ermöglichen. Dieses gilt bis zu dem Zeitpunkt, wenn sich Schwächen des Modells herausstellen, welche dann Verbesserungen bzw. Erweiterungen erfordern. Nehmen wir als ein einfaches Beispiel den legendären und immer wieder benutzten Newton’schen Apfel, welcher angeblich im Jahr 1666 Newton auf den Kopf fiel. Aus dieser Apfel-Anekdote (nein – nicht ganz richtig, es war die „Philosophiae Naturalis Principia Mathematica“) entfaltete sich das theoretische Modell der Newton’schen (oder klassischen) Mechanik, welches die Grundlage aller Bewegungsvorgänge auf der Erde (und darüber hinaus) ist. Es beschreibt diese mit einer beachtlichen Präzision, verifiziert durch eine schier unendliche Zahl von experimentellen Erfahrungen. Kommt die Strömungslehre von Bernoulli hinzu in einer Weise, dass Newton und Bernoulli ineinandergreifen, dann kann man sogar Flugzeuge zum Fliegen bringen. Die Newton’sche Mechanik scheint also die ultimative Wahrheit darzustellen – leider völlig falsch! Mit der Möglichkeit immer genauerer Experimentiertechniken in den letzten 50–100 Jahren taten sich immer mehr Diskrepanzen zwischen Experiment und klassischer Voraussage auf. Abhilfe schaffte erst die mit dem Namen Einstein verbundene und mathematisch recht anspruchsvolle Allgemeine Relativitätstheorie. Sie wurde entwickelt, einzig um der experimentell beobachteten Konstanz der Lichtgeschwindigkeit Rechnung zu tragen. Die Allgemeine Relativitätstheorie reduziert sich in eleganter Weise auf die Newton’sche Mechanik im Grenzfall eines sogenannten «kleinen Labors», was auch heißt, sie ist kein Partikularmodell. Ein «kleines Labor» ist immer dann realisiert, wenn die Krümmung der Raum-Zeit in dieser «kleinen-Labor»-Umgebung auf die relevanten Messergebnisse und Planerstellungen einen vernachlässigbaren Effekt hat, was praktisch für alle Bewegungsvorgänge auf der Erde der Fall ist. Ist höchste Präzision gefordert, z. B. für das Global Positioning System (GPS), für die Bestimmung eines Zeit-Normals (wichtig für den digitalen Funkverkehr, sprich «Handy») oder für die SatellitenNavigation, dann ist die Krümmung der Raum-Zeit aufgrund unterschiedlicher Massenverteilungen erheblich und muss berücksichtigt werden. Die Konstanz der Lichtgeschwindigkeit ist in der einfachen menschlichen Denkweise nicht intuitiv, sie wird aber zunächst als solche beobachtet. Die Genauigkeit, mit der die Allgemeine Relativitätstheorie der experimentellen Überprüfung standhält, ist schlichtweg beeindruckend. Es gibt bis heute keinen Hinweis, ab welcher Stelle hinter dem Komma diese Theorie durch eine noch weitergehende oder noch allgemeinere Theorie zu ersetzen wäre. Es erhebt sich die Frage: Ist diese Theorie nun die wahre und richtige Theorie, oder andersherum, ab welcher Stelle hinter dem Komma beginnt denn nun die Wahrheit? Die Antwort erübrigt sich, denn auch die Allgemeine Relativitätstheorie hat mindestens eine ungelöste, inhärente und gravierende Schwachstelle. Sie ist divergent in der Nähe eines Schwarzen Lochs,

12

2

Kapitel 2 · Physik und Erkenntnis

d. h., in dem Beschreibungsmodell treten an der Grenze zum Schwarzen Loch Unendlichkeiten auf. Gleiches passiert zum Zeitpunkt des „Big Bang“. Unendlichkeiten sind aber schlicht unphysikalisch. Beim (fiktiven) Übergang von einer Endlichkeit in eine Unendlichkeit und umgekehrt wird die Kausalität verletzt, d. h., es werden zeitliche Abfolgen durcheinandergeworfen bzw. auch ganz aufgelöst. Alles ist und bleibt für immer unendlich. Natürlich gibt es weitere Disziplinen in der Physik, wie die Elektrodynamik (Schlagworte: Strom, Fernseher), Thermodynamik (Schlagworte: Temperatur, Leben), Hydrodynamik (Schlagworte: Wetter, Flugzeug) und insbesondere auch die Quantenmechanik (Schlagworte: Atom, Computer). Sie alle greifen in eleganter Weise konsistent ineinander und beschreiben im engen Zusammenspiel miteinander die natürlichen Vorgänge, und das mit erstaunlicher Präzision. Auf der Grundlage dieses Zusammenspiels konnten sich im Laufe der Zeit auch weiter entfernte Bereiche wie die Chemie, die Biologie oder die Medizin als eigenständige Disziplinen manifestieren. Allen ist gemein, dass sie natürliche Vorgänge lediglich beschreiben, teilweise nicht einmal deterministisch, sondern nur aufgrund von Wahrscheinlichkeiten, was in besonders ausgeprägter Weise für die Thermodynamik und die Quantenmechanik der Fall ist. Eine Wahrheit unterliegt aber nicht einer Wahrscheinlichkeit. Die Tatsache, dass die Quantenmechanik physikalische Phänomene nicht deterministisch beschreibt, muss zunächst einmal so hingenommen werden. Offensichtlich scheint die Natur mit ihren eigenen Gesetzmäßigkeiten zu spielen, oder liegt es vielleicht daran, dass auf kleinsten Skalen die üblichen Definitionen von Zeit und Ort nicht mehr greifen? Eine Antwort darauf gibt es bis dato nicht. Unabhängig davon besteht die Quantenmechanik alle Prüfungen; sie etabliert sich somit als ein extrem brauchbares Beschreibungsmodell. These 3: Physik führt NIEMALS Wahrheitsbeweise

Dies ist wahrscheinlich die wichtigste Aussage zu dem, was Physik NICHT ist, auch deshalb weil sie sowohl in einschlägigen Diskussionen als auch in philosophischen Abhandlung am häufigsten ignoriert und unterschlagen wird. Die Physik kann NIEMALS Wahrheitsbeweise führen, dies ist schlicht unmöglich. Die Physik, die physikalischen Erkenntnisse sowie der sich daraus entwickelnde Fortschritt sind immer verbunden mit Messungen und Messergebnissen. Jede Messung und jedes Messergebnis ist aber fehlerbehaftet. Eine Messung ohne Fehler ist nicht denkbar. Im Umkehrschluss ist die Angabe eines Messergebnisses ohne eine Abschätzung des Messfehlers ebenfalls unbrauchbar. In jeder technischen Zeichnung sind Toleranzen angegeben. Ohne diese Angabe wird kein Techniker oder Ingenieur je anfangen, ein Werkstück zu konstruieren. Nun muss nicht jede triviale Angabe wie Tagestemperatur, Größe eines Areals, Geschwindigkeit, benutzte Energie im Privathaushalt, Inhaltsangaben in Lebensmittel, oder was man sich sonst im täglichen Leben noch vorstellen mag, mit einer Fehlerangabe versehen werden – das wäre, solange es sich nicht um Präzisionsangaben handelt, unsinnig, im technischen und wissenschaftlich-physikalischen Bereich ist diese Angabe jedoch unerlässlich. Man kann These 3 anhand eines Beispiels noch pointierter formulieren. In der idealen Welt der Mathematik lernen wir (meistens in der Schule), dass Parallelen sich im Unendlichen schneiden. Gibt es einen Lehrer, der die Parallelität auch

13 2.2 · Antwort: Physik ist – dieses!

2

nur über eine Länge von 10 Metern experimentell überprüft hätte? Offensichtlich erscheint uns dies als intuitiv so sinnvoll, dass man sich gar nicht erst die Mühe machen müsste dies zu überprüfen. Carl Friedrich Gauß (1777–1855), auf den wir später noch einmal zurückkommen, hatte dieses Dogma für die reale Welt bereits im frühen 19. Jahrhundert in Zweifel gezogen, aber leider reichte seine Messgenauigkeit nicht aus, um Abweichungen zu erkennen. Des Weiteren, in der idealen Welt der Mathematik lernen wir, dass der Umfang eines Einheitskreises 2π ist. In der realen Welt ist dieses Ergebnis wegen der unendlichen Zahlenreihe von π durch eine Messung überhaupt nicht beweisbar und auch sicher nicht korrekt. Die bloße Anwesenheit einer Masse hat zwangsläufig eine Krümmung des Raums zur Folge, was bereits auf der Erde zu einer Diskrepanz in der 10. Stelle hinter dem Komma führt – ein Rieseneffekt, wenn man bedenkt wie viele Stellen noch folgen, jedoch völlig vernachlässigbar für die meisten Dinge in unserem «kleinen Labor» Erde. Und man stelle sich nun vor, wie viele physikalische Formeln solche transzendenten Zahlen wie die Zahl π oder die Euler’sche Zahl e enthalten. These 4: Physik ist NIEMALS exakt

Dies ist nahezu gleichbedeutend mit der obigen These 3. Physik findet immer statt in einer realen Welt. Die Mathematik ist dabei die Sprache, in der die Physik (im Rahmen von Theorien und Modellen) einheitlich und allgemein verständlich kommuniziert und quantifiziert wird, wobei sie diese aber immer und grundsätzlich idealisiert beschreibt. Fortschritt in der realen Welt der Physik ist ohne die Sprache der Mathematik nicht denkbar, und in der Tat ist die Physik sogar eine treibende Kraft für die nach wie vor fortschreitende Entwicklung der Mathematik. Die Mathematik begreift sich als exakte Wissenschaft, und lässt man erkenntnistheoretische Spitzfindigkeiten mal beiseite, so ist dies richtig und sinnvoll. Die Logik der Mathematik basiert immer auf bestimmten Voraussetzungen, und diese werden in mathematischen Schlussfolgerungen (d. h. Beweisen) immer und ausnahmslos vorangestellt. Die im vorliegenden Fall gemachte Voraussetzung dafür, dass der Umfang eines Einheitskreis 2π beträgt, ist die euklidische Geometrie oder die «Flachheit» des Raums. Natürlich kann man den Umfang eines Kreises prinzipiell in jeder gekrümmten Geometrie mathematisch berechnen, es ändert aber nichts an dem grundsätzlichen Unvermögen, mittels einer inhärent messfehlerbehafteten Messung eine ganz bestimmte theoretische Voraussetzung quantitativ herauszupräparieren und diese als Ultima Ratio zu verwahrheitlichen.

These 5: Physik beschreibt „NICHT“ Dinge, die es „NICHT“ gibt

Diese in sich amüsante Forderung ist eigentlich selbstverständlich. Wie sollte man Dinge beschreiben, die es nicht gibt, was für neue Erkenntnisse wären damit zu gewinnen und vor allem, welche Modelle ließen sich erstellen und welche überprüfbaren Voraussagen sollten diese machen, oder auch welche technologischen Fortschritte ließen sich aus der wie immer gearteten Beschreibung von Dingen, die es nicht gibt, ableiten? Dennoch gibt es immer wieder skurrile Argumente, mit denen versucht wird, die wissenschaftliche Forschung als angeblich unfähig und erkenntnislos zu

14

2

Kapitel 2 · Physik und Erkenntnis

diskreditieren. Natürlich kann die Physik nicht beweisen, dass es keine unsichtbaren3 Teekannen gibt, die um die Erde kreisen. Im Umkehrschluss deshalb auf deren mögliche Existenz zu schließen ist jedoch skurril und abwegig. Natürlich kann die Wissenschaft nicht beweisen, dass es die schützende Wirkung gegen Masern oder Windpocken nicht gibt, wenn man sich um Mitternacht bei Vollmond auf eine Wiese legt. Im Umkehrschluss eine solche Schutzwirkung zu prognostizieren, nur weil man bislang noch keine Windpocken bekommen hat, ist ebenfalls abwegig und wirklichkeitsfremd. Varianten dieser Argumentationsketten gibt es zuhauf. Sie stellen eine Abkehr von Gesetzmäßigkeiten her und bringen uns in die Abstrusität bzw. zurück in längst vergangene Zeiten von Mystik und Aberglauben4 . Allerdings gibt es in der Physik durchaus sogenannte Null-Experimente. Das vielleicht bekannteste dieser Art ist das Michelson-Morley-Experiment (1881 und 1887), welches bis in die heutige Zeit mit immer verfeinerten Techniken wiederholt wird. Ziel war es, und ist es nach wie vor, die Bewegung der Erde relativ zu einem vermeintlichen Äther, welcher als Träger der Lichtwellen vermutet wurde, festzustellen. Die Lichtgeschwindigkeiten in und entgegen der Bewegungsrichtung der Erde sollten bei Vorhandensein eines Trägers unterschiedlich sein. Alle Experimente erzielten „im Rahmen der Messgenauigkeit !!“ Null-Resultate. Heute gelten diese Experimente als Test der sogenannten Lorentz-Invarianz oder auch als Test der Konstanz der Lichtgeschwindigkeit in einem sich gleichförmig bewegten System. So können derzeit relative Abweichungen der Lichtgeschwindigkeit c/c in der Größenordnung von 10−17 experimentell ausgeschlossen werden, in „Noch-Übereinstimmung“ mit der Relativitätstheorie, welche dafür den Wert Null vorhersagt5,6 .

3 4 5

Im Sinne von „nicht-wechselwirkenden“. Hier soll nicht von Placebo-Effekten die Rede sein; sie sind wissenschaftlich durchaus fundiert. Ch. Eisele, et al., Laboratory Test of the Isotropy of Light Propagation at the 10−17 level, Physical Review Letters 103, 090401 (2009).

6

S. Herrmann, et al., Rotating optical cavity experiment testing Lorentz invariance at the 10−17 level, Physical Review D 80, 105011 (2009).

15

Messgrößen ←→ Größenordnungen

Inhaltsverzeichnis 3.1

Distanzen – 16

3.2

Energien – 17

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 D. Frekers und P. Biermann, Weltall, Neutrinos, Sterne und Leben, https://doi.org/10.1007/978-3-662-65110-0_3

3

16

3.1

3

Kapitel 3 · Messgrößen ←→ Größenordnungen

Distanzen

Distanzen werden gemessen in Metern (m), Kilometern (km), und – beschränkt man sich auf ganz große Distanzen – in Lichtjahren (Lj) und Parallaxensekunden (pc – häufig auch als „Parsec“ angegeben). Meter und Kilometer sind vorstellbare Größen. Bei einem Lichtjahr, welches die Strecke ist, die das Licht in einem Jahr zurücklegt, verschwindet allmählich die Vorstellungskraft, insbesondere dann, wenn man eine solche Entfernung auch noch in Kilometern ausdrücken will. Hier ist eine einfache Umrechnung von einem Lichtjahr in Kilometer dargestellt: 1 Jahr  π × 107 s Lichtgeschwindigkeit  300.000 km/s damit:1 Lichtjahr  π × 107 × 300.000  9,42 × 1012 km  1013 km Nun hat 1 Jahr nicht exakt π × 107 Sekunden, sondern 3,155 760 0 ×107 Sekunden (denn ein Jahr hat nun wirklich nichts mit π zu tun) und die Lichtgeschwindigkeit ist auch nicht 300.000 km/s, sondern 299.792,458 km/s (siehe Fußnote1 ). Damit ist der genaue Wert eines Lichtjahrs 9,460 730 472 580 800 ×1012 km, was jedoch eine völlig unhandliche Zahl ist. Der Unterschied zwischen diesem und dem ersteren Wert von 9,42 × 1012 km ist gerade einmal 1,5 Lichttage, also in etwa von der Größe des Sonnensystems. Die heutigen Messgenauigkeiten bei kleinen Entfernungen (d. h. kleiner als 1000 Lichtjahre) übertreffen diesen Wert, bei größeren Entfernungen (ab etwa 10.000 Lichtjahre) spielt dieser Unterschied und auch der 5 %-Unterschied zwischen einem Lichtjahr und dem noch gröber abgeschätzten Wert von 1013 km eine zunehmend untergeordnete Rolle. Die Parallaxensekunde (pc) hat ihren Ursprung in der beobachtenden Astronomie. Sie ist definiert als die Entfernung, in der die Halbachse der Erdumlaufbahn um die Sonne (also ca. 149,598 Mio. km) unter einem Winkel (Parallaxe) von einer Bogensekunde (1  ) erscheint, oder andersherum, man sieht Fixsterne in dieser Entfernung innerhalb eines Halbjahres vermeintlich um 1  wandern. Die Umrechnung auf Lichtjahre ergibt 1 pc  3,2616 Lj  30,9 × 1012 km mit: 1000 pc = 1 kpc, 1000 kpc = 1 Mpc, 1000 Mpc = 1 Gpc Man kann diesen Winkel auch auf eine etwas leichter vorstellbare Bezugsgröße abbilden, nämlich als den Durchmesser eines menschlichen Haars im Abstand von ca. 20 Metern. Heutige astronomische Instrumente (z. B. die Raumsonde Gaia) besitzen eine Winkelauflösung entsprechend dem Durchmesser eines menschlichen Haars im Abstand von ca. 2 km oder 0,01  . Damit lassen sich durch einfache Triangulation Entfernungen von Sternen bis etwa 100 pc (≈ 300 Lj) und mit einigen Tricks 1

Aus praktischen Gründen ist von der „International Astronomical Unit (IAU)“ das Jahr mit 365,25 Tagen festgelegt. Ferner, der Wert der Lichtgeschwindigkeit ist ein definierter Wert und trägt deshalb keinen Messfehler – warum man diese etwas unhandliche Zahl genommen hat und nicht den Wert 300.000 km/s, ist eine andere Geschichte.

17 3.2 · Energien

3

Milchstraße

hier ungefähr Sonnensystem

. Abb. 3.1 Milchstraße

und für ausgewählte Objekte sogar bis zu 5000 pc bestimmen. Der uns nächstgelegene Stern Proxima Centauri hat bereits eine Parallaxe von nur 0,772  (entsprechend einem Abstand von 4,224 Lj oder 1,285 pc), was an dieser Stelle bereits zeigt, dass der Bereich von 300 Lj um das Sonnensystem herum nur einen winzigen Teil der gesamten Milchstraße ausmacht (. Abb. 3.1). Diese hat im sichtbaren Spektrum einen Durchmesser von ca. 200.000 Lj (ca. 60.000 pc), im Außenbereich eine Höhe von ca. 3000 Lj (ca. 900 pc) und im Innenbereich eine Höhe von ca. 20.000 Lj (ca. 6000 pc). In ihr tummeln sich etwa 200 Milliarden Sterne. In der Mitte (ca. 27.000 Lj von uns entfernt) befindet sich ein Schwarzes Loch (Sagittarius A*) mit einer Masse von ziemlich genau 4,2 Millionen Sonnenmassen und einem Durchmesser von ca. 25 Mio. km, was etwa 83 Lichtsekunden entspricht. Um Entfernungen von weiter entfernten Objekten und auch von solchen außerhalb der Milchstraße einigermaßen sicher bestimmen zu können, muss man auf andere Methoden zurückgreifen. Diese werden uns später in diesem Buch noch begegnen.

3.2

Energien

Energien werden gemessen in Wattsekunden (Ws), Joule (J) und Elektronenvolt (eV). Hierbei sind Wattsekunde und Joule ein und dasselbe. Häufig sieht man auch Newtonmeter (Nm) als Einheit für Energie oder Arbeit, allerdings wird Newtonmeter eher als Einheit für das Drehmoment verwandt, aber Vorsicht, das Drehmoment (als vektorielle Größe) ist trotz gleicher Einheit nicht identisch mit der skalaren Größe Energie.

18

3

Kapitel 3 · Messgrößen ←→ Größenordnungen

Im kosmologischen Bereich begegnet man der Einheit Wattsekunde relativ selten. Befasst man sich allerdings mit großen und kompakten Objekten und deren Bewegungen (z. B. Planeten, Sonnen, Galaxien), dann sind Wattsekunden und Joule (oder manchmal sogar die veraltete Einheit erg = 10−7 Ws) gebräuchlicher, vielleicht auch deswegen, weil sie sich leichter abbilden lassen auf Dinge, die uns im täglichen Leben begegnen (z. B. werden Stromrechnungen in Kilowattstunden (kWh) abgerechnet). Um einen Größenordnungsvergleich anzustellen, nehmen wir einen Meteoriten von ca. 500.000 Tonnen (d. h., ein solches Objekt hat immer noch einen recht bescheidenen Durchmesser von 50–100 Metern). Objekte dieser Größenordnung kollidieren mit der Erde im Mittel etwa alle 1000 Jahre. Treffen diese Objekte von der sonnenabgewandten Seite auf die Erde, dann haben sie typischerweise Geschwindigkeiten von ca. 50–60 km/s, sodass bei Kollisionen Energien von etwa 170 × 109 kWh freigesetzt werden. Das entspricht ungefähr 5 % des Gesamtenergieverbrauchs in Deutschland pro Jahr (2017 mit 3,8 × 1012 kWh angegeben2 ) – allerdings mit einem entscheidenden Unterschied: In einer solchen Kollision wird die Energie in wenigen Sekunden freigesetzt. Jeder mag nun für sich selbst ausrechnen, mit welchen Größenordnungen man konfrontiert wird, wenn zwei Neutronensterne jeweils von der Masse der Sonne mit Kollisionsgeschwindigkeiten, die bis nahe an die Lichtgeschwindigkeit reichen, aufeinandertreffen. In der . Tab. 3.1 sind mögliche Szenarien von Meteoriten-Einschlägen unterschiedlicher Größe und deren geschätzte Häufigkeiten und Auswirkungen zusammengefasst. Um mit diesen Zahlen eine Vorstellung zu verbinden, sind einige der bekanntesten Meteoriten-Einschläge kurz zitiert. Der Meteorit von Tscheljabinsk schlug am 15. Februar 2013 um etwa 9:20 h Ortszeit ein und ist ein Ereignis, welches durch eine Vielzahl von Video-Aufnahmen festgehalten wurde. Aus der Zerstörungsenergie konnte auf dessen Masse von etwa 12.000 Tonnen und dessen Durchmesser von ca. 20 Metern geschlossen werden. Es handelte sich dabei um einen Steinmeteoriten mit einer mittleren Dichte von ca. 3,3 g/cm3 , welcher von der sonnenzugewandten Seite die Erde mit einer relativ geringen Geschwindigkeit von ca. 20 km/s traf. Bilanz: 3700 Gebäudeschäden durch Druckwelle, ca. 1500 Verletzungen. Das Tunguska-Ereignis am 30. Juni 1908 in der heutigen Region Krasnojarsk ist wahrscheinlich ebenfalls auf einen Einschlag eines Steinmeteoriten zurückzuführen. Sein ungefährer Durchmesser könnte in der Größenordnung von 30–80 Metern gelegen haben. Da es keinen Krater gab, muss dieses Objekt wohl in der höheren Atmosphäre (ungefähr 10 Kilometer) explosionsartig auseinandergebrochen sein. Dieses Szenarium lässt sich sowohl aus den (allerdings wenigen) Augenzeugenberichten als auch aus den angerichteten Verwüstungen, welche sich über ein Areal von fast 2000 km2 erstreckten, ableiten. Ein insgesamt schlüssiges Bild über die Abfolge dieses Ereignisses lässt sich aber bis heute noch immer nicht zusammenstellen. Der Barringer-Krater in Arizona (. Abb. 3.2) geht auf einen Meteoriteneinschlag vor ungefähr 50.000 Jahren zurück. Der Meteorit hatte einen Durchmesser von ca. 45 Metern, wog ca. 300.000 Tonnen und bestand vornehmlich aus Eisen. 2

Bundesministerium für Wirtschaft und Energie

19 3.2 · Energien

3

. Tab. 3.1 Szenarien von Einschlägen kompakter Objekte auf den Planeten Erde, übernommen und adaptiert aus: The Impact Hazard, Essay von David Morrison, Clark R. Chapman und Paul Slovic in Hazards due to Comets and Asteroids, University of Arizona Press, 1994. Die angegebenen Dichten beziehen sich auf Steinmeteoriten (ca. 3 g/cm3 ) und Eisenmeteoriten (ca. 5 g/cm3 ), wobei Letztere eine höhere Wahrscheinlichkeit besitzen, in nahezu kompakter Form die Erdoberfläche zu erreichen

Er schlug mit einer eher geringen Geschwindigkeit von etwa 15–30 km/s auf und hinterließ einen 1,2 km großen und 170 m tiefen Krater. Der Meteorit, der vor 14,6 Mio. Jahren das Nördlinger Ries im heutigen Gebiet zwischen Schwäbischer und Fränkischer Alb erzeugte, dürfte einen Durchmesser von etwa 1,5 km gehabt haben und mit einer Geschwindigkeit von etwa 50 km/s eingeschlagen sein. Er erzeugte einen Krater von etwa 25 km Durchmesser mit einer Tiefe von ungefähr 500 m (. Abb. 3.3). Von einem der spektakulärsten und für die Artenentwicklung auf unserer Erde zweifellos folgenschwersten Einschläge zeugt der im Jahr 1991 entdeckte Chicxulub-Krater nahe der Halbinsel Yukatan in Mexiko (. Abb. 3.4). Dieser Einschlag datiert ziemlich genau zurück auf etwa 66,04 Mio. Jahre und leitete nach heutigem Kenntnisstand das abrupte Ende der fast 200 Mio. Jahre andauernden Ära der Dinosaurier ein. Er führte in kürzester Zeit zu einem globalen Artensterben, dem vermutlich 70–75 % aller vorhandenen Arten auf der Erde zum Opfer fielen. Die klimatischen Nachwirkungen dauerten fast 100.000 Jahre und waren bestimmt durch zunächst mehrere Jahrzehnte globalen Winters mit einem Temperatursturz von fast 30 Grad und dem nahezu vollständigen Erliegen der Fotosynthese, sowie in der Folgezeit durch globales Treibhausklima. Der globale Winter ver-

20

Kapitel 3 · Messgrößen ←→ Größenordnungen

3

. Abb. 3.2 Der Barringer-Krater

0

10

km 20

Stuttgart ~100 km

300 400 500 600 700 800 m Quelle: San Jose, CC BY-SA 3.0, adaptiert

. Abb. 3.3 Der Nördlinger-Ries-Krater

USA Golf von Mexiko

Kuba Mexiko

Einschlag vor Yukatan

. Abb. 3.4 Gebiet des Chicxulub-Kraters

bunden mit anhaltender Dunkelheit war durch die enorme Menge an Mikropartikeln verursacht, die in die gesamte Atmosphäre eingetragen wurden, und nachdem diese langsam wieder zur Erde zurückfielen, verursachte die gleichzeitig eingetra-

21 3.2 · Energien

3

gene große Menge an CO2 den nachfolgenden Treibhauseffekt3,4,5 . Die Kratertiefe unmittelbar nach dem Einschlag betrug ca. 30–35 km, und zusammen mit dem Kraterdurchmesser von 166 km ließen sich die Ausmaße des Meteoriten oder Asteroiden auf etwa 10–15 km, die Einschlagsgeschwindigkeit auf etwa 20–40 km/s und die Impaktenergie auf etwa. 1024 J (oder einigen 1017 kWh) abschätzen, was ungefähr dem 1000-fachen des derzeitigen Welt-Energieverbrauchs pro Jahr entspricht. Diese Beispiele sollen zeigen, dass man bei astronomischen und kosmologischen Skalen, die für die hier beschriebenen Ereignisse ja noch längst nicht erreicht sind, schnell den Überblick über Zehnerpotenzen verliert. Man könnte jetzt vermuten, dass, ähnlich wie bei den vorher diskutierten Distanzen, auch für Energien neue Skalen definiert werden, die den enormen Größenordnungen angepasst sind, um sie somit leichter mit einfachen Vorstellungen in Zusammenhang zu bringen. Das Elektronenvolt als Energie-Skala geht aber genau den umgekehrten Weg und definiert eine Mikro-Skala auf der Basis von Atomen und Elementarteilchen. Dass dies für das Verständnis kosmologischer Zusammenhänge dennoch sinnvoll ist, soll im nächsten Abschnitt beleuchtet werden. Elektronenvolt

Das Elektronenvolt (eV) ist die Energie, die ein geladenes Teilchen (z. B. ein Elektron) erhält, wenn es eine elektrische Spannungsdifferenz von einem Volt (1 V) durchläuft. Da diese Energie einer kinetischen Bewegungsenergie entspricht (d. h. E = 21 mv 2 ), kann diese Definition natürlich auch auf nichtgeladene Teilchen (z. B. Neutrinos), welche ihre Energie über andere, nicht-elektrische Prozesse bekommen, problemlos übertragen werden. Die Ladung eines Elektrons ist e0 = −1, 602 176 62... × 10−19 AmpereSekunden (As) (oder Coulomb, Cb), sodass nach Durchlaufen einer Spannungsdifferenz von 1 V das Elektron eine Energie von E = 1, 602... × 10−19 Ws (oder J) aufgenommen hat. Um sich in dieser neuen Skala zurechtzufinden, gilt grob: Atomphysikalische Prozesse liegen energetisch im Bereich eV–keV, kernphysikalische Prozesse im Bereich keV–MeV und Elementarteilchenprozesse im Bereich GeV und größer. Ein Elektron, welches ungehindert eine Spannungsdifferenz von 1 V durchläuft, hat bereits eine erstaunliche Geschwindigkeit von ungefähr 600 km/s. Ein etwa 1800-mal schwereres Wasserstoffatom hat bei 1 eV immer noch eine Geschwindigkeit von ungefähr 14 km/s und ein Eisenatom 1,8 km/s. Diese Geschwindigkeiten sind von etwa derselben Größenordnung, wie sie im vorangegangenem Abschnitt bereits vorgekommen sind. Das zeigt auch, dass die Energie eines der o. g. Meteoriten auf einer mikroskopischen Skala (d. h. die Energie pro Atom) eigentlich recht klein ist, und nur durch den kollektiven Effekt, d. h. durch die Summe der Ener-

3 4 5

D. S. Robertson et al., K-Pg extinction: Reevaluation of the heat-fire hypothesis, Journal of Geophysical Research, Biogeosciences 118, 329 (2013). J. Brugger et al., Baby, it’s cold outside: Climate model simulations of the effects of the asteroid impact at the end of the Cretaceous, Geophysical Research Letters 44, 419 (2017). Man darf darüber sinnieren, wie die Artenvielfalt unserer Erde heute aussähe, hätte es diesen Einschlag nicht gegeben. In Anbetracht der 200 Mio. Jahre andauernden Ära der Dinosaurier hätte sich deren Herrschaft in der recht kurzen Zeit von weiteren 66 Mio. Jahren bis heute sicherlich kaum verändert.

22

3

Kapitel 3 · Messgrößen ←→ Größenordnungen

gien aller beteiligten Teilchen, deren Anzahl in der Größenordnung von 1030 –1040 liegt, wird der makroskopische und auch kataklysmische Effekt erreicht. Wichtig ist hier das kollektive Zusammenspiel, denn betrachtet man z. B. ein Gas wie Wasserstoff oder Luft bei Zimmertemperatur, so haben die Gasmoleküle im Fall von Wasserstoff (H2 ) eine mittlere Geschwindigkeit von immerhin auch 1,9 km/s und im Fall von Luft von ungefähr 0,5 km/s (siehe Fußnote6 ). Diese erzeugen lediglich den permanenten Druck des Gases, und solange der Druck ausgeglichen ist, gibt es keine zerstörende Wirkung.

6

Die mittlere Geschwindigkeit v =

 v 2  folgt aus der kinetischen Gastheorie und lässt sich leicht

2 ausrechnen über die Beziehung 23 kB T = 21 Mv 2  = 21 Mc2 v2  = 21 Mc2 β 2  mit der Boltzmannc Konstante kB = 8, 617 330... × 10−5 eV/K, der Temperatur T = 295 K (Zimmertemperatur) und der Molekül/Atom-Masse Mc2 = A × 931.494.095 eV, wobei A die Massenzahl ist (z. B. H2  2, N2  28, O2  32, Luft  28,8). Der Umrechnungsfaktor 931.494.095 folgt aus der relativistischen Energie-Masse-Beziehung E = mc2 . Die Größe β ist die Geschwindigkeit in Einheiten der Lichtgeschwindigkeit c. Mithilfe der Gastheorie lassen sich daraus auch die Flächenstoßraten ausrechnen, die für Wasserstoffgas bei Zimmertemperatur und Normaldruck bei etwa 6 × 1027 Stöße pro Quadratmeter und Sekunde und bei Luft bei etwa 1×1026 Stöße pro Quadratmeter und Sekunde liegen.

23

Eine kurze Reise ins Reich der elementaren Teilchen

Inhaltsverzeichnis 4.1

Quarks und Leptonen – 24

4.2

Die Wechselwirkungen – 26

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 D. Frekers und P. Biermann, Weltall, Neutrinos, Sterne und Leben, https://doi.org/10.1007/978-3-662-65110-0_4

4

24

4.1

4

Kapitel 4 · Eine kurze Reise ins Reich der elementaren Teilchen

Quarks und Leptonen

Von Mitte der 1970er-Jahre an erlebte die Elementarteilchenphysik einige ihrer größten und für das Verständnis der Naturkräfte und des inneren Zusammenhalts der Materie wichtigsten Entdeckungen. An den großen Experimentier-Anlagen wie DESY/HERA in Hamburg, SLAC an der Stanford University in Kalifornien, CESR an der Cornell University in Ithaca im Bundesstaat New York und CERN1 in Genf gelang es, die innere Struktur der Nukleonen aufzuschlüsseln und die Feld-Teilchen, welche die „starken“ und „schwachen“ Kräfte vermitteln, sichtbar zu machen. Damit war ein bedeutsamer Schritt getan, um der Wechselwirkung und der Struktur des Universums zum Zeitpunkt der Entstehung (siehe folgendes 7 Kap. 5) ein Stück weit näher zu kommen. Die . Abb. 4.1 zeigt die Grundbausteine der Materie in vereinfachter Form, wie diese derzeit sichtbar und erkennbar ist. Die sogenannte „hadronische“ (vornehmlich stark wechselwirkende) Materie besteht aus Quarks2 , während die „leptonische“ (vornehmlich schwach wechselwirkende) Materie aus den geladenen Leptonen (Elektron, Myon und Tauon) und ihren ungeladenen Partnern, den Neutrinos, besteht. Die Quarks ordnen sich in drei Familien (oder Generationen) an, den „up“artigen Quarks, bestehend aus dem „up“-Quark u, dem „charm“-Quark c und dem „top“-Quark t, sowie den „down“-artigen Quarks, bestehend aus dem „down“Quark d , dem „strange“-Quark s und dem „bottom“- oder auch „beauty“-Quark b. Die „up“-artigen Quarks tragen die elektrische Ladung + 23 und die „down“artigen die elektrische Ladung − 13 , jeweils in Einheiten der Elementarladung e0 . Damit unterliegen die Quarks auch der «elektromagnetischen» Wechselwirkung. Die Leptonen e− , μ− , τ − tragen die Ladung −1 (ebenfalls in Einheiten der Elementarladung), während die entsprechenden Neutrinos νe , νμ , ντ elektrisch neutral sind. Jede Lepton-Familie ist zugehörig zur jeweiligen Quark-Familie bedingt durch die Tatsache, dass Zerfälle und Übergänge weitgehend familienerhaltend sind. Um die Sache noch ein wenig komplizierter zu machen: Neben der elektrischen Ladung (+, −) tragen die Quarks eine weitere, gluonische Ladung, die in drei Varianten auftritt und in Ermangelung eines besseren Ausdrucks als Farb-Ladung rot, grün und blau klassifiziert wird. Gebundene Quark-Zustände treten nur farbneutral (d. h. „weiß“) auf und müssen entsprechend dem klassischen Farbschema entweder aus den drei unterschiedlichen „Farb“-Kombinationen oder aus einer „Farbe-AntiFarbe“-Kombination aufgebaut sein. Erstere heißen Baryonen (3-Quark-Systeme, z. B. Proton, Neutron), Letztere Mesonen (Quark-Anti-Quark-Systeme, z. B. Pion, Kaon). 1

DESY Deutsches Elektronen-SYnchrotron, HERA Hadron-Elektron-Ring-Anlage, SLAC Stanford Linear Accelerator, CESR Cornell Electron Storage Ring, CERN Conseil Européen pour la Recherche Nucléaire.

2

Der Name „Quark“ wurde von Murray Gell-Mann (Nobelpreis 1969) geprägt. Gell-Mann war ein Verehrer des irischen Schriftstellers James Joyce. In dem Roman Finnegans Wake gab ihm die Textstelle „Three quarks for Muster Mark!“ die Inspiration für die Namensgebung.

25 4.1 · Quarks und Leptonen

4

. Abb. 4.1 Elementarteilchenmodell mit den 3 Quark-Familien und den dazugehörigen Lepton-Familien sowie mit den Wechselwirkungsteilchen, dem Photon der «elektromagnetischen», den 8 Gluonen der «starken» und den Bosonen W + , Z 0 , W − der «schwachen» Wechselwirkung. Im Schaubild ist auch das Masse generierende Higgs-Teilchen H aufgeführt. – Die Massen der Quarks und Leptonen nehmen von links nach rechts zu, wobei vom Experiment her für das ντ auch noch die Möglichkeit besteht, in dieser Reihung das leichteste Neutrino zu sein

Antimaterie ist identisch aus Anti-Quarks und Anti-Leptonen aufgebaut, und diese unterscheiden sich von den Quarks und Leptonen der Materie nur durch das entgegengesetzte Ladungsvorzeichen. Bei den elektrisch ungeladenen Neutrinos ist die Situation allerdings etwas komplizierter. Die Frage, ob Anti-Neutrinos von Neutrinos unterschieden werden müssen und sie damit unterschiedliche Teilchen sind, ist bis heute noch nicht experimentell geklärt3 . Von der Theorie her sind beide Varianten denkbar, allerdings mit unterschiedlichen Konsequenzen für das frühe Universum. Die drei Familien der Quarks und Leptonen stellen jeweils exakte Kopien untereinander dar, mit dem einzigen Unterschied, dass, wie in . Abb. 4.1 angedeutet, die Massen von links nach rechts zunehmen. Damit sind alle Teilchen, die aus Bausteinen der Familie 2 und 3 aufgebaut sind, inhärent instabil und zerfallen zurück zur Familie 1. Warum sich die Natur diese Spielerei der 3-fachen Mannigfaltigkeit leistet, ist eine der ganz großen offenen Fragen der Elementarteilchenphysik. Gibt es vielleicht weitere Familien? – Alle experimentellen Ergebnisse schließen dies bislang aus. Die Frage nach dem Sinn der 3 Familien ist umso verwirrender als die „normale“, stabile und uns umgebende Materie nur aus den Bausteinen der ersten Familie der Quarks und Leptonen zusammengesetzt ist, und das scheinbar in völlig ausreichender Weise. Proton und Neutron haben (in verkürzter Form) die Kombinationen: Proton: p = Neutron: n =

3

(uud) (udd)

Ladung = +1 Ladung = 0

Der bislang noch nicht beobachtete neutrinolose doppelte β-Zerfall kann diese Frage zweifelsfrei beantworten.

26

Kapitel 4 · Eine kurze Reise ins Reich der elementaren Teilchen

Proton und Elektron verbinden sich dann zu einem Wasserstoff-Atom. Neutrinos wären eigentlich überflüssig, zumal sie fast überhaupt nicht wechselwirken – sich somit „am Rande der Existenz“ bewegen. Wir werden allerdings später sehen, dass sie dennoch eine möglicherweise entscheidende Rolle für die Entstehung des Lebens spielen.

4

4.2

Die Wechselwirkungen

Die Kräfte zwischen den Teilchen werden vermittelt durch sogenannte FeldTeilchen. Dieses Konzept ist intellektuell etwas schwieriger zu erfassen und soll an dem Beispiel, welches in . Abb. 4.2 dargestellt ist, ersichtlich gemacht werden:

»

Zwei elektrisch positiv geladene Kugeln (Teilchen) ändern ihre Bewegungsrichtung aufgrund des abstoßenden Feldes (ohne sich direkt zu treffen). Der transferierte Impuls (Kraftstoß) wird vermittelt durch ein Photon, welches aufgrund der Veränderung des elektrischen Feldes von der einen Kugel emittiert und von der anderen wieder absorbiert wird. Der Prozess ist dynamisch und erfolgt während des Streuvorgangs kontinuierlich, was in der mathematischen Beschreibung durch ein Integral ausgedrückt wird.

In der «starken» Wechselwirkung treten nun gleich 8 solcher als Gluonen bezeichnete Feld-Teilchen auf mit der zusätzlichen und recht sonderbaren Eigenschaft, dass diese (im Gegensatz zu dem ungeladenen Photon) selbst auch noch „Farb“Ladungen besitzen, was dann eine mathematische Beschreibung der Bewegungsvorgänge nach sich zieht, die außerordentlich komplex und rechentechnisch extrem aufwendig ist. Das mathematische Modell heißt in Anlehnung an das klassische Farbschema auch „Quanten-Chromodynamik“ (chroma, gr. Farbe) oder schlicht „QCD“. In der «schwachen» Wechselwirkung schließlich gibt es 3 Feld-Teilchen, W + , Z 0 und W − , die im Gegensatz zu den masselosen Photonen und Gluonen extrem große und mittlerweile auch sehr genau vermessene Massen von M(Z 0 ) = (91.187, 6 ± 2,1) MeV und M(W ± ) = (80.401 ± 43) MeV besitzen, was in etwa dem 97-fachen bzw. dem 86-fachen der Masse des Protons entspricht. Sie wurden im Zuge der Vereinheitlichung von «elektromagnetischer» und «schwacher» Wechselwirkung bereits Ende der 1960er-Jahre theoretisch vorhergesagt und schließlich 1983 am CERN auch experimentell gefunden4 . Die «schwache» Wechselwirkung ist verantwortlich z. B. für den nuklearen β-Zerfall, welcher den Großteil der in der Natur vorkommenden Radioaktivität ausmacht. Sie tritt auch immer dann in Erscheinung, wenn Neutrinos in einer Reaktion beteiligt sind. Zwei Beispiele mögen dies erläutern, zum einen der β-Zerfall des Neutrons und zum

4

Für die theoretischen Arbeiten zur Vereinheitlichung wurde 1979 der Nobelpreis an Sheldon Glashow, Abdus Salam und Steven Weinberg verliehen; für die Entdeckung des W und des Z 0 Teilchens als die Vermittler der «schwachen» Wechselwirkung erhielten Carlo Rubbia und Simon van der Meer den Nobelpreis 1984.

27 4.2 · Die Wechselwirkungen

4

+ + +

+ γ + +

. Abb. 4.2 Bewegungsablauf zweier elektrisch (hier positiv) geladener Kugeln (Teilchen). Der transferierte Impuls (Kraftstoß) wird vermittelt durch ein Photon (γ ), welches von der einen Kugel emittiert und von der anderen absorbiert wird und somit eine Richtungsänderung für beide Kugeln nach sich zieht. Abhängig von den Ladungsvorzeichen (++, −− or +−, −+) ist die Kraft entweder repulsiv oder attraktiv

anderen die elastische Streuung eines Neutrinos am Deuteron. Letzteres ist von Bedeutung beim Nachweis der Neutrinos aus der Sonne: n −→ p + e− + ν¯e W -Austausch (Halbwertszeit 609,6 ± 0,6 s) Neutrino-Reaktion: ν + d−→ ν + d Z 0 -Austausch

Zerfall des Neutrons:

Die Situation der verschiedenen Wechselwirkungen ist nach wie vor maximal unbefriedigend. Es ist nicht vorstellbar, dass das Universum bei seiner Entstehung gleich mit einer handvoll Wechselwirkungen ausgestattet war, vielmehr dass es zunächst eine einzige Wechselwirkung gab, welche sich im Laufe der Abkühlung heruntergebrochen hat auf die Wechselwirkungen, die wir heute kennen – in etwa vergleichbar mit einem Phasenübergang von gasförmig nach flüssig nach fest. Eine solche „grand unified“-Wechselwirkung zu finden und zu formulieren, ist eine der ganz großen Herausforderungen für die Zukunft. Dass dies gelingen kann, ist in der Vergangenheit eindrucksvoll belegt worden, z. B. durch die Vereinheitlichung der «elektrischen» und «magnetischen» Wechselwirkung in die «elektromagnetische» Wechselwirkung, ausgedrückt durch die Maxwell’schen Feldgleichungen (1865), oder durch die 100 Jahre später folgende Vereinheitlichung der «elektromagnetischen» und «schwachen» Wechselwirkung in die «elektro-schwache» Wechselwirkung durch die Theorie von Weinberg, Salam und Glashow (1967) (siehe . Abb. 4.3). Diese beschreibt ausnahmslos alle experimentellen Ergebnisse zur «elektro-schwachen» Wechselwirkung mit einer beeindruckenden Genauigkeit, vom einfachen elektronischen Schaltkreis bis hin zur Radioaktivität oder zu Supernova-Explosionen. Es ist zudem instruktiv, sich ein Bild über die Stärke der einzelnen Wechselwirkungen zu machen. Wenn man willkürlich die Stärke der «starken» Wechselwirkung auf „1“ normiert, dann ergibt sich der in der . Tab. 4.1 angegebene Zusammenhang:

28

Kapitel 4 · Eine kurze Reise ins Reich der elementaren Teilchen

. Tab. 4.1 Eigenschaften der bekannten Wechselwirkungen

4

Gravitation

Magnetismus

Elektrizität

starke WW

E. Fermi 1934

QCD >1970

{

G. Galilei 16./17. Jh. A. Ampère ~1820 M. Faraday ~1830. J. Kepler 16./17. Jh. I. Newton 17. Jh. A. Einstein 19./20. Jh.

schwache WW

Elektromagnetismus

{

J. Maxwell 1865

elektro-schwache WW

{

S. Glashow, A. Salam, S. Weinberg 1967

GUT XXXX ? ( 20...)

. Abb. 4.3 Die verschiedenen Wechselwirkungen in der Physik und der Versuch der Vereinheitlichung im Rahmen einer „Grand Unified Theory“ (GUT)

Erstaunlicherweise ist jene Wechselwirkung, die wir tagtäglich am eigenen Leib erfahren, nämlich die Gravitation, die schwächste unter allen Wechselwirkungen. Sie ist für Prozesse, die sich auf mikroskopischer Skala (d. h. von der Größenordnung Atome und Atomkerne) abspielen, völlig vernachlässigbar. Umgekehrt sind die «starke» und die «schwache» Wechselwirkung aufgrund ihrer winzigen Reichweite makroskopisch nicht spürbar. Die „unendliche“ Reichweite von «elektromagnetischer» und «gravitativer» Wechselwirkung ist dabei der mathematischen Beschreibung zuzuschreiben, wonach die Wechselwirkungspotenziale nur linear mit 1/Abstand abklingen.

29

Beginn und Ende von Zeit und Raum

Inhaltsverzeichnis 5.1

Die Epochen des Universums – 30

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 D. Frekers und P. Biermann, Weltall, Neutrinos, Sterne und Leben, https://doi.org/10.1007/978-3-662-65110-0_5

5

30

5.1

5

Kapitel 5 · Beginn und Ende von Zeit und Raum

Die Epochen des Universums

Das Universum beginnt zur Zeit t = 0 mit dem „Big Bang“. Stimmt das, ergibt das Sinn? – Das ist nicht zu beantworten, denn bedauerlicherweise entzieht sich der Zustand des Universums einer Betrachtungsweise bei t = 0 und natürlich auch seiner Eigenschaften vor dieser Zeit. Allerdings lassen sich die Prozesse im Modell des „Big Bang“ nach Ablauf der sogenannten Planck-Zeit von ca. 5 × 10−44 Sekunden physikalisch konsistent nachvollziehen. Diese Post-„Big Bang“-Theorie basiert auf etablierten physikalischen Grundsätzen und ist in der Lage, die vielfältigen Signale, die der frühesten Phase des Universums entstammen, mit einer erstaunlichen Präzision zu beschreiben, sodass ein ganzheitliches Bild über diese frühesten Vorgänge im Universum entsteht. Es ist kein alternatives Modell in Sicht, welches dem „Big Bang“-Modell in seiner Mächtigkeit und Leistungsfähigkeit auch nur annähernd gleichkäme. In der „Big Bang“-Vorstellung startet das Universum aus einer nahezu punktförmigen, lediglich mit Energie und einer universellen Wechselwirkung ausgestatteten „Struktur“, welche sich in der Folge explosionsartig ausdehnt und dabei verschiedene Phasen durchläuft. Über die Anfangsbedingungen, d. h. die Größe der Energie, die Art der Wechselwirkung, die Form der „Struktur“ oder auch gemeinhin über die Ursache des Universums gibt es derzeit keine physikalisch belastbaren Aussagen. In . Abb. 5.1 sind diese einzelnen Entwicklungsphasen des Universum aufgetragen. Die Auftragungsart in doppelt-logarithmischer Form ist ungewöhnlich und bedarf einer gesonderten Betrachtung. Die zeitlichen Epochen überspannen hier einen Bereich von nahezu 400 (!) Größenordnungen (Zehnerpotenzen), beginnend bei etwa 10−40 Sekunden bis jenseits von 10300 Sekunden. Zur Orientierung ist die Ära markiert, in der wir heute leben. Zum jetzigen Zeitpunkt ist das Universum gerade einmal 4,36 × 1017 Sekunden (13,81 ± 0,04 Mrd. Jahre) alt. Auf der Ordinate ist die Temperatur in Kelvin K1 des Universums aufgetragen, von etwa 10−20 K bis 10+20 K. Die gestrichelte Line zeigt, wie sich das Universum aufgrund seiner Expansion im Laufe der Zeit abkühlt. Die Temperatur zum heutigen Zeitpunkt liegt bei etwa 2,725 K (ca. −270 ◦ C), also auf der logarithmischen Skala bei etwa 0. Diese Temperatur ist vermöge der kosmischen Wärmestrahlung (oder Mikrowellen-Hintergrundstrahlung), die das ganze Universum durchflutet, durch eine Reihe von Satelliten-Experimenten der letzten 30 Jahre mit immer höherer Genauigkeit, mittlerweile sogar bis zur 6-ten Stelle hinter dem Komma vermessen2 . Hier zunächst die einzelnen Epochen, die in den folgenden Kapiteln jeweils noch einmal gesondert und detailliert beleuchtet werden: Bei dem zeitlichen „Zurückrechnen“ der kosmischen Evolution trifft man spätestens bei der Planck-Zeit (ca. 5 × 10−44 s) auf eine harte Erkenntnis-Barriere. Die klassische Physik, die Relativitätstheorie, die

Die inflationäre Ära nach der Planck-Zeit

1

Zur Erinnerung: Die Kelvin-Temperaturskala folgt der Celsius-Temperaturskala, wobei lediglich der Nullpunkt verschoben ist: 0 K = −273,15 ◦ C.

2

Aus dieser Temperatur lässt sich durch Zurückrechnen auf das Alter des Universums schließen.

Temperatur in 10y K

-20

-10

0

10

20

?

-30

INFLATION

y

-10

0

(d, 3He, 4He ...)

die ersten Nuklide

30

Galaxienkollaps

Schwarze Löcher sind zerfallen

100

300

x

keine Nukleonen mehr, nur noch Photonen & Neutrinos

Zeit in 10x Sek.

40 50 vagabundierende Sterne

Lichter gehen aus

20

Sterne & Galaxien

10

Wärme durch p-Zerfall (~100-300 K)

heute ( 4,36 . 1017 s )

kosmische Mikrowellen-Strahlung

kosmische ν - Strahlung

31

. Abb. 5.1 Ablauf der kosmischen Geschichte des Universums

Quarks & Gluonen

-20

Quarks & Gluonen

Annihilation Materie - Anti-Materie

kosmische Evolution

5.1 · Die Epochen des Universums

5

32

5

Kapitel 5 · Beginn und Ende von Zeit und Raum

Quantenmechanik, alle diese nahezu unumstößlichen Eckpfeiler der Physik scheitern an dieser Stelle auf ganzer Front. Eine Quanten-Gravitationstheorie könnte vielleicht ein Schlüssel sein, jedoch eine solche Theorie existiert bislang nicht, wobei sich dann natürlich auch die Frage stellt, wie eine derartige Theorie experimentell zu verifizieren wäre. Ein wesentlicher Knackpunkt dabei ist, dass in dieser Ära die klassischen Begriffe wie Zeit und Raum und damit Ursache und Wirkung ihre Bedeutung verlieren und dabei unklar bleibt, wie ein Ersatz für diese Parameter auszusehen hätte. Erst nach der Planck-Zeit werden die Vorgänge langsam durchsichtiger, sodass die weiteren Abläufe physikalisch nachvollzogen werden können. Bei etwa 10−35 Sekunden vollzieht sich im Universum ein spektakulärer Phasenübergang. In dem Zeitraum von 10−35 –10−30 Sekunden dehnt sich das Universum um ca. 40–70 Größenordnungen aus. Die experimentellen Indizien für einen solchen inflationären Phasenübergang sind recht zwingend und auch die klassischen Bewegungsgleichungen lassen einen solchen Prozess zu. Grundsätzlich neue Physik muss deshalb nicht erfunden werden. Lässt sich diese monumentale Inflation des Universums in Einklang bringen mit der Konstanz der Lichtgeschwindigkeit? In der Tat ist es so, dass während dieser Epoche lediglich „Raum“ und „Raum-Zeit“ im klassisch zu verstehenden Sinn erzeugt und dabei die anfänglich kausal zusammenhängenden Bereiche getrennt werden. „Kausal zusammenhängend“ bedeutet, dass in dieser inflationären Phase alle Informationen über den anfänglichen Zustand in den sich ausdehnenden Raum „mitgenommen“ und überall in gleicher Weise „verdünnt“ werden. Ein Informationsaustausch mit Überlichtgeschwindigkeit findet in Bereiche außerhalb eines „Ereignishorizonts“, welcher durch die Reichweite des Lichts in 10−30 Sekunden gegeben ist, nach wie vor nicht statt. Dieses bedeutet auch, dass „unser Universum“ eingebettet ist in ein sehr viel größeres „Mega-Universum“. Das hat natürlich Konsequenzen, wie wir später sehen. Mit der Erzeugung von Raum und Zeit prägt das Universum der Raum-Zeit eine Wechselwirkung auf. Es entstehen die uns bekannten elementaren Teilchen wie Quarks, Gluonen, Photonen, Leptonen und möglicherweise weitere, unter anderem auch sehr schwere und nicht bekannte X- und Y-Teilchen3 . Temperatur und Teilchendichte sind nach wie vor hoch, sodass alle Teilchen sich in einem thermodynamischen Gleichgewicht befinden, d. h., Erzeugung und Zerfall halten sich vermöge der intensiven Wechselwirkung immer die Waage. Quarks und Gluonen bewegen sich frei in einem sogenannten QuarkGluon-Plasma. Einen solchen Zustand nachzubilden und zu studieren, gilt als eine der wichtigsten Forschungsaufgaben an den großen Anlagen wie dem Forschungszentrum CERN in Genf. Nach ungefähr 100 Nanosekunden hat sich das expandierende Universum so weit abgekühlt, dass die Quarks und Gluonen zu den bekannten Baryonen und Mesonen kondensieren. Zu den Baryonen gehören z. B. Protonen und Neutronen,

Die ersten hundert Nanosekunden

3

Das klingt wie etwas grundlos „dahin geworfen“. Tatsächlich ist die ursprüngliche Wechselwirkung nicht bekannt, jedoch gibt es theoretische Modelle, die die anfängliche Baryo- und Leptogenese beschreiben können, indem sie diese X- und Y-Teilchen dafür postulieren.

33 5.1 · Die Epochen des Universums

5

aber auch deren Antiteilchen wie Anti-Protonen und Anti-Neuronen. Zu den Mesonen gehören z. B. die Pionen und Kaonen, welche die leichtesten Teilchen in dieser Gruppe sind. Die Leptonen, wie z. B. Elektronen, Myonen, Tauonen mit den ihnen verwandten Neutrinos wie Elektron-, Myon-, and Tau-Neutrinos, unterliegen einer anderen, der «schwachen» Wechselwirkung und können keine Bindungen eingehen. Sie verbleiben für alle Zeiten ungebunden. Der nun einsetzende, nächste Prozess ist allerdings dramatisch und hätte bereits das Ende des Universums bedeuten können – und das schon nach weniger als einer Mikrosekunde. Nach dem Ausfrieren der Quarks und Gluonen in gebundene Zustände wie z. B. Protonen und Neutronen ist der Weg zurück nicht mehr möglich. Da aber Materie-Teilchen und Antimaterie-Teilchen in gleicher Weise entstehen, sollte das Universum nun mit jeweils exakt 50 % dieser beiden Teilchensorten gefüllt sein. Teilchen und Antiteilchen würden sich jedoch nach ihrer Erzeugung instantan wieder vernichten und dabei ihre Massen-Äquivalenzenergie (E = mc2 ) letztendlich als Photonen direkt wieder in das Wärmebad des Universums zurückführen. Übrig bliebe außer Licht nichts ! Das Universum wäre bereits nach einer 10tel Mikrosekunde am Ende seiner Entwicklung. Glücklicherweise hat die Natur bereits zu einem frühen Zeitpunkt eine winzige Asymmetrie in die Wechselwirkung eingebaut, die zum jetzigen Zeitpunkt dazu führt, dass aus ungefähr 109 Materie-Teilchen eins übrig bleibt, welches keinen Antimaterie-Partner besitzt. Die Zahl 109 ist eine experimentelle Messgröße und folgt direkt aus der Intensität der kosmischen Hintergrundstrahlung4 sowie auch aus der Tatsache, dass keine Ansammlungen von Antimaterie im Universum auffindbar sind, und was noch schwerwiegender ist: Nicht einmal ein einziger schwerer Anti-Atomkern, wie z. B. ein Anti-Kohlenstoffkern, für den es keinen plausiblen Entstehungsmechanismus aus normaler Materie gibt, konnte bisher trotz intensiver Suche nachgewiesen werden. Das wiederum bedeutet, dass dieser übrig gebliebene winzige Anteil an Materie nach der Annihilation nun jener Anteil ist, aus dem das heutige Universum besteht. Glück gehabt !! Materie-Antimaterie-Annihilation

Die Hintergrund-Neutrinos Von nun an sprechen wir von einem (unserem) Universum, in dem es fast keine Materie mehr gibt und in dem die Zahl der Photonen mehr als 109 -mal größer ist als die Zahl der Nukleonen (in diesem Fall Protonen und Neutronen). Die Materie-Antimaterie-Annihilation erfasst natürlich die Elektronen und die Positronen (die Antiteilchen der Elektronen) in gleicher Weise, sodass auch deren ursprüngliche Anzahl auf etwa denselben Rest reduziert wird. Allerdings „überleben“ Elektronen und Positronen die Annihilationsphase deutlich länger als Nukleonen und Antinukleonen, da Energie und Intensität der Hintergrundstrahlung (und damit Temperatur und Dichte) noch für eine vergleichsweise lange Zeit (ca. 26 Sekunden) groß genug ist, um den Annihilationsprozess wieder umzukehren und somit ein Gleichgewicht zwischen Erzeugung und Vernichtung von Elektronen 4

Experimentell findet man ein Photon/Baryon(Nukleon)-Verhältnis von (1,64 ± 0,01) × 109 .

34

Kapitel 5 · Beginn und Ende von Zeit und Raum

und Positronen aufrecht zu erhalten. In einer verkürzten Reaktionsgleichung lässt sich dies folgendermaßen ausdrücken: e+ + e−  γ + γ ,

5

wobei der Doppelpfeil besagt, dass im thermodynamischen Gleichgewicht die Hinund Rückreaktionen gleichwahrscheinlich sind. Für die Neutrinos ergibt sich ein völlig anderes Bild. Aufgrund ihrer «schwachen» Wechselwirkung wird für diese Teilchenspezies das Universum bereits nach weniger als 1 Sekunde transparent, d. h., ihre mittlere Weglänge zwischen zwei Wechselwirkungsereignissen wird größer als die Ausdehnung des Universums zu diesem Zeitpunkt. Damit verlassen sie das thermodynamische Gleichgewicht, in dem sich bis dato alle anderen Teilchen noch befanden. Man sagt: „Sie entkoppeln.“ Da Neutrinos und Anti-Neutrinos nicht annihilieren, sind in dieser Phase nach wie vor etwa gleich viele Neutrinos und Anti-Neutrinos wie Photonen im Universum enthalten, nämlich auch etwa 1010 -mal so viel wie Nukleonen und das – ebenfalls wie die Photonen – bis in die heutige Zeit. Mit der weiter fortschreitenden Ausdehnung des Universums verdünnt sich auch das „Neutrino-Gas“ und kühlt sich dabei wie ein normales Gas ab. Die heutige Temperatur dieses „Neutrino-Gases“ (bzw. dieser Neutrino-Hintergrundstrahlung) lässt sich sehr genau zu 1,95 K berechnen, was einer mittleren Energie der Neutrinos von ca. 160 µeV entspricht. So die Theorie !! – denn ein experimenteller Nachweis für diese Hintergrund-Neutrinos steht noch aus. Und leider gibt es bisher auch noch keinen praktikablen Vorschlag, wie ein Experiment zum Nachweis dieser kosmischen Hintergrund-Neutrinos durchzuführen wäre. Die Schwierigkeiten liegen zum einen in der extrem geringen Wechselwirkungsrate, zum andern in der fantastisch geringen Energie, die bei einem solchen Ereignis zu registrieren wäre. Sollte sich das oben beschriebene Szenarium jedoch irgendwann experimentell bestätigen, wäre das eines der grandiosesten Bestätigungen des „Big Bang“-Modells – und nicht nur das, man hätte damit die Möglichkeit geschaffen, mithilfe der Neutrinos zurückzuschauen bis in die Phase 100 Millisekunden nach dem „Big Bang“. Wir befinden uns jetzt in einer Phase, in der sich im Universum nur noch Neutrinos, Anti-Neutrinos, Photonen, Elektronen und Positronen sowie eine verschwindende Menge von Protonen und Neutronen befinden. Das Universum kühlt sich weiterhin mit rascher Geschwindigkeit ab. Um Elemente zu formen, bedarf es der Fusion von Protonen und Neutronen. Die ersten bescheidenen Versuche, aus Proton und Neutron ein Deuteron, zu formen, scheitern aber immer wieder, da die Photonen der thermischen Hintergrundstrahlung aufgrund ihres enormen Anzahlvorteils das Deuteron sofort wieder photo-dissoziieren (γ + d −→ p + n). Wir müssen also warten, bis das Universum auf etwa 75 keV (∼109 K) abgekühlt ist, was nach etwa 3 min der Fall ist. Allerdings beginnt jetzt ein Wettlauf mit der Zeit, denn zu diesem Zeitpunkt ist das Neutron ebenfalls weitgehend „entkoppelt“ und damit frei. Ein freies Neutron ist aber instabil und zerfällt mit einer Halbwertszeit von ca. 10 min in ein Proton. In diesem Wettlauf gelingt es dem Universum gerade noch, über eine Kette von

Nukleosynthese im frühen Universum

35 5.1 · Die Epochen des Universums

5

bekannten Kernreaktionen 4 He zu synthetisieren, dann ist Schluss. Am Ende dieser Phase (d. h. nach weniger als 10 min) besteht das Universum nun aus ca. 75 % Protonen und ca. 25 % 4 He (sowie winzigen Spuren von Deuterium, 3 He, 6 Li und 7 Li). Diese Massenanteile sind bis heute nahezu unverändert. Und auch an dieser Stelle wird wiederum die Mächtigkeit des „Big Bang“-Modells deutlich, denn die Berechnungen dieser primordialen Elementhäufigkeiten werden mit einer faszinierenden Genauigkeit durch Messdaten an ursprünglichen Sternsystemen (z. B. Kugelsternhaufen oder „Globular Clusters“) bestätigt. Auch die Sonne besitzt trotz ihrer bereits seit 4,5 Mrd. Jahren andauernden Konversion von Wasserstoff zu Helium (bei einer Rate von ca. 610 Mio. Tonnen pro Sekunde5 ) fast immer noch den ursprünglichen 75/25-Wasserstoff-zu-Helium-Anteil6 . Nach der primordialen Nukleosynthese tritt zunächst Ruhe ein. Das Universum besteht jetzt zum überwiegenden Teil aus thermischen Photonen mit einem winzigen Anteil aus Protonen, 4 He-Kernen, Elektronen und natürlich aus den nicht-wechselwirkenden und bereits entkoppelten Neutrinos. Das bleibt so für etwa 380.000 Jahre. Könnte man das Universum von außen betrachten, so erschiene es wie eine Lichtkugel (ähnlich einer Sonne), zunächst im Spektrum der Röntgenstrahlung, welches dann mit zunehmender Größe übergeht in den Spektralbereich des ultravioletten Lichts. In die Kugel hineinsehen könnte man allerdings nicht, denn die Photonen werden ständig im Innenbereich an den freien Elektronen gestreut und ändern dabei fortwährend ihre Ausbreitungsrichtung. Auch im Inneren der Kugel würde man nur diffuses Licht sehen, ohne ausmachen zu können was die Quellen sind. Der Versuch, ein Elektron an das Proton zu einem Wasserstoff-Atom zu binden, ähnlich wie im Fall Proton und Neutron zum Deuteron, scheitert auch hier zunächst immer wieder, da das Photon aus der Hintergrundstrahlung mit Energie hν das Wasserstoff-Atom H sofort wieder ionisiert. In einer verkürzten Reaktionsgleichung lässt sich dieses wiederum folgendermaßen ausdrücken:

Die geheimnisvolle Hintergrundstrahlung

H + hν  p + e−

Nach ca. 380.000 Jahren ist die Temperatur des Universums soweit abgefallen, dass das Elektron vom Proton eingefangen wird und ein Wasserstoff-Atom bilden kann. Die umgebende Strahlung ist nun nicht mehr in der Lage, dieses zu ionisieren. Die Photonen entkoppeln und bewegen sich von nun an geradlinig, was bedeutet: Das Universum wird transparent. Dies ist denn auch das letzte Mal, dass die thermischen Photonen mit dem Rest des Universum in Wechselwirkung treten. Mit der weiteren Ausdehnung kühlt sich das Universum entsprechend den bekannten Gesetzen der Thermodynamik ab, sodass die heutige, sehr genau vermessene „thermische Mikrowellen-Hintergrundstrahlung“ einer Temperatur von 2,725 K entspricht.

5

Diese Rate lässt sich in einfacher Weise aus der auf der Erde ankommenden Strahlungsleistung der Sonne von 1,367 kW/m2 bestimmen, wie später noch gezeigt wird.

6

Der Wert des Massenverhältnisses Wasserstoff/Helium in der Sonne ist in etwa 68 % zu 31 %.

36

Kapitel 5 · Beginn und Ende von Zeit und Raum

Bereits relativ früh, d. h. bereits nach ungefähr 100 Mio. Jahren, entstehen die ersten Sterne und Proto-Galaxien, die sich zunächst in einer extrem turbulenten Entwicklungsphase befinden, bevor sie schließlich ein Stadium erreichen, welches dem von heute ähnlich ist. Über die Details der physikalischen Prozesse, die diese „Verklumpung“ in dieser Phase bewirken, ist leider immer noch wenig bekannt, außer dass dies ein rein gravitativer Effekt sein muss. Es ist jedoch wahrscheinlich, dass sogenannte „Dark-Matter-Teilchen“ hier eine entscheidende Rolle spielen. Hier gibt es zwei „heiße“ Kandidaten, das Axion und das WIMP. Das Axion, vom Nobelpreisträger Frank Wilczek nach einem Waschmittel auf dem amerikanischen Markt7 benannt, hat den Vorteil, dass es zwangsläufig aus einem eleganten physikalischen Konzept einer Symmetrie-Eigenschaft der «starken» Wechselwirkung herrührt, die erklärt, warum diese Wechselwirkung in hohem Maße nicht zwischen Materie und Antimaterie unterscheidet – dies im Gegensatz z. B. zur «elektromagnetischen» Wechselwirkung. – Und nicht nur das !! – Dieses Axion-Teilchen besitzt eben auch zufällig die richtigen Eigenschaften für die Strukturbildung im Kosmos. Es löst also gleichzeitig zwei Probleme aus zwei unterschiedlichen Bereichen der Physik. Strukturbildung

5

In der Theorie hat das Axion folgende Eigenschaften 5 es ist elektrisch neutral, 5 es ist extrem leicht (10–100 µeV) (damit vielleicht sogar um vieles leichter als ein Neutrino), 5 es wird „kalt“ erzeugt und ist bereits von Geburt an „entkoppelt“, d. h., es nimmt zu keiner Zeit die Temperatur des Universums an; damit kann es in kleinste gravitative Potenziale „hineinfallen“ und somit die Strukturbildung sehr frühzeitig initiieren, 5 es wird in einer immensen Zahl (ca. 1090 –10100 ) im frühesten Stadium des Universums erzeugt und durchflutet das Universum nach wie vor, 5 es unterliegt allen bekannten Wechselwirkungen (Gravitation, «starke», «schwache» und «elektromagnetische» Wechselwirkung), allerdings ist die Wechselwirkungsrate so gering, dass es eigentlich nur gravitativ als Dunkle Materie erkennbar ist, 5 es hat „exotische“ Quantenzahlen, die es erlauben, experimentelle Nachweismethoden hierauf direkt abzustimmen.

Das andere, ebenso „heiß“ diskutierte Teilchen ist das Weakly-Interacting-MassiveParticle oder auch WIMP. Es ist theoretisch weit weniger zwingend und bedarf einiger zusätzlicher Ad-hoc-Annahmen, die jeweils vom konkreten theoretischen Modell abhängen. Es ist ein gravitativ und möglicherweise auch noch schwach wechselwirkendes Teilchen und ähnelt in dieser Weise dem bekannten Neutrino. Es ist zudem ein schweres Teilchen, allerdings wie schwer, ist theoretisch nicht oder nur 7

Dafür gab es einen guten Grund, denn das Axion „wäscht ein Problem weg“: −→ ohne Axion würde die «starke» Wechselwirkung zwischen Materie und Antimaterie unterscheiden. Materie und Antimaterie sollten aber bzgl. der Wechselwirkung gleichbehandelt werden.

37 5.1 · Die Epochen des Universums

5

Halo

Bildquelle: ESO, L. Calçada, CC BY-SA 4.0, adaptiert

. Abb. 5.2 Eine Galaxie im etwaigen Größenvergleich zum äußeren Halo

sehr ungenau einzugrenzen. Seine Masse könnte zwischen der eines Eisen-Atoms und der eines Blei-Atoms liegen. Das WIMP ist aufgrund einer solchen Masse ein sehr effektives strukturbildendes Teilchen, und aufwendige Computer-Rechnungen zeigen, dass bei Einbeziehung eines solchen exotischen Teilchens die sich dann entwickelnden filamentartigen Strukturen von großen Galaxien-Ansammlungen nach ca. 13,8 Mrd. Jahren denen von heute sehr ähnlich sind. Auch dieses Teilchen löst ein zweites Problem. Aufgrund seiner großen Teilchenmasse bewegt es sich zu allen Zeiten recht langsam und kann somit von Galaxien gravitativ eingefangen werden8 . Von der Milchstraße und natürlich auch von fast allen anderen Galaxien gibt es deutliche Hinweise, dass sie jeweils von einem weit ausgedehnten, lediglich gravitativ wechselwirkenden (und damit unsichtbaren) Halo (keine Teekannen9 ) umgeben sind, dessen Masse das 10 bis 50-fache der Sternenmasse in einer Galaxie entspricht (siehe . Abb. 5.2). Die WIMP-Teilchen könnten genau diesen Halo erzeugen. Allerdings, auch einem Axion-Teilchen lassen sich diese Eigenschaften beimessen. Die ersten sich ausbildenden Strukturen sind die Keimlinge für das Entstehen von Sternen und Galaxien. Sie setzen die gravitativen Kontraktionen in Gang und führen zu den ersten Proto-Galaxien. Große Ansammlungen von Wasserstoff in diesen ersten Galaxien kollabieren, und sobald Druck und Dichte kritische Werte erreichen, zündet die Wasserstoff-zu-Helium-Fusion und ein Stern wird geboren. Anfangs sind diese Prozesse extrem violent, und erst um Laufe der nächsten 1–2 Mrd. Jahre stellt sich eine gewisse Beruhigung mit einer weitgehend konstanten Geburtenrate ein.

8

Die Fluchtgeschwindigkeit in einer typischen Galaxie beträgt in etwa 300–400 km/s.

9

Vgl. Abschn. 2.2 → zu These 5.

38

Kapitel 5 · Beginn und Ende von Zeit und Raum

5 . Abb. 5.3 Supernova 1991N in der NGC3310-Galaxie, Entfernung ca. 47 Mio. Lichtjahre

Die Prozesse der Sterngeburten finden bis heute statt und können in jeder Galaxie und insbesondere auch in unserer eigenen Galaxie immer wieder detailliert beobachtet werden. Die Geburtenrate von Sternen, deren Größe in etwa jener der Sonne gleicht, liegt in unserer eigenen Milchstraßen-Galaxie bei etwa 3 Sternen pro Jahr. Man kann jetzt eine ungefähre Abschätzung erstellen, indem man diese Rate auf die etwa 50 Mrd. Galaxien im Universum hoch rechnet und erhält dann eine „universelle“ Sterngeburtenrate von etwa 5000 Sternen pro Sekunde !! Da weit entfernte und in der Vergangenheit liegende Galaxien deutlich aktiver waren, liegt eine realistischere Abschätzung sogar eher noch beim Doppelten dieses Werts. Leider hat es das Universum bisher noch immer nicht geschafft, Elemente schwerer als Helium zu synthetisieren. Das ändert sich jedoch in der Phase, der wir uns jetzt, einige Milliarden Jahre nach dem „Big Bang“, nähern. Man mag sich erinnern, dass Sterne, die in etwa der Größe der Sonne entsprechen, eine typische Lebenszeit von ungefähr 10 Mrd. Jahre haben und in dieser Zeit still und unauffällig Wasserstoff zu Helium fusionieren, bevor sie am Ende nach einem kurzen Aufblähen einfach erlöschen. Sterne mit Massen jenseits von etwa 10–100 Sonnenmassen durchlaufen einen 10–1000-mal kürzeren Lebenszyklus und verabschieden sich dann in einer gigantischen Explosion, die den gesamten Stern auseinander reißt. Diese Explosionen sind so gewaltig, dass sie für einige Tage eine ganze Galaxie überstrahlen (siehe . Abb. 5.3). Das bedeutet auch, dass sie mit den heutigen Weltraum-Teleskopen bis in die entferntesten Winkel des Universums sichtbar sind. In einer solchen Supernova-Explosion werden alle im Periodensystem vorkommenden Elemente bis hinauf zu den uns bekannten schwersten Elementen wie Uran inklusive der Trans-Urane (z. B. Neptunium, Plutonium, etc.) innerhalb von wenigen Sekunden synthetisiert. Die . Abb. 5.1 zeigt, dass wir uns heute, 4,36 × 1017 Sekunden nach dem „Big Bang“, immer noch inmitten dieser Phase befinden.

Supernovae und Bau der Elemente

39 5.1 · Die Epochen des Universums

5

Die physikalischen Prozesse, die während einer solchen Supernova-Explosion ablaufen, sind einigermaßen gut bekannt, und auch die absoluten Helligkeiten solcher Ereignisse sind empirisch gut bestimmt. Supernovae (hier jene vom Typ Ia) können somit als „Standardkerzen“ dienen, um Entfernungen zu bestimmen und um daraus wiederum die Hubble-Konstante, die beschreibt, wie schnell sich das Universum mit zunehmender Entfernung ausdehnt, abzuleiten. Dies wird in einem späteren Unterkapitel noch einmal gesondert erläutert. Supernovae sind seltene Ereignisse. In der Milchstraße liegt ihre Frequenz bei etwa 2 Supernovae pro 100 Jahre. Hoch gerechnet dürften in der Milchstraße im Laufe ihrer Existenz bereits 200–400 Mio. solcher Supernova-Ereignisse stattgefunden haben. Hier ist berücksichtigt, dass in frühester Zeit die Sterngeburtenrate deutlich höher war als heute. Supernovae stellen die Grundmaterialien des Lebens her, das heißt auch, dass wir unsere eigene Existenz einer solchen Supernova-Explosion verdanken, welche möglicherweise vor ca. 5–6 Mrd. Jahren stattgefunden hat und aus deren Überreste sich vor 4,6 Mrd. Jahren unsere Sonne und schließlich unser Sonnensystem mit dem Planeten Erde gebildet haben. Die Menge an Wasserstoff im Universum ist nicht unendlich, aber reichlich. Die Sonne wird noch etwa 4,5 Mrd. Jahre im WasserstoffBrennen verharren, sich allmählich zum Roten Riesen aufblähen und schließlich als „Weißer Zwerg“ verenden. Dieser unaufhaltbare Entwicklungsprozess der Sonne wird der Erde jedoch bereits in ca. 500–900 Mio. Jahren zum Verhängnis, dann wenn die Sonnenoberfläche langsam immer näher heranrückt und der Anstieg der Temperatur jegliches Leben auf der Erde auslöscht. Am Ende dieser Entwicklung, in ungefähr 5–6 Mrd. Jahren, wird die Sonne die inneren Planeten Merkur, Venus und Erde verschluckt haben, bevor sie sich endgültig als „Weißer Zwerg“ ins kosmische Grab begibt. Für das Universum ist aber noch lange nicht Schluss. Der Wasserstoff reicht für weitere Stern-Entwicklungen noch etwa 1020 –1021 Sekunden aus. Das ist grob das 1000-fache des derzeitigen Alters des Universums. Danach wird es im Universum langsam (sehr langsam !) dunkel. Es entstehen zunehmend Neutronensterne und Schwarze Löcher. Interessanterweise werden in Neutronensternen nach wie vor geringe Mengen an Energie und Wärme produziert, denn auch die bislang immer als stabil angenommenen Protonen und Nuklide zerfallen. Ihre Halbwertszeiten liegen wahrscheinlich in der Größenordnung von 1034 –1037 Jahren (ca. 1041 –1044 Sekunden). Alle theoretischen Modelle der Teilchenphysik, welche versuchen, die bestehenden Wechselwirkungen im Hinblick auf eine Vereinheitlichung zu erweitern, fordern diesen extrem seltenen Zerfall des Protons (und des Neutrons). Der Zerfall könnte durch die hypothetischen und bereits anfangs erwähnten X- und Y-Teilchen initiiert werden. Experimente zum Proton-Zerfall sind deshalb seit mehr als 20 Jahren im Gange, allerdings ohne dass bislang ein positives Signal beobachtet wurde. Die derzeit beste untere Schranke für die Halbwertszeit des Protons wird von einer japanischen Kollaboration angegeben mit Die Lichter gehen aus

40

5

Kapitel 5 · Beginn und Ende von Zeit und Raum

1,6 × 1034 Jahren10 . Das entspricht einem einzigen Proton-Zerfall pro Jahr in etwa 360.000 Tonnen Wasser. Der Zerfall des Protons (und äquivalent auch des Neutrons) weist mehrere Zerfallsketten auf, wobei als Endprodukt immer ein Positron und mehrere Photonen oder Leptonen entstehen. In einem „Weißen Zwerg“ oder in einem Neutronenstern wird dabei fast das gesamte Massen-Äquivalent des jeweiligen Nukleons von ca. 938 MeV in Wärme umgesetzt. Das kann bei einem bis dahin erkalteten Neutronenstern noch zu einer beträchtlichen und dauerhaften Erwärmung auf etwa 300 K (Zimmertemperatur) führen. Die wahrscheinlichsten Zerfälle der beiden Nukleonen, Proton und Neutron, sind: p −→ e+ + π 0 → γ + γ

+ ca. 938 MeV → Wärme

+ ca. 800 MeV → Wärme, n −→ e+ + π − Verlust durch entweichende Neutrinos → μ− + νμ → e− + νμ + νe

Der Prozess des Nukleonen-Zerfalls dürfte schließlich nach etwa 1045 Sekunden abgeschlossen sein. Auch Schwarze Löcher entrinnen dem Zerfalls-Schicksal in letzter Instanz nicht. Sie verlieren stetig Energie und damit Masse durch die sogenannte HawkingStrahlung, allerdings ist dieser Masse-Abfluss um so geringer, je massereicher das Schwarze Loch ist. Die Lebensdauer eines Schwarzen Lochs skaliert mit der dritten Potenz seiner Masse, und aus der Hawking-Strahlung lässt sich errechnen, dass ein superschweres Schwarzes Loch etwa 10100 Sekunden braucht, um schließlich am Ende explosionsartig zu verenden (T1/2 [s] = 8,4 · 10−17 · M 3 [kg]). Das bedeutet auch, dass das Universum nach etwa 10100 Sekunden nur noch aus Elektronen, Positronen (aus dem Nukleonenzerfall), Neutrinos und Photonen besteht11 . Nach weiteren grob geschätzten 10300 Sekunden finden auch die Elektronen und Positronen aufgrund ihrer elektrischen Anziehung zueinander and annihilieren zu Photonen, sodass schließlich nur noch Neutrinos und Photonen in einem nach wie vor sich ausdehnenden Universum übrig bleiben. Neutrinos und Photonen waren bereits von Anfang an in einer großen Überzahl vorhanden, sodass im Rückblick das gesamte Potpourri der Stern-Entwicklungen, der Galaxien-Entstehungen, der Supernova-Explosionen usw. nur ein völlig unbedeutendes Intermezzo dargestellt haben. Interessant wird eine abschließende Betrachtung, welche sich aus der Quantenmechanik ergibt. Eine wesentliche und auch immer wieder experimentell bestätigte Eigenschaft der Mikro-Welt ist die sogenannte Heisenberg’sche UnschärfeRelation. Sie besagt, dass Energie und Zeit niemals gleichzeitig genau bestimmt 10 K. Abe et al., Search for proton decay via p → e+ π 0 and p → μ+ π 0 in 0,31 megaton-years exposure of the Super-Kamiokande water Cherenkov detector, Physical Review D 95, 012004 (2017), siehe auch gleicher Titel, gleiche Autoren, arXiv:1610.03597v2 (2016) [hep-ex]. 11 Man beachte, dass das Universum nach wie vor elektrisch neutral ist.

41 5.1 · Die Epochen des Universums

5

werden können. Die „Unschärfen“ dieser beiden Größen sind verknüpft durch die Beziehung E · t ≥  = const. Angewandt auf den Zustand des Universums bedeutet dies, dass mit der immer weiter abnehmenden Energiedichte auch die Energie-Unschärfe abnimmt, und infolgedessen die Zeit-Unschärfe in gleicher Weise zunimmt. Das heißt im Gegenzug: „Die Zeit löst sich langsam auf“, es ist nicht mehr möglich, den Abstand zwischen zwei Punkten A und B zu bestimmen. Ein derartiges Ergebnis ist sicher nicht völlig unintuitiv, denn wie will „man“ diese beiden Punkte lokalisieren in einem Universum, in dem „nichts mehr ist“, und wer ist schließlich „man“? Fragen

Es ist intellektuell natürlich äußerst inspirierend und ungemein stimulierend und beflügelnd, Zukunfts-Szenarien im Rahmen der bestehenden und der nach wie vor sich vertiefenden physikalischen Erkenntnisse zu ersinnen und weiter zu entwickeln, auch wenn diese in ihrer letzten Instanz nicht überprüfbar sind.

Aber:

43

Das inflationäre Universum

BI

G

L

AL

SM

Inhaltsverzeichnis 6.1

Unbeachtete Hinweise, Fragen ohne Antworten – 44

6.2

Masse, Zeit, Raum, Raum-Zeit – 48

6.3

Statisches oder dynamisches Universum? – 53

6.4

Ein dynamisches Universum – es expandiert – 56

6.5

Die Problematik der „Zurückrechnung“ – 59

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 D. Frekers und P. Biermann, Weltall, Neutrinos, Sterne und Leben, https://doi.org/10.1007/978-3-662-65110-0_6

6

44

6.1

Kapitel 6 · Das inflationäre Universum

Unbeachtete Hinweise, Fragen ohne Antworten

Ein Wesen der Physik ist es, Fragen zu stellen, und die tiefsinnigsten Fragen erscheinen nicht selten als trivial und banal. Hier ein Abriss der vermeintlich trivialsten Fragen. Sie alle haben kosmologische Relevanz und stehen in einem direkten oder indirekten Zusammenhang mit dem Phänomen der Inflation.

6

2Zu 1 : Carl Friedrich Gauß ist in den Augen dieser Autoren einer der größten und bedeutendsten Wissenschaftler, Mathematiker, Physiker, Astronomen, Geodäten des ganzen letzten Jahrtausends. Studierende der Naturwissenschaften kennen zur Genüge die Gauß-Funktion, die Gauß-Verteilung, den Gauß’schen Integralsatz, die Gauß’sche Zahlenebene und das Gauß als Einheit der magnetischen Feldstärke, um nur einige ganz wenige der „Gauß“-Maße zu nennen. Gauß beschäftigte sich vor allem mit Geometrie, und er war verwundert, dass die Natur von den unendlich vielen möglichen Geometrien ausgerechnet die eine, völlig singuläre und flache euklidische Geometrie für sich verbucht hatte. Nur in dieser speziellen Geometrie ist die Winkelsumme im Dreieck 180◦ , in jeder positiv gekrümmten, elliptischen Geometrie (ähnlich einer Kugel im 4-dimensionalen Raum) ist sie größer und in jeder negativ gekrümmten, hyperbolischen Geometrie (ähnlich einem Sattel im 4-dimensionalen Raum) kleiner. Dies mag . Abb. 6.1 für den Fall einer 2-dimensionalen Fläche in einem 3-dimensionalen Raum verdeutlichen. Es gelang Gauß durch ein erstaunliches Experiment, die Winkel des durch drei Berge, den Brocken, den Hohen Hagen und den Inselberg, gebildeten Dreiecks mit Seiten 69, 85 und 107 km1 genau zu vermessen, und er stellte wahrscheinlich mit großer Verblüffung fest, dass die Winkelsumme im Rahmen der Genauigkeit tatsächlich 180◦ 1

Diese 3 Berge befinden sich in der Nähe der Stadt Göttingen, an deren Universität Gauß 1807 Direktor des Göttinger Observatoriums wurde. Der Brocken ist etwa 70 km nordöstlich, der Hohe Hagen etwa 17 km südwestlich und der Inselberg etwa 100 km südöstlich von Göttingen entfernt.

45 6.1 · Unbeachtete Hinweise, Fragen ohne Antworten



A α

γ C

A α βB

6

β B

. Abb. 6.1 Darstellung der Krümmung. Nimmt man die kürzeste Verbindungsstrecke zwischen den drei Punkten des Dreiecks A, B, C, so ist links die Winkelsumme größer als 180◦ , und rechts ist sie kleiner

. Abb. 6.2 Der 10 DM-Schein ist Carl Friedrich Gauß und seinem wissenschaftlichen Werk gewidmet. Der Geldschein (hier nur Vorderseite) kam 1991 in Umlauf. Er wurde am 1. 1. 2002 durch den Euro abgelöst

betrug. Eine Erklärung, warum die Natur die euklidische Geometrie bevorzugt, konnte er natürlich nicht geben. Es mag seltsam klingen, aber die kosmische Inflation gibt als einzige Theorie eine elegante und schlüssige Erklärung für dieses Ergebnis sowie auch für die generelle Flachheit des Universums. Dem Wissenschaftler Carl Friedrich Gauß ist der nur kurz im Handel gewesene 10 DM-Schein sowohl auf der Vorder- als auch auf der Rückseite gewidmet (. Abb. 6.2). 2Zu 2 : Bis weit in das 20. Jahrhundert hinein war man gesamtgesellschaftlich immer noch der Auffassung, dass das Universum unendlich ausgedehnt sein müsse (über die Problematik der Unendlichkeit in der Physik ist hier bereits geschrieben worden). Die fundamentale Widersprüchlichkeit eines unendlichen Universums wurde jedoch bereits 1823 von dem deutschen Astronomen Heinrich Wilhelm Olbers formuliert

46

6

Kapitel 6 · Das inflationäre Universum

und ist bekannt unter dem Olbers’schen Paradoxon2 . Es leitet sich aus der einfachen und geradezu banalen Frage ab: Warum ist es eigentlich nachts dunkel? Wer darauf vorschnell antwortet „weil nachts die Sonne nicht scheint“ hat die Tiefgründigkeit der Frage nicht erfasst. Ein unendliches Universum hat naturgemäß unendlich viele Sterne. Zwar nimmt die scheinbare Helligkeit eines Sterns mit dem Quadrat des Abstands ab, aber die Zahl der im Sichtfeld liegenden Sterne nimmt mit dem Quadrat des Abstands zu, sodass die aufsummierte scheinbare Helligkeit konstant und unendlich wird, sowohl tagsüber als auch nachts. Die An- oder Abwesenheit der Sonne ist dabei unerheblich. Offensichtlich war man im 19. Jahrhundert nicht sonderlich bemüht, dieses Paradoxon zu lösen, denn erst A. Einstein griff dieses Problem um 1917 wieder auf. Er schloss, dass das Universum endlich sein müsse – nur wie kann man den äußeren Rand stabilisieren und das Universum daran hindern, dass es gravitativ in sich zusammenfällt? Seine Idee, hierfür eine kosmologische Konstante einzuführen, die dann alles regelt, erwies sich ebenfalls sehr schnell als widersprüchlich. 2Zu 3 : Die Frage nach dem Ursprung der in der klassischen Mechanik eingeführten, sogenannten Scheinkräfte (z. B. die Zentrifugalkraft, die Coriolis-Kraft, die InertialKraft oder Beschleunigungskraft) war lange Zeit Thema eines regen Briefwechsels zwischen Ernst Mach und Albert Einstein. Das Problem lässt sich in einfacher Weise als Frage formulieren: Warum heben sich meine Arme, wenn ich mich drehe? (oder synonym dazu „was ist der Ursprung der Zentrifugalkraft?“). Eine Drehung (oder Rotation) erfordert ein Bezugssystem, gegen welches diese Drehung erfolgt. Dieses Bezugssystem kann nicht die Erde sein, denn diese dreht sich um die Sonne, die sich wiederum mit der Galaxie dreht. Irgendwie dreht sich alles – aber um was? Insbesondere, was geschieht schließlich fernab der Erde, vielleicht sogar fernab der Milchstraße, z. B. in einem Raumschiff im „dunklen“ extragalaktischen Raum, wenn kein offensichtliches Bezugssystem mehr ausgemacht werden kann? Sind die Zentrifugalkräfte die gleichen wie die auf der Erde? Ernst Mach war der Ansicht, dass diese Scheinkräfte durch die „fernen Sterne“ erzeugt werden, denn sie sind die einzigen immer und überall präsenten Objekte, die sich gegenläufig um den Beobachter drehen, wenn dieser sich dreht. Das setzt dann allerdings auch voraus, dass die Sternendichte in allen Richtungen homogen und gleich ist, was jenseits der Skalen von etwa 1 Mrd. Lichtjahren durchaus der Fall ist. Ein schlüssiges mathematisches Konzept für diese Vermutung, welches die Ausdehnung des Universums mitberücksichtigt, ist allerdings bis heute noch nicht entwickelt worden. Wir werden später sehen, dass auch hier dem Phänomen der Inflation eine entscheidende Rolle zukommt.

2

H. W. M. Olbers, Über die Durchsichtigkeit des Weltraums, Aufsatz vom 7. Mai 1823, publiziert in Astronomisches Jahrbuch für das Jahr 1826, S. 110–121. Hrsg. J. Bode., Berlin. – Die Erkenntnis, die Olbers in dem Aufsatz publizierte, war allerdings schon weitaus älter.

47 6.1 · Unbeachtete Hinweise, Fragen ohne Antworten

6

. Abb. 6.3 Das Foucault’sche Pendel. Die Erde (angedeutet durch die Scheibe) dreht sich unter dem Pendel hinweg und erzeugt im Laufe eines Umlaufs die hier lediglich schematisch angedeutete, sternförmige Figur. Die Figur muss nicht unbedingt geschlossen sein

2Zu 4 : Eine nahezu identische Fragestellung ergibt sich aus der Bewegung des Foucault’schen Pendels. Jean-B. Foucault hatte dieses Pendel erstmalig einer staunenden Pariser Öffentlichkeit vorgestellt, um damit zu zeigen, dass die Erde sich tatsächlich dreht. Die Pendelebene bleibt dabei stationär und die Erde dreht sich gewissermaßen unter diesem Pendel hinweg. Am Nord- und Südpol führt dies zu einer scheinbaren Drehbewegung des Pendels von einer vollen Umdrehung in 24 Stunden und in Paris zu einer vollen Umdrehung in 31,8 Stunden3 , entsprechend der Lage 48,8◦ auf dem Breitengrad4 . Und wiederum stellt sich die Frage: Woher weiß das Pendel, was seine Pendelebene bzw. sein Bezugssystem ist, gegenüber dem es sich stationär verhalten muss? Auch hier kommt wieder das Konzept der „fernen Sterne“ und deren homogene Verteilung zum Tragen. Die experimentelle Situation ist in . Abb. 6.3 angedeutet. Ein Foucault-Pendel, welches in Münster eine Aufhängung von 28,75 Meter Länge hat, besitzt eine Schwingungsdauer5 von ca. 10,7 Sekunden und vollführt pro Umlauf etwa 10.200 Schwingungen mit einer gleichen Anzahl der in der . Abb. 6.3 angedeuteten Schwingungsfiguren.

3 4 5

Für Münster (Breitengrad 51,96◦ ) dauert eine Pendelumdrehung 30,47 h. Die Drehfrequenz berechnet sich zu ωParis = ω0 · sin(48,8◦ ) und eine Pendelumdrehung zu TParis = T0 · (1/sin(48,8◦ ).  Die Schwingungsdauer eines idealen (mathematischen) Pendels ist t = 2π l/g mit l der Länge der 2 Aufhängung und g der Erdbeschleunigung (9,81 m/s ).

48

6

Kapitel 6 · Das inflationäre Universum

2Zu 5 : Schließlich kommen wir zu der Frage: Warum gibt es so viele unterschiedliche Dinge im Universum und warum ist das Universum praktisch leer?6 Hier muss die Physik passen, denn eine Antwort darauf gibt es nicht. Ein Vergleichs-Universum, welches man hierbei zurate ziehen und erforschen könnte, ist leider nicht in Sicht. So bleibt einem derzeit nur der Rückzug auf eine philosophische Ebene, welche sich mit dem «anthropischen Prinzip» umrahmen lässt: «das Universum ist so, wie es ist». Es hängt von einer Vielzahl unabhängiger Variablen ab, die in einer bemerkenswert ausgesuchten Weise festgelegt zu sein scheinen und welche es ermöglichen, Intelligenz zu entwickeln, sodass spätestens 13,81 Mrd. Jahre nach seiner Geburt das Universum in der Lage ist, über sich selbst zu reflektieren. Jede kleinste Änderung dieser Variablen ließe dieses möglicherweise nicht mehr zu, und die anfängliche Frage käme gar nicht auf.

6.2

Masse, Zeit, Raum, Raum-Zeit

1 Masse Masse als etwas „Materielles“ anzusehen, ist sicherlich ein generell brauchbares Konzept. Allerdings ist das Aussehen, die Farbe, die Konsistenz, die Härte eines Materials oder auch die sehr subjektive Vorstellung eines Stoßes mit einer anderen Masse letztendlich allein der «elektromagnetischen» Wechselwirkung geschuldet. Alle diese verschiedenen Erscheinungsformen von Stoffen und Materie lassen sich ausnahmslos zurückführen auf die kollektiven Eigenschaften der Elektronen in einem atomaren Verbund oder auf die Verteilung der elektrischen Ladungen in einem Festkörper. Alle Massen unterliegen zudem der «gravitativen» Wechselwirkung, und in der Allgemeinen Relativitätstheorie kommt der Masse eine allgemeinere Bedeutung zu. Masse erzeugt (oder ist sogar) eine „Delle“ im Raum-Zeit-Gefüge. Diese „Delle“ widersetzt sich einer Änderung der Bewegung, so wie man es von einer Masse kennt. Diese Erweiterung des Begriffs hat einen zusätzlichen Vorteil: Der leere Raum hat nicht mehr notwendigerweise die Energie „Null“, da ja das Zentrum der Masse immer einen tiefer liegenden Energiezustand im Raum-Zeit-Gefüge einnimmt. In der Praxis bedeutet das, dass man den leeren Raum auf der Energie-Skala „herauf- und herunterschieben“ kann. Für das Verständnis der Inflation wird dies ein wichtiger Aspekt, und auch für eine Deutung der „Dunklen Energie“ im Universum könnte dies ein wichtiger Anhaltspunkt sein. Die . Abb. 6.4 soll dies verdeutlichen, wobei hier die 2-dimensionale Fläche mit einer „Delle“ im 3-dimensionalen Raum dargestellt ist. Die Projektion visualisiert diesen Effekt deutlicher. Masse erzeugt in der ihr umgebenden Raumkugel eine „Verdichtung“ des Raums. Diese „Delle“ im Raum ändert die Geometrie des Raums – man erinnere sich an Carl Friedrich Gauß im vorangegangenen Abschnitt – Parallelen sind plötzlich 6

Die mittlere Dichte des Universum ist ≈ 5 × 10−30 g/cm3 für „normale“ Materie oder ca. ein Wasserstoffatom pro m3 .

49 6.2 · Masse, Zeit, Raum, Raum-Zeit

6

M . Abb. 6.4 Masse als „Delle“ im Raum (hier als 2-dimensionale Delle im 3-dimensionalen Raum). Die Projektion soll die Verdichtung des Raums in Anwesenheit der Masse darstellen

scheinbare Sternpositionen mit Sonne im Vordergrund, verdeckt von der Mondsichel bei Sonnenfinsternis

Sonnenfinsternis

tatsächliche Sternpositionen ohne Sonne

Beobachter

0´´ 0,5´´ 1,0´´

Skala der Ablenkung 1°



Sonne

. Abb. 6.5 Veränderung der Sternpositionen nahe der Sonnenscheibe gemessen während der Sonnenfinsternis am 29. Mai 1919. Das obere Bild visualisiert diesen Effekt, das untere Bild zeigt die Messergebnisse für Sterne in der 2◦ -Umgebung um die Sonnenscheibe. Die Krümmungseffekte sind trotz der großen Sonnenmasse klein und liegen im Bereich von einer Bogensekunde (1  ) und kleiner (Skala der Pfeile oben links). Die Tatsache, dass die Pfeile im Bild nicht exakt radial nach außen zeigen, ist der damaligen begrenzten Messgenauigkeit geschuldet

50

6

Kapitel 6 · Das inflationäre Universum

nicht mehr parallel, und die Winkelsumme im Dreieck ist nicht mehr 180◦ . Es war deshalb eine der faszinierendsten Entdeckungen im 20. Jahrhundert, als Arthur Eddington am 29. Mai 1919 im Zuge einer totalen Sonnenfinsternis die von der Masse der Sonne erzeugte Raumkrümmung tatsächlich messtechnisch erfassen konnte. Besonders günstig war zu diesem Zeitpunkt zudem die Konstellation der Sonnenscheibe inmitten des Sternhaufens der Hyaden, sodass die scheinbaren Positionsänderungen sehr vieler Sterne gleichzeitig erfasst werden konnten. Die von der Sonne erzeugte Raumkrümmung führte dazu, dass Sterne, deren berechnete Positionen nahe der Sonnenscheibe lagen, in ihrer geradlinigen Sichtlinie von der Scheibe weiter entfernt erschienen. Die gemessenen Effekte waren erwartungsgemäß klein und betrugen lediglich Bruchteile einer Bogensekunde. Dies ist in . Abb. 6.5 dargestellt. Mit den heutigen Messgenauigkeiten werden diese massebedingten Effekte mit hoher Genauigkeit und in immer besserer Übereinstimmung mit der Allgemeinen Relativitätstheorie bestätigt. 1 Zeit Zeit ist in der Physik nach wie vor eine sehr merkwürdige Koordinate. Sie kennt nur eine Richtung – wahrscheinlich kausalitätsbedingt – sie ist aber trotzdem nicht absolut. Zusammen mit dem Raum machen beide die Raum-Zeit (siehe eine freie Gestaltung in . Abb. 6.6). Dieses ist der Tatsache zuzuschreiben, dass eine der beiden Koordinaten, Zeit oder Ort, redundant ist. Die Zeitspanne t und die Distanz x sind verknüpft durch die Naturkonstante der Lichtgeschwindigkeit c vermöge der Relation x = c·t. Das bedeutet, man kann eine Distanz auch durch eine Zeit ausdrücken und umgekehrt, z. B. ist 1 Meter äquivalent zu ≈ 3,3 Nanosekunden und ein Jahr äquivalent zu ≈ 1013 km (=1 Lichtjahr). Völlig unintuitiv wird es, wenn man feststellen muss, dass die Lichtgeschwindigkeit eine endliche und vor allem absolute Größe ist. Sie ist unabhängig von

. Abb. 6.6

Verzerrte Raum-Zeiten

51 6.2 · Masse, Zeit, Raum, Raum-Zeit

6

der Bewegungsrichtung des Systems, welches Licht aussendet, oder andersherum formuliert, die Partikular-Geschwindigkeit v eines Systems und die Lichtgeschwindigkeit c addieren sich nicht, wie man annehmen könnte, zu c = c ± v . Im Kapitel über Relativität und Schwarze Löcher wird dieses Phänomen noch einmal gesondert beleuchtet. Noch Johannes Kepler war von der Unendlichkeit der Lichtgeschwindigkeit überzeugt, ohne dabei die Widersprüchlichkeit zu erkennen, denn dann wäre alles Licht des Universums instantan überall. Licht ließe sich nicht „ausknipsen“. 1 Raum, Raum-Zeit Da Licht der Träger von Information ist, oder noch strenger formuliert, da jegliche Information nur mit der maximalen Geschwindigkeit c transportiert werden kann, folgt unmittelbar, dass jeder Blick in die Ferne gleichbedeutend ist mit einem Blick in die Vergangenheit. Im täglichen Leben spielt dies kaum eine Rolle, denn alle Zeiten sind zu kurz, als dass man sich über die wenigen Nanosekunden Zeitverzögerung beim Anblick seines Gesprächspartners Gedanken machen müsste. Bei der Sonne ist die Entfernung von ca. 8 min schon erheblich und bei dem Doppelstern α -Centauri von 4,3 Jahren bereits beachtlich. Das bedeutet, dass ein heutiges Ereignis auf diesem Nachbarstern erst nach etwa 4,3 Jahren in den Ereignishorizont „Erde“ eintritt.

1 Eine Zeitreise Mit der Erkenntnis, dass ein Blick in die Ferne äquivalent zu einem Blick in die Vergangenheit ist, ist es instruktiv, sich nun auf eine Zeitreise in die Vergangenheit zu begeben (siehe . Abb. 6.8): Der Mond ist 384.400 km von der Erde entfernt, das entspricht 1,28 Lichtsekunden, die Sonne ist bereits 8 Minuten und 16 Sekunden entfernt. Der Nichtmehr-Planet Pluto mit seinem Begleiter Charon bringt es bereits auf ca. 4–6 Stunden, je nach Position, und das nächste Sonnensystem, das Doppelsternsystem α -Centauri A und B, ist 4,3 Lichtjahre entfernt.

7

Am 24. Februar 1987 explodierte in der Großen Magellan’schen Wolke, ca. 163.000 Lichtjahre von der Erde entfernt, die Supernova SN1987 A.

52

Kapitel 6 · Das inflationäre Universum

time

t= 24. Feb. 1987

on

i sit

Po

A‘

Weg des Lichts von B nach A

t

.

A

6

B‘

. x=ctt

B

Position . Abb. 6.7 Ereignishorizonte: Zum Zeitpunkt t = 0 explodiert in B eine Supernova. Ist B 163.000 Lichtjahre von A entfernt, wird A von diesem Ereignis erst 163.000 Jahre später, d. h. wenn auf der Zeitachse in A’ angekommen, Kenntnis erlangen

Die bereits erwähnten Hyaden, die aus einer Ansammlung von ca. 350 eng benachbarten Sternen bestehen, sind etwa 151 Lichtjahre entfernt und die Entfernung zum Zentrum der Milchstraße mit ihrem super-massereichen Schwarzen Loch beträgt sichere 27.000 Lichtjahre. Die der Milchstraße am nächsten liegende Galaxie mit einer zu ihr vergleichbaren Größe ist die Andromeda-Galaxie, und sie erscheint uns heute so, wie sie vor 2,54 Mio. Jahren aussah. Der Virgo-Haufen mit seinen ca. 2000 Galaxien ist zwischen 50–65 Mio. Lichtjahre entfernt, und einige ihrer Bewohner schauen sich wohl gerade das Aussterben der Dinosaurier auf der Erde an. Ein großer Sprung führt uns 2,44 Mrd. Lichtjahre in die Vergangenheit zu dem uns nächstgelegenen Quasar 3C271 („Quasi-Stellar Radio Source“), dessen Entfernung von der Erde sich pro Sekunde um ca. 50.000 km erhöht. Quasare stoßen gewaltige Energien aus, beziffert bis über dem 1012 -fachen der Sonne. Diese Energien werden erzeugt, wenn ein extrem massereiches Schwarzes Loch riesige Mengen an Materie in sich hineinreißt. Die in den letzten Jahren entdeckten ersten Proto-Galaxien datieren zurück auf ca. 13 Mrd. Jahre und sind möglicherweise die ersten kompakten Objekte nach dem „Big Bang“. Ihre Fluchtgeschwindigkeiten liegen bei ca. 90 % der Lichtgeschwindigkeit. Schließlich erreichen wir mit dem Zeitpunkt der Rekombination, d. h. ca. 380.000 Jahre nach dem „Big Bang“ oder vor ca. 13,8096 Mrd. Jahre, die sichtbare Grenze des Universum, deren Zeugnis die mittlerweile auf 2,725 K abgekühlte Mikrowellen-Hintergrundstrahlung ist. Die weitaus interessantere Physik passiert allerdings hinter diesem Vorhang, und nur Neutrinos und Gravitationswellen können diesen Vorhang noch ungehindert durchdringen. Und bis zum Endpunkt „Big Bang“ ist es dann immer noch eine weite und überaus spannende Reise.

6

53 6.3 · Statisches oder dynamisches Universum?

Hyaden

α-Centauri Pluto mit Charon NASA

NASA, ESA, STScI

NASA/JHUAPL/SWRI

Sonne

Mond

ESA/NASA/SOHO/EIT

ALPHA ALPHA CEN α-Centauri

151 Jahre

4,3 Jahre

M87 Virgo-Haufen

Andromeda Galaxie

4-6h

8 min 16 s

Supernova 1987a vorher nachher © Australian Astronomical Observatory Credit: David Malin

ESO

50 - 65 Mio. 2,54 Mio. Jahre Jahre

163.000 Jahre

1,28 s

Zentrum der Milchstraße Moondigger CC BY-SA 2.5

26.500 Jahre

Rekombination & Ursprung der Hintergrund-Strahlung Erste Galaxien Quasar 3C273 NASA/ESA

+ 0,04 Mrd. ~13,81 Jahre . Abb. 6.8

6.3

~13,8096 Mrd. Jahre

ESA/Hubble

~ 13 Mrd. Jahre

2,44 Mrd. Jahre

Zeitreise in die Vergangenheit zurück zum „Big Bang“

Statisches oder dynamisches Universum?

Die Einführung der Relativitätstheorie und insbesondere ihre Erweiterung zur Allgemeinen Relativitätstheorie im frühen 20. Jahrhundert erzeugte in den beiden Wissenschaftszweigen Kosmologie und Astronomie eine außerordentliche Dynamik, die auch manche Irrläufer hervorbrachte. Selbst Einstein stolperte wohl so manches Mal über seine eigenen Gleichungen, denn die physikalischen Konsequenzen schienen so unrealistisch und abwegig, dass eine fest etablierte Weltordnung plötzlich zur Disposition zu stehen schien. Allerdings, experimentelle Hinweise für die eine oder andere Variante einer Kosmo-Theorie gab es nicht, mit Ausnahme vielleicht des Michelson-Morley-Experiments, welches die Konstanz der Lichtgeschwindigkeit bezeugte.

54

Kapitel 6 · Das inflationäre Universum

Foto ~1920, ETH-Bildarchiv

Archive Univ. Chicago

gemeinfrei

Albert Einstein (1879-1955)

Willem de Sitter (1872-1934)

Archives de l'Université catholique de Louvain

Alexander Friedmann Georges Lemaître (r) (1888-1925) (1894-1966)

Univ. Chicago /Alumni

Edwin Hubble (1889-1953)

. Abb. 6.9 Die Pioniere der frühen Kosmologie

6

Noch 1917 war Einstein der Meinung, das Universum sei endlich und statisch, doch seine sogenannten Feldgleichungen gaben diese Eigenschaft nicht her. Die Addition einer kosmologischen Konstante „“ sollte dieses Problem lösen, eine große Dummheit („größte Eselei“), wie er später zugab; denn in einem endlichen und statischen Universum, welches sprichwörtlich „von außen“ durch eine (einzige) kosmologische Konstante fixiert wird, müsste schließlich jede Bewegung und damit jede Änderung der gravitativen Verhältnisse unweigerlich zum Kollaps führen. Auch das noch bis in die 1930er-Jahre diskutierte De-Sitter-Modell8 stellte zwar eine (besonders einfache) Lösung der Feldgleichungen dar, hatte aber einen ernst zu nehmenden Schönheitsfehler – dieses Universum war absolut leer, keine Massen, keine Kräfte, mit einer entweder expandierenden oder einer statischen Ausprägung, je nach Wahl der Anfangsbedingungen. Der russische Physiker und Mathematiker Alexander Friedmann9 hatte bereits 1922 einen weitgehend unbeachteten Lösungsvorschlag ohne kosmologische Konstante erarbeitet. Sein Vorschlag setzte lediglich eine homogene Massenverteilung im Universum voraus10 . Die aus den Feldgleichungen extrahierten Bewegungsgleichungen ergaben je nach Massendichte ein expandierendes oder kontrahierendes Universum. Georges Lemaître11 entwickelte 1927 unabhängig von Friedmann die gleichen Bewegungsgleichungen, welche allerdings in einer einfacheren Notation erschienen12 . Zudem zeigte er, dass jede dynamische Lösung der Feldgleichungen beim Zurückrechnen auf eine Anfangszeit t = 0 zu einem singulären, punktförmigen Universum (dem „Big Bang“) führt. Lemaître gilt deshalb auch als der «Vater des Urknalls». Des Weiteren wurde im Jahr 2018 das nach E. Hubble benannte HubbleGesetz auch mit seinem Namen versehen und heißt nun Hubble-Lemaître-Gesetz. Die Pioniere der frühen Kosmologie sind in der . Abb. 6.9 abgebildet. 8 9

Benannt nach dem niederländischen Kosmologen Willem de Sitter (1872–1934). Alexander Friedmann (1888–1925), russischer Physiker und Mathematiker.

10 A. Friedmann, Über die Krümmung des Raumes, Zeitschrift für Physik 10, 377 (1922). 11 Georges Lemaître (1894–1966), belgischer Physiker, Priester und späterer päpstlicher Prälat. 12 G. Lemaître, Un Univers homogène de masse constante et de rayon croissant rendant compte de la vitesse radiale des nébuleuses extra-galactiques, Annales de la Société Scientifique de Bruxelles A47, 49 (1927).

55 6.3 · Statisches oder dynamisches Universum?

Kurzer mathematischer Abstecher Die Einstein’schen Feldgleichungen in relativistischer Formulierung bestehen aus einem System von 256 gekoppelten, nichtlinearen Differenzialgleichungen 2. Ordnung in 4-dimensionaler Notation. Sie lassen sich unter Ausnutzung von Symmetrien sowie bei Isotropie und Homogenität der Massenverteilungen und Massendichten herunterbrechen auf einen Satz von recht einfachen Gleichungen. Die Friedmann’schen Bewegungsgleichungen sind solche Gleichungen; sie implizieren relativ einfache und vernünftige Annahmen und schreiben sich in einfachster Form ohne eine kosmologische Konstante: Gl. (I) Gl. (II)

2

˙ 2 + kc2 ¨ R p R + = −8π G 2 2 R R c ˙ 2 + kc2 8π R Gρ(t) = 3 R2



 ¨ p=0 = 0 fur

Bedeutung der Parameter: R ˙ R ˙ R/R ¨ R/R k c G ρ(t) p

Größe einer beliebigen Skala (z. B. Mpc) zeitliche Änderung dieser Skala relative zeitliche Änderung dieser Skala (identisch zur Hubble-Konstante) (z. B. (km/s)/Mpc = Einheit der Hubble-Konstante) relative beschleunigte Änderung dieser Skala (positiv für Beschleunigung, negativ für Abbremsung) Krümmungsparameter (k = −1, 0 oder +1) für negative, keine oder positive Krümmung Lichtgeschwindigkeit Gravitationskonstante Energiedichte zur Zeit t (impliziert alle Massen- und Energieformen) Druck im Universum – für ein strahlungsdominiertes Universum ist p positiv für ein „Kaltmasse“-dominiertes Universum ist p = 0.

Im Fall einer kosmologischen Konstante  (z. B. Dunkle Energie) ersetze:

Gl. (III) Gl. (IV)

c2 8π G c4 p→p+ 8π G ρ→ρ−

Die erste Friedmann-Gleichung (I) besagt: Die Stärke der Abbremsung hängt quadratisch von der Geschwindigkeit der Expansion ab, wobei ein möglicher Druck-Term die Abbremsung für p > 0 verstärkt oder für p < 0 zu einer Beschleunigung führt (z. B. für ein entsprechendes  < 0 in Gl. (IV)). Die zweite Friedmann-Gleichung (II) besagt: Das Quadrat der Expansionsgeschwindigkeit wird kompensiert durch das

6

56

Kapitel 6 · Das inflationäre Universum

Produkt aus Gravitation und Massendichte – oder: Mit abnehmender Massendichte (d. h. mit zunehmendem Alter des Universums) wird die Expansion langsamer (beachte:  in Gl. (III) trägt zur Massendichte bei). Zum besseren Verständnis setze man einfach k = 0 in Gl. (I) und (II). Im Nachhinein stellt sich heraus, dass die beiden Friedmann-Gleichungen auch aus der klassischen Newton’schen Physik herleitbar sind. Lediglich der Krümmungsparameter k und die Konstante , wenn beide ungleich 0, bleiben in diesen Gleichungen als einziges Relikt aus der Relativitätstheorie hängen.

Hier eine Analogie als Erklärungshilfe für die weiteren Kapitel:

6

6.4

Ein dynamisches Universum – es expandiert

Die Frage, ob das Universum tatsächlich expandiert, wie es die Friedmann’schen Gleichungen nahelegen, wird schließlich 1929 von dem amerikanischen Astronom Edwin Hubble experimentell positiv beantwortet. Diese Erkenntnis war epochal, und verständlicherweise werden sofort Erinnerungen an den Ausspruch „tamensi movetur!“ (lat.) oder „eppur si muove!“ (it.) („und sie bewegt sich doch!“) wach, welcher Galilei der Legende nach ziemlich genau 300 Jahre zuvor getätigt haben soll, nachdem er gezwungen wurde, dem heliozentrischen Weltbild abzuschwören. Hubble gelang es, in mühevoller Kleinarbeit die spektralen Frequenzverschiebungen mit den Distanzen zu 24 Galaxien zu korrelieren, und er entdeckte dabei, dass mit zunehmender Entfernung die Rotverschiebungen des ankommenden Lichts ausnahmslos zunahmen13 . Rotverschiebungen, d. h. die „Streckung“ der

13 Edwin Hubble, A relation between distance and radial velocities among extra-galactic nebulae, Proceedings of the National Academy of Sciences 15, No. 3, 168 (1929).

57 6.4 · Ein dynamisches Universum – es expandiert

Lichtquelle

6

Beobachter

relativ in Ruhe keine Verschiebung relative Annäherung Blauverschiebung relative Wegbewegung Rotverschiebung

. Abb. 6.10

Optischer Doppler-Effekt

Wellenlängen λ, entstehen aufgrund des Doppler-Effekts wenn sich die Quelle vom Beobachter weg bewegt, in direkter Analogie zur Akustik (siehe . Abb. 6.10). Die Rotverschiebung z ist für kleine z (z  0, 2) in einfacher Weise verknüpft mit der Fluchtgeschwindigkeit v: λBeobachter − λQuelle λ = λQuelle λQuelle v = z·c z=

Bei den Entfernungsbestimmungen konnte sich E. Hubble der PeriodenLeuchtkraft-Beziehung von Cepheiden bedienen, welche Henrietta Leavitt14 bereits 1912 entdeckt hatte15 . Damit gelang es ihm, durch die Beobachtung von einer Reihe von Cepheiden in diesen 24 Galaxien die jeweiligen Entfernungen bis hin zu 2 Mpc zu bestimmen. So lautet dann das bis heute gültige Hubble-LemaîtreGesetz für die Fluchtgeschwindigkeiten von Galaxien: v = H0 · D mit H0 der Hubble-Konstante und D der Entfernung. 14 Henrietta Swan Leavitt (1866–1921), amerikanische Astronomin. Sie entdeckte 1912 die PeriodenLeuchtkraft-Beziehung der „veränderlichen Sterne“ (Cepheiden) in unserer Begleiter-ZwergGalaxie der Kleinen Magellanschen Wolke. Die Perioden-Leuchtkraft-Beziehung stellt einen eindeutigen Zusammenhang her zwischen der absoluten Leuchtkraft von Cepheiden und deren veränderlichen Perioden – je größer die abgestrahlte Lichtmenge desto länger die Periode. Die Erstellung dieses Zusammenhangs war möglich, da die Entfernung zur Kleinen Magellanschen Wolke [ca. 202.000 Lichtjahre, Wert v. 2013, siehe „The Astrophysical Journal“, Vol. 230, No. 1, 59 (2013)] bereits bekannt und damit für alle Cepheiden näherungsweise gleich war. Henrietta Leavitt legte mit ihrer Arbeit den Grundstein zur Verwendung der Cepheiden als „Standardkerzen“ für die Entfernungsbestimmungen von Galaxien bis zu etwa 100 Mio. Lichtjahren (ca. 30 Mpc). Ihre Arbeiten wurden zu ihren Lebzeiten jedoch kaum gewürdigt. 15 Henrietta S. Leavitt und Edward C. Pickering, Periods of 25 variable stars in the Small Magellanic Cloud, Harvard College Observatory Circular 173, 1 (1912).

58

6

Kapitel 6 · Das inflationäre Universum

A

B

C

D

E

. Abb. 6.11 A: Die Erde (roter Pfeil) als subjektiver Mittelpunkt des Universums mit dem Sternenhimmel. B: Der mit der Hubble-Konstante expandierende Sternenhimmel mit der Erde als Mittelpunkt C: Die Überlagerung von A und B zeigt, wie sich die Sterne radial von der Erde wegbewegen D: Die Überlagerung von A und B bezogen auf einen beliebigen anderen Stern (grüner Pfeil) zeigt, wie sich Sterne in gleicher Weise radial von diesem Stern wegbewegen E: Die Überlagerung von A und B bezogen auf die Erde (roter Pfeil) und bei Rotation des Universums (hier um 4◦ ) zeigt, wie sich Sterne jetzt sowohl radial als auch tangential von der Erde wegbewegen

59 6.5 · Die Problematik der „Zurückrechnung“

6

Von E. Hubble noch mit 465 ± 50 (km/s)/Mpc angegeben, ist der heutige, sehr viel genauere und durch viele unabhängige Methoden bestimmte Wert der HubbleKonstante H0 = 74,3 ± 2 (km/s)/Mpc, wobei sich die Fachwelt über die Größe des Fehlers und den von der Planck-Kollaboration ermittelten, etwas kleineren Wert von H0 = 67,7 ± 0,4 (km/s)/Mpc noch streiten mag16 . ? Frage: Wenn nun alle Sterne und Galaxien sich vom Bezugspunkt Erde wegbewegen, ist dann die Erde vielleicht doch der Mittelpunkt des Universums?

6.5

Die Problematik der „Zurückrechnung“

Die Erkenntnis, dass das Universum sich ausdehnt, hat logischerweise zur Folge, dass Abstände zwischen den Galaxien in der Vergangenheit kleiner waren, und auch, dass die Temperatur der Hintergrundstrahlung in früheren Zeiten höher bzw. die Strahlung energiereicher war. Die Lösungen der Friedmann’schen Gleichungen geben dies in schlüssiger Weise her. Aber selbst wenn man davon absieht, dass diese Gleichungen bei der Zeit t = 0 zu einer unphysikalischen Singularität führen, hat diese Logik bereits zu Beginn einige Erklärungsprobleme. Eines davon ist das sogenannte «Horizontproblem», ein anderes das «Flachheitsproblem». Es ist denkbar, dass Einstein bereits über diese Probleme reflektiert hat, denn beide Probleme treten in seinem statischen, endlichen Universum nicht auf.

16 Planck Collaboration, Planck 2018 results. VI. Cosmological parameters, Astronomy & Astrophysics 641, A6 (2020), und arXiv:1807.06209v2 [astro-ph.CO] (2019).

60

Kapitel 6 · Das inflationäre Universum

1 Das Horizontproblem Das Horizontproblem lässt sich am einfachsten erklären mittels eines Gedankenexperiments:

6

Dieses Beispiel zeigt, dass mit zunehmendem Alter eines Universums, welches expandiert, immer mehr Galaxien in den Ereignishorizont „Erde“ eintreten. Schaut man nun auf die räumliche Verteilung von Galaxien wie in . Abb. 6.12, so sieht man, dass die neu hinzu gekommenen Galaxien das gleiche Muster, die gleiche Verteilung, die gleiche Dichte aufweisen wie die, die bereits im Ereignishorizont liegen. ? Die Frage, die sich daran anschließt ist: Wie kann es sein, dass die Galaxienverteilung und die Galaxiendichte außerhalb unseres (und jedes anderen) Ereignishorizonts jenen innerhalb des jeweiligen Ereignishorizonts exakt gleichen?

Man erinnere sich an das Foucault’sche Pendel. Wenn das Mach’sche Prinzip Gültigkeit besitzt, nämlich dass die feste Schwingungsebene bestimmt ist durch die Lage der „fernen Sterne“, so war hier bereits ein Hinweis für die außerordentliche Homogenität des Universums auf großen Skalen gegeben. Diese Homogenität wird offensichtlich nicht gebrochen durch die immerwährend neu hinzukommenden Bereiche. Eine ähnliche Argumentation ergibt sich aus der Mikrowellen-Hintergrundstrahlung, die in der Rotverschiebungsepoche bei z  1100 freigesetzt wurde. 17 Der Zusammenhang zwischen dem Radius R,  dem Alter  t und der Rotverschiebung z des Universums ist in guter Näherung gegeben durch:

t theute

2/3

1 . = R R = (z+1) heute

6

61

10 h

6.5 · Die Problematik der „Zurückrechnung“

0

e

11 h

Ro

5

0,1

2h

i ch rs e tv ,10

0,2

h 3

g

n bu

0

5

0h

h 13

1h

12 h

0,0

0,

70 1,

h 14

rd

34

.L

ic

ht

1,

ja

e

95 2, 51

22 h

hr

23 h

M

. Abb. 6.12 Galaxienverteilung gemessen mit dem angloaustralischen „2dF“ (2 degree Field)-Teleskop. Bestimmt wurden die Rotverschiebungen von ca. 220.000 Galaxien im Zeitraum zwischen 1995 und 2002. Angegeben sind ebenfalls die Stundenkreise ihrer Lagen

Photonen dieser Strahlung, die von rechts oder von vorne kommen, und solche, die aus entgegengesetzter Richtung, d. h. von links oder von hinten kommen, treffen „heute“ im Detektor zum ersten Mal aufeinander. Sie stammen aus kausal nichtzusammenhängenden Bereichen und weisen dennoch auf exakt die gleichen Temperaturen in diesen Bereichen hin. ? Die Frage, die sich daran anschließt ist: Wie kann es sein, dass die Temperaturen in Bereichen, die in der Vergangenheit offenbar nie in einem kausalen Zusammenhang standen, exakt gleich waren?

1 Das Flachheitsproblem Das Universum zeigt auf großen Skalen keine Krümmung, es ist flach und die Geometrie ist euklidisch. Man erinnere sich an Carl Friedrich Gauß, der über diese Erkenntnis bereits verblüfft war. Dieses Phänomen ist umso erwähnenswerter, als es auf lokalen Skalen Dichteschwankungen von bis zu 44 Größenordnungen gibt. So ist die mittlere Dichte des Universums ca. 5×10−30 g/cm3 und in Neutronensternen einige 1014 g/cm3 . Das Universum ist zwar homogen, aber gleichzeitig auch maximal „verklumpt“. Ein weiteres erstaunliches Phänomen kommt hinzu. Die mittlerweile durch viele unterschiedliche Messungen bestimmte Materiedichte (besser: Energiedichte) ρ des Universums ist innerhalb der Messgenauigkeit gleich der kritischen Dichte. In einem einfachen Bild lässt sich diese kritische Dichte herleiten aus dem Zusammenspiel von Gravitation und der sich dieser Form der Anziehung widersetzenden Expansion. Sie ist dann dadurch gekennzeichnet, dass die Expansion des Universums zur Zeit t = ∞ zum Stillstand kommen würde18 . Dieses durch eine Formel ausgedrückt: 18 Zur Herleitung benutzt man in der Physik den Virialsatz.

62

Kapitel 6 · Das inflationäre Universum

26,1 % nicht-baryonische “dunkle” Materie

4,9 % nicht-leuchtende baryonische Materie 0,4% leuchtende baryonische Materie

68,9 % “dunkle” Energie

6

. Abb. 6.13 Komponenten des Universums. Unter „leuchtend“ soll hier leuchtend im sichtbaren Bereich verstanden werden (vgl. auch Seite 97)

(

ρ ρkrit

) = krit = B + dark-M + dark-E = 0,99 ± 0,01 (expmtl.)

Hierbei sind B der Dichte-Anteil der „normalen“ oder auch baryonischen Materie, dark-M jener der unbekannten, lediglich gravitativ wechselwirkenden „dunklen“ Materie und dark-E der Anteil der völlig fremdartigen „dunklen“ Energie. Letzterer ist gleichbedeutend mit einer kosmologischen Konstante „“ – und ja !, von Einstein verworfen, kommt diese ein Jahrhundert später wieder zurück, allerdings aufgrund eines anderen physikalischen Sachverhalts. Die jeweiligen experimentell bestimmten Werte dafür sind ca. 5 %, 26 % und 69 %19 (siehe auch 7 Kap. 8). Die Anteile sind in der . Abb. 6.13 ohne die Fehlerangaben veranschaulicht. Die Tatsache, dass dieser experimentelle -Wert mit = 1 kompatibel ist, ist vielleicht nicht sonderlich überraschend. Überraschend ist jedoch die nachträgliche Erkenntnis, dass in einem expandierenden (d. h. in unserem) Universum dieser Wert im frühesten Universum mit einer extremen Genauigkeit auf = 1 „getuned“ werden muss, um dieses Universum stabil zu halten. Schon eine Abweichung in der Größenordnung von „ε = 0,000...50 Nullen !! ....x“ hätte bereits katastrophale Auswirkungen. So würde ein Wert größer als 1 zum frühen Kollaps des Universums führen und ein Wert kleiner als 1 zu einer zu schnellen Expansion, welche die Bildung von Strukturen wie Galaxien und Sterne unmögliych macht. Diese Argumentation folgt zwangsläufig aus den Friedmann’schen Gleichungen, sie ist aber auch intuitiv nachvollziehbar und zu verstehen. Jedoch zunächst die mathematische Argumentation:

19 Der leuchtende (sichtbare) Sternen-Anteil enthalten in B ist lediglich 0,4 %. Hintergrund-Neutrinos oder auch die Hintergrund-Photonen tragen nur einen vernachlässigbaren Anteil zur Gesamtenergiedichte bei.

63 6.5 · Die Problematik der „Zurückrechnung“

Aus den Friedmann’schen Gleichung lässt sich folgender Zusammenhang extrahieren

  1 − −1 (t) · ρ(t) · R2 (t) = k [k = 1, 0, −1] ,

wobei R(t) wiederum ein beliebig zu definierender Skalenfaktor ist. Ist ρ(t) = ρkrit , dann ist (t) = krit = 1 und der linke Ausdruck ist Null für alle endliche Skalen. Auch für die Krümmung folgt dann k = 0. Da ρ(t) ∝ R−3 (t) (da Dichte = Masse pro Volumen) folgt aus obiger Gleichung: ρ(t)R2 (t) ∝ 1 R(t), sodass

  1 − −1 (t) · R−1 (t) = k [k = 1, 0, −1] .

Wenn nach t = 13,81 Mrd. Jahren (d. h. heute) festgestellt wird, dass (t = heute) = 0,99 ist, dann folgt, um obige Gleichung (mit k = −1) zu erfüllen: R−1 (t = heute) = 99 [willk. Einheiten]. In der Planck-Epoche ist die Skala R(t) aber um 40–70 Größenordnungen kleiner und somit R−1 (t) in der obigen Gleichung um 40–70 Größenordnungen größer, sodass zu dieser Zeit gelten muss: −1 = 1 + 0,0000......ca. 40–70 Nullen !!.....000x oder = 0,99999......ca. 40–70 Neunen !!.....9999x, was für die Anfangsbedingungen des Universums ein beachtliches „Fine-tuning“ darstellt!

Folgender Gedankengang liefert eine intuitive Erklärung:

6

64

Kapitel 6 · Das inflationäre Universum

? Wiederum die Frage: Wer oder was kann die Anfangsbedingungen für die Entwicklung des Universums so extrem genau „tunen“ – und warum sollte Sie oder Er oder Es dies tun ?

6

1 Die Inflation als Lösung Die kosmische Inflation ist eine von Alan Guth20 vorgeschlagene Idee, um das Problem des „Fine-tunings“ der Anfangsbedingungen zu umgehen21 . Die Idee wurde in der Folge von Andrei Linde22 weiterentwickelt und ist heute eine weitgehend akzeptierte Theorie. Die Inflation beschreibt einen Phasenübergang des Universums, welcher bei etwa 10−35 –10−30 Sekunden angesetzt wird und damit zeitlich genügend weit entfernt ist, um sich dem Einflussbereich unbekannter und die Kausalität verletzender Physik in der unmittelbaren Nähe der Planck-Zeit von tP ≈ 5 × 10−44 s und der Planck-Temperatur von TP ≈ 1032 K sicher zu entziehen. Als Folge dieses Phasenübergangs vergrößert sich das Universum (bzw. die Raum-Zeit) um ca. 40–70 Größenordnungen, je nach Wahl der Parameter. Raum-Zeit-Bereiche, die bislang kausal verbunden waren und gemeinsame Zustandsparameter besaßen, werden nun getrennt, wobei aber alle ursprünglichen Informationen über den anfänglichen Zustand in den sich ausdehnenden Raum mit übertragen werden. Der Informationsaustausch für Bereiche, die von nun an zeitlich jenseits der Reichweite des Lichts liegen, ist damit unterbrochen. Erst zu einem späteren Zeitpunkt, und das sogar bis hin zu 13,81 Mrd. Jahren, berühren sich wieder jene Ereignishorizonte (siehe z. B. . Abb. 6.7), wobei sich die bis dato getrennten Bereiche parallel in gleicher Weise entwickelt haben, zumindest was Temperatur, Dichte und Strukturbildung angeht. Da zum Zeitpunkt der Kausalität zusätzlich Homogenität herrschte, so bleibt auch diese Eigenschaft nach der Inflation in allen Bereichen erhalten. Inflation ist also ein Gedankengang, welcher das Horizontproblem, aber auch das Flachheitsproblem zu lösen vermag. Die Situation ist in . Abb. 6.14 grafisch veranschaulicht. Kausal verbundene Bereiche während der vorinflationären Phase (hier: unterhalb der roten Linie) trennen sich als Folge der Inflation und treffen erst zu einem späteren Zeitpunkt wieder zueinander. Die physikalischen Prozesse, welche die Inflation erzeugen, werden von theoretischer Seite bislang noch nicht einheitlich beschrieben und besitzen durchaus spekulative Komponenten. Das liegt natürlich auch daran, dass es experimentell zwar genügend Hinweise auf eine inflationäre Ausdehnung des Universums gibt, diese aber bislang noch nicht zwischen verschiedenen Modellen genügend scharf differenzieren können. Dennoch sollte man sich nicht täuschen: Die gängigen Theorien gehen von bekannten physikalischen Grundsätzen aus und vermitteln keine 20 Alan H. Guth, Professor für Theoretische Physik und Kosmologie am Massachusetts Institute of Technology (MIT), USA. 21 Alan H. Guth, A possible solution to the horizon and flatness problems, Physical Review D 23, 347 (1981). 22 Andrei D. Linde, Professor für Physik an der Stanford University, USA.

65 6.5 · Die Problematik der „Zurückrechnung“

mögliches Ende kausaler Verknüpfungen

1 10-10 10-20 10-30 10-40

s sum r e ) iv ius Un es e-Rad d ße bbl Grö (=Hu strahlungs- masse-

Inflation

Skalenfaktor (willk. Einheiten)

1010

6

t on z ri ho s i gn ei r E

dominiert

dominiert

heute

10-50 10-60

10-25

10-5 Zeit [Sek.]

1015

. Abb. 6.14 Expansion des Universums und Verlauf eines Ereignishorizonts als Funktion der Zeit (über mehr als 50 !! Dekaden). Der „Hubble-Radius“ ist hier synonym zur Größe des Universums; er vergrößert sich entsprechend dem Hubble-Lemaître-Gesetz. Die Expansion zeigt einen Knick bei ca. 2 Mio. Jahren (≈ 6 × 1013 s). Bis zu diesem Zeitpunkt trägt hauptsächlich Strahlung zur Energiedichte des Universums bei, und erst nach einer Abkühlung auf etwa 2000 K wird die Energiedichte über Massen erzeugt. Die Expansionsgeschwindigkeit wird dadurch leicht angehoben23 . Ab etwa 1020 Sekunden findet möglicherweise ein Übergang in Bereiche statt, die vor der Inflation nicht kausal miteinander verbunden waren. Was dann passiert, wird erst bekannt, wenn dieser Fall eintritt

Partikular-Modelle, welche gänzlich neue, lediglich auf „Inflation“ zugeschnittene Kopfgeburten konstruieren. Zudem wird von brauchbaren theoretischen Modellen selbstverständlich erwartet, dass sie in der Lage sind, experimentell messbare Vorhersagen zu machen. Als Beispiel sind hier vor allem die mittlerweile messbaren Mikro-Strukturen in der kosmischen Hintergrundstrahlung zu nennen. Solche Mikro-Strukturen sind in den Modellen gekennzeichnet durch besonders feinkörnige Fluktuationen im Temperatur-Spektrum, aber vor allem auch durch Verwirbelungen der Polarisation, die von Gravitationswellen aus der Inflations-Ära der Hintergrundstrahlung aufgeprägt wurden, sozusagen als ein Echo des „Big Bang“.

23 Die Energiedichte ε ist definiert als Energie pro Volumen, d. h. ε = E/V ∝ E/R3 . Da die Wellenlänge der elektromagnetischen Strahlung mit der Expansion zunimmt (λR = λ0 · R) und Eem = /(2π · λR ), folgt für die Energiedichte der Strahlung ε ∝ 1/R4 , während für die MassenEnergiedichte gilt: ε ∝ 1/R3 . Dies hat in einfachen Modellen zur Folge, dass das massedominierte Universum schneller expandiert als das strahlungsdominierte Universum.

66

Kapitel 6 · Das inflationäre Universum

BICEP2 B-Modensignal Deklination [Grad]

-50

-55

-60

-65 30

6

20

10 0 -10 Rektaszension [Grad]

-20

-30

. Abb. 6.15 Von BICEP2 gemessene Mikrostrukturen im Temperatur- und Polarisationsspektrum der kosmischen Mikrowellen-Hintergrundstrahlung über die angegebenen Rektaszensions- und Deklinationswinkel24 . Die Farben Rot und Blau bezeichnen einen Temperaturunterschied von T ≈ 10−6 K bei einer mittleren Temperatur der Strahlung von 2,725 K. Das Spektrum mit dem aufgeprägten Polarisationsmuster entspricht der theoretischen Vorhersage für ein Echo aus der Inflationsphase. Es ist allerdings auch erklärbar als Folge einer Wechselwirkung der Strahlung mit kosmischem Staub

2014 veröffentlichte die BICEP2-Kollaboration experimentelle Daten, die in diesem Sinne interpretiert wurden24 , jedoch wurde diese Interpretation ein Jahr später zurückgenommen, da auch gewöhnlicher kosmischer Staub einen solchen Polarisationseffekt hervorrufen könnte25 . Selbstredend werden diese Experimente weitergeführt, wobei man nun versucht, spektrale Bereiche der Hintergrundstrahlung einzubeziehen, wo solche Störungen vernachlässigbar sind. Um hier lediglich einen Eindruck zu vermitteln, welcher Art die zu erwartenden Strukturen sind, ist in . Abb. 6.15 das von der BICEP2-Kollaboration gemessene Temperatur-Spektrum mit den eingezeichneten Polarisationsvektoren der Strahlung für einen ausgewählten Winkelbereich gezeigt24 . Jedoch Vorsicht bei der Interpretation! Natürlich stehen in den nächsten Jahren gänzlich neue Experimente auf der Liste, um die Inflationsphase, sowie deren Dynamik und deren Auslöser besser zu verstehen aber auch, um das Phänomen unserer Existenz besser begreifen und gegebenenfalls neu einordnen zu können. In der Kategorie solcher Experimente kommt vor allem den Hintergrund-Neutrinos, deren Nachweis aufgrund der experimentellen Anforderungen ja immer noch aussteht, eine zentrale Rolle zu. Man darf annehmen, dass die Signaturen der Inflation im Spektrum der HintergrundNeutrinos sehr viel deutlicher zutage treten als im Spektrum der HintergrundPhotonen, denn man erinnere sich: Neutrinos entkoppeln bereits 100 ms nach dem „Big Bang“ und besitzen eine deutlich lebhaftere Erinnerung an diese Phase als etwa

24 P. A. R. Ade, et al., Detection of B-Mode Polarization at Degree Angular Scales by BICEP2, Physical Review Letters 112, 241101 (2014) und gleiche Autoren, gleicher Titel, arXiv:1403.3985 [astroph.CO] (2014) . 25 W. N. Colley, J. R. Gott, Genus topology and cross-correlation of BICEP2 and Planck 353 GHz B-modes: further evidence favouring gravity wave detection, Monthly Notices of the Royal Astronomical Society 447, 2034 (2015) und J. R. Gott, W. N. Colley, Reanalysis of the BICEP2, Keck and Planck Data: No Evidence for Gravitational Radiation, arXiv:1707.06755 [astro-ph.CO] (2017).

67 6.5 · Die Problematik der „Zurückrechnung“

6

die Hintergrund-Photonen, die sich erst 380.000 Jahre später auf den Weg durchs All machten. Wieder etwas in mathematischer Sprache Die Beschreibung der Physik während der Planck-Ära ist unvollständig und im Detail unbekannt, was schlicht daran liegt, dass während dieser Phase alle derzeitigen Beschreibungsmodelle der Physik das Kausalitätsprinzip verletzen. Dies ist leicht zu verstehen: Die Planck-Länge ist mit der de-Broglie-Wellenlänge26 λdB = 2π /(mv) = 2π c/(mβc2 ) ≈ 2π c/(mc2 ) [β = v/c] eines Objekts (d. h. eines Teilchens oder synonym einer Energie) verknüpft, und in der Planck-Ära wird diese Wellenlänge größer als der Ereignishorizont, welcher – im Vorgriff auf ein späteres Kapitel über Schwarze Löcher – wiederum gegeben ist durch 2π mal den Horizontradius der Masse (= Umfang des Ereignishorizonts). Oder in Kurzform: Eine wellenmechanische (quantenmechanische) Beschreibung, bei der sich die Ausdehnung eines Teilchens über Bereiche erstreckt, die nicht kausal verbundenen sind, führt zu einem Kausalitätsverlust. Es ist deshalb sinnvoll, Begriffe wie Zeit und Raum für die Beschreibung und Propagation eines Zustands in dieser Phase zunächst außen vor zu lassen, bis sich Kausalität nach einer längeren Zeit und über größere Bereiche wieder eingestellt hat. Zur Herleitung der relevanten Planck-Parameter: (1) (2) (3) (4) (5) (6)

2π ×Horizontradius: de-Broglie-Wellenlänge: (1) = (2) ⇒ Planck-Masse: Planck-Länge (aus (2)): Planck-Zeit (aus (4)): Planck-Temperatur (aus (3)):

2π RH = 2π ·Gm/c2 . λdB = 2π c/(mc2 ) = 2π RH √ mPl = c/G λPl = c/(mPl c2 ) tPl = λPl /c TPl = mPl c2 /kB

Bemerkung: In Gl. (1) haben wir den Horizontradius eines maximal rotierenden Schwarzen Lochs angegeben, welcher halb so groß ist wie der Schwarzschild-Radius eines ruhenden Schwarzen Lochs gleicher Masse. Zum einfachen Nachrechnen in SI-Einheiten: c  3 · 108 ,

c  π · 10−26 ,

G  6,6 · 10−11 ,

kB  1,4 · 10−23

Die Zahlenwerte für die Planck-Größen lauten dann: mPl  1,2 · 1019 GeV/c2  22 μg, tPl  5,4 · 10−44 s,

λPl  1,6 · 10−35 m, TPl  1,4 · 1032 K.

26 Der Begriff de-Broglie-Wellenlänge wurde 1924 von Louis de Broglie geprägt: Jede Form von Materie oder Energie besitzt Wellencharakter. Diese Eigenschaft ist eine Grundfeste der Quantenmechanik und ist als Welle-Teilchen-Dualismus bekannt. Experimentell wurde diese Merkwürdigkeit erstmalig für Elektronenstrahlen nachgewiesen, deren Beugungsverhalten dem von Lichtstrahlen exakt gleicht. Für makroskopische Objekte (d. h. solche des täglichen Lebens) sind die Wellenlängen allerdings viel zu klein, um erkennbare Auswirkungen zu haben.

68

6

Kapitel 6 · Das inflationäre Universum

Da im frühesten Universum, d. h. auch noch während der Inflationsphase, keine Teilchenmassen existieren, lehnen sich die meisten Erklärungstheorien an thermische Ansätze an, welche sich recht zwanglos aus den Einstein-Gleichungen oder auch aus den Friedmann’schen Bewegungsgleichungen herleiten lassen. Der anfängliche Zustand mag sicher viele unbekannte Parameter besitzen, er ist jedoch gekennzeichnet durch eine extrem große Energiedichte der Raum-Zeit. Zu diesem Zeitpunkt besitzt der Raum noch keine Massen, er ist also äquivalent zu einem de-Sitter Universum mit einer kosmologischen Konstante (siehe Abschn. 6.3). Der Zustand steuert als Funktion der Zeit auf einen Phasenübergang zu, der sich aber ähnlich einer unterkühlten Flüssigkeit verzögert27 . Man spricht von einem Übergang in ein „falsches Vakuum“. Da die Energiedichte sich beim Übergang in dieses falsche Vakuum nicht ändert, ist dieses äquivalent zu einem negativen Druck (oder Spannung) in den Friedmann’schen Gleichungen und führt gemäß diesen Gleichungen zu einer exponentiellen Expansion um 40–70 Größenordnungen (Inflation), wobei sich diese Zahlen aus heutigen Beobachtungsgrößen herleiten lassen. „Negativer Druck“ bedeutet: Die Ausdehnung wird nicht durch eine Gegenkraft, gegen die der Druck Arbeit verrichten müsste, kompensiert, d. h., der Raum expandiert ungehindert. Wenn sich der Phasenübergang schließlich einstellt, „kristallisieren“ sich die Elementarteilchen heraus. Die dabei entstehende „latente Wärme“ 28 wird auf die entstehenden Teilchen übertragen, was zu einem Temperaturanstieg bis zurück in die Nähe der Planck-Temperatur führt. Von nun an spielt die Zustandsgröße „Entropie“, welche in der Thermodynamik das Zusammenspiel zwischen Energie und Temperatur beschreibt, eine entscheidende Rolle. Ein Phasenübergang ist gekennzeichnet durch eine Änderung der Entropie. Bei einem Übergang von einem niedrig geordneten (Beispiel: Flüssigkeit) in einen höher geordneten Zustand (Beispiel: kristallisierter Festkörper) nimmt die Entropie ab und die abgegebene Wärmemenge zu und umgekehrt. Die Planck-Energie (oder Planck-Temperatur) ist dabei der anfängliche Ankerpunkt für eine maximal mögliche Temperatur. Nach dem Ende der Inflationphase bleibt die Entropie S des Universums bis in die heutige Zeit konstant. Sie ist gegeben durch das Produkt aus dem Skalenparameter R und der Temperatur T (S ∝ RT = konst.), d. h., mit zunehmender Expansion R nimmt die Temperatur T ab. Dies entspricht der Beobachtung. Die Situation ist in . Abb. 6.16 grob visualisiert. Das hier durchgespielte Szenarium löst das anfangs dargestellte „Fine-tuning“Problem auf elegante Weise, ohne grundlegend neue Physik zu erfinden. Die problematische Rückrechnung auf die Zeit t = 0 entfällt, und die kritische Dichte krit  1 stellt sich mit dem Grad der Flachheit von allein ein. Allerdings verschiebt 27 Von einer unterkühlten Flüssigkeit (supercooled liquid) spricht man, wenn diese unter ihren eigentlichen Gefrierpunkt (vorsichtig) abgekühlt wird. Bei Wasser gelingt das bis zu etwa −10◦ C, bevor es dann zu Eis kristallisiert und sich dabei ausdehnt. Gallium (Schmelztemperatur etwa +30◦ C) kann man bis etwa −40◦ C abkühlen bevor es kristallisiert. Während der Unterkühlung ändert sich die Dichte nicht. 28 Latente Wärme entsteht bei einem Phasenübergang von einem niedrig in einen höher geordneten Zustand. Bei der Kristallisation von Wasser zu Eis werden beispielsweise 333,5 kJ/kg (=79,7 kcal/kg) Wärme freigesetzt, welche abgeführt werden muss, um Eis zu erzeugen. Im Fall des Galliums beträgt diese Wärme 80 kJ/kg (=19,1 kcal/kg).

69 6.5 · Die Problematik der „Zurückrechnung“

adiabatisch: RT=konst. (Standard-Kosmologie)

1032

6

R

Planck

Temperatur [K] Faktor: ~1070 ~1050

~ ~

~ ~

1020

T

~2,7 10-43 10-34 10-32

heute Zeit [Sek.]

. Abb. 6.16 Vereinfachte Visualisierung der kosmischen Entwicklung mit anfänglicher Inflation. In der vorinflationären Phase dehnt sich die Raum-Zeit zunächst „quasi-adiabatisch“ aus und erreicht schließlich ein falsches Vakuum, da der Phasenübergang verzögert ist. In diesem Zustand ändert sich die Dichte nicht, was entsprechend den Friedmann’schen Gleichungen zu einer exponentiellen Expansion führt, bei der sich das Universum je nach Länge der Verzögerung um etwa 40–70 Größenordnungen ausdehnt. Im Phasenübergang kristallisieren Elementarteilchen aus, und die latente Wärme führt zu einem drastischen Wiederanstieg der Temperatur. In der darauffolgenden, ruhigen, nachinflationären Phase ändert sich die Entropie des Systems nicht mehr. Die Expansion wird „adiabatisch“ (d. h., das Universum ist ein abgeschlossenes System ohne Wärmeaustausch)

es das „Fine-tuning “-Problem in die Zukunft. Unser derzeitiges Universum ist in diesem Modell aus einem noch kleineren Bereich als dem anfänglichen Ereignishorizont entstanden. Es ist deshalb denkbar, dass Bereiche, die derzeit noch weit außerhalb unseres Ereignishorizonts liegen, zu einem späteren Zeitpunkt in diesen eintreten, wobei dann Flachheit und Homogenität keineswegs gewährleistet sind. Abschätzungen gehen von einer ungefähren Zeitskala von 1020 –1021 Sekunden aus, was etwa dem 1000-fachen Alter des jetzigen Universums entspricht. Ist die Dichte dann größer als die kritische Dichte, kommt es zu einem schnellen Kollaps – das wäre dann das sprichwörtliche „Ende der Welt“, und die höchst interessanten Epochen, die auf den Seiten 38 bis 41 und in . Abb. 5.1 geschildert sind, fänden nicht statt – leider. Aber vielleicht klappt’s beim nächsten Versuch.

71

Nukleosynthese im frühen Universum

Inhaltsverzeichnis 7.1

Neutronen kommen und gehen – 73

7.2

Frühe Nukleosynthese, Beginn und Ende – 76

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 D. Frekers und P. Biermann, Weltall, Neutrinos, Sterne und Leben, https://doi.org/10.1007/978-3-662-65110-0_7

7

72

7

Kapitel 7 · Nukleosynthese im frühen Universum

Auch zu Beginn dieses Kapitels sollen zunächst einfache Fragen gestellt werden, welche sich aus experimentellen Beobachtungen der Astronomie und Astrophysik ergeben. Wir werden dann in den anschließenden Ausführungen versuchen diese zu beantworten: 5 Woher kommen die chemischen Elemente? – Kann es sein, dass sie in der „Big Bang“-Phase gebildet wurden? 5 Das Universum besteht zu ca. 75 % aus Wasserstoff (Isotop 1 H) und zu ca. 25 % aus Helium (Isotop 4 He), der Rest ist mit < 1‰ völlig vernachlässigbar – Wie kann man diese Zahlen verstehen? 5 Warum gibt es fast kein Deuterium (Isotop 2 H oder D), obwohl stabil, und warum gibt es fast kein Helium-3 (3 He), obwohl ebenfalls stabil? Der Anteil von Deuterium im Universum ist lediglich 1/40.000-stel des Wasserstoffs 1 H und der von 3 He lediglich 1/20.000-stel des Helium-4 (4 He) – Wiederum, wie kann man diese Zahlen verstehen? 5 Woher kommen die Neutronen, die für die Synthese schwerer Elemente notwendig wären, wenn eine effektive Synthese nicht einmal für Deuterium oder Helium-3 möglich zu sein scheint? 5 Warum werden schließlich fast alle vorhandenen Neutronen für die Synthese von 4 He verbraucht? Bis zum Ende der 1940er-Jahre war das gängige Narrativ, dass alle in der Natur vorkommenden Elemente „irgendwie“ während der „Big Bang“-Phase synthetisiert wurden. Diese Vorstellung war natürlich der Unkenntnis über die MikrowellenHintergrundstrahlung geschuldet, die ja noch nicht entdeckt war, aber auch dem Unwissen über die Stärken relevanter Kernreaktionen und insbesondere dem Unwissen über die Physik von Sternexplosionen (Supernovae), welche zu diesem Zeitpunkt noch völlig im Dunkeln lag. Mit der heutigen Kenntnis über die Hintergrundstrahlung und der umfangreichen Datenlage zu Kernreaktionen jeglicher Art ist die These, dass der „Big Bang“ verantwortlich für die Synthese aller Elemente ist, absolut nicht haltbar. Wieso? – Antwort: Es gibt vier zentrale, von der Natur eingerichtete Besonderheiten in der Kernphysik, die verhindern, dass es während der „Big Bang“-Phase zu einer nennenswerten Nukleosynthese jenseits von A = 4 (d. h. jenseits von 4 He) kommt. Diese sind: 1. die extrem kleine Bindungsenergie des Deuterons von nur 1,11 MeV pro Nukleon (2,22 MeV insgesamt) – damit ist das Deuteron unter allen stabilen Element-Isotopen jenes mit der geringsten Bindungsenergie, 2. die besonders hohe Bindungsenergie des 4 He von 7,07 MeV pro Nukleon (28,30 MeV insgesamt) in diesem unteren Massenbereich, 3. die Tatsache, dass es keine stabilen Kerne mit der Massenzahl A = 5 und A = 8 gibt (siehe . Abb. 7.1), und 4. die Halbwertszeit des freien Neutrons von 609,6 ± 0,6 Sekunden. Geringfügige Änderungen dieser Parameter hätten dramatische Auswirkungen auf die weitere Entwicklung des Universums bis hin zum frühen Galaxienkollaps oder

73 7.1 · Neutronen kommen und gehen

A=5 5H  5He  5Li  5Be 

3H + 2n 4He + n 4He + p 3He +2p

7

A=8 8He  8Li  8Be  8B  8C 

8Li + e- + ν (10-4 s) 8Be + e- + ν (0.8 s) 2 x 4He (10-16 s) 8Be + e+ + ν (0,77 s) 6Be +2p (~3.10-21 s)

. Abb. 7.1 Die Situation der Kerne mit Massenzahl A=5 und A=8. Für A=5 gibt es keine gebundenen Zustände. Für A=8 sind die Zerfallszeiten alle kleiner als 1 Sekunde

auch dem völligen Ausbleiben einer Strukturbildung, d. h. keine Galaxien, keine Sterne, keine Erde. Es ist deshalb angebracht, die Aspekte, die einen so unmittelbaren Bezug zu unserer Existenz besitzen, eingehender zu beleuchten.

7.1

Neutronen kommen und gehen

Neutronen spielen in der Phase der frühen Nukleosynthese eine entscheidende Rolle, ohne sie ist eine Nukleosynthese nicht möglich. Nur, wo kommen sie her, und was ist deren Anzahl im Vergleich zu den Protonen? Wir schalten uns in das frühe Universum zu einem Zeitpunkt ein, als die Temperatur noch deutlich höher ist als die äquivalente Massendifferenz zwischen Proton und Neutron, die bei 1,293 MeV liegt, d. h.: kB T  Mnp = Mn − Mp = 1,293 MeV Man erinnere sich, dass zu diesem Zeitpunkt Photonen, Elektronen, Positronen und Neutrinos die Hauptbestandteile des Universums darstellen, die insgesamt zahlenmäßig etwa 1010 -mal häufiger anzutreffen sind als beispielsweise Protonen. In dieser Umgebung gibt es nun 4 entscheidende Reaktionen, welche Neutron und Proton jeweils ineinander umwandeln. Hinzu kommt, dass die Reaktionsraten der beiden Umwandlungsrichtungen bei entsprechend hohen Temperaturen (d. h. kB T  10 MeV) nahezu gleich sind. Diese 4 Reaktionen werden durch die «schwache» Wechselwirkung vermittelt und lassen sich leicht und mit hoher Genauigkeit im Laufe der weiteren Abkühlung des Universums berechnen: (1) (2) (3) (4)

p + e− n + e+ n + νe p + νe

−→ −→ −→ −→

n + νe p + νe p + e− n + e+

E = −0,782 MeV E = +1,293 MeV E = +0,782 MeV E = −1,293 MeV

74

Kapitel 7 · Nukleosynthese im frühen Universum

Zu beachten: Die Reaktionen (3) und (4) sind die Rückreaktionen von (1) und (2) − und: In (1) und (4) muss die angegebene Energie aus dem Temperaturbad zugeführt werden und in (2) und (3) wird die angegebene Energie ans Temperaturbad abgegeben. Protonen und Neutronen befinden sich damit in einem thermischen Gleichgewicht. Allerdings bedeutet „thermisches Gleichgewicht“ nicht, dass sich das zahlenmäßige Neutron/Proton-Verhältnis (Nn /Np ) exakt bei dem Wert 1 (d. h. bei 50/50) einpendelt. Dieses Verhältnis ist in der klassischen Thermodynamik gegeben durch die Boltzmann-Verteilung, welche der Tatsache Rechnung trägt, dass die Massen beider Nukleonen Mn und Mp unterschiedlich sind:

7

Nn Np

=



Mn Mp

3/2

e



Mnp kB T

Kommt deshalb die der Temperatur entsprechende Energie kB T in die Nähe der Massendifferenz Mnp , so wird das Neutron/Proton-Verhältnis Nn /Np exponentiell kleiner. Allerdings setzt dieses zunächst noch voraus, dass die Wechselwirkungsstärken, die Neutron und Proton ineinander umwandeln, nach wie vor für beide Umwandlungsrichtungen gleich sind. Dies wird nun zunehmend weniger der Fall. Bei kB T  2 MeV (d. h. nach ca. 0,26 s) entkoppeln die Elektron-Neutrinos, und die obigen Reaktionen (3) und (4) entfallen. Und schließlich bei kB T ≤ 1 MeV spielen die unterschiedliche Energetik der verbleibenden Reaktionen (1) und (2) und die damit einhergehenden unterschiedlichen Wechselwirkungsraten eine immer größere Rolle, was dazu führt, dass das Neutron/Proton-Verhältnis Nn /Np aus dem Gleichgewichtsverlauf ausbricht und schließlich bei einem Verhältnis von 17/83 (ca. 1/5) „einfriert“. Entscheidend für diesen relativ geringen Wert ist zudem die Tatsache, dass Elektronen und Positronen, welche die Reaktionen (1) und (2) zunächst aufrechterhielten, erst viel später nach etwa 26 Sekunden annihilieren (e− +e+ → 2γ ), dies allerdings auch mit dem Nebeneffekt, dass sich damit die Temperatur des Universums um etwa 40 % erhöht. Die Verhältnisse sind grafisch in . Abb. 7.2 veranschaulicht. Mit dem „Ausfrieren“ der Neutronen beginnt nun ein kosmischer Wettlauf mit der Zeit. Eigentlich könnte jetzt der erste Schritt für die Bildung von Elementen, nämlich die Fusion von Proton und Neutron zum Deuteron beginnen. Doch obwohl die Temperatur mittlerweile weit unterhalb der Bindungsenergie des Deuterons von 2,22 MeV gesunken ist, scheitert ein solcher Versuch zunächst regelmäßig (siehe . Abb. 7.3). Der Grund ist der enorme, fast 1010 -fache Überschuss von Photonen aus der Hintergrundstrahlung, welcher zur Folge hat, dass die Intensität im hochenergetischen Bereich der Energieverteilung noch für eine lange Zeit ausreicht, jedes einmal gebildete Deuteron instantan wieder zu zerlegen (dissoziieren). Erst wenn das Universum auf etwa 75 keV abgekühlt ist, was nach etwa 140 Sekunden der Fall ist, kommt es zu einer nennenswerten Fusionsrate. In der Zwischenzeit zerfällt aber das Neutron zurück zum Proton mit seiner ihm angeborenen Halbwertszeit von ca. 610 Sekunden, sodass nach 140 Sekunden das

75 7.1 · Neutronen kommen und gehen

7

Nn / Np Verhältnis

1

41 / 59

Ausbruch

tlg ann-V

0,1

1

kBT [MeV]

120 70

900

n/p “freeze - out”

tron Neu

0,01

Boltz m

rfall

~1/7 -Ze

0,1

Start Nukleosynthese

~1/5

17 / 83

ν - Entkopplung

p

n

29 / 71

4,5

0,4

10

0,015

tUniv. [s]

. Abb. 7.2 Berechnetes Neutron/Proton-Verhältnis im frühen Universum in Abhängigkeit von dessen Temperatur und Alter. Da die Summe aus Protonen und Neutronen konstant bleibt, sind an der Ordinate zusätzlich die relativen Prozentanteile angegeben. Dargestellt sind auch die einzelnen Abschnitte, welche zu dem Neutron/Proton-Verhältnis führen: 1) die Neutrino-Entkopplung bei etwa 0,26 Sekunden, 2) der rein thermodyamische „Freeze-out“-Prozess für Neutronen bei etwa 780 keV, 3) der Neutronzerfall und schließlich 4) der Start der Fusion n + p → d bei etwa 75 keV und der nachfolgenden Stabilisierung des Neutron/ProtonVerhältnisses bei ca. 0,139 für alle Zeiten. (Siehe auch Text)

1

2

5

4 p

n

n 22

p

2.

p

n

n

p

M

p

3 eV

− νe

e−

. Abb. 7.3 Der vergebliche(!) Versuch des Protons und des Neutrons, zum Deuteron zu fusionieren. Proton und Neutron befinden sich einem Photonenbad (1) mit etwa 1010 -mal mehr Photonen. Bei der Fusion zum Deuteron (2) wird ein Photon von etwa 2,22 MeV freigesetzt, jedoch wird ein anderes Photon aus dem thermischen Bad sofort wieder absorbiert (3), und das Deuteron dissoziiert zurück in ein Proton und Neutron (4). Das Neutron gibt schließlich auf und zerfällt mit der ihm angeborenen Halbwertszeit in ein Proton, ein Elektron und ein Antineutrino (5). Resultat: kein Deuteron!

Neutron/Proton-Verhältnis nur noch 0,15 beträgt. Sobald jedoch das Neutron in einem Deuteron gebundenen ist, wird der Zerfall unterbunden. Glücklicherweise ist der Fusionsprozess extrem schnell, sodass das Neutron/Proton-Verhältnis nicht

76

Kapitel 7 · Nukleosynthese im frühen Universum

mehr signifikant abfällt und sich schließlich nach einigen Minuten bei etwa 0,139 ( 1/7) einpendelt. Die Fusion eines Neutrons und eines Protons zu einem Deuteron ist nur ein kurzes Zwischenspiel. In den gleichzeitig beginnenden Prozessen, welche innerhalb eines recht komplexen Netzwerks zur Nukleosynthese (hierzu siehe weiter unten) ablaufen, werden nahezu alle Neutronen in 4 He gebunden (d. h. 2 Neutronen zu je 2 Protonen). Aus dem anfänglichen Neutron/Proton-Verhältnis von 0,139 errechnet sich dann ein Wert für das 4 He-Massenverhältnis im Universum von ca. 24,4 %, was erstaunlich gut mit dem experimentellen Wert von 24,49 ± 0, 04% übereinstimmt1 . Hier dazu die Argumentation in mathematischer Form Für ein Neutron/Proton-Verhältnis von Nn /Np = 0,139

7

ist das zahlenmäßige 4 He/Proton-Verhältnis X4 =

  1 N(4 He) 1 Nn /2 = 0,081. = = Np − Nn 2 Np /Nn − 1 N(1 H)

Der Zähler resultiert aus der Tatsache, dass jeweils zwei Neutronen in einem 4 He gebunden sind, und die Differenz im Nenner, dass die Zahl der Protonen im 4 He gleich der Zahl der Neutronen ist. Das Ergebnis bedeutet, dass insgesamt etwa 8,1 % aller baryonischen Teilchen im Universum Helium-Teilchen sind. Daraus errechnet sich das Massenverhältnis Y4 =

M(4 He) M(4 He) + M(H)

=

4X4 4X4 + 1

= 0,244,

wobei benutzt wird, dass die Masse des 4 He ungefähr gleich der 4-fachen Masse des Neutrons ist – der Unterschied ist lediglich 0,7 %.

7.2

Frühe Nukleosynthese, Beginn und Ende

Die geringe Bindungsenergie des Deuterons hat dazu geführt, dass sich das Universum bis auf 75 keV abkühlen musste, bevor eine Fusion zum Deuteron stattfinden konnte. Für die weiteren Fusionsprozesse ist diese Temperatur aber bereits deutlich zu niedrig, denn mit dem raschen Ende des Reservoirs an freien Neutronen müssen nun zunehmend geladene Teilchen fusionieren, um schwerere Elemente zu erzeugen. Die Coulomb’schen (elektrostatischen) Abstoßungspotenziale (ca. 1 MeV für d +d, ca. 2 MeV für d+He, und ca. 3 MeV für He+He), die diese jetzt zu überwinden haben, sind im Vergleich zu ihrer kinetischen Energie bei der jetzigen Temperatur 1

E. Aver, et al., The effects of He I λ10830 on helium abundance determinations, Journal of Cosmology and Astroparticle Physics 7, 11 (2015), siehe auch arXiv:1503.08146v1 [astro-ph.CO].

7

77 7.2 · Frühe Nukleosynthese, Beginn und Ende

viel zu hoch, und klassisch wäre das Universum jetzt bereits fertig. Zu Hilfe kommt zunächst noch für eine kurze Zeit der quantenmechanische Tunneleffekt, aber auch dieser geht rasch und exponentiell gegen Null. Nach etwa 10 Minuten hat sich das Universum um weitere 40 keV abgekühlt, die Teilchendichte ist ebenfalls unter einen kritischen Wert gesunken und alle Kernreaktionen kommen zum Stillstand. Die kurzlebigen instabilen Elemente – langlebige gibt es nicht – zerfallen, so z. B. 3 H (oder Tritium t): t −→3 He (12,3 Jahre) oder: 7 Be−→7 Li (53 Tage). Sie ändern noch für eine kurze Zeit die Elementzusammensetzung, bevor letztere schließlich endgültig eingefroren und der Beobachtung nach 13,81 Mrd. Jahre preisgegeben wird. Die wichtigsten und entscheidendsten Fusionsreaktionen sind im Folgenden zusammengefasst:

A=8

primäre Reaktionen (1a) (1b) (1c) (1d)

d+d d+d d+p d+n

→ 3He + n → t+p → 3He + γ → t+γ

A=5

sekundäre Reaktionen (2a) (2b) (2c)

3He+n 3He+n 3He+d

(2d) (2e)

t+p t+d

→ 4He + γ → t+p → 4He + p → 4He + γ → 4He + n → →

7Be + γ 7Li + γ

Rück-Reaktionen (4a) 7Be + n (4b) 7Li + p

→ →

7Li + p 2× 4He

(4a)

6Li

(3a)

7Li

(4b)

tertiäre Reaktionen (3a) 3He+4He (3b) t + 4He

7Be

3He

(2a) (2c)

4He

(2b)

(3b) (2e)

(1a)

(2d)

(1c)

d

(1d)

t

(1b)

. Abb. 7.4 Netzwerk von Reaktionen im frühen Universum. Von den nahezu 400 Reaktionen, welche einen möglichen Einfluss auf die frühe Nukleosynthese haben, sind hier nur die stärksten dargestellt. Zu beachten: (i) keine stabilen Massen bei A=5 und A=8; (ii) vom 4 He gibt es keine ausgehenden Pfeile; (iii) mit der Erzeugung von 7 Be über den Kanal (3a) folgt dessen Vernichtung über 7 Li (4a) zurück zum 4 He (4b); (iv) gleiches gilt für die Erzeugung von 7 Li über den Kanal (3b) und dessen Rückführung zum 4 He, (v) es gibt keine nennenswerte Erzeugung von 6 Li. Man beachte auch die Farbkodierung der Reaktionstypen. Offene Pfeile stellen vergleichsweise schwache Reaktionen dar

78

7

Kapitel 7 · Nukleosynthese im frühen Universum

Erstaunlicherweise führen alle Reaktionen zum 4 He, und in der Tat ist am Ende der Nukleosynthese 4 He nach dem Wasserstoff das mit Abstand am häufigsten vorkommende Element. Dieses ist der außerordentlich hohen Bindungsenergie des 4 He geschuldet, welche es im Nachhinein unmöglich macht, das 4 He wieder aufzubrechen. Der bescheidene Versuch, in dem Netzwerk die Masse A=5 zu überbrücken mittels der in . Abb. 7.4 dargestellten Reaktionen (4a) und (3b), führt zum überwiegenden Teil wieder zurück zum 4 He. Ein Ausbrechen aus dem Netzwerk durch einen Sprung über die Masse A=8 (hier nicht dargestellt) vermöge entsprechender Reaktionen mit 7 Li oder 7 Be als Ausgangspunkte ist ebenfalls wenig erfolgreich. Die sich daraus ergebenden Elementhäufigkeiten 9 Be/1 H≈ 10−18 und 10 B/1 H≈ 10−21 sind viel zu niedrig, um eine weitere Synthese darauf aufzubauen. Dieses macht in eindrucksvoller Weise deutlich, dass die schweren Elemente jenseits von A=7 in einer völlig anderen astrophysikalischen Umgebung gebildet werden müssen. Mittlerweile sind die theoretischen Netzwerkreaktionen auf mehrere hundert Einzelreaktionen erweitert, sodass auch kleine und kleinste Reaktionsraten mit berücksichtigt werden. Man kann somit der Frage nachgehen: Wie ändern sich die Elementhäufigkeiten als Funktion des Baryon/Photon-Verhältnisses – welches ja experimentell über die Hintergrundstrahlung festgelegt ist – und sind die so gerechneten Elementhäufigkeiten kompatibel mit experimentellen Beobachtungen? Man erinnere sich: Das Baryon/Photon-Verhältnis war der entscheidende Faktor für die deutlich verzögerte Bildung des Deuterons. Die . Abb. 7.5 zeigt die Ergebnisse solcher Rechnungen. Eingetragen sind dazu die tatsächlich beobachteten Elementhäufigkeiten sowie die Kreuzungspunkte mit dem von der Planck-Sonde bestimmten Baryon/Photon-Verhältnis von 6 × 10−10 . Die Übereinstimmung für die Elemente D, 3 He und 4 He ist schlicht beeindruckend und stellt einen Glanzpunkt des „Big Bang“-Modells dar. Umso erstaunlicher und überraschender ist allerdings die Diskrepanz für 7 Li, dessen experimentell bestimmte Häufigkeit um einen Faktor 3,5 geringer ist, als die vom „Big Bang“-Modell vorhergesagt. Noch verworrener wird die Situation für das stabile Isotop 6 Li (hier nicht dargestellt), dessen Elementhäufigkeit 6 Li/H in den Rechnungen bei etwa 1,3 × 10−14 liegt, wohingegen beobachtete Werte teils um einen Faktor 500 größer sind. Kommentar zu den Li-Häufigkeiten: Wie man in der beobachtenden Astronomie primordiale Elementhäufigkeiten bestimmt, ist Stoff für ein separates Buch. Dennoch ist ein kurzer Kommentar hierzu angebracht. – In den meisten Fällen werden atomare Absorptions- oder Emissionslinien von intergalaktischen Wolken spektroskopisch erfasst. Diese sollten nach Möglichkeit bei einer hohen Rotverschiebung lokalisiert sein (z ≥ 2, d. h. ≥ 10 Mrd. Lichtjahre entfernt), um sicherzugehen, dass die dort gemessenen Elementhäufigkeiten ein Abbild des „Big Bang“ darstellen und in ihnen noch keine nennenswerte Durchmischung mit Sternmaterie stattgefunden hat. Zur Erklärung der Li-Diskrepanz ist dies wegen der anfänglich geringen Li-Häufigkeit natürlich ein gewichtiger, aber auch zu Fehleinschätzungen neigender Faktor. Neuere kosmologische Studien weisen dann auch eher darauf hin, dass die Li-Häufigkeiten schon bereits im frühesten Stadium der

79

Ω Baryon [%]

1 26%

7

2

3 4

6 8

4He

25% 24%

PLANCK

Anteil 3He / H, D / H Massenanteil 4He

7.2 · Frühe Nukleosynthese, Beginn und Ende

23% 5x10-4

D

10-4

3He 10-5

Anteil 7Li / H

5x10-6 10-9

7Li

10-10 1

2

3

4

6

8 10

x 10-10 Baryon / Photon -Verhältnis

. Abb. 7.5 Nukleosynthese im frühen Universum. Gezeigt sind Netzwerk-Rechnungen als Funktion des Baryon/Photon-Verhältnisses und der Baryon-Dichte (obige Skala in Einheiten der Gesamtdichte des Universums). In die Rechnungen gehen experimentelle Reaktionsraten ein, deren Fehler durch die Strichdicken dargestellt sind: Die gemessenen Elementhäufigkeiten (zahlenmäßig für 7 Li, 3 He und D) sind durch die waagerechten Linien mit Fehlerbreite angegeben. Das Baryon/Photon-Verhältnis und die Baryon-Dichte, jeweils von der Planck-Sonde gemessen, sind mit der senkrechten Linie verbunden. Die Übereinstimmung von Theorie und Experiment ist beachtlich – Ausnahme: 7 Li (siehe Text).

Sternentwicklung verändert wurden und diese nicht wie angenommen ein Abbild des „Big Bang“ sind. Die Li-Diskrepanz wäre damit möglicherweise haltlos und der alternative Erklärungsversuch, in der primordialen Synthese verschiedene „Stellschrauben“ verändern zu müssen – was i. a. zu Kollisionen mit experimentell

80

Kapitel 7 · Nukleosynthese im frühen Universum

gesicherten Daten führt – oder auch neue, unbekannte Physik einführen zu müssen2 , könnte damit entfallen. Interessant sind in diesem Zusammenhang die Beobachtungen, welche in der Referenz3 beschrieben sind: Die gemessenen Li-Häufigkeiten in den interstellaren und als primordial angenommen Nebeln der Kleinen Magellanschen Wolke stimmen mit denen aus dem „Big Bang“-Modell überein. Dennoch, eine endgültige und gesicherte Erklärung für die Li-Diskrepanz steht nach wie vor aus. Es ist sicher nicht Aufgabe der Physik, über Dinge zu spekulieren, die es nicht gibt, oder auch Ereignisse zu beschreiben, die niemals eingetreten sind. Dennoch ist es hin und wieder amüsant und eindrucksvoll, die Frage zu stellen „Was wäre wenn...?“ insbesondere dann, wenn man sich eine Vorstellung davon machen möchte, wie genau und präzise die Dinge um uns herum eventuell „fine-getuned“ sind. Dies gilt vor allem für die Anfangsparameter, die für die Entstehung des Universums eine Rolle spielten. Aber Vorsicht: Solche Ausmalungen bleiben grundsätzlich spekulativ, denn niemand kann letztlich die Auswirkungen in ihrer Gesamtheit bilanzieren, selbst wenn nur an wenigen dieser „Stellschrauben gedreht“ wird. Die Frage, ob das Universum tatsächlich ein extrem labiles Gebilde ist, oder ob es sich nicht vielleicht doch durch das komplexe Zusammenspiel aller „Stellschrauben“ weitestgehend selbst stabilisiert, lässt sich kaum beantworten und führt uns direkt wieder zurück auf das „anthropische Prinzip“, welches bereits am Ende des Abschn. 6.1 zitiert wurde. Wir werden dennoch diese unphysikalische Frage stellen:

Was wäre wenn...?

7

1 Was wäre, wenn

1. die Neutronmasse 0,02 % (zwei 10.000-stel) größer wäre? (a) Die Halbwertszeit des Neutrons wäre 111 Sekunden statt derzeit 610 Sekunden, (b) Deuteronen könnten praktisch nicht entstehen, da ca. 90 % aller Neutronen zu Beginn der Nukleosynthese bereits zerfallen wären, (c) die Bindungsenergie des Deuterons wäre noch geringer, was eine mögliche Nukleosynthese noch weiter hinausschieben würde, (d) da es keine Deuteronen gäbe, gäbe es auch keinen nennenswerten Heliumanteil im frühen Universum, 2

Eine gute Zusammenfassung dieser Thematik findet sich in: Alain Coc, Elisabeth Vangioni, Primordial Nucleosynthesis, International Journal of Modern Physics E 26, 1741002 (2017), siehe auch gleiche Autoren, gleicher Titel, arXiv:1707.01004 [astro-ph.CO] – und Alain Coc, et al., New reaction rates for improved primordial D/H calculation and the cosmic evolution of deuterium Physical Review D 92, 123526 (2015), siehe auch gleiche Autoren, gleicher Titel, arXiv:1511.03843 [astro-ph.CO] – und Brian D. Fields, The Primordial Lithium Problem, Annual Reviews of Nuclear and Particle Science, 61, 47 (2011), siehe auch gleicher Autor, gleicher Titel, arXiv:1203.3551v1 [astro-ph.CO] – und K. Lind, et al., The lithium isotopic ratio in very metal-poor stars, Astronomy & Astrophysics 554, A96 (2013).

3

J. C. Howk, et al., Observation of interstellar lithium in the low-metallicity Small Magellanic Cloud, Nature 489, 121 (2012).

81 7.2 · Frühe Nukleosynthese, Beginn und Ende

7

(e) es gäbe etwa 25 % mehr Sterne am Himmel (da 25 % mehr Wasserstoff vorhanden), (f) da fast alles Lithium auf der Erde primordial ist, gäbe es praktisch kein Lithium auf der Erde – und somit auch keine Li-Batterien.

2. die Neutronmasse 0,05 % (fünf 10.000-stel) kleiner wäre? (a) Die Halbwertszeit des Neutrons wäre jetzt ca. 10.000 Sekunden statt 610 Sekunden, (b) der Zerfall der Neutronen spielte kaum noch eine Rolle – alle Neutronen (jetzt ca. 20 – 30 %) würden zu Deuteronen fusionieren, (c) die Bindungsenergie des Deuterons wäre größer, was die Nukleosynthese zu kürzeren Zeiten hin verschieben und diese noch effektiver machen würde, (d) es würde deutlich mehr Helium gebildet – der Massenanteil von derzeit 25 % würde sich auf ca. 50 % vergrößern, (e) es gäbe etwa 50 % weniger Sterne, die sich in einem sonnenähnlichen Wasserstoffzyklus mit langen Lebenszeiten befänden, (f) allerdings gäbe es zu Beginn (d. h. in den ersten 1 – 2 Mrd. Jahren) deutlich mehr helle Sterne, da diese sich im He-Brennen befänden, wobei deren Lebensdauer aber deutlich kürzer wäre und diese heute bereits als „Weiße Zwerge“ verendet wären, (g) die Bildung einer Sonne mit Planet Erde wäre mindestens um einen Faktor 2 unwahrscheinlicher – jede zweite Sonne würde nicht existieren. 3. das Baryon/Photon-Verhältnis, welches durch die Materie-AntimaterieAnnihilation im frühesten Universum vorgegeben wurde, nicht 6×10−10 wäre, sondern 6×10−9 , d. h. eine Größenordnung größer? (a) Die Wasserstoff- und Helium-4 -Anteile blieben in etwa die gleichen, die Elementsynthese würde sich lediglich zugunsten der schwereren Elemente verschieben, d. h., Lithium-7 wäre nun auf der Erde etwa 100 – 200-mal häufiger zu finden, Deuterium etwa 4 bis 5 Größenordnungen seltener, (b) es gäbe etwa 10mal mehr Wasserstoff im Universum und somit etwa 10mal mehr Sterne am Himmel – es ist nicht klar ob dieses für einen frühzeitigen Galaxienkollaps reichen würde – denkbar wäre es. Die Erde hätte dann keine Chance. 4. das Baryon/Photon-Verhältnis aus demselben Prozess wie oben, nicht 6×10−10 wäre, sondern 6×10−11 , d. h. eine Größenordnung kleiner? (a) in diesem Szenarium ist die Fusion der Elemente verlangsamt, es gäbe etwa 100 – 200-mal mehr Deuterium, einen Faktor 10 mehr Helium-3 und der Massenanteil von Helium-4 läge bei etwa 15 % statt 25 % wie heute, (b) insgesamt aber gäbe es im Universum um fast einen Faktor 10 weniger Baryonen, denn Baryonen und Antibaryonen wären in der frühen

82

Kapitel 7 · Nukleosynthese im frühen Universum

Entstehungsphase symmetrischer entstanden und die spätere Annihilation wäre deutlich effektiver verlaufen, (c) ob es unter diesen Bedingungen überhaupt zu einer nennenswerten Strukturbildung mit nachfolgender Sternen- und Galaxienentwicklung und somit zu einem Planeten „Erde“ hätte kommen können, ist dann zumindest zweifelhaft.

7

5. wenn die «schwache» Wechselwirkung um etwa 10 % „weniger schwach“ wäre? (a) Im frühen Universum würde das Ausfrieren des Neutron/ProtonVerhältnisses weiter hinausgezögert und die Zahl der freien Neutronen, die für die anfängliche Fusion zu Deuteronen benötigt werden, um ca. 50 % reduziert, (b) die Halbwertszeit des freien Neutrons wäre nun statt 610 Sekunden etwa 550 Sekunden, mit dem zusätzlichen Effekt, dass noch weniger Neutronen für die Deuteronfusion zur Verfügung stünden, (c) der Massenanteil von Helium-4 läge nun unter 10 %, (d) die Zahl der Sterne am Himmel wäre um etwa 20 % größer (da etwa 20 % mehr Wasserstoff vorhanden), (e) die Lebensdauer der Sterne (und damit auch die der Sonne) wäre etwa 10 – 20 % kürzer, (f) Supernova-Explosionen, bei denen vor allem die Prozesse der «schwachen» Wechselwirkung eine gewichtige Rolle spielen, wären deutlich häufiger und deutlich violenter, sodass die Nukleosynthese der schweren Elemente (d. h. alle Elemente mit Massenzahl A > 4) einen völlig anderen Verlauf nehmen würde, (g) die Strahlungsleistung der Sterne (und damit auch die der Sonne) wäre um etwa 10 – 20 % größer, (h) die Erde läge damit gerade nicht mehr in der habitablen Zone der Sonne – die Erde benötigte ein anderes Sonnensystem. Man kann jetzt über alle denkbaren Kombinationen dieser Effekte sinnieren. Es wird jedoch recht schnell deutlich, dass man sich dabei in ein argumentatives Nirwana stürzt. Wir wollen deshalb schnell zurückkehren zu dem was ist und nicht weiter spekulieren über das „was wäre wenn“.

83

Die MikrowellenHintergrundstrahlung

Inhaltsverzeichnis 8.1

Die 380.000 Jahr-Marke – 84

8.2

Die Entdeckung der Strahlung – 86

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 D. Frekers und P. Biermann, Weltall, Neutrinos, Sterne und Leben, https://doi.org/10.1007/978-3-662-65110-0_8

8

84

8.1

8

Kapitel 8 · Die Mikrowellen-Hintergrundstrahlung

Die 380.000 Jahr-Marke

Ein Universum, welches sich gegenwärtig ausdehnt und größer wird, muss – wie bereits am Anfang dieses Buchs erwähnt – in der Vergangenheit zwangsläufig kleiner gewesen sein. Da der baryonische, d. h. der „normal“ wechselwirkende Anteil dieses Universum nahezu zu 100 % aus einem Gas, nämlich Wasserstoff und Helium, besteht, muss dieses Gas in früheren Stadien ebenfalls stärker komprimiert und damit auch eine höhere Temperatur gehabt haben. Diese Argumentation lässt sich weiter verfolgen bis hin zu der Ära, welche das Ende der Inflation markiert, wo auch Helium noch gar nicht existierte. Solange kein Wärmeaustausch stattgefunden hat, ist es dabei weitgehend unerheblich, ob sich im Laufe der Entwicklung Bestandteile umgewandelt haben, zerfallen sind oder aus dem thermischen Bad entkoppelten, wie z. B. die Neutrinos in den ersten 100 ms. Derartige Umwandlungseffekte werden in der Thermodynamik durch die Zustandsgröße „Entropie“ erfasst, auf die hier jetzt nicht im Detail eingegangen werden soll. Nun unterliegen alle Dinge in unserer Umwelt der «elektromagnetischen» Wechselwirkung, und damit kommt es infolge ihrer Temperatur zur sogenannten „elektromagnetischen Temperaturstrahlung“ (d. h. Photonen-Emission). Die Eigenschaften dieser Strahlung werden durch die Planck’sche Strahlungsformel für „Schwarzkörper-Strahler“ beschrieben, wobei der Begriff „schwarz“ bedeutet, dass es weder zu einer charakteristischen Eigenemission noch zu einer von der Thermodynamik abweichenden Dynamik der Bestandteile kommen soll. Der Strahler strahlt und kühlt dabei ab, und dabei gilt: Je höher die Temperatur, desto kurzwelliger, d. h. energiereicher die Strahlung und desto effektiver die Kühlung. Die Strahlung hat dann einen typisch glockenförmigen Intensitätsverlauf, welcher in den . Abb. 8.1 und 8.4 beispielhaft dargestellt ist. Es klingt widersprüchlich, aber unser Zentralgestirn, die Sonne, ist ein Beispiel für einen fast idealen „SchwarzkörperStrahler“. Mit der Erkenntnis, dass das Universum expandiert, waren diese elementaren Zusammenhänge natürlich bekannt, sie wurden allerdings in der Literatur nicht sonderlich mit Bezug auf das Universum diskutiert, wohl auch weil man zu jener Zeit der Ansicht war, dass eine solche Strahlung nach ca. 13 Mrd. Jahren nicht mehr messbar sei, oder auch dass aus ihr ohnehin keine besonderen Informationen erweisen. zu extrahieren seien. Dieses sollte sich in der Folge als ein Die Temperaturstrahlung ist im frühen Universum Zeuge einer Reihe von Epochen, und jede Epoche vermag der Strahlung ihren eigenen Stempel aufzudrücken, wobei der Abdruck allerdings im Laufe der Zeit infolge der Thermalisierung verbleicht. Mit der Ausdehnung des Universum nimmt die Temperatur der Strahlung ab. Allerdings bleibt die Strahlung noch lange in Kontakt mit den Bestandteilen des Universums, auch noch bis weit über die Phase der frühen Nukleosynthese hinaus. Sollten deshalb die Nukleonen (Baryonen) in dieser Phase noch Kenntnis über die frühe violente Phase des „Big Bang“ besitzen, so muss diese Kenntnis wie ein Fingerabdruck auch auf die Temperaturstrahlung übertragen worden sein.

85 8.1 · Die 380.000 Jahr-Marke

8

Photonenspektrum S(E) für T= 3200 K 1,0

0,6 0,4

3200 K

S(E)

0,8

0,2 0,0

0

1

2

3

4

0 -2 -4 -6 -8 -10 -12 -14 -16 -18 -20

größer 13,6 eV

log S(E)

Energie [eV]

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

Energie [eV] . Abb. 8.1 Planck’sches „Schwarzkörper“-Strahlungsspektrum für eine Temperatur von 3200 K. Das Spektrum ist willkürlich normiert auf einen Maximalwert von 1. (Zur Orientierung: Die Temperatur von 3200 K entspricht einer Energie von kB · T  0,28 eV) Der untere Teil zeigt das Spektrum bis zur Strahlungsenergie von 18 eV in logarithmischer Form. Nur Photonen oberhalb einer Energie von 13,6 eV sind in der Lage, Wasserstoff zu ionisieren. Ihr relativer Anteil liegt bei dieser Temperatur unterhalb von 10−16

1 Nach ca. 380.000 Jahren erfolgt jedoch ein Schnitt! Denn – nach etwa 380.000 Jahren hat sich das Universum auf den Wert von etwa 3200 K abgekühlt. Damit ist der Anteil der Photonen im hochenergetischen Teil des Planck-Spektrums, d. h. der Anteil, welcher oberhalb der Bindungsenergie des Elektrons im Wasserstoff-Atom von 13,6 eV liegt, zu klein, um Wasserstoff weiterhin zu ionisieren (siehe . Abb. 8.1). Proton und Elektron rekombinieren jetzt endgültig zum Wasserstoff-Atom, d. h.: p + e− H + hν

−→ H + 13,6 eV −→ // p + e−

Rekombination ¨ Re-Ionisation nicht mehr moglich

Diese Epoche währt etwa 30.000 Jahre und beendet die Ära der Wechselwirkung thermischer Photonen mit dem Universum. Die Photonen entkoppeln, sie bewegen sich von nun an in gerader Richtung und unterliegen nur noch der kosmologischen Rotverschiebung. Das heißt, das Universum ist von nun an transparent. Die Epoche wird als „recombination era“ bezeichnet, oder auch umschrieben mit dem Begriff „last scattering surface“. Diese „last scattering surface“ umgibt uns in Form

86

Kapitel 8 · Die Mikrowellen-Hintergrundstrahlung

einer von innen zu betrachtenden, undurchsichtigen Kugelfläche, welche 13,8 Mrd. Lichtjahre entfernt und etwa 20.000 Lichtjahre dick ist1 .

8.2

8

Die Entdeckung der Strahlung

Entdeckt wurde die kosmische Hintergrundstrahlung 1964 völlig zufällig von Arno Penzias und Robert Wilson. Beide arbeiteten in dem Forschungslabor der Telefongesellschaft Bell in Holmdel, New Jersey. Sie bekamen den Auftrag, für die NASA eine neuartige, hochempfindliche Empfangsantenne im Mikrowellenbereich für das Satelliten-Projekt ECHO zu entwickeln. Der ECHO-2 Satellit (als Nachfolger der weniger erfolgreichen ECHO-1 und ECHO-1A Satelliten) war ein 41 Meter im Durchmesser großer Ballon-Satellit, der am 25. Januar 1964 in eine 1200 km hohe Erdumlaufbahn gebracht wurde und dort seine volle Größe entfaltete2 . Als passiver Satellit sollte er Mikrowellen von einer Erd-Sendestation wieder zur Erde zurück reflektieren, um somit eine Kommunikation über große Distanzen zu ermöglichen und um gleichzeitig große Areale auf der Erde abzudecken. Gesendet wurde bei der Wellenlänge von 7,35 cm, welche für die Erdatmosphäre gerade im Bereich der maximalen Transmission liegt (siehe . Abb. 8.3). Mit der Inbetriebnahme der Antenne (bei Flüssig-Helium Temperatur von −269 ◦ C) stießen Penzias und Wilson auf ein ihnen unbekanntes und richtungsunabhängiges Rauschen, dessen Amplitude etwa 100-mal stärker war als erwartet. Nach mühevoller und ergebnisloser Ursachenforschung und Beseitigung aller bekannten Störeffekte wie Radar und Rundfunk waren sie schließlich zwar ratlos, jedoch sicher, dass ein Eigenrauschen der Antenne auszuschließen war. Sechzig Kilometer entfernt gab es an der Princeton University die Gruppe um Robert Dicke, Jim Peebles und David Wilkinson, die ein dediziertes Experiment zum Nachweis der Mikrowellen-Hintergrundstrahlung planten. Penzias und Wilson erfuhren durch Zufall von diesen Aktivitäten und realisierten jetzt erst, was für eine Entdeckung sie gemacht hatten. Zusammen entschied man sich, die Daten von Penzias und Wilson mit den theoretischen Erklärungen von Dicke, Peebles,

1

Die „last scattering surface“ besitzt eine Analogie zur Sonnenoberfläche. Photonen, die im Inneren der Sonne erzeugt werden, brauchen aufgrund fortwährender Streuung mehrere Millionen Jahre, um an die Oberfläche zu gelangen. Einmal dort angekommen bewegen sie sich in gerader Richtung fort. Die Streuung lässt eine Sicht in das Innere der Sonne nicht zu.

2

Die ältere Generation mag sich erinnern, dass die ECHO Satelliten bei Dunkelheit und klarem Himmel mit bloßem Auge von der Erde aus zu sehen waren.

87 8.2 · Die Entdeckung der Strahlung

8

Credit: National Park Service, copyright notice: “No claim to original U.S. Government works.”

. Abb. 8.2 Diese Foto zeigt Arno Penzias (im Vordergrund) und Robert Wilson vor ihrer Antenne mit der 6 Meter langen hornförmigen Öffnung

Roll und Wilkinson in zwei aufeinander folgenden Publikationen im „Astrophysical Journal“ zu publizieren3,4 . Im Ergebnis kamen Penzias und Wilson für die gemessene MikrowellenHintergrundstrahlung auf eine äquivalente Temperatur des Universums von 3,5 ± 1 K, ein in jeder Hinsicht außerordentliches Ergebnis. Penzias und Wilson erhielten für ihre Entdeckung 1978 den Nobelpreis für Physik. Das Foto in . Abb. 8.2, welches Arno Penzias und Robert Wilson vor ihrer 6 Meter großen Horn-Antenne zeigt, ist eines der am häufigsten im Zusammenhang mit der Entdeckung der Hintergrundstrahlung gezeigten Fotos. Nebennotiz: Das außerordentlich produktive Programm mit passiven Kommunikationssatelliten wie ECHO wurde nach etwa 7 Jahren eingestellt und im Zuge neuartiger Entwicklungen durch Programme mit aktiven Satelliten abgelöst. Die Entdeckung der Hintergrundstrahlung markierte eine Zeitenwende in der Kosmologie und den Beginn intensiver Forschungsaktivitäten sowohl einerseits mit Satelliten, welche den Vorteil besaßen, die gesamte Himmelskugel durchmustern zu können, als auch andererseits mit erdgebundenen Ballon-Teleskopen, die im Gegensatz zu den Satelliten eine erheblich kostengünstigere Alternative darstellten. Allerdings haben Ballon-Teleskope mit der Absorption durch die Erdatmosphäre (siehe . Abb. 8.3) und mit allerlei Störstrahlung durch Radar- und Radiowellen zu kämpfen sowie auch mit dem Problem, dass ihr Kurs nicht immer vorherbestimmbar ist. Am 18. November 1989 startete die NASA den Cosmic Background Explorer Satelliten COBE zu einer ersten vollständigen himmelsüberdeckenden Vermessung 3

R. H. Dicke, et al., Cosmic Black-Body Radiation, Astrophysical Journal 142, 414 (1965).

4

A. A. Penzias und R. H. Wilson A Measurement of Excess Antenna Temperature at 4080 Mc/s, Astrophysical Journal 142, 419 (1965).

Absorption der Atmosphäre

fernes UV-Licht, Röntgenund Gamma-Strahlung werden von Atmosphäre vollständig absorbiert

Fenster des sichtbaren Lichts

Kapitel 8 · Die Mikrowellen-Hintergrundstrahlung

88

Infrarot-Spektrum zum größten Teil Radiowellen Langwellen von von Atmosphäre durchdringen die Ionosphäre Atmosphäre reflektiert absorbiert Beobachtung nur im All möglich

100%

0%

1 1 1 1 1 1 1 1 1 1 1 1 1 1 10 0p nm 0nm 00n μm 0μm 00μ mm 0mm cm 0cm m 0m 00m km m m m

[

8

50%

Wellenlänge

BOOMERanG Penzias & Wilson . Abb. 8.3 Durchlässigkeit der Erdatmosphäre gegenüber elektromagnetischer Strahlung. Die Pfeile geben die Wellenlängenbereiche des Experiments von Penzias und Wilson und des BOOMERanGExperiments an. Der rot unterlegte Bereich im oberen Teil des Bildes gibt den Wellenlängenbereich der kosmischen Hintergrundstrahlung an

der Hintergrundstrahlung. Die wissenschaftliche Projektleitung lag in den Händen von George Smoot (Lawrence Berkeley Laboratory, University of California) und John Mather (NASA), die 2006 den Nobelpreis für die Vermessung des Schwarzkörper-Spektrums und für die Entdeckung der darin enthaltenen Anisotropien erhielten. Der Satellit wurde auf eine polare Umlaufbahn in ca. 900 km Höhe gebracht, sodass der empfindliche Teil FIRAS (Far InfraRed Asolute Spectrophotometer) immer der Sonne und der Erde abgewandt war. COBE befindet sich heute noch in dem Orbit. COBE konnte die kosmische Mikrowellenstrahlung über einen großen spektralen Bereich erfolgreich vermessen und die Temperatur des Universums zu T = 2,725 K mit einer Absolut-Genauigkeit von 0,03 % (≈ 8 × 10−4 K) bestimmen und dabei zeigen, dass die Temperaturstrahlung der Planck’schen Strahlungsformel nahezu exakt folgt. In der Tat ist das Universum der idealste bisher bekannte Schwarze Körper. Die große Überraschung war jedoch, dass dem Strahlungsspektrum eine Mikrostruktur aufgeprägt war, die in den Analysen nach Abzug aller Störeffekte im Spektrum als eine Eigenschaft der Hintergrundstrahlung verblieb. Es wurde

8

89 8.2 · Die Entdeckung der Strahlung

Flussdichte [10-20 Ws/(m2 sr)]

400

Spektrum der kosmischen Mikrowellenstrahlung Schwarz-Körper-Strahlung COBE-Daten

350 300

Temperatur T=2,725 K

250 200 150 100 50 0

2

4

6

150

8

10 12 14 16 Frequenz [1/cm] 300 450 Frequenz [GHz]

18

20 22

600

. Abb. 8.4 Links: Das vom COBE gemessene Temperaturspektrum der MikrowellenHintergrundstrahlung. Die Temperaturfluktuationen (hier farbkodiert) sind von der Größenordnung ∼ 50 μK. Rechts: Das gemessene Frequenzspektrum der Mikrowellenstrahlung im Vergleich zur Planck’schen Theorie der Schwarzkörperstrahlung für eine Temperatur von 2,725 K. Die Fehlerbalken sind um einen Faktor 10 vergrößert

schnell klar, dass sich in diesen Fluktuationen Physik aus den sehr frühen Phasen des Universums verborgen hielt5 . Der nächste große Erkenntnisschub gelang mit dem Ballon-Teleskop BOOMERanG (Balloon Observations Of Millimetric Extragalactic Radiation and Geophysics). BOOMERanG hatte zwei Flüge, 1998 und 2003, die beide von der McMurdo-Station in der Antarktis gestartet wurden. Die Ballons stiegen auf etwa 42.000 Meter, um somit die atmosphärische Absorption gegenüber der Mikrowellenstrahlung weitestgehend auszuschalten (siehe . Abb. 8.3). Gleichzeitig trug der zirkulare Polarwind am Südpol die Ballons nach einer etwa 2-wöchigen Reise auf dem −79sten Breitengrad zum Ausgangspunkt zurück, weswegen das Projekt auch seinen speziellen Namen erhielt. Im Gegensatz zu COBE war für BOOMERanG sowie für alle anderen erdgebundenen Teleskope nur ein sehr kleiner Teil (≈ 3−4%) der Himmelskugel sichtbar6,7 . Die . Abb. 8.5 zeigt die von BOOMERanG erstellte Temperaturkarte mit den eingelagerten Strukturen, die jetzt bei einer Winkelauflösung von 0,17◦ deutlich ausgeprägter erscheinen als im COBE Experiment (siehe . Abb. 8.4). Die zunächst noch recht bescheidenen Analysen aufgrund eines sehr begrenzten Datensatzes

5 6 7

D. J. Fixsen et al., The Cosmic Microwave Background Spectrum from the Full COBE FIRAS Data Sets, The Astrophysical Journal 473:576 (1996). S. Masi et al., The BOOMERanG experiment and the curvature of the Universe, Progress in Particle and Nuclear Physics 48:243 (2002) und arXiv:astro-ph/0201137 (2002). C. B. Netterfield et al., A measurement by BOOMERanG of multiple peaks in the angular power spectrum of the Cosmic Microwave Background, The Astrophysical Journal 571:604 (2002).

90

Kapitel 8 · Die Mikrowellen-Hintergrundstrahlung

-300 K -300 -200 -100

0

100

200

+300 K 300

-30°

Deklination

-35° -40° -45° -50° -55° -60° 30°

8

45°

60°

75° 90° 105° 120° 135° Rektaszension

. Abb. 8.5 Temperaturdaten des Universums aus dem BOOMERanG-Experiment für einen Himmelsausschnitt am Südpol, dargestellt im äquatorialen Polarkoordinatensystem. Der Rektaszensionswinkel 90◦ bezeichnet die Koordinate des Südpols. Ein gleichzeitiger Deklinationswinkel von −90◦ wäre der Punkt direkt über dem Südpol, der aber vom Ballon auf seiner zirkumpolaren Reise nicht erreicht wird

zeigten bereits deutlich, dass in dem Temperaturspektrum Eigenschaften und Fingerabdrücke aus der frühen dynamischen Phase des Universum eingelagert waren 8 und die Temperaturfluktuationen keineswegs rein statistischer Natur sind. Dies sollte in den folgenden Satelliten-Experimenten noch klarer und noch schlüssiger zu Tage treten und damit viele alternative (und durchaus wissenschaftlich begründbare) „Big Bang“- oder auch „no-Big-Bang“-Theorien ad acta legen. Fast zeitgleich zu BOOMERanG startete im Juni 2001 die NASA den WMAP (Wilkinson Microwave Anisotropy Probe) Satelliten mit dem 840 kg schweren WMAP-Teleskop und schließlich die ESA im Mai 2009 den Planck-Satelliten mit dem etwa 2 Tonnen schweren Planck-Teleskop, jeweils mit dem Ziel einer genauen und vollständigen Vermessung der Mikrowellen-Hintergrundstrahlung. Beide Satelliten-Teleskope wurden in der Nähe des Lagrange-Punktes L2 im Erde-Sonne-System geparkt, bzw. in einen Orbit um diesen Punkt gebracht. Der Lagrange-Punkt L2 befindet sich ca. 1,5 Mio. Kilometer von der Erde entfernt und ist einer von 5 existierenden Lagrange-Punkten im System Erde-Sonne (siehe . Abb. 8.6). Am Punkt L2 nutzt man den Schatten der Erde aus, um die Sonden vor der intensiven Sonnenstrahlung zu schützten. Beide Sonden haben mit Ende der Mission den Lagrange-Punkt wieder verlassen (WMAP in 2010 und Planck in 2013) und befinden sich nun in einem Orbit um die Sonne, welcher eine Kollision mit der Erde für alle Zeiten ausschließt. Dies folgt aus der Kenntnis, dass der Lagrange-Punkt L2 im Gegensatz zu L4 und L5 ein in radialer Richtung instabiler Aufenthaltspunkt ist, aus dem langfristig, d. h. irgendwann, vielleicht erst 8

S. Masi et al., The BOOMERanG experiment and the curvature of the Universe, Progress in Particle and Nuclear Physics 48:243 (2002) und arXiv:astro-ph/0201137 (2002).

91 8.2 · Die Entdeckung der Strahlung

8

L4

L3 149 Mio. km

60° 60° Sonne

~200 km

L1 L2 Erde

L5 1,5 Mio. km

. Abb. 8.6 Lagrange-Punkte L1 – L5 für das System Erde-Sonne. Diese haben wie auf einer Radachse dieselbe Umlaufperiode um die Sonne. Der Punkt L2 liegt im Erdschatten der Sonne und sieht auch die Erde nur bei Nacht. Er ist daher für empfindliche Messungen zur kosmischen Hintergrundstrahlung besonders geeignet. In L2 befinden sich derzeit mehrere Sonden, z. B. seit September 2019 auch das deutsch-russische Spectr-RG-Observatorium mit den Röntgenteleskopen eROSITA und ART-XC. ¨ Spectr-RG – Spectrum, Rontgen, Gamma eROSITA – extended ROentgen Survey with an Imaging Telescope Array ART-XC – Astronomical Roentgen Telescope X-ray Concentrator

nach Hunderten oder Tausenden von Jahren, entweder ein unkontrollierter Absturz auf die Erde erfolgt, oder das Objekt sich radial von der Erde weg entfernt. Interessanterweise ist eine Vorausberechnung, welches dieser Szenarien eintritt, nicht möglich. Es ist so, als würde man einen Ball auf die Spitze einer Nadel legen. Die . Abb. 8.7 zeigt die Temperaturkarten der beiden Sonden im Vergleich. Die Übereinstimmung der Ergebnisse aus diesen zwei völlig unabhängigen Experimenten ist schlicht beeindruckend. Hier muss man lediglich berücksichtigen, dass die Temperatur- und die Winkelauflösung der beiden Experimente unterschiedlich sind. Des Weiteren ist die Datenmenge von Planck etwa 10-mal so groß wie die von WMAP. Die von Planck und WMAP angegebenen Werte sind9,10 :

9

Planck-Collaboration, Planck 2018 results. I. Overview and the cosmological legacy of Planck, arXiv:1807.06205v1 [astro-ph.CO] (2018), auch publ. in Astronomy & Astrophysics 641, A1 (2020), und Planck 2018 results. VI. Cosmological parameters, arXiv:1807.06209v2 [astro-ph.CO] (2019). – Alle Artikel zu Planck 2018 results finden sich ebenfalls als „Special Editions“ in Astronomy & Astrophysics 641, A1 – A12 (2020).

10 G. Hinshaw et al., Nine-year Wilkinson Microwave Anisotropy Probe (WMAP) Observations: Cosmological Parameter Results, The Astrophysical Journal Supplement Series 208:19 (2013).

92

Kapitel 8 · Die Mikrowellen-Hintergrundstrahlung

Kosmischer Mikrowellen-Hintergrund gesehen von Planck und WMAP im Vergleich

8

WMAP

Planck

. Abb. 8.7 Vergleich der Temperaturkarten von Planck und WMAP. Die Winkelauflösung im WMAPExperiment ist um etwa einen Faktor 2 schlechter als die im Planck-Experiment. Berücksichtigt man diesen Unterschied, so zeigt die Ausschnittsvergrößerung eine beeindruckende Übereinstimmung der beiden Experimente. (Quelle: ESA)

Planck: Datenpunkte: WMAP: Datenpunkte:

T ≈ 10−6 K, ≈ 1.430.000 T ≈ 2 · 10−5 K, ≈ 150.000

  0,08◦ (bei Frequenzen ≈ 1000 GHz)   0,3◦

In der nächsten . Abb. 8.8 ist die vollständige Temperaturkarte aus dem PlanckExperiment gezeigt. In diesem scheinbar völlig unübersichtlichen TemperaturChaos stellt sich die Frage: Wie kann man quantitative Information aus dieser Karte extrahieren, und wie lassen sich damit belastbare Aussagen machen ? – Glücklicherweise haben Studierende der Naturwissenschaften im dritten oder vierten Semester bereits das Rüstzeug, hierauf eine Antwort zu geben und vielleicht sogar eigenständig eine anfängliche Analyse durchzuführen. Das Verfahren, welches man anwendet, wird als „Multipol-Analyse“ mittels „Kugelflächenfunktionen“ bezeichnet. Es ist dem der „Fourier-Analyse“ eines Frequenzspektrum mit verschiedenen überlagerten Frequenzen ähnlich. Analyseverfahren dieser Art werden in fast allen Bereichen der Naturwissenschaften, in den Ingenieurwissenschaften, in der Radio- und

8

93 8.2 · Die Entdeckung der Strahlung

kosmische Temperaturkarte < T > = 2,725 K

Vtlg. der Multipol-Stärken [μK2]

> 45°

~ 0.1°

~ 0.2°

~ 1°

PLANCK-Daten

5000

(publ. 2019)

4000 3000 2000 1000 5 10

30

500

1000

Multipol-Index

1500

l

2000

2500

. Abb. 8.8 Oben: Kosmische Temperaturkarte aus dem Planck-Experiment für die gesamte Himmelskugel ( = [0◦ , 360◦ ],  = [−90◦ , 90◦ ]). Temperaturunterschiede in der Größenordnung der Temperaturauflösung von T ≈ 10−6 K sind in dieser 2-dimensionalen Form nicht vollends darstellbar. Unten: Multipol-Analyse, die Größe und Häufigkeit der Strukturen in From eines „Power-Spektrums“ darstellt. Es zeigt Schwingungen, die als akustischer Nachhall des „Big Bang“ interpretiert werden. Die Höhe des ersten Maximums ist direkt mit der Baryonen-Dichte im „Big Bang“ verknüpft. Die Winkelangaben am oberen Rand geben an, über welche Winkelbereiche diese Strukturen (Schwingungen) ausgedehnt sind. – Die Datenmenge umfasst etwa 1,43 Mio. unabhängige, mehrmals gemessene Datenpunkte, aus denen das „Power-Spektrum“ generiert ist. Dieses Spektrum wird vom CDM-Modell (durchgezogene Linie) mit beachtlicher Präzision reproduziert. Ab  = 30 ändert sich die Skala von logarithmisch zu linear [(Adaptiert aus: Planck-Collaboration, Planck 2018 results. VI. Cosmological parameters, Astronomy & Astrophysics 641, A6, (2020)]

94

8

Kapitel 8 · Die Mikrowellen-Hintergrundstrahlung

Tontechnik, den verschiedensten Medizinwissenschaften bis hin in den Wirtschaftswissenschaften und Sprachwissenschaften angewandt, sodass heutzutage auf dem Internet eine große Zahl entsprechender Computer-Programme frei verfügbar ist. Eine solche, für die kosmischen Temperatur-Anisotropien durchgeführte Analyse liefert als Resultat ein sogenanntes „Power-Spektrum“, welches im unteren Teil der . Abb. 8.8 gezeigt ist. Es korreliert in einer strikt mathematischen Formulierung die Größe von zusammenhängenden Strukturen (in Einheiten der jeweiligen Winkelmaße) mit deren Häufigkeiten in der Karte – je größer die Multipol-Ordnung desto kleiner die Strukturen. In dem Fall, dass die Strukturen rein statistischer Natur sind, ist das „Power-Spektrum“ flach. Diese Temperaturanalyse förderte ein völlig überraschendes Ergebnis zutage. Auf Winkelskalen von etwa 1◦ beobachtet man im „Power-Spektrum“ ein ausgeprägtes Schwingungsmaximum. Interessanterweise entspricht diese Skala in etwa der heutigen Größe jener Bereiche, die während der Rekombinationsphase kausal miteinander verbundenen waren (oder dem Ereignishorizonts des Universums zum Zeitpunkt von 380.000 Jahren). Da nun in der Temperaturkarte allen Winkelbereichen von dieser Größe einheitlich die gleiche Schwingungscharakteristik aufgeprägt wurde, müssen diese zwangsläufig zu einem sehr viel früheren Zeitpunkt, z. B. in der vorinflationären Phase, ebenfalls in einem kausalen Zusammenhang gestanden haben. Sie wurden schließlich durch die Inflation voneinander getrennt und treten heute in unseren Ereignishorizont wieder ein (siehe z. B. . Abb. 6.14), und da diese Gebiete alle exakt dieselbe ursprüngliche Geschichte besitzen, gleichen sie sich untereinander nach wie vor. Natürlich treten auch in Zukunft ehemals kausal zusammenhängende Gebiete in dann jeweils zukünftige Ereignishorizonte ein. Der Unterschied wird dann aber sein, dass sich alle Schwingungsmaxima im „PowerSpektrum“ zu noch kleineren Winkeln verschieben, sie sich also am Himmel weiter „zusammendrängeln“. Dieser Prozess wird aber im Laufe eines Menschenlebens wohl eher nicht erkennbar sein. In einer sehr vereinfachten Formulierung ist das beobachtete Schwingungsmaximum die Grundfrequenz der „Schallwelle“, welche durch den des „Big Bang“ in die kosmische Mikrowellenstrahlung als Fingerabdruck einer baryonischen Grundschwingung eingelagert wurde, wobei der Ursprung dieser Schwingung bis in die vorinflationäre Phase zurückreicht.

95 8.2 · Die Entdeckung der Strahlung

8

Mit der Planck-Sonde verfügte man über ein Himmels-Teleskop, welches in der Lage war, Schwingungen bis zur achten Harmonischen (oder 7 Oberschwingungen bzw. „Obertöne“) zu vermessen, d. h. bis hinunter zu Winkelskalen von etwa 0,08◦ (siehe . Abb. 8.8). Besonders bemerkenswert in dem „Power-Spektrum“ der . Abb. 8.8 ist dabei die Tatsache, dass die Frequenzen dieser „Obertöne“ in einem nahezu ganzzahligen Verhältnis zur Grundfrequenz stehen. Musikliebhaber wissen, dass in einem solchen Fall der Klang besonders harmonisch klingt !! Eine theoretische Beschreibung des in . Abb. 8.8 gezeigten „Power-Spektrums“ gelingt durch das sogenannte „Lambda-Cold-Dark-Matter“ (CDM)-Modell, welches die Daten mit einer erstaunlichen Präzision reproduziert. Dieses Modell geht von relativ einfachen Voraussetzungen aus, natürlich unter Beibehaltung gesicherter physikalischer Gesetze, die sich aus Hydrodynamik, Akustik, Thermodynamik und Allgemeiner Relativitätstheorie für ein expandierendes Universum herleiten. Auf zwei zentrale Größen in diesem Modell soll hier detaillierter eingegangen werden, da beide Größen eine Physik verkörpern, die bislang nicht in der gängigen Physik der Elementarteilchen enthalten ist. Das Vorhandensein dieser Physik ist allerdings zwingend, obwohl deren Eigenschaften nach wie vor im Dunkeln liegen. Zu erwähnen sind hier:

 Die Dunkle Energie

Das Phänomen der Dunklen Energie wurde Ende der 1990er-Jahre entdeckt. Der Name leitet sich aus dem mysteriösen Verhalten ab, dass Dunkle Energie im Gegensatz zu allen anderen Formen von Energie gravitativ repulsiv wirkt, was dann zu einer beschleunigten Expansion des Universum führt11 . In Anlehnung an die kosmologische Konstante von Einstein wird sie mit dem Buchstaben „“ abgekürzt. Allerdings war Einsteins kosmologische Konstante eigentlich eingeführt worden, um das Universum zusammenzuhalten. Insofern tritt die kosmologische Konstante heute, 100 Jahre später, in einem völlig neuen Gewand wieder auf. Inwieweit diese „-Expansion“ ein Überbleibsel aus dem inflationären Zeitalter ist, bleibt eine Frage, mit der sich zukünftige Forschungsprojekte befassen müssen. 

11 Für diese Entdeckung erhielten Saul Perlmutter vom Lawrence Berkeley National Laboratory, Brian P. Schmidt von der Australian National University und Adam Riess von der University of California, Berkeley (mittlerweile an der Johns Hopkins University, Baltimore) den Nobelpreis für Physik im Jahr 2011.

96

Kapitel 8 · Die Mikrowellen-Hintergrundstrahlung

 Die Dunkle Materie

8

Dass es so etwas wie eine Dunkle Materie geben muss, wurde bereits in den 1930erJahren von Fritz Zwicky aufgrund seiner Beobachtungen von Rotverschiebungen an Galaxienhaufen vermutet. Neunzig Jahre später gibt es Hinweise auf Dunkle Materie zuhauf, allerdings ist bis heute noch immer fast nichts über ihre Struktur bekannt, außer dass es extrem viel davon geben muss, und dass Dunkle Materie (soweit bekannt) lediglich der «gravitativen» Wechselwirkung unterliegt. Das heißt auch, Dunkle Materie produziert kein Licht, absorbiert kein Licht und streut kein Licht – Dunkle Materie ist vollständig transparent und damit eben die „dunkle Seite des Universums“. In dem angesprochenen CDM-Modell wird jedoch eine wichtige Eigenschaft der Dunklen Materie präjudiziert, nämlich: Sie ist „kalt“. Darunter ist zu verstehen, dass Dunkle-Materie-Teilchen so „schwer“, bzw. so massiv sein sollten, dass sie zwar im frühen kosmischen Temperaturbad mitschwimmen und dort vielleicht sogar vermöge der «schwachen» Wechselwirkung thermalisieren, während der Entkopplungsphase aber keine relativistischen Geschwindigkeiten mehr besitzen. Sie gleichen in gewisser Weise den Neutrinos, außer dass sie um etliche Größenordnungen massiver sind (geschätzt um einen Faktor von etwa 1010 − 1013 ) und damit deutlich langsamer. Legt man diese „Kalt-Eigenschaft“ zugrunde, lassen sich die filamentartigen Strukturen von Galaxien und Galaxienhaufen durch Computer-Simulationen in faszinierender Weise reproduzieren, d. h., „kalte“ Dunkle-Materie-Teilchen sind extrem effektive strukturbildende Teilchen und können eine Erklärung liefern, warum bereits wenige 100 Mio. Jahre nach dem „Big Bang“ die ersten Protogalaxien in Erscheinung treten. Neutrinos hingegen besitzen diese Kalt-Eigenschaft wegen ihrer winzigen Masse und demzufolge wegen ihrer zu allen Zeiten relativistischen Geschwindigkeit nicht. Sie bügeln kleinste Unregelmäßigkeiten in den gravitativen Potenzialen sofort aus und unterbinden somit nennenswerte Strukturbildungen gleich im Ansatz. Allerdings, die super-leichten Axionen, von denen bereits am Anfang dieses Buches ebenfalls die Rede war, bleiben in dieser Diskussion nach wie vor im Gespräch. 

Die Ergebnisse mit den für dieses Buch bedeutsamen Kenngrößen, welche von der Planck-Kollaboration kommuniziert wurden (siehe Fußnote9 , Seite 91), sind im folgenden zusammengestellt. Sie unterscheiden sich unwesentlich von den publizierten Daten aus der WMAP-Mission, haben aber deutlich geringere Fehlergrenzen. Bemerkenswert ist, dass unser Universum zu ca. 95 % aus weitgehend unverstandener Dunkler Energie und Dunkler Materie besteht, und nur aus gerade mal 0,4 % leuchtender Materie wie die Sonne, die Sterne und die Galaxien, die uns am Tagund Nachthimmel als sichtbare Objekte umgeben. Dies sollte eine gewisse kosmische Bescheidenheit erzeugen.

8

97 8.2 · Die Entdeckung der Strahlung

4 3

1

26%

2

Ω Baryon [%] 3

4

6

8

4He

25% 24%

PLANCK

Anteil 3He/H, D/H Massenanteil 4He

5

23% 5x10-4

D

10-4

3He 10-5 5x10-6

Anteil 7Li/H

Vtlg. der Multipol-Stärken [μK2]

Die erste Größe in dieser Liste, Baryon , verdient eine gesonderte Betrachtung. Wir hatten gesehen, dass das „akustische“ Maximum in dem „Power-Spektrum“ der Temperaturkarte in direkter Weise verknüpft ist mit der Dichte der Baryonen

2 1

10-9

7Li

10-10 1

2

3

4

6

8 10

x 10-10 Baryon / Photon -Verhältnis

5 10

30

500

1000

Multipol-Index

1500

l

2000

2500

. Abb. 8.9 Die Mikrowellen-Hintergrundstrahlung: ein Abbild der frühen Nukleosynthese – 380.000 !! Jahre liegen dazwischen. Vergleiche auch . Abb. 7.5 und 8.8

98

Kapitel 8 · Die Mikrowellen-Hintergrundstrahlung

im frühen Universum, da die vom „Big Bang“ erzeugte Grundschwingung in der baryonischen Druckwelle den größten Fingerabdruck in der frühen Mikrowellenstrahlung erzeugt. Die aus diesem Maximum extrahierte Baryon-Dichte (d. h. die Dichte normaler Materie, also hier im Wesentlichen Wasserstoff und Helium) ist Baryon = 4,90 ± 0,04% in Einheiten der Gesamt-Energiedichte des Universums. Dieser Wert – obgleich heute gemessen – reflektiert den Wert zu einem Zeitpunkt 380.000 Jahre nach dem „Big Bang“. Bemerkenswerterweise ist dieser Wert der gleiche, welcher völlig unabhängig hiervon aus den Elementhäufigkeiten der frühen Nukleosynthese extrahiert wurde (siehe . Abb. 8.9, aber auch die . Abb. 7.5 und 8.8). Die Nukleosynthese fand aber in den ersten 10 Minuten statt !!

8

99

Späte Nukleosynthese und Supernovae

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 D. Frekers und P. Biermann, Weltall, Neutrinos, Sterne und Leben, https://doi.org/10.1007/978-3-662-65110-0_9

9

Inhaltsverzeichnis 9.1

Elemente, elementare Fragen – 101

9.2

Die Sonne – eine unter vielen – 102

9.3

Faszination Triple-alpha – 111

9.4

Supernovae – kosmische Kochkessel der Elemente – 116

9.5

Supernovae – Einblicke und Impressionen – 122

9.6

Supernovae und kosmisches Erstaunen – 134

9.7

Supernovae und Entstehung des Lebens – 140

9.8

Auf der Suche nach Leben im Sonnensystem – 151

101 9.1 · Elemente, elementare Fragen

9.1

9

Elemente, elementare Fragen

Von der Frühzeit bis zum Mittelalter war das wissenschaftliche Leben einfach – es gab 4 Elemente, das war für die Beschreibung des Lebens und der meisten Lebensvorgänge ausreichend. Für Alchemisten, insbesondere für jene, die Gold herstellen wollten, aber nicht konnten, schien diese Einteilung allerdings schon sehr früh zumindest fragwürdig. Mit Beginn der industriellen Revolution schließlich wurde ein allgemeines Grundwissen über Stoff- und Materialeigenschaften immer wichtiger, und langsam wuchs die Erkenntnis, dass bestimmte Stoffe offensichtlich „elementar“ sind. Dem russischen Chemiker Dimitri Mendelejew und dem deutschen Arzt und Chemiker Lothar Meyer gelang es, in der Mitte des 19. Jahrhunderts in mühevoller Kleinarbeit eine weitgehend korrekte Einteilung dieser „Elemente“ vorzunehmen, sodass beide heute als die Begründer des Periodensystems der Elemente gelten. Der englische Chemiker und Physiker Francis William Aston schließlich gilt als der Entdecker der Isotope. Ihm gelang es, insgesamt 200 der knapp 300 natürlich vorkommenden Isotope1 massenspektrometrisch zu identifizieren, wofür ihm 1922 der Nobelpreis für Chemie verliehen wurde. Irgendwie erweckt diese Entwicklung den Eindruck, als ob die Physiker sich nur recht langsam für die stabilen Elemente interessierten – und in der Tat waren zunächst die instabilen, radioaktiven Elemente für sie von größerem Interesse. Erst in den 1950er-Jahren fing man allmählich an, ganz einfache und vermeintlich triviale Fragen zu stellen, auch um festzustellen, dass es Antworten darauf nicht gab, z. B.: 1. Woher kommen diese Elemente, wo befinden sich die kosmischen Kochkessel (the cauldrons in the cosmos)? 2. Warum sind einige Elemente so selten (z. B. Gold oder Lithium) und andere so häufig (z. B. Kohlenstoff oder Eisen)? 3. Warum sind alle stabilen Isotope in der Natur auch tatsächlich vorhanden, warum ist keines bei der Herstellung „vergessen“ worden? Und vor allem: 4. Warum ist die relative Häufigkeit von Isotopen so scheinbar völlig willkürlich, wer ist der Kustos dieser Zahlen? In . Abb. 9.1 ist der letzte Punkt aus dieser Reihung für zwei verschiedene Elemente, Kalzium und Zinn, exemplarisch dargestellt. Kalzium hat 6 stabile Isotope, davon ist Kalzium-40 (40 Ca) mit 97 % das am häufigsten und Kalzium-46 (46 Ca) 1

Hinweis: Nicht alle natürlich vorkommenden Isotope sind auch stabil. Das am häufigsten vorkommende natürliche Radioisotop ist Kalium-40 (40 K, Halbwertszeit (HWZ) 1,25 × 109 Jahre). Hinzu kommen noch etwa 20 weitere, davon eine Reihe Seltener Erden. Des Weiteren treten die natürlichen Zerfalls- und Spaltprodukte des Urans und Thoriums in größeren Konzentrationen in der Biosphäre auf (die wichtigsten: Radon, Radium, Cäsium und Technetium). Auch kosmische Strahlung erzeugt Radioisotope, die in geringen Konzentrationen in die Biosphäre eingetragen werden (die wichtigsten: Tritium (3 H, HWZ 12,3 Jahre), Kohlenstoff-14 (14 C, HWZ 5730 Jahre), Beryllium-10 (10 Be, HWZ 1,6 Mio. Jahre), Argon-39 (39 Ar, HWZ 269 Jahre), Kalzium-41 (41 Ca, HWZ 103.000 Jahre)). Eine weitere und durchaus bedeutsame Quelle der natürlich vorkommenden Radioisotope ist Vulkanismus.

log (Ca-Isotopenhäufigkeit) 0

96,94%

-1

2,086%

log (Sn-Isotopenhäufigkeit)

0

24,23% 32,59% 14,45%

-1

0,647%

-2

log(Y)

Kapitel 9 · Späte Nukleosynthese und Supernovae

log(Y)

102

0,187%

0,135% -3

-2

7,68% 0,97%

8,59%

4,63% 5,60%

0,65% 0,34%

0,004%

-4

40

42 44 46 stabile Ca-Isotope

Frage:

48

112 114

116 118 120 122 124 stabile Sn-Isotope

Wer hat diese Zahlen “gemacht”?

. Abb. 9.1 Isotopenhäufigkeiten von Kalzium und Zinn. Kalzium hat 6 stabile Isotope und Zinn hat insgesamt 10 und ist zugleich das Element mit den meisten stabilen Isotopen im Periodensystem

9

mit 0,004 % das am seltensten vorkommende stabile Isotop – es ist sogar unter allen stabilen Element-Isotopen mit A > 4 jenes mit der geringsten relativen Häufigkeit. Zinn ist das Element mit der größten Anzahl stabiler Isotope (insgesamt 10), die meisten davon besitzen eine relative Häufigkeit im einstelligen Prozentbereich und keines davon ist übermäßig selten. Die anderen Fragen aus der Reihung 1–4 lassen sich besonders eindrucksvoll durch die . Abb. 9.2 zum Ausdruck bringen. Sie zeigt die relativen Elementhäufigkeiten aller chemischen Elemente und deren Isotope wie sie sowohl innerhalb als auch außerhalb des Sonnensystems anzutreffen sind2 . Beachtenswert ist der nach wie vor geringe Anteil an Lithium, welcher sich seit dem „Big Bang“ nur wenig verändert hat. Gekennzeichnet ist zudem das Gebiet der Seltenen Erden, deren extrem geringes Vorkommen (teilweise noch seltener als Gold) schließlich auch zu ihrer Namensgebung geführt hat.

9.2

Die Sonne – eine unter vielen

Es ist sinnvoll, sich zunächst mit den Eigenschaften unseres Zentralgestirns, der Sonne, und den bemerkenswerten physikalischen Prozessen, die so direkt und unmittelbar unsere eigene Existenz betreffen, vertraut zu machen. Die Sonne ist ein normaler, unauffälliger, vielleicht sogar ein etwas kleinwüchsiger Stern im Orion-Arm der Milchstraße. Im Durchmesser ist sie ziemlich genau 100-mal größer als die Erde (ca. 1,4 Mio. Kilometer) und besitzt dabei eine Masse von ca. 2 × 1030 kg (im Vergleich: Masse der Erde ca. 6 × 1024 kg) (siehe . Abb. 9.3). Sie bringt etwa 99,9 % der Gesamtmasse des SonIhr Steckbrief

2

Diese Elementhäufigkeiten sind über den Zeitraum der letzten 40–50 Jahre mit immer höherer Genauigkeit bestimmt worden. Dazu wurden Erdgestein, Mondgestein, Marsgestein, Meteoritengestein und Meteoritenstaub aus dem nahen und fernen solaren Umfeld sowie auch extrasolares Meteoritenmaterial als Probesubstanzen verwandt. Auch Spektralanalysen von Sternen geben Auskunft über Elementhäufigkeiten.

103 9.2 · Die Sonne – eine unter vielen

1010

H He

108

CO

gerades A ungerades A

Si

N [Si=106]

106

9

Fe

Häufigkeit [Si=106] Ni

104 F

Zn Ga

102

Zr

B

100

Ba Te Sn

Kr

Be

Pb Pt Yb Hg Dy Hf

6Li 7Li

10-2

Au

Seltene Erden

U

10-4 0

20

40

60

80

100

120

140

160

180

200

220

Massenzahl . Abb. 9.2 Relative solare Elementhäufigkeiten normiert auf die Elementhäufigkeit von Silizium (willkürlich auf 106 festgesetzt). Die Häufigkeiten für gerade und ungerade Massenzahlen sind separat gezeigt. Deutlich erkennbar der überragende Anteil des Eisens und der eisennahen Elemente. Unverkennbar auch die Überhöhungen (ca. Faktor 50–100) in der Tellurium-/Barium- und der Blei-Gegend

nensystems auf die Waage. Ihre mittlere Dichte ist mit etwa 1,4 g/cm3 recht bescheiden, dennoch führt die enorme Masse zu einer Schwerkraft auf der Sonnenoberfläche, die etwa dem 28-fachen der Schwerkraft auf der Erde gleich kommt (also 28 · gErde ). Ihre „Außentemperatur“ beträgt etwa 5800 K, im Inneren herrscht jedoch eine Temperatur von ca. 15 Mio. K, welche durch die Energiefreisetzung bei der Fusion von Wasserstoff zu Helium aufrecht erhalten wird. In Elektronenvolt umgerechnet ist diese Temperatur gerade einmal 1,3 keV. Die Dichte im inneren Sonnenbereich erreicht mit 160 g/cm3 etwa die 14-fache Dichte von Blei und wird bei diesem Wert durch das Zusammenspiel von attraktiver Gravitation und expansivem Gas- und Strahlungsdruck stabilisiert. Der überwiegende Teil der Sonnenmasse besteht aus Wasserstoff und Helium, nämlich ungefähr (67,8 ± 3,5) % und (30,6 ± 1,5) % (siehe Fußnote3 ); das heißt auch, die Sonne trägt immer noch die Signatur einer Elementzusammensetzung, die der frühen Nukleosynthese aus den ersten 10 Minuten entstammt (siehe 7 Kap. 7). Die restlichen ca. 1,5 % der Sonnenmasse bestehen aus schweren Elementen (A > 4), was darauf hindeutet, dass das Sonnenmaterial bereits mehrmals aus dem Material früherer Stern-Explosionen rezykliert wurde. 3

Die hier angegeben Prozent-Zahlen stammen aus einer neuerlichen, sehr komplexen theoretischen und noch nicht publizierten Sonnenmodell-Rechnung von A. Noels-Grötsch and N. Grevesse. Die beiden Autoren haben dankenswerterweise einer Verwendung ihrer berechneten Werte in diesem Buch zugestimmt.

104

Kapitel 9 · Späte Nukleosynthese und Supernovae

Merkur Venus Erde Mars Jupiter Saturn Neptun Uranus

9

Bild Sonne: NASA/SDO (AIA)

. Abb. 9.3 Abbild der Sonne (hier im extremen Ultraviolett-Bereich, 30,4 nm) mit den Planeten im Größenvergleich. Die kleinsten Planeten Merkur und Mars sind in dieser Darstellung kaum erkennbar

Die einzelnen Stadien der Sternentwicklung, wie sie alle Sterne, inklusive der Sonne, früher oder später durchlaufen, werden in dem Hertzsprung-RussellDiagramm4 in eindrucksvoller Weise dargestellt. Es wird seit nunmehr über 100 Jahren durch kontinuierliche astronomische Beobachtungen sukzessive erweitert. In dem Diagramm (. Abb. 9.4) ist die Farbe (d. h. die Temperatur) eines Sterns mit der Leuchtkraft korreliert. Ganz offensichtlich unterliegen Sterne einer Ordnung, die Sterne-Parameter sind nicht willkürlich – Sterne besitzen somit keine Freiheiten! Mehr als 90 % der Sterne sind in dem Diagramm auf der sogenannten Hauptreihe angeordnet, wobei sie, wie die Sonne, Wasserstoff zu Helium fusionieren. Hier verbleiben sie über mehrere Milliarden Jahre in einem stabilen Gleichgewicht zwischen Gravitation und Strahlungsdruck, was dann wiederum auch bedeutet, dass besonders massereiche Hauptreihen-Sterne eine hohe Leuchtkraft (damit hohen Strahlungsdruck) besitzen müssen. Nur so entgehen sie fürs Erste dem gravitativen Kollaps. Am Ende ihrer Entwicklung konvertieren Sterne innerhalb kurzer Zeit (deshalb erscheint der Flaschenhals in dem Diagramm als ein relativ leeres Gebiet) zu Roten Riesen oder zu Überriesen, um dann, je nach anfänglicher Größe, entweder als „Weiße Zwerge“ oder auch explosiv als Neutronensterne (im Grenzfall sogar 4

E. Hertzsprung (1873–1967), dänischer Astronom; Henry Russell (1877–1957), amerikanischer Astronom.

105 9.2 · Die Sonne – eine unter vielen

106

Superr

Leuchtkraft [Sonne = 1]

105 104

H

103

a

102

u

p

tr

e

101 1 10-1

W

10-2 10-3

ei

ße

Zw

9

iesen Rote Riesen

ih

er

10-4

e

n

s

te

Sonne rn

e

ge

10-5

30.000

10.000

6.000

3.000

Oberflächentemperatur [K] . Abb. 9.4 Schematische Darstellung von Sternvorkommen im Hertzsprung-Russell-Diagramm

als Schwarze Löcher) zu verenden. Dieser finale Prozess währt zwischen 100 und 600 Mio. Jahre. Im Hertzsprung-Russell-Diagramm liegt die Sonne in der unteren Hauptreihenhälfte und befindet sich dort in einem relativ kleinen Bereich in guter Gesellschaft mit den meisten Sternen im Universum. Die Energie der Sonne wird durch Fusion von 4 Protonen zu einem Helium-Kern freigesetzt. Die Fusion findet statt im inneren Viertel der Sonne ab einer Temperatur von ca. 10 Mio. K und ab einer Dichte von ca. 100 g/cm3 . Der dabei ablaufende kernphysikalische Prozess ist in der . Abb. 9.5 schematisch dargestellt. Er startet von zwei verschiedenen Zweigen aus mit insgesamt 6 beteiligten Protonen und mündet schließlich in Helium-4 (4 He) plus 2 zurückbleibende Protonen, die wieder ins thermische Bad zurückgeführt werden und dort für weitere Fusionsprozesse zur Verfügung stehen. Dieser ist der Einstiegsprozess in den sogenannten pp-Zyklus der Sonne und wird auch als pp-(I)-Zyklus bezeichnet. Er steht immer und ausnahmslos am Anfang einer stellaren EnergieErzeugung und ist für alle Sterne gleich. Er unterscheidet sich zudem deutlich vom Prozess der frühen Nukleosynthese. Auch um Missverständnissen vorzubeugen, er Ihr Brennstoff und ihr Brennstoff-Verbrauch

106

Kapitel 9 · Späte Nukleosynthese und Supernovae

ν

p e+

d γ

e+

p p

p

d 3He

3He

p

4He

p

p

ν

p

γ

4He + 2e+ + 2ν p+p+p+p Qtherm = 26,2 MeV . Abb. 9.5 Schematische Darstellung des primären Proton-Proton-Zyklus in der Sonne mit 4 He als Endprodukt. Die Reaktion p + p + p + p → 4 He erfolgt über die Zwischenschritte 2 × (p + p → d), 2 × (d + p → 3 He) und 3 He + 3 He → 4 He + 2p. Mit jedem Zyklus entweichen 2 Neutrinos. Insgesamt verbleiben ca. 26,2 MeV als thermische Energie in der Sonne

9

ist nicht der Prozess, welcher in den geplanten terrestrischen Fusionsreaktoren in dieser Form zur Anwendung kommt. Der pp-Zyklus hat einige Besonderheiten: Er besteht aus insgesamt 4 Unterzyklen pp-(I) bis pp-(IV), von denen die beiden wichtigsten Zyklen pp-(I) und pp-(II) mit ihren Reaktionsabfolgen (I-1) – (I-3) und (II-1) – (II-3) hier kurz kommentiert sind: pp-(I-1): p + p −→ d + e+ + ν Dieser Prozess wird durch die «schwache» Wechselwirkung initiiert, bereits erkennbar dadurch, dass ein Neutrino beteiligt ist. Die Reaktionsrate ist aus diesem Grund extrem klein, und die Tatsache, dass das elektrostatische Abstoßungspotenzial beide Protonen auf Distanz hält, tut ein Übriges, um die Reaktion um weitere Größenordnungen zu unterdrücken5 . So ist es bis heute nicht gelungen, diese Reaktion experimentell unter Laborbedingungen nachzustellen, und auch in absehbarer Zukunft wird dieses nicht möglich sein. Glücklicherweise ist die unterliegende Physik gut bekannt, sodass eine theoretische Berechnung der Rate unter den Bedingungen, die in der Sonne herrschen, mit großer Genauigkeit möglich ist. Danach ist die mittlere Verweildauer eines Protons im Inneren der Sonne etwa 9 Mrd. Jahre,

5

Das elektrostatische, abstoßende Potenzial hat eine Höhe von ca. 1,44 MeV. Bei einer Temperatur von 15 Mio. K ist die mittlere Bewegungsenergie der Protonen etwa 1,9 keV (= 23 kB T ) und die Minimal-Distanz zweier Protonen etwa das 750-fache des Proton-Radius (≈750 × 10−15 m). Nur der hochenergetische Teil der thermischen Verteilung und der Quanten-Tunneleffekt bringen die Protonen hin und wieder so nahe, dass eine Reaktion nach pp-(I-1) Erfolg hat.

107 9.2 · Die Sonne – eine unter vielen

9

bevor schließlich ein Stoßprozess nach pp-(I-1) erfolgreich zur Fusion eines Deuterons führt6 . > Diese extrem lange Zeit sichert die lange Lebensdauer der Sonne!

pp-(I-2): d + p −→ 3 He + γ Dieser Prozess wird durch die «starke» Wechselwirkung vermittelt und ist damit extrem „schnell“. Die mittlere Verweildauer eines Deuterons im Innenbereich der Sonne ist gerade einmal 4 Sekunden. In dieser Zeit ist es für das Deuteron nicht möglich, ein anderes Deuteron zu finden, um beispielsweise die ebenfalls extrem „schnelle“ Reaktion d + d −→ 3 He + n, d. h. mit einem Neutron als Endprodukt, zu initiieren. Neutronenproduktion wäre hochgradig toxisch für die Sonne – sie würde in kürzester Zeit in einer Run-away-Reaktion explodieren. > Die Wahl der Wechselwirkungen bei der Entstehung des Universums war offensichtlich sehr weise.

pp-(I-3):

3

He + 3 He −→ 4 He + 2p

Dieser Prozess wird ebenfalls durch die «starke» Wechselwirkung vermittelt, ist aber durch die nun 3–4-mal stärkere elektrostatische Abstoßung erheblich unterdrückt. Die mittlere Verweildauer des 3 He beträgt deshalb etwa 1 Mio. Jahre. In dieser Zeit reichert sich das Innere der Sonne genügend stark mit 3 He an, sodass die Reaktion schließlich in Gang gesetzt werden kann und somit ein Gleichgewicht zwischen 3 He-Produktion und 3 He-Vernichtung hergestellt wird. Mit der Produktion von genügendem 3 He kommt es gleichzeitig zu einer Verzweigung in den pp-(II)-Zyklus. In diesem verschmilzt 3 He mit dem in der Sonne reichlich vorhandenen 4 He zu 7 Be: pp-(II-1):

3

He + 4 He −→ 7 Be + γ

Beryllium-7 (7 Be) ist instabil und konvertiert nach einer Halbwertszeit von etwa 50 Tagen unter Einfang eines Elektrons („electron capture“, EC) zu 7 Li und einem Neutrino, welches 862 keV Energie aus der Sonne herausträgt: pp-(II-2):

7

Be + e− −→ 7 Li + ν

Die mittlere Verweildauer von 7 Li ist einige hundert Jahre. Im Laufe dieser Zeit wird 7 Li wieder zurück konvertiert („verbrannt“) zu 2 4 He vermöge: pp-(II-3): 6

7

Li + p −→ 2 4 He

Um Missverständnisse zu vermeiden, ein Vergleich mit Lotto: Die Chance, im 6er-Lotto mit einer bestimmten Zahlenkombination zu gewinnen ist 1 zu 14 Millionen, d. h., es bedarf einer Wartezeit von im Mittel 7 Mio. Wochen (bei 2 Ziehungen pro Woche), um die richtige Zahlenkombination zu treffen. Dennoch wird bei fast jeder Ziehung ein Hauptgewinn festgestellt, da die Zahl der eingereichten Scheine (d. h. die Zahl der Versuche) von gleicher Größenordnung ist.

108

Kapitel 9 · Späte Nukleosynthese und Supernovae

Wie man leicht nachvollzieht, entstehen in diesem Zyklus aus 3 He, Proton und Elektron je ein 4 He und ein Neutrino, wobei drei Protonen bereits in pp-(I) zur Synthese von 3 He verbraucht wurden unter Abgabe eines Neutrinos und eines Positrons. Der pp-(I)- und der pp-(II)-Zyklus sind die beiden Hauptzyklen, bei denen vier Protonen zu einem Helium-4 verschmelzen (d. h. 4 p → 4 He), wobei der pp-(I)Zyklus zu 83,3 % und der pp-(II)-Zyklus zu 16,68 % zur Gesamtreaktion beitragen. Die restlichen 0,02 % verlaufen über die Zyklen pp-(III) und pp-(IV) wie in der . Abb. 9.6 dargestellt. Auch in diesen Zyklen stehen am Anfang vier Protonen und am Ende ein 4 He und zwei Neutrinos. Eine stabile Nukleosynthese über die Masse A = 4 hinaus ist in der Sonne während dieser Zeit des „Wasserstoff-Brennens“ nicht möglich, was wiederum daran liegt, dass es kein stabiles Element mit der Masse A = 5 gibt (siehe hierzu . Abb. 9.7). > Die ,,Asche‘‘ des solaren Brennzyklus ist deshalb ausnahmslos 4 He.

9

Pro Zyklus werden in der Sonne ca. 26,2 MeV in thermische Energie umgesetzt, und genau 2 Neutrinos erzeugt. Diese verlassen die Sonne ungehindert und entwenden ihr dabei im Mittel eine Energie von ca. 0,5 MeV. Solare Neutrinos geben somit direkte Auskunft über das Innere der Sonne – so man sie denn einfängt (d. h. detektiert). Der Verbrauch des Wasserstoffs in der Sonne lässt sich jetzt leicht berechnen. Die auf der Erde, d. h. in einem Abstand von 149,6 Mio. km gemessene Strahlungsleistung der Sonne, beträgt 1,367 kW/m2 . Um diese Strahlungsleistung aus dem pp-Fusionszyklus zu generieren, muss die Sonne ca. 610 Mio. Tonnen Wasserstoff pro Sekunde in Helium umsetzen. Das klingt astronomisch! Aber bei der hohen Dichte im Inneren der Sonne entspricht dieses gerade einmal dem Volumen einer Kugel mit Radius 100 m, eine winzige Größe im Vergleich zu den Dimensionen der Sonne. > Die Sonne hat genügend Brennstoff für weitere 5–6 Mrd. Jahre.

Das Alter der Sonne beträgt etwa 4,6 Mrd. Jahre – damit ist sie ein vergleichsweise junger Stern. Ihre Lebenserwartung beläuft sich auf weitere 5–6 Mrd. Jahre, natürlich nur, wenn nichts Unerwartetes dazwischenkommt, z. B. eine Supernova-Explosion oder eine Kollision mit unserer Nachbar-Galaxie Andromeda, welche in 3–4 Mrd. Jahren wohl unabdingbar ist. Damit wäre das hier beschriebene Schicksal der Sonne, welches weit über diesen Zeitraum hinausgeht, nicht mehr zutreffend. Der Wasserstoff-Vorrat für die Energie-Erzeugung in der Sonne ist endlich, und dies wird durch die langsame Veränderung der Sonnen-Aktivität bereits innerhalb einer Zeitspanne von einigen 100 Mio. Jahren auf allen inneren Planeten, einschließlich Erde, erkennbar. Die Entwicklung wird sich fortsetzen, sodass schon weit vor dem End-Datum der Sonne das Planetensystem in der jetzigen Form nicht mehr besteht. Ihre Lebenserwartung und ihr Schicksal

109 9.2 · Die Sonne – eine unter vielen

p+p

d+e + + ν

d+p

3He

9

2x 3 H e + e − +p



4 He+ ν

pp-(IV) 10- 5 % 3 He+ 3 He

4He+ 2 p

pp-(I) 83 %

3 H e + 4He

7Be(EC)~50 d 7Li+ν 7Li

2 x 4He pp-(II) 17 % +p

7Be+ γ 7Be

8B

+p

~1 sec

8B

~10 8Be



8Be + e+ + ν

-16 sec

2 x 4He

pp-(III) 0,02 %

. Abb. 9.6 Ablauf der Proton-Proton-Zyklen in der Sonne mit 4 He als Endprodukt. Mit jedem Zyklus entweichen 2 Neutrinos. Insgesamt verbleiben ca. 26,2 MeV als thermische Energie in der Sonne

Z

8B 770 ms

7Be 53 d

6Li 7,59%

3He

4He

0,00013% 99,9998%

1H

2H

99,9885% 0,0115%

3H 12,3 y

8Be

9Be

10-16 s

100%

7Li 92,41%

8Li 840 ms

6He 806 ms

A=5

N

. Abb. 9.7 Ausschnitt aus der Nuklidkarte zur Orientierung. Die Elemente und ihre Isotope sind angeordnet als Funktion der Neutronenzahl N und Protonenzahl (Ordnungszahl) Z. Stabile Isotope sind schwarz, β − - und β + -Strahler blau und rot eingetragen. Beryllium-8 zerfällt in zwei 4 He-Kerne

Im Inneren der Sonne sammelt sich zunehmend „Helium-Asche“ aus den Wasserstoff-Fusionsprozessen an. Um die dadurch zunehmende gravitative Kontraktion aufzufangen, müssen sich Temperatur und Strahlungsdruck erhöhen, was nur durch eine sukzessive Erhöhung der Wasserstoff-Fusion und folglich durch erhöhten Wasserstoff-Verbrauch gelingt. Eine Erhöhung der Energieproduktion lässt die Temperatur (aufgrund der Änderung der Entropie) sehr effektiv mit der 20. Potenz anwachsen (d. h. T ∝ E 20 ). Der äußere Sonnenradius wächst zunächst sehr langsam. Nach etwa 4–5 Mrd. Jahren kommt es jedoch zu einer deutlichen Zunahme der Expansion, da das Helium im Inneren der Sonne auf eine kritische Größe zustrebt. Es bildet sich um den aus Helium bestehenden Zentralbereich eine Wasserstoff-Fusionsschale mit einer nun erheblich effizienteren Energieproduktion. Gleichzeitig entsteht aber auch immer mehr Helium, was die Schale

110

Kapitel 9 · Späte Nukleosynthese und Supernovae

Roter Riese

Kollision mit Andromeda

Lebenszyklus Sonne

(im m Ma Maßstab) aßstab)

heute

Erde außerhalb habitabler Zone ne R Roter Riese langsame Erwärmung planetarer Nebel

Weißer W Weiß er Zwerg Geburt 1

2

3

4

5

6

7

8

Mrd. Jahre

9

10

11

12

13 1

14

nichtt im Maßstab

. Abb. 9.8 Lebenszyklus der Sonne. Angedeutet ist im ungefähren Maßstab dazu die Größe eines Roten Riesen. Ein Weißer Zwerg wäre maßstabsgerecht etwa 100-mal kleiner als hier im Bild

9

aufgrund steigender Kompression anwachsen lässt. Die Leuchtkraft vergrößert sich jetzt um das 40–50-fache und der Sonnenradius um das 10-fache. Da die Oberfläche der Sonne sich nun auch um etwa das 100-fache vergrößert hat, erscheint diese zunehmend im langwelligeren roten Bereich – d. h., die Sonne befindet sich nun im Übergangsbereich zum Roten Riesen und im Hertzsprung-Russell-Diagramm in der . Abb. 9.4 auf dem Weg nach oben rechts. Durch den zunehmenden Massenverlust, etwa dem 10.000-fachen des heutigen Werts, und den damit verbundenen Sonnenwind werden die inneren Planeten Merkur und Venus zunächst noch auf sichere höhere Bahnradien befördert – doch die Sicherheit währt nur kurz. Was die Lebensformen auf der Erde angeht, so ist deren Ende schon sehr viel früher eingeleitet worden. Bereits nach 200 Mio. Jahren gerechnet von heute wird es auf der Erde ungemütlich warm, und nach 500 Mio. Jahren ist die mittlere globale Durchschnittstemperatur auf der Erde auf ca. 30 °C angewachsen (zum Vergleich: Die heutige globale Durchschnittstemperatur liegt bei 15 °C). Die Erde trocknet nun aus. Nach weiteren etwa 500–600 Mio. Jahren befindet sich die Erde nicht mehr in der habitablen Zone (siehe z. B. . Abb. 9.8). Das Intermezzo Erde und Leben war somit kosmisch gesehen eher bescheiden. Für die Sonne wird die Situation erst im Laufe ihrer letzten ca. 500 Mio. Jahre, d. h. in etwa 5–6 Mrd. Jahren gerechnet von heute, endzeitlich. Die Energieproduktion in der Wasserstoff-Schale um den immer dichter werdenden inneren He-Bereich erreicht derart kritische Ausmaße, dass die Sonne schließlich das 1500-fache ihrer jetzigen Strahlung emittiert und sich dabei auf etwa 150 Mio. Kilometer ausdehnt. Die inneren Planeten Merkur und Venus sind schon lange verschluckt, und die Sonnenoberfläche reicht jetzt bis zur Erde, die sich zunächst ebenfalls auf höhere Bahnradien retten konnte. Die Dichte in diesem Bereich der Oberfläche ist klein, ca. 10−7 g/cm3 , jedoch die Temperatur des Gases etwa 3000–3500 K. Immer größere Mengen Helium werden im Inneren der Sonne produziert, die Temperatur ist dort nun auf etwa 100–150 Mio. Grad angewachsen und die Dichte auf etwa 1000 kg/cm3 . Der Helium-Kernbereich gerät in einen Zustand der „Entartungs-Starre“, dessen Ursache sich aus der Quantenmechanik ergibt. In diesem Zustand ändern Druck und Temperatur die räumliche Ausdehnung nicht mehr, da sich die Elektronen in ihrer Eigenschaft als Fermionen einer weiteren Kontraktion erfolgreich widersetzen. Elektronen lassen sich nicht auf einen kleineren Raum „einsperren“.

111 9.3 · Faszination Triple-alpha

9

Unter diesen Bedingungen tut sich eine neue und effektive Energiequelle auf, die jetzt direkt im Zentrumsbereich der Sonne liegt. Es kommt zum „Helium-Brennen“ über den sogenannten Triple-α -Prozess (siehe dazu nächsten Abschnitt). Bei Sternen von der Größe der Sonne setzt der Prozess plötzlich und explosionsartig in Form von Helium-Ausbrüchen („Helium-Flashes“) ein. Der erste und auch intensivste „flash“ erreicht dabei eine Leuchtkraft von etwa dem 1010 -fachen der Sonne für einige Sekunden. Diese Helium-Ausbrüche wiederholen sich etwa alle 100.000 Jahre mit langsam abnehmender Intensität und enden schließlich nach etwa 1,5 Mio. Jahren. Sie heben die Entartung im Innern des Sterns jeweils schlagartig auf und kühlen den Stern, welcher von da an als Roter Riese in ein relativ ruhiges Helium-Brennen übergeht und über den Triple-α -Prozess Kohlenstoff und über die Fusion von Kohlenstoff und Helium auch Sauerstoff produziert, beides mit etwa gleicher Rate. Nach weiteren 50–100 Mio. Jahren verendet die Sonne unspektakulär als „Weißer Zwerg“. Um den nächsten Fusionsprozess nach dem Triple-α -Prozess einzuleiten, reicht die Masse der Sonne nicht aus. „Weiße Zwerge“ sind in ihrer Größe vergleichbar mit der Erde, besitzen aber immer noch ungefähr 60 % der ursprünglichen Sternmasse. Im Hertzsprung-Russell-Diagramm (siehe . Abb. 9.4) befinden sie sich im unteren linken Teil des Diagramms. Ihre Fallbeschleunigung an der Oberfläche ist von der Größenordnung (300.000 − 500.000) × gErde , entsprechend dem Kompressionsverhältnis Sternmasse/Erdmasse. Der dem Sonnensystem nächstgelegene „Weiße Zwerg“ ist der Begleiter von Sirius, 8,611 Lichtjahre entfernt. Er besitzt die beschriebenen Eigenschaften. „Weiße Zwerge“ sind keineswegs seltene Objekte. Der Gaia-Satellit der „European Space Agency (ESA)“ hat mittlerweile etwa 15.000 „Weiße Zwerge“ innerhalb einer Erdentfernung von nur etwa 300 Lichtjahren aufspüren können. Dieses hat natürlich eine enorme Aktivität zur Erforschung dieser Objekte in Gang gesetzt. Ein „Weißer Zwerg“ wird sich in seinem weiteren Verlauf nur noch abkühlen. Dieser Prozess ist allerdings extrem langsam und dauert etwa 1010 –1015 Jahre. Am Ende entzieht sich dieses Objekt als „Brauner Zwerg (Brown Dwarf)“ oder „Schwarzer Zwerg (Black Dwarf)“ ganz einer weiteren Beobachtung. Ein solches „schwarzes“ Gebilde besteht dann im Wesentlichen aus kristallinem Sauerstoff und Kohlenstoff mit einer zentralen Dichte von ca. 1000–10.000 kg/cm3 (das 105 –106 -fache des Bleis). Für Kohlenstoff könnte somit vielleicht sogar ein riesiger Diamant entstehen – allerdings, um keine Begehrlichkeiten zu wecken: Diese Aussage ist spekulativ.

9.3

Faszination Triple-alpha

Kohlenstoff und Sauerstoff sind die beiden wichtigsten Elemente des Lebens und nach Wasserstoff und Helium sowohl im Sonnensystem als auch im gesamten Universum die am häufigsten vorkommenden. Diese Tatsache war bereits in den 1950er-Jahren bekannt, ohne dass es jedoch eine schlüssige Erklärung gab, wie denn der Entstehungsmechanismus dieser beiden Elemente in dieser großen Menge

112

Kapitel 9 · Späte Nukleosynthese und Supernovae

7,654 MeV 10−16 s 92 keV



8Be+α

287 keV direkt + γ

γ-Strahlung (100%)

12C

. Abb. 9.9 Darstellung des Triple-α-Prozesses

9

ablaufen sollte. Klar war auch, dass ein Triple-α-Prozess die einzige Möglichkeit bot, in der stellaren Nukleosynthese die Lücke in der Massenzahl A = 5 und A = 8 zu überspringen, jedoch zeigten alle Berechnungen, dass die Raten für eine Fusion von drei 4 He-Kernen zu 12 C mit einer sich daran anschließenden Fusion eines weiteren Helium-Kerns zu 16 O, oder gar die Raten für eine direkte 4-Körper-Fusion zu 16 O (d. h. 4 × 4 He →16 O) um viele Größenordnungen zu klein waren. Es war ganz offensichtlich, dass die Nukleosynthese zu Kohlenstoff und Sauerstoff mittels des Triple-α-Prozesses neu überdacht werden musste – aber was waren die Dinge, die bisher übersehen wurden? Die Tragweite dieser Problematik war nicht zu unterschätzen, denn die Synthese von Kohlenstoff und Sauerstoff ist neben ihrer zentralen Bedeutung für die Existenz des Lebens auch die Grundvoraussetzung für eine erfolgreiche Synthese aller anderen Elemente in dem weiteren Verlauf der Sternentwicklung. Die auf Fred Hoyle (. Abb. 9.11) zurückgehende Idee einer „thermischen Resonanz“ im Triple-α-Prozess führte schließlich zum entscheidenden Durchbruch. Sie wurde zunächst als Taschenspielertrick kritisiert und abgelehnt mit dem Argument, dass zu viele und zu genau aufeinander abgestimmte Zufälle erforderlich seien und daher ein „Intelligent Design“ ins Spiel gebracht werden müsse. Auch nach der experimentellen Verifizierung hat sich eine gewisse Mystik um den Triple-α-Prozess gehalten, denn > alle Sterne, unabhängig von ihrer Größe, müssen dieses Nadelöhr der Zufälle durchlaufen, und dieses Nadelöhr ist für die lebensnotwendige Synthese von Kohlenstoff und Sauerstoff so eng und so fein abgestimmt, dass es jeden Astro- und Kernphysiker in ungläubiges Staunen versetzt.

Der Triple-α-Prozess (siehe . Abb. 9.9) verläuft wie gehabt über die Fusion von drei Helium-Kernen (α-Teilchen) zu einem Kohlenstoff-12 (12 C)-Kern, jedoch kommen zwei entscheidende Besonderheiten zum Tragen, die jede für sich alleine stehend kaum eine Auswirkung besitzen und nur im Zusammenspiel eine effektive Fusionswahrscheinlichkeit bewirken.

113

Resonanz

kBT

Energie

log (relative Wahrscheinlichkeit)

relative Wahrscheinlichkeit

9.3 · Faszination Triple-alpha

9

Resonanz

kBT

Energie

. Abb. 9.10 Darstellung des thermischen Resonanz-Prozesses. In einer einfachen Vorstellung „frisst“ sich die Resonanz des 12 C in die thermische Energieverteilung der α-Teilchen hinein. Die für die Fusion entnommenen Teilchen werden dann unmittelbar vermöge der Thermalisierung wieder nachgeliefert, sodass die Fusion ungehindert an der Resonanzstelle und auch nur dort stattfindet. Links: lineare Skala. Rechts: logarithmische Skala zur besseren Darstellung. Das Bild dient der Anschauung und ist nicht skalengetreu

In der ersten Stufe wird ein 8 Be-Kern aus zwei α-Teilchen geformt. Energetisch liegt 8 Be aber 92 keV über dem Niveau von zwei α-Teilchen. Diese Energie müssen die beiden α-Teilchen zunächst bereitstellen, um überhaupt eine Chance zu bekommen, 8 Be zu formen. Eine Temperatur von 100 Mio. Grad entspricht aber gerade einmal 8,7 keV. Damit sind nur die im hochenergetischen Teil der Geschwindigkeitsverteilung liegenden α-Teilchen in der Lage, die Reaktion zu initiieren. Der weitaus wesentlichere und auch noch um vieles ungünstigere Umstand ist jedoch, dass 8 Be, einmal gebildet, bereits nach 10−16 Sekunden wieder zu zwei α-Teilchen zurück zerfällt. Diese Zeit ist zwar um einen Faktor 105 länger als der einfache „Vorbeiflug“ zweier α-Teilchen, aber deutlich zu kurz, um in einer nachfolgenden Reaktion ein weiteres α-Teilchen einzufangen und 12 C zu formen. Die beiden Bestandteile des 8 Be werden dem thermischem Bad wieder zurückgegeben, und das Kohlenstoff/Sauerstoff-Problem bleibt bestehen. Fred Hoyle erkannte, dass es eines weiteren, besonderen Mechanismus bedarf, um die Reaktion zu beschleunigen. Er postulierte mit einer theoretischen Rechnung, dass es im Anregungsspektrum des 12 C-Kerns einen Zustand geben müsse mit einer Reihe von genau abgestimmten Eigenschaften, um eine Resonanz für die Fusion von einem α-Teilchen mit 8 Be zu erzeugen7 . Dieser Zustand müsse energetisch im Bereich des thermischen Energiespektrums der α-Teilchen (so wie in . Abb. 9.10 angedeutet) liegen, sodass 8 Be und α-Teilchen mit exakt der Resonanzenergie aus dem thermischen Spektrum entfernt werden und einen 12 C-Kern bilden können, welcher dann durch γ -Emission (ebenfalls eine wichtige, aber als völlig unwahrscheinlich eingestufte Voraussetzung) in den Grundzustand übergeht.

7

F. Hoyle, On Nuclear Reactions Occurring in Very Hot Stars I. The Synthesis of Elements from Carbon to Nickel, Astrophysical Journal Supplement 1, 121 (1954).

114

Kapitel 9 · Späte Nukleosynthese und Supernovae

> In dem Bild frisst die Resonanz ein Loch ins thermische Spektrum. Die Thermalisierung füllt dieses Loch jedoch instantan wieder auf, sodass sofort für Nachschub gesorgt ist, um weitere Fusionsprozesse an genau dieser Resonanzenergie in Gang zu setzen.

9

Geht man nun von solch einem Prozess aus, dann ist es mit ein wenig Mathematik ein Leichtes, aus der beobachteten Kohlenstoff-Häufigkeit die Parameter dieser postulierten Resonanz, wie Resonanzenergie und Resonanzbreite, zu bestimmen. Fred Hoyle kam zum Ergebnis, dass diese Resonanz bei etwa 7,68 MeV liegen müsste, damit etwa 300 keV über der 8 Be+α-Schwelle (siehe . Abb. 9.9). Tatsächlich wurde dieser Zustand kurz darauf experimentell bei 7,654 MeV (287 keV über der 8 Be+α-Schwelle) mit all den vorhergesagten „passenden“ Eigenschaften verifiziert. Fred Hoyles Idee von der „thermischen Resonanz“ war somit in grandioser Weise experimentell bestätigt. Ein Nobelpreis wurde ihm allerdings nicht zuerkannt. Um zu erfahren, welche Beweggründe hier möglicherweise eine Rolle spielten, sei der Leser auf Fred Hoyles Biografie verwiesen. Dennoch ist der Name Fred Hoyle unter Astro- und Kernphysikern bis heute um vieles bekannter als der manch eines „regulären“ Nobelpreisträgers (. Abb. 9.11). Das Fusions-Glücksspiel nimmt einen weiteren interessanten Verlauf, denn auch die Fusion von Helium und Kohlenstoff zu Sauerstoff (12 C + α →16 O + γ ) verläuft nach einem ähnlichen Resonanzmuster. Man könnte jetzt annehmen, dass sich diese Situation im nächsten Schritt zu Neon-20 fortsetzt (16 O + α →20 Ne + γ ), doch Neon-20 „blockiert“. Neon-20 besitzt keinen „passenden“ Zustand für eine solche Fusion und wird erst im explosiven Szenarium einer Supernova synthetisiert. Der Triple-α-Prozess ist mit der Kohlenstoff-Fusion und der nachfolgenden Sauerstoff-Fusion am Ende angelangt und an diesem Ende sind die Kohlenstoffund Sauerstoff-Anteile in der stellaren Nukleosynthese in etwa gleich. Schaut man sich den Triple-α-Prozess im Detail an, so erkennt man, wie extrem verzahnt die einzelnen Parameter sind und wie groß und komplex das Gebilde der Abhängigkeiten untereinander ist. Bereits eine geringfügige Variation von nur

. Abb. 9.11 Fred Hoyle, britischer Astronom und Mathematiker (1915–2001). Nach ihm wird der Zustand in 12 C bei 7,654 MeV als „Hoyle-Zustand / Hoyle-state“ benannt

115 9.3 · Faszination Triple-alpha

9

einer der vielen Stellschrauben hat Auswirkungen, die kaum durch eine Veränderung von nur einigen wenigen anderen Stellschrauben kompensiert werden können. Der Triple-α-Prozess erweckt den Eindruck eines extremen „Fine-tunings“, welches hochgradig zielgerichtet ist auf ein Leben ermöglichendes Universum. Ob dem tatsächlich so ist und die Wahl der Wechselwirkungen bei der Entstehung des Universums von „Weisheit“ geprägt war, lässt sich mittels der Physik nicht beurteilen. Wir begegnen hier wieder dem anthropischen Prinzip, welches in wenig bedeutungsvoller Weise besagt: Das Universum ist so wie es ist, wäre es anders, gäbe es möglicherweise keine Reflexionen darüber. Ein Vergleichs-Universum gibt es nicht. Die Tatsache, dass es Leben gibt, zeigt allerdings auch, dass die Entwicklung des Universums schließlich auch darauf hinauslaufen musste. Dennoch eine kurze Reflexion über: Was wäre wenn 1. der Zustand im 8 Be bei 92 keV bei einer höheren Energie läge? (a) Die Lebensdauer würde sich quadratisch mit der Energie verkürzen und die Kohlenstoff- und Sauerstoff-Fusion über den Triple-α-Prozess wäre erheblich reduziert. 2. der Zustand im 8 Be bei 92 keV bei einer niedrigeren Energie läge? (a) Die Lebensdauer würde sich deutlich stärker als nur quadratisch mit der Energie verlängern, (b) der Triple-α-Prozess wäre explosiv und würde den Stern zerreißen, (c) ein explosiver Triple-α-Prozess könnte auch einen Superriesen in seiner frühen Phase zerreißen und die weitere Nukleosynthese zu schweren Elemente unterbinden. 3. der Hoyle-Zustand nicht existieren würde? (a) in der Tat ist der Hoyle-Zustand, was seine besondere Struktur angeht, hochgradig singulär; er tritt in dieser Form nur im 12 C auf; die theoretische Physik hat über 50 Jahre gebraucht, diesen Zustand zu beschreiben; ohne den Hoyle-Zustand gäbe es Kohlenstoff und Sauerstoff nur in winzigen Mengen, Leben könnte nicht existieren. 4. der Hoyle-Zustand energetisch um einige wenige Prozent entweder tiefer oder höher im 12 C läge? (a) bei einer 5 %-Absenkung hätte der Hoyle-Zustand überhaupt keine Auswirkungen, da er nicht in das thermische Spektrum der Helium-Kerne hineinreicht (siehe . Abb. 9.9); Kohlenstoff und Sauerstoff würden nicht gebildet, (b) bei einer 2 %-Absenkung wäre der Triple-α-Prozess möglicherweise explosiv, auf jeden Fall aber deutlich zu schnell, sodass nur Kohlenstoff und nahezu kein Sauerstoff synthetisiert würde, (c) bei einer Erhöhung von mehr als 2 % würde sich der Einfluss des HoyleZustands auf die Kohlenstoff- und Sauerstoff-Synthese soweit verringern, dass zwar noch geringe Mengen Kohlenstoff produziert werden könnten, aber ebenfalls kaum Sauerstoff.

116

Kapitel 9 · Späte Nukleosynthese und Supernovae

Diese Argumentationen gelten natürlich nur so lange, wie man die einzelnen Stellschrauben unabhängig voneinander bewegen kann. Dieses ist natürlich nicht der Fall. ! In einer Publikation aus dem Jahr 2000 wurden verschiedene Szenarien sowohl bezüglich deren Auswirkungen auf den Hoyle-Zustand als auch bezüglich deren Auswirkungen auf die Nukleosynthese studiert, wobei von grundlegenden Prinzipien («first principles») ausgegangen wurde. Die Autoren zeigen, dass eine Änderung der «starken» Wechselwirkung im Nukleonen-Sektor von nur 0,4 % ausreicht, um entweder nur Kohlenstoff oder nur Sauerstoff zu produzieren, aber nicht beides gleichzeitig8 . Leben auf Kohlenstoff- und Sauerstoff-Basis wäre dann nicht möglich.

9.4

9

Supernovae – kosmische Kochkessel der Elemente

Das Schicksal der meisten Sterne ist eigentlich so vorgezeichnet, dass sie ihren aktiven und weitgehend friedlich verlaufenden Lebenszyklus nach etwa 10–15 Mrd. Jahre als „Weiße Zwerge“ beenden und in diesem Stadium für immer verharren – es sei denn, Unvorhergesehenes ereignet sich in ihrer näheren Umgebung. In Anbetracht der Zeitskalen und der fantastisch anmutenden Zahl von Stern-Neugeburten (im gesamten Universum bis zu 10.000 pro Sekunde, siehe z. B. Seite 38) sind solche unvorhergesehenen Ereignisse allerdings durchaus wahrscheinlich. Die spektakulärsten Ereignisse, welche sogleich große Bereiche einer ganzen Galaxie in Mitleidenschaft ziehen und welche nach dem „Big Bang“ die wahrscheinlich gewaltigsten kosmischen Vorgänge darstellen, werden von Sternen eingeleitet, die 10–100-mal massereicher sind als die Sonne. Sie befinden sich am oberen Ende des Hertzsprung-Russell Diagrams (siehe . Abb. 9.4). Für einen Stern in dieser Kategorie ist der Lebenszyklus mit dem Triple-αProzess nämlich keineswegs beendet. Infolge zunehmender Anreicherung des SternInneren mit Kohlenstoff (12 C) und Sauerstoff (16 O) aus dem Triple-α-Prozess und infolge des zunehmenden gravitativen Drucks können schließlich weitere Fusionsreaktionen und Fusionszyklen gezündet werden. In diesen Zyklen wird jetzt pro Zeiteinheit deutlich mehr Energie freigesetzt, was zur Folge hat, dass sich die äußeren Schichten (insbesondere die Photosphäre) eines solchen Sterns aufgrund des nach außen hin wirkenden Strahlungsdrucks noch einmal erheblich vergrößern. Der Stern bläht sich zu einem Superriesen (oder auch Überriesen) auf, dessen Radius schließlich auf mehr als das 1000-fache des Sonnenradius (d. h.  1 Mrd. km) anwachsen kann. Die einzelnen hierfür verantwortlichen Fusionszyklen wurden in den letzten 50 Jahren in mühevoller Kleinarbeit unter Laborbedingungen aufgedeckt und die Reaktionsraten sind mittlerweile alle einzeln vermessen. Insbesondere das Institut für Kernphysik in Münster hat sich in den Jahren 1975–1992 durch entscheidende und fundamentale Arbeiten auf diesem Gebiet hervorgetan9 , was in der Folge denn auch mit Preisen und Auszeichnungen gewürdigt wurde. 8 9

H. Oberhummer, A. Csótó, und H. Schlattl, Stellar Production Rates of Carbon and Its Abundance in the Universe, Science 289, 88 (2000). Claus E. Rolfs, William S. Rodney, Cauldrons in the Cosmos, University of Chicago Press, 1988.

117 9.4 · Supernovae – kosmische Kochkessel der Elemente

9

Die massereichen Sterne am oberen Ende des Hertzsprung-Russell-Diagrams durchlaufen die einzelnen Entwicklungsphasen bzw. die einzelnen Fusionszyklen gefühltermaßen im Schnelldurchgang, was natürlich daran liegt, dass ihr EnergieAusstoß den der Sonne um das 1000–10.000-fache übersteigt. Entsprechend kurz ist deshalb auch die Lebensdauer eines solchen Sterns, die je nach seiner Größe bei nur wenigen Millionen Jahre liegen kann. Die anfängliche Entwicklung gleicht jener von normalen, sonnenähnlichen Sternen, beginnend mit dem Wasserstoff-Zyklus zur Produktion von Helium, und daran anschließend mit dem Helium-Brennen vermöge des Triple-α-Prozesses. Die ungefähren zeitlichen Abfolgen und die dabei sich langsam erhöhenden Temperaturen im Inneren des Sterns sind in . Abb. 9.12 dargestellt.

M ∼ 10-20 M avitation Gr therm. Druck 4He 4p

4He (6 x 107 K)

4p

3 4He

12C

(2 x 108 K)

Fusion: 4p ->4He + 26 MeV T ~ 107 - 108 K Dauer: 106 - 108 Jahre

Zum Ende des pp-Zyklus Kontraktion und Triple-α T ~ 2 x 108 K Übergang zum Superriesen Dauer: ~ 106 Jahre

Endzustand stellare Zwiebel H (11 M ) He (2 M )

Fe

1.35

12C (0,2 M ) 16O (0,8 M ) 28Si (0,2 M )

. Abb. 9.12 Stadien eines Superriesen (hier beispielhaft für Massen bis etwa 20 solare Massen). Die Darstellung ist nicht skalengetreu. In der „stellaren Zwiebel“ sind die Massenanteile der einzelnen Schalen in Einheiten der Sonnenmasse angegeben. Der Eisen/Nickel-Kern ist in etwa von der Größe der Erde, und der äußere Bereich in etwa von der Größe des Sonnensystems bis hin zu den äußeren Planeten

118

Kapitel 9 · Späte Nukleosynthese und Supernovae

Während jedoch ein sonnenähnlicher Stern am Ende seiner aktiven Zeit für kurze Zeit zum Roten Riesen konvertiert, um schließlich unspektakulär als „Weißer Zwerg“ zu verenden, hat das Ende eines Superriesen apokalyptische Ausmaße. Die letzten Entwicklungsstadien eines solchen Sterns verlaufen so schnell, dass sie sogar auf der Zeitskala eines menschlichen Lebens beobachtbar sind. Dies ist in der der unteren Tafel dargestellt: Etwa 600 Jahre verbringt der Stern im Stadium des „Kohlenstoff-Brennens“, etwa 1 Jahr im Stadium des „Neon-Brennens“, ein halbes Jahr in dem des „Sauerstoff-Brennens“ und schließlich nur noch einen letzten, finalen Tag im Stadium des „Silizium-Brennens“. Es bilden sich Brennschalen aus, in denen jeweils ein bestimmter Fusionszyklus bei einer bestimmten Temperatur abläuft, wobei die immer massereicher werdenden „Asche-Elemente“ immer tiefer ins Stern-Innere absinken und dort für den nächsten Zyklus zur Verfügung stehen, welcher dann noch mehr Energie pro Zeiteinheit produziert. Masseärmere Produkte (z. B. Wasserstoff oder Helium) werden durch den Strahlungsdruck wieder in jeweils höhere Schichten transportiert. Am Ende hat der Stern die Form einer „stellaren Zwiebel“, wie in . Abb. 9.12 dargestellt.

9

119 9.4 · Supernovae – kosmische Kochkessel der Elemente

9

Die Fusionsprozesse erreichen mit der Bildung der Eisen/Nickel-Elemente ein Ende. Die Nuklide in der Eisen/Nickel-Gegend sind die stabilsten im Periodensystem, und weitere Fusionsprozesse sind unter Energiegewinn nicht mehr möglich. Die Eisen/Nickel-Elemente sind die „nicht mehr brennbare Asche“ in der Sternentwicklung. Sie lagern sich von nun an im Inneren des Sterns ab (siehe . Abb. 9.12), und vermöge der Gravitation und des nach wie vor aus höheren Schalen „herabfallenden“ Nachschubs wird dieser zentrale Bereich immer massereicher und gleichzeitig auch immer stärker komprimiert. Am Ende dieser Entwicklung erreicht der Eisen/Nickel-Kern („Core“) eine Gesamtmasse von ca. 1,4 Sonnenmassen. Noch ist der Stern stabil. Bemerkenswerterweise wird er stabilisiert durch die bisher noch gar nicht in Erscheinung getretenen Elektronen. Ihre Anwesenheit hat, ohne dass dieses gesondert erwähnt wurde, bislang lediglich sicher gestellt, dass der Stern wie jedes andere stellare Objekt nach außen elektrisch neutral ist. Für die Massenbilanz eines Sterns sind die Elektronen nahezu bedeutungslos, sie tragen weniger als 0,5  zur Gesamtmasse bei. Ihr kurzer Auftritt zum jetzigen Zeitpunkt ist jedoch von einer völlig anderen Qualität und entscheidend für die nun einsetzende Abfolge von Ereignissen. Elektronen sind Elementarteilchen mit halbzahligem Eigen-Drehimpuls (Spin), was sie damit zu Mitgliedern der Familie der Fermionen macht. Diese besitzen eine höchst bemerkenswerte Eigenschaft, welche sie von Bosonen, die einen ganzzahligen Spin besitzen, unterscheidet. Fermionen bekommen nämlich – etwas salopp formuliert – immer ein „Einzelzimmer“. Die Größe dieses Einzelzimmers ist durch das Produkt aus der Ortsgröße x und der Impulsgröße p gegeben, welches dann den Wert x · p   ( = 6,582 119 569 . . . × 10−16 eV s) hat. Wollen zwei Elektronen mit gleicher Spin-Ausrichtung denselben Raum x an der Position x einnehmen, so muss eines der beiden in eine höhere Etage ziehen, d. h. einen höheren Impuls p – und damit eine höhere Energie – annehmen. Diese Situation ist in . Abb. 9.13 bildlich erklärt. Die Apokalypse kann beginnen

Energie

eeeee-

eeeee-

e- e- ee - e- eee - e - e - e- e eee e e e ee ee- e- e- eee- e- e- ee- e- e- ee- e- e- eOrt

. Abb. 9.13 Wird es für die Elektronen räumlich zu eng, müssen sie in (energetisch) höhere Etagen ziehen. Diese Tatsache verhindert in einem Superriesen zunächst den gravitativen Kollaps des aus Eisen/Nickel bestehenden Innenbereichs, denn da dieser nun keine Energie mehr produziert, entfällt der stabilisierende Strahlungsdruck

120

9

Kapitel 9 · Späte Nukleosynthese und Supernovae

Diese besondere Eigenschaft verhindert zunächst den gravitativen Kollaps des zentralen, aus Eisen/Nickel bestehenden Innenbereichs des Sterns. Mit der weiteren und immer schnelleren Massenzunahme und gleichzeitig zunehmender Kompression wird es für die Elektronen räumlich immer enger, und immer mehr Elektronen müssen in „höhere Etagen“ umziehen, d. h., sie werden immer energiereicher. Die gravitative Energie wird somit zwischengespeichert in Form von ElektronenEnergie. Die Masse des Eisen/Nickel-„Cores“ erreicht schließlich ein kritisches Limit, das sogenannte Chandrasekhar-Limit von etwa 1,3–1,4 Sonnenmassen10 bei einem Radius von immer noch etwa 6000 km. Die Dichte im Inneren des „Cores“ ist auf ca. 108 g/cm3 angestiegen. Die Elektronen in den oberen Etagen besitzen jetzt genügend Energie, um von den Eisen/Nickel-Atomkernen vermöge des „inversen β -Zerfalls“ eingefangen zu werden, ein Prozess, welcher im weiteren Verlauf zur Dissoziation der Kerne führt. Die mühsam und über lange Zeiten aufgebaute Fusion der Elemente bis hin zu Eisen wird nun zum Teil wieder rückgängig gemacht. Diese Prozesse kosten Energie, und der mit dieser zwischengespeicherten Energie bislang abgewendete gravitative Einsturz ist nun nicht mehr aufzuhalten. Der Eisen/Nickel-„Core“ schrumpft, Elektronen rücken aus den unteren Etagen nach, der Prozess beschleunigt sich, und der gesamte Superriese kollabiert nun innerhalb von Sekunden. Eine Supernova wird geboren. Sie wird für einige Stunden eine ganze Galaxie überstrahlen und auch noch für mehrere Monate eine mit der Galaxie vergleichbare Helligkeit aufweisen. Die einzelnen Stadien sind in den folgenden Tafeln nochmals zusammengefasst:

10 Benannt nach dem amerikanischen Astrophysiker und Nobelpreisträger Subrahmanyan Chandrasekhar (1910–1995, Nobelpreis 1983).

121 9.4 · Supernovae – kosmische Kochkessel der Elemente

9

122

9

9.5

Kapitel 9 · Späte Nukleosynthese und Supernovae

Supernovae – Einblicke und Impressionen

Die mit bloßem Auge und unter optimalen Bedingungen gerade noch sichtbaren Sterne am nächtlichen Himmel sind in der Regel nicht weiter als etwa 2000–5000 Lichtjahre entfernt. Das ist ein vergleichbar winziger Bereich gegenüber der Größe der Milchstraße. Eine Supernova-Explosion hingegen ist mit bloßem Auge im ganzen Bereich der Galaxie und weit darüber hinaus und sogar noch über Wochen sichtbar. Demgemäß existieren natürlich auch historische Zeugnisse über plötzliche Stern-Erscheinungsphänomene (sogenannte „Gast-Sterne“), welche man heute Supernova-Explosionen zuordnen kann. Nimmt man an, dass etwa 2/3 der galaktischen Supernovae aufgrund der undurchsichtigen galaktischen Scheibe im Verborgenen geblieben sind, so lassen sich aus diesen historischen Überlieferungen im Mittel etwa 3 Supernova-Explosionen pro 200 Jahre in unserer Milchstraße ableiten. Auch die in neuester Zeit gefundenen Supernova-Überreste aus nicht bezeugten „Gast-Stern“-Beobachtungen ändern wenig an dieser Statistik, sodass man heute von einer mittleren Supernova-Rate von 2 ± 0,8 Ereignissen pro Jahrhundert ausgeht. Hier eine zeitliche Abfolge solcher Ereignisse aus den letzten 1000 Jahren: Für die Supernova-1006 (SN1006) gibt es eine Reihe historischer Aufzeichnungen aus ganz verschiedenen Teilen der Erde. Was die Helligkeit und die Position am Himmel angeht, wurde sie von dem ägyptischen Arzt, Astrologen und Astronom Ali ibn Ridwan11 recht präzise beschrieben, sodass das NASA-Satelliten-Teleskop Chandra in der Lage war, die heutigen Überreste zu lokalisieren. Es handelte sich 11 Abu’l Hassan Ali ibn Ridwan Al-Misri (ca. 988 – ca. 1061) ägyptischer Arzt, Astrologe und Astronom, geb. in Giseh.

123 9.5 · Supernovae – Einblicke und Impressionen

9

. Abb. 9.14 Überrest der Supernova SN1006, fotografiert im Röntgen-Bereich vom NASASatelliten-Teleskop Chandra. Der Durchmesser dieses Überrests ist etwa 65,5 Lichtjahre, woraus sich eine Ausbreitungsgeschwindigkeit von etwa 10.000 km/s errechnet. (Public domain)

demnach um einen Stern in etwa 7200 Lichtjahren Entfernung. Als Supernova besaß dieser etwa die dreifache Helligkeit des Planeten Venus und war somit auch tagsüber gut sichtbar. Eine Fotografie des Chandra-Teleskops im Wellenbereich der Röntgenstrahlung ist in . Abb. 9.14 zu sehen. Dieser Supernova-Rest expandiert nach wie vor mit etwa 10.000 km/s in den interstellaren Raum. Das Fehlen eines Neutronensterns oder eines Schwarzen Lochs im Zentralbereich wird dahingehend interpretiert, dass SN1006 aus einem Doppelsternsystem zweier „Weißer Zwerge“ entstand. Die SN1054 wurde von chinesischen Astronomen entdeckt und beschrieben. Sie datiert ziemlich genau zurück auf den Monat Juli 1054. Ihre Überreste bilden heute den Krebsnebel, in dessen Inneren sich der übrig gebliebene Neutronenstern befindet und als Pulsar mit einer Rotationsfrequenz von etwa 30 Hz ein extrem hartes Röntgenspektrum emittiert. Der Krebsnebel ist 6500 ± 1600 Lichtjahre entfernt und hat heute einen Durchmesser von etwa 11 Lichtjahren. Seine abgestrahlte Lichtleistung entspricht dem 75.000-fachen der Sonne. SN1054 war während der Explosionsphase nach der Sonne wahrscheinlich das hellste Objekt am Himmel (vergleichbar mit der Größe des Mondes) und mühelos tagsüber sichtbar. . Abb. 9.15 zeigt eine Aufnahme des NASA-Hubble-Teleskops. Die SN1680 (Cassiopeia-A, siehe . Abb. 9.16) ist der Rest einer SupernovaExplosion etwa 9100 Lichtjahre entfernt. Der englische Astronom John Flamsteed (1646–1719) könnte unwissentlich Zeuge gewesen sein, als er um 1680 einen Sternenkatalog zusammenstellte, in dem ein Stern auftritt, der später nicht

124

9

Kapitel 9 · Späte Nukleosynthese und Supernovae

. Abb. 9.15 Krebsnebel als Überrest der Supernova-Explosion von 1054. (Quelle: NASA/Space Telescope Science Institute – STScI)

. Abb. 9.16 Cassiopeia-A, Überrest der Supernova SN1680. Der sichtbare Durchmesser des Überrests ist etwa 10 Lichtjahre (30 Lichtjahre im Röntgenspektrum). Die Explosion ist asymmetrisch mit „Jet“-ähnlichen Expulsionsgeschwindigkeiten bis jenseits von 14.000 km/s in und entgegen der Beobachtungsrichtung. Im Zentrum befindet sich ein unauffälliger Neutronenstern. (Quelle: NASA/JPL-Caltech)

125 9.5 · Supernovae – Einblicke und Impressionen

9

mehr gefunden wurde. Das Ereignis ist jedoch aus einem anderen Grund erwähnenswert. Das Explosionssignal erreichte die Erde um 1680, also vor rund 341 Jahren, sodass die Explosionsdetails sowie auch die Nukleosynthese und die post-explosiven Vorgänge heute sehr genau studiert und nachvollzogen werden können. Unter Ausnutzung von Licht-Reflexionen am interstellaren Gas kann sogar die eigentliche Explosion post-mortem wieder vergegenwärtigt werden – vergleichbar mit dem Echo einer Schallwelle oder dem grollenden Donner nach Blitzeinschlag12 . Die Supernova ist klassifiziert als Typ IIb, d. h., der Stern hatte bereits im Vorfeld der Explosion große Teile seiner Wasserstoff-Hülle verloren, was schließlich zu einer Verminderung der Explosionsenergie geführt hat. Weitere Supernova-Events aus dem letzten Jahrtausend in unserer Galaxie sind in der folgenden Tabelle (. Tab. 9.1) zusammen mit einigen ihrer Besonderheiten gelistet: . Tab. 9.1 Supernova-Ereignisse im letzten Jahrtausend

12 O. Krause, et al., The Cassiopeia A Supernova Was of Type IIb, Science 320, 1195 (2008), siehe auch gleiche Autoren, arXiv:0805.4557v1 [astro-ph], (2008).

126

Kapitel 9 · Späte Nukleosynthese und Supernovae

Die folgenden kommentierten . Abb. 9.17 bis 9.27 sollen beispielhaft Eindrücke vermitteln über vergangene Supernova-Explosionen und deren Auswirkungen sowie auch über mögliche in naher Zukunft bevorstehende Ereignisse. Supernova-Impressionen

(Siehe . Abb. 9.17, 9.18, 9.19, 9.20, 9.21, 9.22, 9.23, 9.24

und 9.25).

Supernova 2006gy Galaxie NGC1260

9 . Abb. 9.17 Supernova SN2006gy in der 238 Mio. Lichtjahre entfernten Galaxie NGC1260. SN2006gy ist die hellste jemals aufgezeichnete Supernova. (Vom Chandra-Röntgen-Observatorium im Röntgenspektrum fotografiert). (Quelle: NASA/CXC/UC Berkeley/N. Smith et al.)

Traum eines jeden Hobby-Astronoms Erstentdeckung einer SN

. Abb. 9.18 Supernova SN2005cs in der 25 Mio. Lichtjahre entfernten Galaxie M51 (Whirlpool Galaxy) zufällig entdeckt von Wolfgang Kloehr in 2005. (CC BY-SA 2.5)

127 9.5 · Supernovae – Einblicke und Impressionen

9

. Abb. 9.19 Vela-Supernova-Überrest. Die Explosion ereignete sich vor etwa 11.000–12.000 Jahren und war nur ca. 930 Lichtjahre von der Erde entfernt. Der Steinzeitmensch wird wohl für mehrere Monate unter einem Sonnenbrand gelitten haben. Im Zentrum befindet sich ein pulsierender Neutronenstern (Vela-Pulsar) mit einer Periodizität von 89 Millisekunden. Der Vela-Pulsar ist einer der erdnächsten bekannten Pulsare. Der obige Bildausschnitt umfasst etwa 20 Lichtjahre. Es wird angenommen, dass die Vela-Supernova innerhalb eines interstellaren Nebels explodierte, welcher bereits vorher von einer früheren Supernova erzeugt wurde. (CC BY-SA 4.0)

128

Kapitel 9 · Späte Nukleosynthese und Supernovae

9

. Abb. 9.20 Supernova-Überrest G299.2-2.9. Der Überrest ist etwa 16.000 Lichtjahre von der Erde entfernt. Die Explosion ereignete sich vor etwa 4500 Jahren. Die Supernova gehört zum Typ Ia, d. h., in einem solchen Fall entzieht ein „Weißer Zwerg“ seinem Hauptstern im Laufe der Zeit Masse, um dann als Supernova zu explodieren. In diesem Fall jedoch könnte der Begleiter ein Neutronenstern gewesen sein, der die Explosion seines Partners überlebt hat und vermöge der Schockwelle den Ort des Geschehens mit fast 30.000 km/s verlassen hat. – Das Bild entstand aus insgesamt 10 Belichtungen im Laufe von 5 Jahren und ist ein Komposit-Bild aus dem Röntgen- (Chandra-Teleskop) und dem Infrarot-Wellenlängenbereich (Two Micron All-Sky Survey). Der Bildausschnitt umfasst etwa 114 Lichtjahre. (Quelle: X-ray: NASA/CXC/U.Texas/S.Post et al. – Infrared: 2MASS/UMass/IPACCaltech/NASA/NSF)

129 9.5 · Supernovae – Einblicke und Impressionen

9

Eta-Carinae der massereichste Stern in der Milchstraße (ca 100 - 200 M )

50 Lj . Abb. 9.21 Eta-Carinae ist ein Doppel- oder sogar Triple-Stern-System mit einer geschätzten Gesamtmasse weit jenseits von 100 Sonnenmassen (M ). Dieses System (oberes Bild) ist einige Lichtjahre groß und somit etwa 1000-mal größer als das Sonnensystem. Eta-Carinae hat in den letzten 150 Jahren bereits mehrfach einen Ansatz zur Supernova-Explosion gemacht, allerdings ohne Erfolg, wahrscheinlich als Folge der beträchtlichen Masse, welche dieses System (Pfeil im unteren Bild) umgibt. Eine erfolgreiche Supernova-Explosion ist jedoch in naher Zukunft vorgezeichnet. Die etwa 7500 Lichtjahre Entfernung dürfte für das Sonnensystem allerdings ein sicherer Abstand sein. (Quelle: Foto Eta Carinae: Jon Morse (University of Colorado) und NASA/ESA)

130

Kapitel 9 · Späte Nukleosynthese und Supernovae

9

. Abb. 9.22 Oben: SN1987 A in der Großen Magellanschen Wolke vor (Pfeil) und nach der Explosion. Der Vorgänger-(„Progenitor“)-Stern war ein Blauer Superriese (benannt nach Nicholas Sanduleak Sk-69 202). Die Explosion ließ seine Helligkeit um einen Faktor 100 Mio. anwachsen. Unten: Der „Progenitor“-Stern hatte etwa 20.000 Jahre vor der Explosion einen Teil seiner Hülle abgestoßen, welche sich in der Folge als planetarer Ringnebel um ihn herum formierte und nun von der SN1987 A zur Lichtemission angeregt wird. (Quelle: David Malin/Australian Astronomical Observatory)

131 9.5 · Supernovae – Einblicke und Impressionen

9

. Abb. 9.23 Ringstruktur um SN1987 A, welche bis etwa 2007 an Helligkeit zugenommen hat und seit dieser Zeit wieder leicht abnimmt. Die von der Supernova ausgehende Materie-Schockwelle hat diesen Ring-Nebel noch nicht erreicht. Dieses wird jedoch zwischen 2020 und 2030 der Fall sein, was dann zur Zerstörung dieser Ringstruktur führen wird. (Quelle: NASA/ESA/STScI und J. Larsson, KTH Stockholm)

132

Kapitel 9 · Späte Nukleosynthese und Supernovae

30 Jahre SN1987A

. Abb. 9.24 Ringstruktur um SN1987 A. Das Bild entstand aus 4 Belichtungen zwischen Januar 2008 und Januar 2009 und ist ein Komposit aus dem Röntgen-, dem optischen und dem InfrarotMillimeter-Spektrum. Es wurde anlässlich des 30. Jahrestags der SN1987 A am 24. Februar 2017 veröffentlicht. (Quelle: X-ray: NASA/CXC/SAO/PSU/K. Frank et al.; Optisch: NASA/STScI; Millimeter: ESO/NAOJ/NRAO/ALMA)

9

. Abb. 9.25 Die Große und die Kleine Magellansche Wolke am südlichen Nachthimmel. Die Große Magellansche Wolke ist etwa 163.000 Lichtjahre und die Kleine Magellansche Wolke etwa 202.000 Lichtjahre entfernt. Sie sind die größten Zwerg-Galaxien, die sich im Einflussbereich der Milchstraße befinden. In ihnen tummeln sich etwa 15 Mrd., bzw. 5 Mrd. Sterne. Das macht zusammen etwa 10 % des Sterneninhalts der Milchstraße aus. (CC BY-SA 4.0)

9

133 9.5 · Supernovae – Einblicke und Impressionen

Btg Beteigeuze

Rg Gürtel des Orion

Rigel

. Abb. 9.26 Sternbild des Orion mit Beteigeuze (Btg) und Rigel (Rg) in der Fotografie. (Quelle: Sternbild Orion: teilerstellt mit Stellarium unter GPLv2, Fotografie: B. Tafreshi, CC BY-SA 4.0)

Bei einer Supernova-Rate in unserer Milchstraße von etwa ein bis zwei Ereignissen pro 100 Jahre kann ein Warten auf ein solches Event schnell zur Ermüdung führen. Dennoch gibt es zwei Kandidaten-Sterne, die sich in der Endphase ihrer Entwicklung befinden. Ein genaues Datum ihres finalen Abgangs lässt sich jedoch nicht bestimmen, da man weder ihre genauen Massen kennt, noch wie lange sie sich schon in dieser Endphase befinden. Der eine Stern ist Eta-Carinae (siehe . Abb. 9.21), der bereits mehrmals in den letzten 150 Jahren einen Versuch gestartet hat, allerdings ohne Erfolg, der andere Stern ist Betei(l)geuz(s)e13 (oder α -Orionis). Letzterer ist in den Sommermonaten am Nachthimmel leicht nahe des Orion-Gürtels auszumachen (siehe . Abb. 9.26). α -Orionis machte vor einiger Zeit Schlagzeilen, da er offensichtlich in kurzen Abständen seine Helligkeit änderte. Ein Signal für eine bevorstehende Explosion ist dieses aber wohl eher nicht, andererseits ist die Physik, die diesem Phänomen zugrunde liegt, letztlich im Detail nicht bekannt. Also, Augen auf ! Die Kenndaten von α -Orionis sind wie die von Eta-Carinae beeindruckend. Seine Masse wird mit etwa der 20-fachen Sonnenmasse abgeschätzt und sein derzeitiger Radius mit etwa dem 1000-fachen der Sonne. Im Sonnensystem würde sein Radius bis zum Saturn-Planeten reichen (siehe . Abb. 9.27). Sein geringer Abstand zum Sonnensystem von gerade einmal 640 ± 150 Lichtjahren ist schon fast gefährlich. Bei einer Explosion könnte die auf der Erde ankommende Strahlungsleistung des Sterns für mehrere Tage und Nächte bis auf etwa 1 % der Sonnenleistung anwachsen, ein nicht nur leicht messbarer, sondern auch deutlich fühlbarer Effekt. Der nächste Supernova-Kandidat?

13 International akzeptierte Schreibweise: „Beteigeuze“; in phonetischer Symbolik ; im englischsprachigen Raum hört man auch . Der Name ist arabischen Ursprungs.

Kapitel 9 · Späte Nukleosynthese und Supernovae

250 Milli-Bogensekunden

134

Radiowellen (7mm) - Image von Beteigeuze sichtbare Scheibe

Jupiter Orbit Saturn Orbit

250 Milli-Bogensekunden . Abb. 9.27 Beteigeuze im 7 mm Radiowellenbereich. (Bild adaptiert, Quelle: J. Lim, C. Carilli, S.M. White, A.J. Beasley, R.G. Marson)

9.6

9

Supernovae und kosmisches Erstaunen

Die enorme Lichtstärke einer Supernova macht ein solch spektakuläres Ereignis bis in die entferntesten Winkel des Universums sichtbar. Hinzu kommt, dass die Physik von Typ Ia Supernovae (zur Erinnerung, dieses sind Supernovae, die sich z. B. aus „Weißen Zwergen“ entwickeln und folglich keine Wasserstoff-Schale besitzen) inzwischen bis ins Detail bekannt ist. Ihre Lichtkurven, welche man über Tage und Wochen verfolgen kann, sind somit hervorragend geeignet für die Bestimmung der absoluten Stärken solcher Explosionen. Supernovae vom Typ Ia gelten deshalb als ideale kosmische „Standardkerzen“, aus denen sich kosmische Entfernungen ableiten lassen, und das zurück bis zu 10–11 Mrd. Jahre vor unserer Zeit, als die Sternentwicklung noch deutlich über der von heute lag. Ende der 1990er-Jahren wurden deshalb umfangreiche Beobachtungsprojekte gestartet mit dem Ziel, Supernovae aufzuspüren und das Universum bis in die entlegensten Ecken zu durchmustern, um daraus Kenngrößen wie Hubble-Konstante, Krümmung, Homogenität, Massenverteilungen, Eigenschaften der Dunklen Energie etc. abzuleiten. Im Einzelnen waren dies: ESSENCE Equation of State:SupErNovae trace Cosmic Expansion; hat mehr als 200 Supernovae untersucht SDSS Sloan Digital Sky Survey; hat mehrere hundert Supernovae untersucht SNLS SuperNova Legacy Survey, entstanden 2003 aus dem SDSS-Programm; hat mehr als 2000 „High-redshift“-Supernovae untersucht HST Hubble Space Telescope; hält den Rekord für die am weitesten entfernte Supernova (bei Rotverschiebung z = 2)

Supernova-Rotverschiebungen und -Entfernungen Es ist an dieser Stelle angebracht, einige Worte darüber zu verlieren, wie Rotverschiebungen und Entfernungen bei großen Distanzen bestimmt werden können. Das Verfahren klingt zunächst

135 9.6 · Supernovae und kosmisches Erstaunen

9

einfach, es ist jedoch im Detail keineswegs so. Um Rotverschiebungen bestimmen zu können, bedarf es eines Linienspektrums, aus dem bestimmte und bekannte Linien oder auch Linienpaare von atomaren Anregungen identifiziert werden können. In einer Supernova-Explosion sind dieses häufig Silizium-Linien, da Silizium in großen Mengen produziert wird und sich auch in der äußeren Explosionswelle befindet. Da sich die Explosionswelle aber mit ca. 10.000 km/s sowohl in Richtung des Beobachters als auch in der zu ihm entgegengesetzten Richtung ausbreitet, sind atomare Linien sowohl blau- als auch zusätzlich rotverschoben, was in der Summe zu einer deutlichen Verbreiterung führt. Hinzu kommt, dass Explosionswellen im Laufe ihrer Entwicklung (d. h. über Tage und Wochen) unterschiedliche Transparenz zeigen, sodass atomare Übergänge aus tieferen Schichten und anderer Zusammensetzung mit unterschiedlicher Intensität auftreten. Glücklicherweise lassen sich diese Effekte aus einem über mehrere Tage aufgenommenen Spektrum bestimmen, sodass letztlich nur noch die durch die Expansion des Universums bedingte Rotverschiebung z durch Abgleich des gerechneten mit dem gemessenen Spektrum bestimmt wird. Dieses Verfahren ist beispielhaft in der . Abb. 9.28 für zwei Supernovae sehr unterschiedlicher Entfernung gezeigt. Beeindruckend ist vor allem die Präzision von besser als 1 %.

emittierte Wellenlänge

relativer Strahlungsfluss

3000 3500 4000 4500 5000 5500 1,5



SN 1996bj (z=0,574) Tag-0

1,0

5,5 Mrd. Lj

0,5 0,0

Tag-10

relativer Strahlungsfluss

° 5000 6000 7000 8000 A 3000 4000 5000 6000 1,5

Tag-0



SN 2002jd (z=0,315)

3,6 Mrd. Lj

rotverschobene gemessene Wellenlänge

1,0 0,5 Tag-26 0,0 3000 4000 5000 6000 7000 8000

° A

. Abb. 9.28 Die beiden Beispiele zeigen wie mittels spektraler Analyse die Rotverschiebungen von Supernovae genau bestimmt werden können. Da die unterliegende Physik der Supernova-Explosion recht gut bekannt ist, lässt sich das charakteristische Emissionsspektrum über einen großen Wellenlängenbereich berechnen. Wendet man darauf den Rotverschiebungsfaktor (1 + z) an, kann man das gerechnete Spektrum (rote Linie) mit dem gemessenen zur Deckung bringen. Obwohl in dem Beispiel die beiden Supernovae etwa 2 Mrd. Lichtjahre voneinander entfernt sind, zeigen beide (bis auf Details – siehe Text) in etwa die gleichen Emissionslinien, die sich zudem über mehrere Tage verfolgen lassen. Im un˚ hervorgehoben. (Adaptiert aus Blondin teren Bild ist der Ausschnitt des oberen Bildes (3000–5500 A) et al., The Astrophysical Journal 682:724 (2008))

136

Kapitel 9 · Späte Nukleosynthese und Supernovae

Expansion

SN Erde

Expansion

. Abb. 9.29 Schematische Darstellung, wie sich der Sichtwinkel durch die Ausdehnung des Universums im Fall kosmischer Distanzen (hier: Supernova SN – Erde) verändert

Eine weitere, ganz wichtige und keineswegs unerhebliche Schlussfolgerung lässt sich aus diesem Verfahren ableiten: Die Physik, die sich aus heutiger Sicht ergibt, lässt sich ohne erkennbare Veränderung auf Zeiten anwenden, die mehr als 10 Mrd. Jahre in der Vergangenheit liegen. Das heißt auch:

9

> Die Naturgesetze waren in den letzten 10 Mrd. Jahren keiner zeitlichen Änderung unterworfen.

Auch die Berechnung der Entfernung aus der ankommenden Lichtleistung einer entfernten Quelle erfordert eine Berücksichtigung der Ausdehnung des Universums. Ein Photon, welches beispielsweise 10 Mrd. Jahre unterwegs war, sieht ein Universum, welches sich im Laufe seiner Reise um das Doppelte vergrößert hat. Ursprünglich mit Ziel auf die Erde gerichtet, wird es diese durch die gleichzeitige Expansion des Sichtwinkels nun möglicherweise verfehlen. Die Situation ist in der . Abb. 9.29 schematisch erklärt. Die systematische Suche nach fernen Supernovae wurde Mitte der 1990erJahre besonders offensiv durch den amerikanischen Kosmologen Saul Perlmutter angegangen. Sein Ziel war es, mithilfe von Supernovae vom Typ Ia den sogenannten „Abbremsparameter“ der Universum-Expansion zu bestimmen. Die allgemeine und bis dato unwidersprochene Lehrmeinung war, dass die Expansion der Materie, die aus der explosiven „Big Bang“-Phase hervorging, sich infolge der Gravitation langsam verringern sollte. Der Zahlenwert dieser Abbremsung war allerdings unbekannt. Perlmutter gelang es, durch eine Reihe technischer Verbesserungen an bestehenden Teleskopen einen deutlich größeren und tieferen Bereich des Himmels zu erfassen und dadurch die Zahl der beobachteten Supernovae während einer Beobachtungszeit um ein Vielfaches zu erhöhen. Bis zum Jahr 2000 brachte ihm diese Entwicklung ein signifikantes Datenvolumen von Supernovae bis zu einer Rotverschiebung z = 0,5 ein, was zu dieser Zeit einen Entfernungsweltrekord darstellte. Die Verblüffung war groß. Die erwartete Abbremsung entpuppte sich als eine Beschleunigung. Zur gleichen Zeit kamen auch Brian Schmidt und Adam Riess

137 9.6 · Supernovae und kosmisches Erstaunen

1,5

Δm (mag)

1,0

9

(ΩM, ΩΛ) = (0,27, 0,73) (ΩM, ΩΛ) = (0,3, 0,0) (ΩM, ΩΛ) = (1,0, 0,0)

0,5 0,0

− 0,5 − 1,0

− 1,5 0,01

3,5

j j j j GL ,1 GL,4 GL,8 GL 6 7 5

0,1 Rotverschiebung z

1,0

. Abb. 9.30 Ein verblüffendes experimentelles Ergebnis: Ab einer Distanz von etwa 3 Mrd. Lichtjahren beobachtet man eine Abweichung vom Hubble-Lemaître-Gesetz, in der Weise, dass das Universum beschleunigt expandiert. Die Lichtintensität zeigt eine Verminderung von m ∼ 0,25, was auf eine größere Entfernung hindeutet als nach diesem Gesetz errechnet§§ . Die Kurven zeigen drei verschiedene kosmologische Modelle; grün durchgezogen: 27 % Materie, 73 % Dunkle Energie, flaches Universum, beschleunigend; blau gepunktet: 30 % Materie, offenes Universum; rot gestrichelt: 100 % Materie, flaches Universum, abbremsend. Man beachte: Die Magnitude m hat eine logarithmische Skala, d. h., ein positives m entspricht einer Verringerung der Lichtleistung, in diesem Fall um etwa 26 %. (Bild adaptiert aus Wood-Vasey et al., The Astrophysical Journal 666:694 (2007), CC BY-SA 4.0). §§ Definition der Magnitude m: Wenn zwei Objekte sich in den Flussdichten l und l um einen Faktor 1 2 100 unterscheiden, sollen die scheinbaren Helligkeiten um 5 differieren, d. h. l1 /l2 = 100(m2 −m1 )/5 oder (m1 − m2 ) = m = −2,5 · log(l1 /l2 )

aufgrund eigener Beobachtungen zur selben Schlussfolgerung, wofür alle drei im Jahr 2011 mit dem Nobelpreis für Physik ausgezeichnet wurden14 . Das heutige Universum expandiert offensichtlich immer schneller – nur „wer zieht da an der anderen Seite“? Der Begriff „Dunkle Energie“ wurde von nun an salonfähig. Erste Rechnungen mit einer kosmologischen Konstante (Dunkle Energie), welche anti-gravitativ wirkt, schienen die Daten zu reproduzieren. Dies ist in der . Abb. 9.30 für die frühen, bis 2005 summierten Datensätze bereits eindrucksvoll erkennbar. In der Abbildung sind drei verschiedene kosmologische Modelle miteinander verglichen: 1. ein Universum, welches eine kritische Masse besitzt (M = 1), wird erwartungsgemäß immer langsamer expandieren und schließlich mit der Zeit t → ∞ zum Stillstand kommen (rot gestrichelte Kurve);

14 Nobelpreis für Physik 2011: Saul Perlmutter, Lawrence Berkeley National Laboratory, Berkeley; Brian Schmidt, Australian National University, Canberra; Adam Riess, Johns Hopkins University, Baltimore.

Kapitel 9 · Späte Nukleosynthese und Supernovae

10-4

44

10-3

42

10-2

Magnitude

relative Intensität

138

beschleunigend SNLS

40 38

10-1

36

1

34

beschleunigend abbremsend 0,02

0,05 0,1 0,2 Rotverschiebung z

SNLS

SDSS

0,3

9

HST

abbremsend

0,4 0,5 0,6 0,8 1 Rotverschiebung z

2

. Abb. 9.31 In dieser Abbildung sind 740 Supernovae vom Typ Ia aus verschiedenen Beobachtungsreihen zusammengefasst. Mit der nunmehr deutlich verbesserten statistischen Signifikanz wird der Effekt des beschleunigten Universums klar herausgestellt. (Bild erstellt aus vorliegenden Daten der angegebenen Projekte; „low-z“-Daten aus: Mario Hamuy et al., The Astronomical Journal 109, 1 (1995) und P. M. Garnavich et al., The Astrophysical Journal, 493:L53 (1998))

2. ein offenes Universum (hier: M = 0,3) wird für alle Zeiten mit letztlich konstanter Geschwindigkeit expandieren (blau punktierte Kurve); 3. ein Universum mit M = 0,27 und einem anti-gravitativen Anteil Dunkler Energie von  = 0,73 reproduziert die experimentellen Daten (grün durchgehende Kurve). In dieser frühen Datenanalyse sind die Werte M = 0,27 und  = 0,73 aus den ersten Ergebnissen des Planck-Experiments (Messung der kosmischen Hintergrundstrahlung, siehe 7 Kap. 8) übernommen und nicht direkt aus den Supernova-Beobachtungen ermittelt worden. Mit der deutlichen Vergrößerung des Datenvolumens in den darauf folgenden 10 Jahren wurde schließlich eine unabhängige Analyse möglich. Die Datensituation in 2014 ist in der . Abb. 9.31 dargestellt. Insgesamt 740 Supernovae vom Typ Ia bis zu einer Rotverschiebung von z = 2 (∼10,5 Mrd. Lichtjahre) sind hier erfasst und einer Analyse unterworfen. Die Signifikanz eines sich beschleunigt ausdehnenden Universums ist mittlerweile überzeugend und unverkennbar. Der aus diesen neuen Daten unabhängig ermittelte Materie-Inhalt des Universum ergibt sich zu M = 29,5 ± 3,4 % und folglich für die Dunkle Energie ein Wert von  = 70,5 ± 3,4 %. Die von Planck und WMAP 2019 publizierten Werte sind M = 31,1 % ± 0,6 % und  = 68,9 ± 0,6 % – eine erstaunliche Übereinstimmung.

139 9.6 · Supernovae und kosmisches Erstaunen

9

Bedenkt man nun, dass in dem einen Fall diese Werte kodiert sind in der Mikrowellen-Hintergrundstrahlung, welche 380.000 Jahre nach dem „Big Bang“ entstand, im anderen in der beschleunigten Ausdehnung des Universums, welche über einen Zeitraum von mehr als 10 Mrd. Jahren erfolgte, so muss man wiederum mit Erstaunen feststellen: > Die Natur hat über ihre Gesetze nicht mehr verhandelt.

Um Missverständnissen vorzubeugen: Wir sehen heute Objekte in großer Entfernung und in weiter Vergangenheit liegend, welche sich beschleunigt von uns wegbewegen. Dieses bedeutet im Umkehrschluss, dass die Beschleunigung uns (!) heute erfasst hat, und dass das Universum von heute (!) sich beschleunigt gegenüber diesen fernen Objekten ausdehnt. Was ist denn nun „Dunkle Energie“? Auf diese Frage gibt es leider bislang keine umfassende Antwort. Spekulationen sind deshalb erlaubt. Allerdings gibt es bereits einige unstrittige Eigenschaften, die die Dunkle Energie charakterisieren:

1. Dunkle Energie wird nicht aus Materie-Teilchen geformt; der Spekulation, es handele sich um Antimaterie, die anti-gravitativ wirkt, ist experimentell nicht zu halten und muss eine Absage erteilt werden. 2. Dunkle Energie hat die Eigenschaft einer kosmologischen Konstante – dies folgt sowohl aus den Supernova-Daten als auch aus den Planck-Daten; ihre Energiedichte ist äquivalent zu einem „negativen Druck“ oder auch Spannung. 3. Dunkle Energie scheint im ganzen Universum homogen verteilt zu sein; lokale Inhomogenitäten aufgrund von Wechselwirkung mit normaler Materie (z. B. Galaxien) werden nicht beobachtet. 4. Dunkle Energie als ein „Überbleibsel“ aus der inflationären Phase zu vermuten, ist naheliegend – ein theoretisches Konstrukt für eine solche Annahme gibt es jedoch bislang nicht. 5. Dunkle Energie trägt zur Gesamtenergiedichte des Universums in einer Weise bei, sodass die Summe aus der Massen-Energiedichte (berechnet aus dem Massen-Äquivalent E = Mc2 ) und der Energiedichte der Dunklen Energie gleich der kritischen Dichte krit = 1 ist; das Universum ist damit flach bzw. euklidisch; diese Eigenschaft folgte bereits aus den Planck/WMAP-Daten zur Mikrowellen-Hintergrundstrahlung und wird auch aus den hier dargestellten Supernova-Daten abgeleitet.

140

9.7

Kapitel 9 · Späte Nukleosynthese und Supernovae

Supernovae und Entstehung des Lebens

Supernovae haben apokalyptische Auswirkungen auf große und ausgedehnte galaktische Bereiche, welche sich über mehrere hundert Lichtjahre erstrecken können und jegliches Leben, falls es in diesen Bereichen existierte, auslöschen. Supernovae produzieren aber gleichzeitig auch alle Elemente, die für eine nachfolgende Entwicklung des Lebens und seines Formenreichtums unentbehrlich sind. Dies gilt insbesondere für unser Sonnensystem, welches sich aus den Überresten einer Supernova vor ca. 4,6 Mrd. Jahren formierte. Allerdings ist der Stern, welcher vor 4,6 Mrd. Jahren dieses Schicksal erlitt und möglicherweise als Neutronenstern verendete, bis heute nicht identifiziert. Denkbar ist, dass er aus der galaktischen Ebene herauskatapultiert wurde.

9

Dass Supernovae auch direkt für die Entstehung des Lebens verantwortlich sind, klingt zunächst etwas weit hergeholt. Wir werden dieser Prämisse jedoch auch nachgehen und uns einer Argumentation bedienen, wie sie zuerst in einer Publikation in 2010 erschienen ist15 . Wir beginnen mit einer Reihe von einfachen Fakten, mit denen wir versuchen, den Begriff «Leben» aus physikalischer Sicht zu kennzeichnen: . Abb. 9.32 Die DNA-Doppel-Helix steht synonym für «Leben». Wasserstoff-Brücken an den Protein-Enden verbinden die beiden Einzelstränge

15 R. N. Boyd, T. Kajino, and T. Onaka, Supernovae and the Chirality of the Amino-Acids, Astrobiology 10, 561 (2010)

141 9.7 · Supernovae und Entstehung des Lebens

9

142

9

Kapitel 9 · Späte Nukleosynthese und Supernovae

143 9.7 · Supernovae und Entstehung des Lebens

9

Zurück zur Linkshändigkeit der Aminosäuren. Die beschriebenen Besonderheiten bezüglich ihres chiralen Vorkommens werfen eine ganze Reihe von Fragen auf:

Hinweise, dass die Bausteine des Leben auf der Erde extraterrestrischen Ursprungs sind, treten seit Mitte der 1990er-Jahre immer deutlicher hervor und werden dementsprechend auch immer weniger in Zweifel gezogen. Ein neuer Wissenschaftszweig „Astrobiologie“ ist hierdurch entstanden, welcher sich mit der Frage befasst, ob der Kosmos vielleicht auch ein sehr effektives Chemie-Labor ist, in dem die für die Entstehung des Lebens anfänglich notwendigen und auf Kohlenstoff basierenden Makromoleküle synthetisiert wurden. Die in solaren und extrasolaren Meteoritengesteinen und Meteoritenstäuben vorgefundenen und dort über lange Zeiten eingeschlossenen (und konservierten), sehr vielfältigen organischen Verbindungen geben ein klares Zeugnis, dass diese komplexen chemischen Reaktionen tatsächlich ablaufen, dies natürlich über kosmische Zeitskalen und seltsamerweise bei Temperaturen nahe des absoluten Nullpunkts. Um solche chemischen Reaktionen allerdings zu initiieren, bedarf es deshalb eines „Energy-Providers“, welcher im vorliegenden Fall die kosmische Strahlung sein könnte (sowohl ionisierend als auch nicht-ionisierend). Diese durchflutet eine Galaxie, und deren effektivste und nie endende Quellen sind natürlich die in der Galaxie enthaltenen strahlenden Objekte, wie Sterne, Neutronensterne oder auch Supernovae. Dieses Zusammenspiel von Chemie und Strahlung lässt sich mittlerweile im Labor unter vergleichbaren kosmischen Bedingungen reproduzieren und gezielt erforschen, wobei man die kosmischen Zeitskalen natürlich verkürzt. Der Wissenschaftszweig Astrobiologie ist inzwischen so gut etabliert, dass er auch als ein Aufbau-Studiengang in Deutschland angeboten wird. Die zentrale Frage bleibt aber nach wie vor bestehen: ? Welcher Mechanismus bricht die Rechts-links-Symmetrie und ist damit verantwortlich für die Linkshändigkeit der proteinogenen Aminosäuren?

144

9

Kapitel 9 · Späte Nukleosynthese und Supernovae

Dies muss zwingend ein Prozess sein, der selbst nicht rechts-links-symmetrisch bzw. nicht spiegelungsinvariant ist. Einem Teilchenphysiker kommt natürlich sofort die «schwache» Wechselwirkung in den Sinn, denn diese verletzt die Spiegelungsinvarianz, jedoch leider in den vorliegenden Fällen nur marginal. Die Hoffnung, hier eine Lösung gefunden zu haben, ist deshalb schnell verflogen – die «schwache» Wechselwirkung ist um Größenordnungen zu schwach. Rechnungen zeigen, dass der Effekt der SymmetrieBrechung bestenfalls von der Größenordnung 10−18 ist, d. h., unter etwa 1018 Molekülen findet sich als Folge der Wechselwirkung im Mittel gerade inmal eins ohne einen chiralen Partner. Allerdings finden die Autoren der Referenz16 , dass tatsächlich einige der L-Aminosäuren gegenüber ihren D-Versionen begünstigt sind, wobei nicht geklärt ist, ob dieses für alle proteinogenen Aminosäuren gilt. Die Autoren weisen zudem darauf hin, dass es unter bestimmten chemischen Voraussetzungen einen sehr effektiven (und auch bekannten) Verstärkungsmechanismus gibt, so denn ein anfängliches Ungleichgewicht einmal eingestellt ist. Ob dieses bei einem Ungleichgewicht von der Größenordnung 10−18 weiterhin gilt, wenn im Realfall auch noch zusätzlich nicht-spezifizierbare Fremdmoleküle in deutlich höheren Konzentrationen vorliegen, ist experimentell bislang nicht nachgewiesen und wird eher bezweifelt. Aber immerhin wäre dies ein Prozess, der nicht extraterrestrisch zu sein hätte. In einer wenig beachteten Schrift von J. van Klinken von der Universität Groningen17 wird ein extraterrestrischer Prozess diskutiert, welcher jedoch gegenüber einer früheren Publikation von Rubenstein et al.18 eine zusätzliche Variante ins Spiel bringt. Demgemäß kommt es während der Zeit, in der sich das Sonnensystem mit seinen Planeten langsam aus den Überresten einer Supernova vor etwa 4,6 Mrd. Jahren formiert (d. h. über einen Zeitraum von einigen 100 Mio. Jahren), in dessen Nähe zu einem weiteren Supernova-Ereignis. Ein zurückbleibender, rotierender Neutronenstern emittiert nun in Richtung des sich ausbildenden Sonnensystems intensive und polarisierte UV-Strahlung, welche (wiederum über kosmische Zeitskalen) einwirkt auf die sich dort allmählich entwickelnde Chemie, wobei die vielfältig produzierten Moleküle nun auch in die mittlerweile entstehenden ErdOzeane gelangen. Laboruntersuchungen zeigen, dass die polarisierte UV-Strahlung enantiomere Verbindungen zwar zum überwiegenden Teil zerstört, dass dieses jedoch durchaus selektiv geschieht, sodass der übrig bleibende Rest eine enantiomere Asymmetrie aufweist. Damit liegen die Grundbausteine des Lebens vor, aus denen sich in der ersten Jahr-Milliarde die einfachsten Lebensformen auf der Erde hätten entwickeln können (etwa 3,6 Mrd. Jahre vor unserer Zeitrechnung). Legt man ein solches Szenarium zugrunde, dann sollten im gesamten Sonnensystem die Aminosäuren (so sie nicht razemisiert sind) mit einheitlicher Händigkeit auftreten. Das 16 G. E. Tranter, The parity-violating energy difference between enantiomeric reactions, Chemical Physics Letters 115, 286 (1985). Siehe auch: G. E. Tranter, A. G. Macdermott, Parity-violating energy differences between chiral conformations of tetrahydrofuran, a model system for sugars, Chemical Physics Letters 130, 120 (1986). 17 J. van Klinken, Broken symmetries at the origin of matter, at the origin of life and at the origin of culture. Acta Physica Polonica B29, 11 (1998). 18 E. Rubenstein, et al., Supernovae and Life, Nature 306, 118 (1983).

145 9.7 · Supernovae und Entstehung des Lebens

9

wäre ein wichtiges Indiz. Leider wurden aber selbst auf dem Mars noch keine Aminosäuren gefunden. Die Linkshändigkeit wäre allerdings in diesem Bild zufällig entstanden, da ja die Polarisation der Strahlung abhängig ist von der Rotationsrichtung und der Magnetfeld-Ausrichtung des Neutronensterns, und die sind nicht vorherbestimmt. Die These von einer zweiten Supernova wäre durch ultrasensitive massenspektroskopische Untersuchungen von indigenem Mondgestein eventuell sogar überprüfbar. Da diese These aber zu spekulativ erscheint, werden wir auf diese Details hier nicht weiter eingehen. Dass Meteoritengestein und Meteoritenstaub wichtige Botschaften über vergangene und gegenwärtige kosmische Vorgänge in sich konserviert haben, war bereits angeklungen. Mehrheitlich sind diese Boten Teil unseres Sonnensystems und vermutlich durch Kollisionen in den äußeren Bereichen auf eine Reise mit Kurs auf die Erde geschickt worden. Der Materialzuwachs der Erde infolge dieser Vorgänge ist nicht unerheblich und könnte laut einer Schätzung der NASA bei einigen Tausend Tonnen pro Tag liegen. Der größte Teil dieser Objekte erreicht jedoch die Erdoberfläche nicht und verglüht bereits in der oberen Atmosphäre. Extrasolare oder sogar interstellare Meteoriten sind vergleichsweise selten, und extragalaktische Objekte, solche von außerhalb der Milchstraßen-Galaxie kommend, findet man wohl eher nicht. Ein Meteorit, der seit geraumer Zeit erneut Schlagzeilen macht, ist der Murchison Meteorit, welcher 1969 in Australien niederging. Der etwa 100 kg schwere Brocken zerbarst beim Eintritt in die Atmosphäre, und viele der Fragmente sind mittlerweile verschiedenen Forschungslabors und Museen übermittelt worden (siehe . Abb. 9.33).

. Abb. 9.33 Fragment des Murchison-Meteoriten-Schauers im National Museum of Natural History (Washington). (Quelle: Stefan Schorn, CC BY-SA 3.0)

146

Kapitel 9 · Späte Nukleosynthese und Supernovae

. Abb. 9.34 Präsolares Siliziumkarbid-Korn herauspräpariert aus dem Murchison-Meteorit. Die Größe des Korns ist etwa 9,6 µm. (Quelle: P. R. Heck et al., Proc. Natl. Acad. Sci. 117, 1884 (2020), CC BY-NC-ND 4.0)

9

Das Alter des Meteoriten wurde auf 4,96 Mrd. Jahre bestimmt, er ist folglich präsolar und somit ein wichtiger Zeuge der Geschehnisse vor der Entstehung des Sonnensystems. Auf seiner langen Reise hat er zudem kosmisches Material („Stardust“) eingesammelt, welches bis zu 7–8 Mrd. Jahre alt ist, was schon fast dem doppelten Alter des Sonnensystems entspricht19 . Dieses Material ist das älteste bislang gefundene feste Material auf der Erde (siehe . Abb. 9.34). Seine Berühmtheit verdankt der Meteorit einer ganz anderen Besonderheit: Er war nämlich wegen seines Kohlenstoffreichtums ein sehr effektives kosmisches Chemie-Labor. In ihm finden sich eine Vielzahl organischer Verbindungen, unter anderem auch solche, die es in natürlicher Form auf der Erde gar nicht gibt. Auch bei den Aminosäuren gab es während der langen Jahre im All offenbar eine Produktion im Überfluss. Über 80 verschiedene Aminosäuren sind bisher in dem Meteoriten identifiziert worden (Tendenz nach wie vor steigend), darunter auch signifikante Mengen solcher, die als Bausteine irdischen Lebens gelten. Die meisten hingegen sind abiotisch und kommen ebenfalls auf der Erde nicht vor, was letztlich auch ein Grund war, weshalb der Meteorit bei seinem Fall auf die Erde einen üblen und unbekannten Geruch verbreitete. Das Erstaunliche ist, dass die Aminosäuren, so sie nicht razemisiert sind, vorwiegend linkshändig sind, wobei deren Enantiomeren-Überschuss bisweilen bei 15 % liegt. Die Bausteine des Lebens scheinen deshalb wohl schon lange vor der Entstehung des Sonnensystems vorhanden gewesen zu sein. Vielleicht war die Linkshändigkeit doch kein Zufall, nur wie und wo ist sie entstanden? Eine im Murchison-Meteorit gefundene abiotische Aminosäure ist beispielsweise Methylisoleucin. Sie ähnelt in ihrer chemischen Struktur der proteinogenen Aminosäure Isoleucin. Allerdings besitzt sie aufgrund der zusätzlichen Methyl-Gruppe 19 Philipp R. Heck, et al., Lifetimes of interstellar dust from cosmic ray exposure – ages of presolar silicon carbide, Proceedings of the National Academy of Science of the USA (PNAS) 117(4), 1884 (2020).

147 9.7 · Supernovae und Entstehung des Lebens

COOH NH2 C

CH3

CH3 C

H

NH2

CH3 C H

CH3

C

CH2

CH3

CH3

RR

COOH NH2 C H

COOH

CH2

LL

C

9

COOH

CH3

CH3 C

NH2

CH3

CH3 C

H

CH2

CH2

CH3

CH3

LR

RL

. Abb. 9.35 Methylisoleucin mit 2 chiralen Zentren (angedeutet durch die Sterne) und den 4 Stereoisomeren (hier charakterisiert mit „links“ (L) und „rechts“ (R)). In der hier dargestellten Fischer-Projektion wird die komplizierte 3-dim Struktur nach einer festgelegten Vorschrift auf 2 Dimensionen projiziert

CH3 zwei chirale Zentren und damit vier Stereoisomere wie in der . Abb. 9.35 dargestellt (die korrekterweise zu benennen sind als die L- und D-Varianten von α-Methylisoleucin und α-Methylalloisoleucin). Im Murchison-Meteorit zeigt sich ein deutlicher Überschuss der LL- und LR-Varianten jeweils im Bereich von 10 %. Das heißt auch, dass in diesem Fall die Zeitkonstante der Razemisierung in der Größenordnung des Alters des Meteoriten liegt. Da die LL-Variante vornehmlich nach LR razemisiert, muss bei der Entstehung dieser Aminosäure die LL-Variante vor allen anderen offensichtlich bevorzugt worden sein. Ein solches Szenarium ist nicht durch die Einwirkung polarisierter UV-Strahlung erklärbar. Im Zuge der Ursachenforschung stellen die Autoren in der Referenz20 eine verblüffende These auf: > Supernovae und die daraus entstehenden Neutronensterne verursachen in direkter Weise und universell die Linkshändigkeit von Aminosäuren – eine Zufälligkeit ist ausgeschlossen.

Die Idee dahinter: Eine Supernova und der aus ihr entstehende Neutronenstern stellen eine der intensivsten kosmischen Neutrino-Quellen dar, deren Intensität mindestens dem 1015 -fachen der Sonne entspricht. (Zur Erinnerung: Die Zahl der auf der 20 R. N. Boyd, T. Kajino und T. Onaka, Supernovae and the Chirality of the Amino-Acids, Astrobiology 10, 561 (2010), siehe auch gleiche Autoren, Supernovae, Neutrinos and the Chirality of the Amino Acids, International Journal of Molecular Science 12, 3432 (2011).

148

Kapitel 9 · Späte Nukleosynthese und Supernovae

Erde pro cm2 und Sekunde ankommenden Sonnen-Neutrinos beträgt etwa 1010 .) Neutrinos sind zudem Teilchen, die einen Eigendrehimpuls von J = 1/2 und damit eine Händigkeit besitzen – linkshändige Neutrinos haben einen linkshändigen Eigendrehimpuls und heißen „Neutrinos“, die rechtshändigen haben einen rechtshändigen Eigendrehimpuls und heißen „Anti-Neutrinos“. Die Links- und Rechtshändigkeit ist jeweils bezogen auf die Flugrichtung. Beide Formen wechselwirken mit Materie maximal unterschiedlich. Die weitere Argumentationskette ist nun faszinierend und bringt eine Reihe von völlig unterschiedlichen, jedoch weitgehend experimentell abgesicherten Effekten zusammen. Um dieser Argumentation im Weiteren zu folgen, schauen wir uns zunächst die Wechselwirkung mit Stickstoff an, dem zentralen und definierenden Atom aller Aminosäuren: (1) Stickstoff + Neutrino (2) Stickstoff + Anti-Neutrino

9

14 N + ν

→ 14 N + ν¯ →

14 O + e− 14 C

+ e+

Emin = 5,15 MeV Emin = 1,18 MeV

Beide Reaktionen zerstören das Molekül: Im ersten Fall (1) transformieren die Neutrinos den Stickstoff-Kern zu einem Sauerstoff-Kern und im zweiten Fall (2) die Anti-Neutrinos den Stickstoff-Kern zu einem Kohlenstoff-Kern. (Hinweis: Ein Austausch von Neutrino und Anti-Neutrino in diesen Reaktionen ist von der Natur maximal „verboten“!) Die für die Reaktionen erforderlichen Mindest-Energien sind nun unterschiedlich, einmal 5,15 MeV und einmal 1,18 MeV. Da SupernovaNeutrinos im Mittel Energien von ca. 10 MeV besitzen, ist die Reaktion (1) gegenüber (2) um etwa einen Faktor 20 unterdrückt. Diese starke Unterdrückung ist für die weitere Argumentation wesentlich, d. h., im Folgenden genügt es, sich lediglich die Reaktion mit dem Anti-Neutrino anzuschauen. Die Argumentation wird dadurch transparenter. Bei Anwesenheit eines Magnetfeldes (welches beispielsweise erzeugt wird durch einen Neutronenstern als Folge einer Supernova) tritt eine Besonderheit auf. Der Atomkern Stickstoff-14 ist nämlich einer der lediglich drei stabilen Atomkerne mit gerader Massenzahl A, welcher ebenfalls einen Eigendrehimpuls besitzt (die beiden anderen sind Deuterium (A = 2) und Lithium-6 (A = 6)). Sie alle tragen den Drehimpuls J = 1. Mit dem Drehimpuls ist ein magnetisches Moment verbunden. Dieses magnetische Moment richtet sich im Magnetfeld entlang der Magnetfeldlinien aus. Die Reaktionswahrscheinlichkeit mit Anti-Neutrinos hängt nun von der Stellung des Drehimpulses mit Bezug auf die Bewegungsrichtung des AntiNeutrinos ab. Diese Situation ist in der . Abb. 9.36 erklärt. Sind die Ausrichtung des Stickstoff-Kerns und die Bewegungsrichtung der Anti-Neutrinos gleich (wie am Ausgang des Magnetfelds in . Abb. 9.36), dann ist die obige Reaktion (2) gegenüber dem umgekehrten Fall (wie am Eingang des Magnetfelds in . Abb. 9.36) um eine Größenordnung unterdrückt. Nun hat aber die Händigkeit eines Moleküls eigentlich nichts mit der Ausrichtung des Atomkerns zu tun. Die Händigkeit ist nämlich ausschließlich eine Eigenschaft der räumlichen Struktur der Elektronenwolke im Molekül. Insofern trifft die Argumentation im vorangegangenen Abschnitt gleichermaßen auf beide Händigkeiten zu, und der Netto-Effekt ist in der Summe Null.

149 9.7 · Supernovae und Entstehung des Lebens

9

Allerdings gibt es eine, wenn auch schwache Kommunikation der Elektronen mit dem Drehimpuls (Spin) eines Atomkerns. Sie geht unter dem Namen Hyperfeinwechselwirkung. Diese ist zwar im klassischen Sinne hier nicht ganz zutreffend, doch zeigen die Autoren in der Referenz21 , dass der nukleare Spin der Ausrichtung der Elektronenwolke des gesamten Moleküls in einem Magnetfeld folgt! Damit entsteht eine Situation, wie sie in dem unteren Teil der . Abb. 9.36 dargestellt ist. Sind Anti-Neutrino-Spin und Kernspin parallel (Bild links), ist die Reaktionsrate mit Anti-Neutrinos gegenüber einer antiparallelen Stellung (Bild rechts) reduziert, d. h., bildseitig links wird vornehmlich das R-Enantiomer und bildseitig rechts vornehmlich das L-Enantiomer zerstört. Ausschlaggebend für die Entstehung einer chiralen Asymmetrie wäre dann eine Asymmetrie der Neutrino-Emission. Tatsächlich werden Neutrinos im Zuge der Entstehung eines Neutronensterns vornehmlich in Richtung des Magnetfeldes emittiert, dies als Folge einer höheren Neutrino-Transparenz für diese Emissions-

B B B

B

B

B

B

14N

14N

B B

B

B

B

B B

L

B B

R

asymmetrischer Neutrino-Fluss

. Abb. 9.36 Neutronenstern (roter Punkt) mit seinem magnetischen Feld. Oberer Teil: Polarisation von 14 N im Magnetfeld. Die Spin-Richtungen sind durch rote Pfeile angedeutet. Der aus einer Supernova geborene Neutronenstern ist ein intensiver Neutrino-Strahler, wobei die Neutrinos vornehmlich entlang der Magnetfeld-Achse emittiert werden. Für Anti-Neutrinos ist die Spin-Richtung (rote Pfeile) immer parallel zur ihrer Bewegungsrichtung, für Neutrinos (hier nicht gezeigt) immer antiparallel. Sind AntiNeutrino-Spin und Kernspin parallel (linke Seite), ist die Reaktionsrate mit Anti-Neutrinos gegenüber der Situation bildseitig rechts reduziert. Unterer Teil: 14 N-Polarisation in L- und R-Aminosäuren als Folge der Hyperfein-Wechselwirkung. Eine Reaktion mit Anti-Neutrinos und damit eine Zerstörung des Moleküls erfolgt bildseitig links vornehmlich für das R-Enantiomer und bildseitig rechts vornehmlich für das L-Enantiomer. Aufgrund der asymmetrischen Neutrino-Emission eines Neutronensterns ergibt sich in der Nettobilanz ein Überschuss an L-Enantiomeren, die sich in der Folge interstellar durchmischen

21 A. D. Buckingham und P. Fischer, Direct chiral discrimination in NMR spectroscopy, Chemical Physics 324, 111 (2006) und A. D. Buckingham, Chirality in NMR spectroscopy, Chemical Physics Letters 398, 1 (2004).

150

Kapitel 9 · Späte Nukleosynthese und Supernovae

richtung22 . Für Anti-Neutrinos gilt dies gleichermaßen. Die Asymmetrie liegt bei etwa 1–10 %, und da etwa 1056 –1057 Neutrinos emittiert werden, bekommt der Neutronenstern noch zusätzlich einen „Kick“, welcher ihn auf etwa 300–500 km/s beschleunigt, genug um eine Galaxie verlassen zu können – in einigen 10 Mio. Jahren. Bei asymmetrischer Neutrino-Emission ist der Prozess der Umwandlung des Stickstoffs zum Kohlenstoff (siehe Reaktion (2) auf Seite 148) in der . Abb. 9.36 (rechts) reduziert, und das L-Enantiomer wird nun in der Gesamtbilanz bevorzugt. In interstellaren Objekten (z. B. in Nebeln, Staub, oder Meteoriten), die bereits organische Verbindungen synthetisiert (oder auch aufgesammelt) haben und sich im Einflussbereichs des Magnetfelds befinden und nicht durch die Supernova zerstört wurden, wird somit eine chirale Asymmetrie festgeschrieben. Die Größenordnung dieser Asymmetrie liegt Abschätzungen zufolge bei etwa 10−7 –10−9 . Allerdings ist der Prozess durchaus kumulativ. Ein präsolarer Meteorit wie der MurchisonMeteorit, der vermutlich an einigen 100.000 Neutronensterne vorbeigekommen ist, wobei dann jeder einen Fingerabdruck hinterlassen hat, könnte dadurch bereits eine beachtliche Asymmetrie aufaddiert haben. In diesem Szenarium ist insbesondere die Entstehung der linkshändigen proteinogenen Aminosäuren universell. Das heißt aber auch:

9

> Wird die Linkshändigkeit bereits zu einem frühen Zeitpunkt in der kosmischen Entwicklung festgelegt, und ist die Erde mit der Linkshändigkeit durch kosmischen Eintrag geimpft worden, dann muss auch auf Planeten außerhalb des Sonnensystems ein solcher Eintrag stattgefunden und bei erdähnlichen Bedingungen Leben erzeugt haben.

Sehr kompliziert (!), aber keineswegs ausgeschlossen – und Neutrinos, die kosmisch gesehen eigentlich überflüssig wären, bekämen jetzt eine sinnvolle Funktion. Noch einmal in verständlicher Kurzform: Drei verschiedene Szenarien wurden vorgestellt, die als Ursprung für die chirale Asymmetrie der proteinogenen Aminosäuren denkbar sind: Die «schwache» Wechselwirkung

Sie ist eine universelle, die Spiegelungsinvarianz brechende Wechselwirkung. Sie erzeugt eine chirale Asymmetrie und gibt dem einen Enantiomer gegenüber dem anderen einen winzigen thermodynamisch bedingten Vorteil. Inwieweit dieser Vorteil bei den proteinogenen Aminosäuren immer beim L-Enantiomer liegen soll, ist bisher nicht demonstriert und auch keineswegs einsichtig. Unter den drei verschiedenen Szenarien ist diese als einzige nicht extraterrestrisch. Als extrasolare Quelle wirkt sie während oder kurz nach der Entstehung des Sonnensystems auf organische Moleküle in protoplanetaren Nebeln ein und erzeugt eine chirale Asymmetrie. Die Entstehung der L-Enantiomere auf der Erde (und im ganzen Sonnensystem) ist damit zufällig.

Die polarisierte UV-Strahlung

22 C. J. Horowitz und Gang Li, Cumulative Parity Violation in Supernovae, Physical Review Letters 80, 3694 (1998).

151 9.8 · Auf der Suche nach Leben im Sonnensystem

9

Die Tatsache, dass präsolare Meteoriten wie der Murchison-Meteorit oder auch die im antarktischen Eis gefundenen präsolaren Meteoriten-Brocken vornehmlich L-Aminosäuren aufweisen, macht dieses Zufalls-Szenarium eher unwahrscheinlich. Reaktionen mit Neutrinos Neutronensterne sind nach ihrer Entstehung aus Supernovae für lange Zeiten (ca. 100.000 Jahre) die intensivsten bekannten kosmischen Neutrino-Quellen. Die extremen Magnetfelder (bis zum 1020 -fachen des ErdMagnetfeldes) von rotierenden Neutronensternen bedingen eine Fokussierung der Neutrino-Emission entlang ihrer Rotationsachse und gleichzeitig eine Ausrichtung von Aminosäuren, welche bereits in kompakten Objekten wie Staub oder Meteoriten eingelagert sind. Die Ausrichtung erfolgt vermöge einer „hyperfein-artigen“ Kopplung des nuklearen magnetischen Moments vom 14 N-Atom mit der Elektronenwolke des Moleküls. Ausschlaggebend für einen linkshändigen AminosäurenÜberschuss ist schließlich die asymmetrische Neutrino-Emission des Neutronensterns entlang der Magnetfeld-Achse. Dieser Mechanismus ist universell, und vermöge einer über kosmische Zeitskalen konstanten „Meteoriten-Impfung“ ist eine Lebensbildung auf der Basis von linkshändigen proteinogenen Aminosäuren auf allen erdähnlichen Planeten überall im Kosmos naheliegend. Inwieweit eines oder mehrere oder auch keines dieser Szenarien für die Herstellung der Lebensbausteine letztlich entscheidend sind, lässt sich derzeit nicht eindeutig beantworten. Allen ist gemein, dass die anfängliche enantiomere Asymmetrie klein ist und es eines effektiven und selbstreplizierenden Verstärkungsmechanismus bedarf. Ein solcher Mechanismus ist jedoch stark abhängig von der äußeren Umgebung, in die ein Enantiomer eingelagert ist. Insbesondere Wasseranteile sowie auch Oberflächenbeschaffenheit von Meteoritengestein spielen hierbei eine entscheidende Rolle. Ein Zitat von William Bonner23 :

»

9.8

,,All conceived theories to amplify molecular chirality have racemization as their ultimate Nemesis‘‘ =⇒ ,,alle erdachten Theorien, welche molekulare Chiralität verstärken, sehen sich letztlich mit ihrem Erzfeind, der Razemisierung, konfrontiert.‘‘

Auf der Suche nach Leben im Sonnensystem

,,Suche nach Leben im Sonnensystem‘‘ – dies ist die Aufschrift fast jeder interplanetaren Mission. Die Chancen, „lebendigem“ Leben auf anderen Himmelskörpern des Sonnensystems direkt zu begegnen, sind allerdings gering, weit erfolgreicher hingegen dürfte die Spurensuche nach vergangenen Lebensformen sein. Aber auch bereits das Auffinden von linkshändigen Aminosäuren auf anderen Planeten wäre ein Ereignis, welches das bisherige Weltbild entscheidend verändern würde. Interplanetares Zielobjekt in dieser Suche ist seit über 60 Jahren unser Nachbarplanet Mars (siehe . Abb. 9.37). Mars besitzt Eigenschaften, die der Erde in vieler Hinsicht ähneln. Er könnte somit durchaus in der Lage sein, primitive Formen von 23 W. A. Bonner, The origin and amplification of biomolecular chirality, Origin of Life and Evolution of the Biosphere 21, 59 (1991).

152

Kapitel 9 · Späte Nukleosynthese und Supernovae

9

. Abb. 9.37 Oben: Bild des Planeten Mars erstellt aus 100 Einzelbildern aufgenommen vom Viking-1 Orbiter. Es zeigt das ca. 3000 km lange, bis zu 600 km breite und 8 km tiefe „Grand Valley“. Unten: MarsLandschaft mit den etwa 30–40 Meter hohen „Twin Peaks“ im Hintergrund. Die Steine im Vordergrund haben Größen von 5–10 cm. Der gekennzeichnete Brocken ist etwa 70 cm breit und 50 cm hoch und liegt in etwa 6,40 m Entfernung. Bild aufgenommen vom „Mars Pathfinder“ Juli 1997. (Quelle: NASA)

Leben zu entwickeln und zu unterhalten. Mars ist allerdings nur etwa halb so groß wie die Erde (Mars: Ø ≈ 6800 km, Erde: Ø ≈ 12.700 km), und seine Anziehungskraft ist nur etwa das 0,38-fache der Erde. Das reicht für ihn gerade noch, die dünne Atmosphäre von derzeit etwa 6 mbar (Erde: 1013 mbar) an sich zu binden. Die geringe Dichte der Atmosphäre führt nun leider auch dazu, dass ein weitgehender Temperaturausgleich zwischen Tag und Nacht, wie er auf der Erde vermöge des Wetters stattfindet, nicht möglich ist. Temperaturschwankungen von −85 ◦ C bis zu +20 ◦ C sind hier die Folge. Günstig in diesem Zusammenhang ist seine recht

153 9.8 · Auf der Suche nach Leben im Sonnensystem

9

schnelle Eigenrotation von knapp 24 Stunden, die noch größere Schwankungen verhindert. Die dünne Atmosphäre des Mars besteht zum überwiegenden Teil aus Kohlendioxid (96 %) mit Spuren von Stickstoff (1,9 %), Argon (1,9 %), Sauerstoff (0,15 %) und Wasser (0,02 %). Große Wasser-Reservoirs finden sich als Eis an den Polen, genug um große Mars-Ozeane füllen zu können. D. h., die Grundbausteine für die Bildung von Organismen auf dem Mars sind reichlich vorhanden, und auch die Umgebungsverhältnisse können immer noch als halbwegs günstig eingestuft werden. Die Tatsache, dass Mars nach wie vor eine dünne Atmosphäre besitzt, legt auch den Schluss nahe, dass diese kurz nach seiner Entstehung vor ca. 4,5 Mrd. Jahren deutlich dichter war, und er somit erheblich mehr Sonnenenergie speichern konnte. Aufgrund seiner geringen Anziehungskraft und der fehlenden Schutzwirkung eines Magnetfelds gegen den Sonnenwind hat er jedoch die leichten Gase wie Wasserdampf, Stickstoff und Sauerstoff im Laufe der Zeit verloren und sich infolgedessen abgekühlt. Allerdings, in den ersten 1–2 Mrd. Jahre nach seiner Entstehung könnten die Bedingungen für die Entwicklung von Leben so vorteilhaft gewesen sein, dass erste Organismen sogar die Möglichkeiten hatten, höhere Evolutionsstufen zu erreichen. Die Erforschung des Mars und seiner Oberfläche durch Weltraum-Missionen nahm 1960 ihren Anfang. Seit 1960 gab es insgesamt 49 Versuche, Forschungssatelliten zum Mars zu senden. Die Erfolgsquote in den Jahren von 1960 bis 2000 war jedoch denkbar gering – 32 Versuche, aber nur 10 Erfolge oder Teilerfolge. Der erste erfolgreiche Vorbeiflug gelang der NASA 1965 mit der Mariner-4-Raumsonde. Sowjetischen Wissenschaftlern gelang 1971 mit Mars-3 die erste Landung eines Moduls, allerdings riss der Kontakt nach weniger als 2 Minuten ab, ohne Bilder gesendet zu haben. Mit Viking-1 und Viking-2 gelang auch der NASA 1976 die weiche Landung. Die Module sendeten fast 5 Jahre lang Daten und analysierten Bodenproben. Zwischen 2000 und 2020 gab es 17 Mars-Missionen, von denen 14 erfolgreich waren und bei denen erstmals Mars-Mobile (sogenannte Rover) zum Einsatz kamen. Man findet Wasser im Marsboden sowie Hinweise auf größere Wasservorkommen. Auch die frühe Marsgeschichte lässt sich aus den Gesteinsproben bereits grob nachzeichnen. Während der Erstellung dieses Buchs gelingt es im Februar 2021, das mobile Modul „Perseverance“ mit dem Helikopter „Ingenuity“ auf den Mars zu bringen. Ein breites und weit gefächertes Aufgabenfeld wird in den kommenden Jahren abzuarbeiten sein mit dem Ziel, die Vergangenheit des Planeten zu erhellen, Spuren vergangenen Lebens zu finden und vielleicht sogar lebenden primitiven Lebensformen zu begegnen, d. h. solchen, die in der Lage gewesen sind, sich an die zunehmend lebensfeindlichen Bedingungen auf dem Planeten Mars anzupassen. Ein anderer Himmelskörper, der ebenfalls ins Visier gegenwärtiger Forschung rückt, ist der Saturn-Mond Enceladus. Die Cassini-Raumsonde, die im Oktober 1997 von der NASA in Kollaboration mit der „European Space Agency“ ESA und der „Agenzia Spaziale Italiana“ ASI gestartet wurde, erreichte Saturn nach einer fast 7-jährigen Reise. Der erste Höhepunkt der Mission war die im Januar

154

Kapitel 9 · Späte Nukleosynthese und Supernovae

2005 erfolgte weiche Landung seines Huygens-Moduls auf Saturns größtem und mit einer dichten Atmosphäre belegten Mond Titan. Diese Landung ist die einzige bisher erfolgte Landung auf einem Himmelskörper des äußeren Sonnensystems (d. h. jenseits von Jupiter). Hierbei ist vor allem zu bedenken, dass ein Funksignal länger als 1 Stunde pro Wegstrecke unterwegs ist. Ein schnelles Eingreifen, um einer gefährlichen Situation auszuweichen, ist damit ausgeschlossen. Das HuygensModul konnte mit seinem 10 Watt Sender etwa 3 Stunden lang Daten über Titan übermitteln. Cassini verblieb in Saturns Orbit bis 2009, erkundete dessen Monde und brachte mit der Entdeckung weiterer 20 Monde dessen Anzahl mittlerweile auf 82. In 2008 passierte die Sonde schließlich den Mond Enceladus in einer Entfernung von nur 25 Kilometern und machte einige erstaunliche Entdeckungen über diesen nur etwa 504 km großen und damit an sechster Stelle in der Größenrangfolge stehenden Saturn-Mond. Enceladus ist ein Eis-Mond. Er besitzt aber eine innere, unbekannte Wärmequelle, die an seiner Oberfläche zu Eruptionen führt, die den Geysiren auf der Erde in Gebieten erhöhter Vulkan-Aktivität ähnlich sind (siehe . Abb. 9.38). Auf

9

. Abb. 9.38 Oben: Die aus Wassereis bestehende Oberfläche des Saturn-Mondes Enceladus. Unten: Die von der Cassini-Sonde entdeckten Gas-Eruptionen, die von Hydrothermalquellen im Inneren dieses etwa 504 km im Durchmesser großen Himmelskörpers erzeugt werden, könnten sich als Biotope für Lebensorganismen erweisen. (Quelle: NASA)

155 9.8 · Auf der Suche nach Leben im Sonnensystem

9

der Erde entwickeln sich in solchen Hydrothermalquellen eigene Biotope, wie sie z. B. auf den Ozeanböden der Erde entdeckt wurden. Die bekannteste irdische Hydrothermalquelle ist der vulkan-aktive mittelatlantische Rücken mit den dort auftretenden höchst ungewöhnlichen Organismen, die ihre Energie durch Oxidation von austretendem Schwefelwasserstoff unter Abspaltung von molekularem Wasserstoff gewinnen. Es ist deshalb denkbar, dass auf Enceladus in der Nähe dieser Eruptionen ähnliche Biotope existieren. Diese Argumentation wird vor allem durch die Tatsache gestützt, dass die von solchen Organismen ausgeschiedenen Gase wie molekularer Wasserstoff und Methan in den eruptiven Gasströmen von Enceladus entdeckt wurden. Die Ursache der Wärmeerzeugung in Enceladus ist unklar. Wahrscheinlich sind Gezeiteneffekte verantwortlich, die durch die relative Nähe des Mondes zum Mutterplaneten (Halbachse: ≈238.000 km, Radius Saturn: ≈120.000 km), die hohe

. Abb. 9.39 Fotografie der Oberfläche des Saturn-Mondes Enceladus, hier die Nordpol-Region. Die Aufnahme entstand während eines der Vorbeiflüge des Cassini-Orbiters. (Quelle: NASA)

156

Kapitel 9 · Späte Nukleosynthese und Supernovae

9

. Abb. 9.40 Fotografie der Oberfläche des Saturn-Mondes Enceladus aus unmittelbarer Nähe mit einer „Schneemann“-Struktur im Bild. Die Aufnahme entstand während des Vorbeiflugs des CassiniOrbiters in einer Höhe von ca. 25 km. (Quelle: NASA)

Orbitalgeschwindigkeit (≈12,6 km/s) und insbesondere durch die gravitative und teils resonante Wechselwirkung mit seinen Nachbarn, Spannungen im Innenbereich verursachen, die dann bei plötzlicher Entladung zu extremer Wärmeentwicklung führen. Zwei Nahaufnahmen der Enceladus-Oberfläche sind in den . Abb. 9.39 und 9.40 gezeigt.

157

Relativität

Inhaltsverzeichnis 10.1

Spezielle Relativitätstheorie und Highlights – 158

10.2

Allgemeine Relativitätstheorie und Highlights – 162

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 D. Frekers und P. Biermann, Weltall, Neutrinos, Sterne und Leben, https://doi.org/10.1007/978-3-662-65110-0_10

10

158

10

Kapitel 10 · Relativität

Die Theorie von der Relativität der Zeit ist in vieler Hinsicht nicht intuitiv und scheinbar auch unvereinbar mit einer Welt, in der wir unsere täglichen Erfahrungen machen. Es ist nämlich nicht unmittelbar einsichtig, warum Geschwindigkeiten sich nicht einfach addieren, warum man langsamer altert, wenn man sich bewegt (aber nur wenn „jemand anderes“ einen Zeitabgleich vornimmt), warum Schwerkräfte und damit auch Scheinkräfte (z. B. Beschleunigungs- und Zentrifugalkräfte) die Zeit verändern, warum masseloses Licht der Schwerkraft unterliegt, warum der Kopf schneller altert als die Füße, und wie eigentlich die Formel E = mc2 zustande kommt. Dabei hat die Relativitätstheorie längst Eingang gefunden in die Normalität des täglichen Lebens, und zwar immer dann, wenn zeitliche Abfolgen an unterschiedlichen Positionen mit hoher Genauigkeit abgeglichen werden müssen. Dies gilt z. B. für das Global Positioning System (GPS) in der Navigation oder für den digitalen Funkverkehr, welcher ein verlässliches Zeitnormal benötigt. Hier erzeugen Unterschiede in den Massenverteilungen der Erde und die daraus resultierenden, weit unter der Fühlbarkeitsgrenze liegenden Unterschiede in der Gravitation bereits inakzeptable Zeitunterschiede. Bei Nicht-Berücksichtigung dieser Effekte fänden Flugzeuge ihr Ziel nicht mehr, das Navi-System im PKW wäre nutzlos und digital übermittelte Telefongespräche würden untergehen in einem Stimmenwirrwarr. Alle diese Effekte folgen einzig und allein aus der experimentell mit hoher Genauigkeit bestimmten Konstanz der Lichtgeschwindigkeit c. Diese Besonderheit folgte bereits aus den Maxwell’schen Gleichungen zur Elektrodynamik und war schon einige Zeit vor Einstein bekannt, ohne dass jedoch die Tragweite erkannt wurde. Heute ergibt sich allerdings mehr die Frage, wie diese Konstanz bereits im frühen Universum festgelegt wurde. Auf der Agenda der in der Zukunft zu lösenden Fragen ist diese ganz oben angesiedelt. Die Relativitätstheorie hat zwei Grundpfeiler, die mit den Namen „Spezielle“ und „Allgemeine“ Relativitätstheorie benannt sind. Die Spezielle Relativitätstheorie ist mathematisch einfach, aber eben nur für sehr „spezielle“ Fälle sinnvoll anwendbar. Ihr Gültigkeitsbereich beschränkt sich auf den Grenzfall verschwindender Massen, verschwindender Kräfte und euklidischer Geometrie. In ihr treten aber bereits die Grundbegriffe „Zeitdilatation“ und „Längenkontraktion“ auf, und auch die Formel E = mc2 lässt sich mit einigen Zeilen leichter Mathematik entwickeln. Die Allgemeine Relativitätstheorie ist mathematisch anspruchsvoll, sie ist aber in der Lage, alle bekannten relativistischen Phänomene unter Berücksichtigung von Massen und Kräften mit eindrucksvoller Genauigkeit zu beschreiben. Dies gilt bis hin zu extremen Massen, wie sie in Neutronensternen und in Schwarzen Löchern vorkommen.

10.1

Spezielle Relativitätstheorie und Highlights

Die Spezielle Relativitätstheorie kennt nur einen variierbaren Parameter, die Geschwindigkeit v oder ihr Wert β = v/c als Bruchteil der Lichtgeschwindigkeit c. In allen Formeln tritt deshalb nur dieser Parameter auf und dabei

159 10.1

Spezielle Relativitätstheorie und Highlights

10

vornehmlich in der von H. Lorentz1 bereits 1892 hergeleiteten Form (auch LorentzFaktor genannt): 1 γ = 1 − β2 Eine kleine Tabelle mit relevanten Werten kann bei einer Abschätzung von Effekten helfen, wobei der Einfachheit halber mit c = 300.000 km/s gerechnet wurde. . Tab. 10.1 Zusammenstellung einiger relativistischer Kenngrößen als Funktion der Geschwindigkeit. Der Faktor γ bestimmt Längenkontraktion, Zeitdilatation und inertiale Massenzunahme eines sich gleichförmig bewegenden Objekts

Es gibt eine Vielzahl von Gedankenexperimenten, die sich mit Reisen bei relativistischen Geschwindigkeiten befassen, um zu zeigen, wie man große Distanzen überbrücken kann. Solche Gedankenexperimente sind bestenfalls brauchbar, sich dem Feld der Relativitätstheorie zu nähern und sich mit den physikalischen Besonderheiten auseinanderzusetzen, sie sind jedoch in den meisten Fällen unrealistisch. Um ein hypothetisches „Raumschiff“ auf 90 % der Lichtgeschwindigkeit zu bringen und damit den Zeitablauf in diesem „Raumschiff“ zu verkürzen, der dann aber mit γ = 2,29 immer noch sehr bescheiden ist (siehe . Tab. 10.1), kommt man bei halbwegs realistischer Rechnung (d. h. unter Einbeziehung von Massen, Versorgung, Treibstoff, Effizienzfaktoren und natürlich auch unter Berücksichtigung von erträglichen Beschleunigungskräften bei Hin- und Rückreise) schnell auf aufzuwendende Energien, die völlig jenseits der Realität sind. Solche Energien übersteigen den Weltenergie-Jahresverbrauch auf der Erde leicht um das 1000–100.000-fache, wobei die Frage, welchen Treibstoff man benutzen könnte und wie dieser denn herzustellen wäre, dann immer noch offen bleibt. Die Film- und Fernsehserie „Star Trek“ benutzte als Lösung Antimaterie – jedoch diese kann man nicht einfach in großen Mengen (benötigt werden Kilotonnen !) kaufen. (Um eine Vorstellung von den Energien zu bekommen, ist es vielleicht nützlich, zu Abschn. 3.2 zurückzublättern. Dort wurde beschrieben, welche Zerstörungsenergien 1

Hendrik Antoon Lorentz (1853–1928), Theoretischer Physiker und Professor an der Universität Leiden (NL), Nobelpreis für Physik 1902.

160

Kapitel 10 · Relativität

Meteoriten besitzen, wenn diese mit nur etwa 30–50 km/s auf die Erde prallen. Zwar sind die beteiligten Massen vergleichsweise viel größ er als solche denkbarer Raumschiffe, man beachte aber, dass E ∝ v 2 ist und somit bei den Raumschiffen ein Faktor 107 –108 ins Spiel kommt !) In der kosmischen Strahlung gibt es eine Komponente, die in eindrucksvoller Weise die Spezielle Relativitätstheorie bestätigt. Die Wechselwirkung der hochenergetischen kosmischen Strahlung mit der Atmosphäre erzeugt nämlich ein Vielzahl kurzlebiger Teilchen, unter anderem auch Myonen. Myonen sind die schweren Partner der Elektronen. Sie besitzen etwa die 205-fache Masse der Elektronen und erleiden beim Durchgang durch die Atmosphäre kaum eine Abbremsung. Ihre Lebensdauer ist allerdings nur etwa 2,2 µs. Erzeugt werden sie vornehmlich in etwa 30–50 km Höhe. Um aus dieser Höhe die Erdoberfläche zu erreichen, braucht das Licht bereits 100–170 µs, also etwa das 50–75-fache der Lebensdauer eines Myons. Dennoch erreichen hochenergetische, und damit relativistische Myonen in großer Zahl die Erdoberfläche. Entsprechend der Speziellen Relativitätstheorie tritt hier der Zeit-Dilatationsfaktor γ auf, der ihre Lebensdauer für einen außenstehenden Beobachter um mindestens diesen Faktor 50–75 verlängert hat. Aus . Tab. 10.1 entnimmt man, dass die Myonen damit eine Geschwindigkeit von mindestens 99,99% der Lichtgeschwindigkeit hatten, oder eine Energie größer als 5–7 GeV. Und tatsächlich findet man, dass das Spektrum der Myonen aus der kosmischen Strahlung diese Energien noch bei weitem überschreitet. Wie sieht aber diese Reise vom Standpunkt des Myons aus? Das Myon weiß von der Zeitverlängerung nichts und sieht sich auch nicht in Bewegung. Es besitzt eine „Eigenzeit“, und die besagt, dass es nach ca. 2,2 µs zu zerfallen hat. Es sieht deshalb die Erde mit dem gleichen Zeit-Dilatationsfaktor γ auf sich zukommen. Da es aber nur einen Beobachter geben soll, nämlich denjenigen, der die Messung am Myon vornimmt, wird dieser schließen, dass das Myon in seinem eigenen Myon-System den Abstand zur Erde um den gleichen Längen-Kontraktionsfaktor γ verkürzt sieht (denn nur so lässt sich die Entfernung zur Erdoberfläche in 2,2 µs überwinden). Bewegte Systeme besitzen also Eigenzeiten, die nicht deckungsgleich zueinander sind. Zeitabstände in zwei verschiedenen Systemen sind relativ und hängen davon ab, wie sich die beiden Systeme zueinander bewegen. Im Grenzfall der Lichtgeschwindigkeit ist die Eigenzeit „Null“, d. h., die Zeit bleibt stehen, und ein Zerfall (so er denn möglich gewesen wäre) findet für unseren Beobachter nicht mehr statt. In gleicher Weise führt die Längen-Kontraktion zu einer Null-Länge, d. h., endliche Abstände existieren nicht mehr. Dies sind genau die Eigenschaften des Lichts: Es besitzt eine Eigenzeit „Null“, und Abstände „A-bis-B“ im Licht-System verschwinden.

Myonen aus kosmischer Strahlung

10

Am 23. Februar 1987 gegen 7:35 h (Universal Time) registrierten die an verschiedenen Orten der Erde installierten NeutrinoDetektoren das Neutrino-Signal der Supernova SN1987 A als diese zu einem Neutronenstern kollabierte. Die Explosion ereignete sich in der Großen Magellanschen Wolke, und Neutrinos, die von dort zur Erde geschickt wurden, hatten somit eine Reise von 163.000 Lichtjahren hinter sich gebracht.

Neutrinos aus der Supernova-1987 A

161 10.1

Spezielle Relativitätstheorie und Highlights

10

Die registrierten Energien der Neutrinos lagen zwischen 10 und 40 MeV. Nimmt man für die Neutrino-Masse die vom Planck-Experiment ermittelte obere Grenze von mν c2 ≈ 0,1 eV an und eine Energie von 40 MeV (damit γ = 4 · 108 ), so hat ein solches Neutrino – der Relativitätstheorie folgend – in seiner Eigenzeit gerade einmal 3 21 Stunden für diese Reise gebraucht. Aber leider gab es keine Uhren an Bord, die man zur Überprüfung hätte ablesen können. Dieses direkt beobachtete Supernova-Ereignis ist jedoch aus einer Reihe von anderen Gründen erwähnenswert. Die Zahl der in allen Detektoren zusammen registrierten Neutrino-Events war mit 21 recht bescheiden. Jedoch ließ sich aus dieser Zahl die Gesamtzahl der emittierten Neutrinos auf ca. 1057 bestimmen, in Übereinstimmung mit theoretischen Vorhersagen von Supernova-Explosionen. Ein allerdings unglücklicher Umstand ergab sich aus der Tatsache, dass die Detektoren untereinander nicht synchronisiert waren – 1987 gab es noch kein GPS – sodass eine genaue Bestimmung der zeitlichen Abfolge aller NeutrinoEreignisse nicht möglich war. Der Brookhaven-Neutrinodetektor konnte jedoch die in ihm registrierten 8 Neutrino-Ereignisse zeitlich einordnen. Danach erreichte das höchstenergetische und vermeintlich schnellste Neutrino von 38 MeV den Detektor 5 Sekunden früher als das niedrigstenergetische von 22 MeV. Unter der Annahme, dass beide Neutrinos zum gleichen Zeitpunkt entstanden waren, konnte aus der Zeitdifferenz von 5 Sekunden die Masse des Neutrinos mit 37 eV hergeleitet werden. Natürlich klingt dieses Ergebnis ein wenig wie Spielerei mit Zahlen, andererseits ist der Wert aber auch nicht völlig absurd. Diesem Ergebnis entnimmt man allerdings auch, dass Supernovae sicher nicht die beste Wahl für eine Bestimmung der Neutrino-Masse sind. In dem oben zitierten Beispiel wäre die Zeitdifferenz der beiden Neutrinos mit der Masse von mν c2 ≤ 0,1 eV kleiner als 36 µs. ! Jedoch: Die Neutrinos aus Supernova SN1987 A erreichten die Erde etwa zeitgleich mit dem Lichtsignal. Das bedeutet, dass trotz ihrer um ca. 6–7 Größenordnungen höheren Energie im Vergleich zum Licht und trotz ihrer winzigen Masse auch für sie das relativistische Geschwindigkeitslimit „c“ gilt – eine keineswegs zu übersehende Feststellung, denn ohne ein solches Limit wären die Neutrinos ca. 28.000-mal schneller als das Licht und hätten für die Reise zur Erde gerade einmal 5 43 Jahre benötigt. Sie hätten diese schon vor 163.000 Jahren erreicht.

Eine berechtigte und unbeantwortete Frage bleibt deshalb bestehen: ? Wer sagt dem Neutrino, dass es nicht schneller als das Licht zu sein hat, und überhaupt, was hat das Neutrino mit dem Licht zu tun?

162

Kapitel 10 · Relativität

10.2

Allgemeine Relativitätstheorie und Highlights

Das Zwillings-Paradoxon ist sicherlich das am häufigsten kolportierte Phänomen der Relativitätstheorie: Zwilling B verlässt Zwilling A und geht auf eine relativistische Reise. Bei seiner Rückkehr findet er Zwilling A als alten Greis vor, während er im jugendlichen Alter verblieben ist. – Im Jahr 1971 sind Joseph Hafele und Richard Keating diesem Phänomen durch ein Experiment auf den Grund gegangen2 . Vier Cäsium-Atomuhren wurden an Bord eines kommerziellen Airliners gebracht und dann über mehrere Stationen jeweils einmal ostwärts (Gesamtzeit: 65,4 Stunden, Flugzeit: 41,2 Stunden) und westwärts (Gesamtzeit: 80,43 Stunden, Flugzeit: 48,6 Stunden) um die Erde geflogen (siehe A und B in . Abb. 10.1). Am Ausgangspunkt A wurden sie schließlich mit der Atomuhr des United States Naval Observatory verglichen. Während der Flüge wurden alle Flugdaten, wie Geschwindigkeit, Höhe und Position, kontinuierlich erfasst, allerdings auch mit den zu dieser Zeit noch gängigen Ungenauigkeiten, die sich dann auch im Fehler der von der Relativitätstheorie berechneten Werte niederschlagen. Der Vergleich der Uhren ergab, dass Uhr B auf der Reise nach Osten (−59 ± 10) ns verloren hatte (also 59 ns jünger geblieben war) und auf der Reise nach Westen (273 ± 7) ns mehr verbucht hatte (also 273 ns älter geworden war) als gegenüber der Uhr am Ausgangspunkt A. Dem standen gemäß der Relativitätstheorie die Werte (−40 ± 23) ns und (275 ± 21) ns gegenüber! Die Situation ist in . Abb. 10.1 erläutert, wobei zu beachten bleibt, dass die Geschwindigkeit der Erddrehung allemal größer ist als die Reisegeschwindigkeit des Flugzeugs. Von diesem Experiment gibt es mittlerweile eine Vielzahl von Neuauflagen, und das auch unter kontrollierten Laborbedingungen. Inzwischen ist es sogar gelungen, relativistische Zeitdilatationen bei Geschwindigkeiten von unter 10 m/s und damit in der Größenordnung von 10−16 zu bestimmen, in eindrucksvoller Übereinstimmung mit der Relativitätstheorie. Dem aufmerksamen Leser ist sicherlich nicht entgangen, dass das von Hafele und Keating beschriebene Experiment nicht dem Grundgedanken der Speziellen Relativitätstheorie entspricht. In diesem Experiment gibt es nämlich kein „Inertialsystem“, also kein System, das frei von äußeren Kräften ist. Die Uhren im besagten Experiment befinden sich in unterschiedlichen gravitativen Potenzialen, sie durchlaufen die verschiedensten Beschleunigungsphasen und erfahren zusätzlich zentrifugale Kräfte bedingt durch die Erdrotation. All diese Dinge erfordern ein weitaus komplizierteres Rechenwerk im Rahmen der Allgemeinen Relativitätstheorie, welches mit zunehmender Messgenauigkeit auch zwingend angewandt werden muss. Gemäß der Allgemeinen Relativitätstheorie gehen Uhren im höheren Gravitationspotenzial, d. h. in größeren Höhen, schneller als solche im tieferen Gravitationspotenzial nahe der Erdoberfläche. Bei dem Hafele-Keating-Experiment ist Reisen und Altern

10

2

J. Hafele und R. Keating, Around the world atomic clocks: predicted relativistic time gains, Science 177, 166 (1972).

163 10.2

Allgemeine Relativitätstheorie und Highlights

v

+

) +h (R

Richtung West

B

v

+

10

(R

+h

h

)

A R

Richtung Ost

Nordpol

Äquator . Abb. 10.1 Bei einer Flugreise in einer Höhe h in Richtung Osten addiert sich zur Reisegeschwindigkeit v die Geschwindigkeit von Punkt A als Folge der Erddrehung um (R + h) · . Bei einer Reise westwärts ist die Reisegeschwindigkeit der Erddrehung entgegengesetzt und deshalb gegenüber Punkt A geringer. Damit sind aufgrund der Speziellen Relativitätstheorie die „Zeit-clicks“ bei einer Reise ostwärts reduziert, d. h., die Alterung verläuft ostwärts langsamer. Der Effekt ist 1971 erstmals gemessen worden, indem man die Zeit am Punkt des erdgebundenen Beobachters A mit der eines Reisenden B nach einer jeweils etwa 40–50-stündigen Reise um die Erde (einmal ostwärts, einmal westwärts) mittels mehrerer Atomuhren verglich

dieser Effekt als einziger konform mit der Allgemeinen Relativitätstheorie in die Berechnung der Zeitunterschiede eingeflossen. Er betrug bei dem Flug in Richtung Osten (+144 ± 14) ns, d. h., der gemessene Zeitgewinn bei diesem Flug von (−59 ± 10) ns hätte ohne diesen Anteil bei (−243 ± 18) ns gelegen und wäre somit deutlich größer ausgefallen. Alle anderen Korrektur-Effekte lagen im Bereich des Fehler-Intervalls, wie spätere Rechnungen denn auch zeigten. Kopf und Fuß, Berg und Tal Die Tatsache, dass Uhren im höheren Gravitationspotenzial schneller gehen, birgt eine Reihe von amüsanten Effekten, sie hat aber gleichzeitig auch wichtige technische Konsequenzen. Im Gravitationsfeld der Erde nahe der Oberfläche ist der relative Gangunterschied zweier Uhren gegeben durch

g · h t ≈ , t c2

wobei g die Erdbeschleunigung ≈ 9,81 m/s2 ist und h die Höhendifferenz der beiden Uhren (. Abb. 10.2). Dieser gravitative Zeitänderungseffekt ist mittlerweile selbst bei 30 cm Höhenunterschied gemessen in bester Übereinstimmung mit der Relativitätstheorie 3 . Er beträgt entsprechend obiger Formel 3 × 10−17 . Wenn man diesen Wert hochrech3

C. W. Chou, et al., Optical Clocks and Relativity, Science 329, 1630 (2010).

164

Kapitel 10 · Relativität

. Abb. 10.2 Kopf und Fuß, Berg und Tal

10

net auf das Alter der Erde von ca. 4 Mrd. Jahren, dann haben sich aber nur gerade einmal 4 Sekunden akkumuliert. Ein Mensch, welcher im Gebirge 1000 m über dem Meeresspiegel lebt, ist bei einer Lebensdauer von 70 Jahren um 0,24 ms „mehr gealtert“ als sein ZwillingsGeschwisterteil, welches an der Küste lebt. Beide müssen sich jedoch mit dem Problem auseinandersetzen, dass ihr Kopf etwa 0,2 µs älter ist als ihre Füße (Körpergröße ca. 175 cm, Liegezeiten abgerechnet). > Im Umkehrschluss bedeuten diese Beispiele, dass die Zeit an jedem Punkt im Universum unterschiedlich ist, also relativ !

Dieses ist eine extrem wichtige Erkenntnis und findet im technischen Bereich ihren Niederschlag bei der Konzeption des Global Positioning Systems (GPS). Um sicherzustellen, dass die Uhren in den Satelliten, die in etwa 20.000 km um die Erde kreisen, nicht aus der Synchronisation laufen mit der erdgebundenen Kontrolluhr, wurden die Frequenzen der Orbit-Uhren um genau diesen relativistischen Beitrag reduziert. Merkur-Perihelbewegung Wir haben gesehen, eine Masse ändert aufgrund ihrer Gravitation die Zeitabfolgen gegenüber einem Beobachter, aber nicht nur das, sie ändert auch die Metrik (oder die Geometrie) des Raums in ihrer unmittelbaren Umgebung. Diesem Phänomen sind Astronomen bereits 1855 im Zuge einer genauen Vermessung der stark exzentrischen Merkurbahn um die Sonne erstmalig begegnet. Der französische Astronom und Mathematiker U. J. J. Le Verrier (bekannt durch die Entdeckung des Planeten Neptun, dessen Existenz er 1846 aufgrund von Bahnstörungen im Uranus-Umlauf folgerte und dessen genaue Positionsbestimmung schließlich zu seiner Entdeckung führte) konnte aus genauen Messdaten der Merkurdurchgänge vor der Sonnenscheibe die Periheldrehung der Merkurbahn zu

165 10.2

Allgemeine Relativitätstheorie und Highlights

10

Ap he l

Sonne

Pe rih el . Abb. 10.3 Perihelbewegung eines Himmelskörpers im Fall einer exzentrischen Bahn um die Sonne. In dieser Darstellung ist der Effekt allerdings grob vergrößert, denn im Fall des Merkur beträgt der Rotationswinkel lediglich 572 (≈ 0,16◦ ) pro Jahrhundert. Aufgrund der Nähe zur Sonne und der besonders ausgeprägten exzentrischen Bahn sind in dieser Bilanz 43 (≈ 0,012◦ ) pro Jahrhundert als Folge der Raumkrümmung enthalten. Merkur zeigt damit unter den Planeten den größten relativistischen Effekt. Der Zahlenwert ergibt sich aus der Allgemeinen Relativitätstheorie und beseitigt die seit etwa 1855 bestehende Diskrepanz zwischen dem Messwert und der klassischen, Newton’schen Theorie

etwa 570 Bogensekunden (570   0,16◦ ) pro Jahrhundert bestimmen. – Angemerkt sei hier, dass solche Merkurdurchgänge sich einigermaßen regelmäßig in Abständen von 3 21 , 6, 7, 9 oder 11 Jahren und jeweils im Mai oder November ereignen. – Nach Abzug der nach der klassischen Newton’schen Mechanik berechneten Beiträge aller anderen Planeten, hauptsächlich jener verursacht durch Venus (aufgrund der Nähe) und Jupiter (aufgrund der Masse), verblieb eine Diskrepanz zum gemessenen Wert von ca. 43  pro Jahrhundert. Die einzig plausible Erklärung sah man zu jener Zeit in dem Vorhandensein eines weiteren inneren Planeten. Dieser wurde aber nie gefunden, und erst 60 Jahre später konnte die Allgemeine Relativitätstheorie dieses Rätsel lösen:

> Die zusätzliche Periheldrehung des Merkur von ca. 43 Bogensekunden pro Jahrhundert ist der Krümmung des Raums geschuldet, welche durch die gravitative Masse der Sonne erzeugt wird.

In . Abb. 10.3 ist die rosettenartige Bahn des Merkur und die daraus resultierende Perihelbewegung in einer stark übertriebenen Form dargestellt. Die . Abb. 10.4 links zeigt eine fotografische Aufnahme des Merkur kurz bevor er die Sonnenscheibe erreicht und rechts seine Positionen vor der Sonnenscheibe im Verlauf der nächsten ca. 5 21 Stunden. Das Ereignis fand am 11. November 2019 statt und ist eines der ganz seltenen Ereignisse, bei denen die Merkurbahn nahe am Mittelpunkt der Sonnenscheibe (zentraler Transit) verläuft (hier bis auf 76  ). Der nächste noch

166

Kapitel 10 · Relativität

N

Merkurtransit --11. November 2019 Zeiten für 50° Nord / 10° Ost in MEZ 18:00 17:00 16:00

19:00

15:00 14:00

16:19:48

13:36:27 13:34:46 13:34:4 13 3:34:46 :34:46 34:4 3 6

11. Nov. 2019, 12:34:46 UTC

. Abb. 10.4 Links: der Planet Merkur kurz bevor er die Sonnenscheibe erreicht. Das Bild entstand am 11. November 2019 um 12:34:36 h Universal Time, oder 13:34:36 h MEZ und wurde aufgenommen vom NASA Solar Dynamics Observatory im extremen Ultraviolett-Bereich (0,0171µm). Rechts: der Transit des Merkur vor der Sonnenscheibe. Die einzelnen Zeitpunkte sind angegeben. Der kleinste Abstand zum Mittelpunkt der Sonnenscheibe wurde um 16:19:48 h erreicht. Der Transit dauerte knapp 5 21 Stunden. Aus der TransitGeschwindigkeit lässt sich die Perihelposition des Merkur bestimmen. [Figur links: NASA/SDO/AIA, Figur rechts: Original bearbeitet mit Erlaubnis Arnold Barmettler, 7 www.CalSky.com.]

10

. Tab. 10.2 Perihelbewegungen der inneren Planeten des Sonnensystems in Einheiten von Bogensekunden pro 100 Jahre. Nach Abzug der Effekte der Planeten untereinander wird der verbleibende Rest korrekt durch die Allgemeine Relativitätstheorie beschrieben

zentralere Transit wird erst am 12. November 2190 erfolgen. Dieser wird auch gleichzeitig der dem Mittelpunkt der Sonnenscheibe am nächsten kommende Transit in diesem Jahrtausend sein mit einer minimalen Distanz zum Mittelpunkt der Sonnenscheibe von nur 9  . Die inzwischen sehr präzise vermessenen, siderischen, d. h. auf einen entfernten Fixpunkt bezogenen Periheldrehungen aller inneren Planeten sind in der . Tab. 10.2 zusammengefasst.

167 10.2

Allgemeine Relativitätstheorie und Highlights

10

Lichtablenkung im Schwerefeld Die Tatsache, dass Licht im Schwerefeld einer Masse abgelenkt wird, war bereits in Abschn. 6.2 angeklungen. Arthur Eddington hatte am 29. Mai 1919 diesen Effekt im Zuge einer totalen Sonnenfinsternis messtechnisch erfasst (siehe auch . Abb. 6.5). Der experimentelle Nachweis einer solchen Raumkrümmung hatte begreiflicherweise zu der damaligen Zeit großes Aufsehen erregt, und das nicht nur allein unter Wissenschaftlern. Schließlich war die Allgemeine Relativitätstheorie zu dieser Zeit keineswegs eine etablierte Theorie und auch vom Verständnis her überhaupt nicht intuitiv. In der Retrospektive ist es sicher dienlich, sich die Besonderheit der Lichtablenkung im Schwerefeld der Sonne noch einmal vor Augen zu führen, um die damit verbundene Verblüffung über das experimentelle Ergebnis zu verstehen. Hier drei theoretische Modelle und deren Aussagen, wobei . Abb. 10.5 als Erläuterung dienen soll: (G ⇒ Gravitationskonstante, M ⇒ Sonnenmasse, rmin ⇒ kleinster Abstand der Licht-Bahnkurve zur Sonne)

5 Klassische, Newton’sche Theorie: Ordnet man dem Licht eine Masse gemäß E = mc2 zu, also m = cE2 , so kann man die Lichtablenkung im klassischen Sinne berechnen. Der Ablenkwinkel φ ergibt sich dann zu: φ = 2 ·

GM 1 · c2 rmin

5 Spezielle Relativitätstheorie: Die Spezielle Relativitätstheorie kennt keine Massen, folglich ist der Ablenkwinkel:

~ ~

Δϕ

~ ~ ~ ~ ~ ~ Δϕ

S rmin

. Abb. 10.5 Lichtablenkung im Schwerefeld der Sonne entsprechend der Allgemeinen Relativitätstheorie am Beispiel zweier Sternobjekte. Schwarz: tatsächliche Positionen. Rot: beobachtete Positionen

168

Kapitel 10 · Relativität

φ = 0 5 Allgemeine Relativitätstheorie: In der Allgemeinen Relativitätstheorie kommt zum klassischen Ablenkwinkel die Krümmung des Raums hinzu. Die etwas kompliziertere Rechnung ergibt: φ = 4 ·

GM 1 · 2 rmin c

Der von der Allgemeinen Relativitätstheorie vorhergesagte Ablenkwinkel ist also doppelt so groß wie jener aus der klassischen Theorie – ein nicht übersehbarer Effekt, selbst bei den winzigen absoluten Größen im Bereich von einer Bogensekunde im Fall der Sonne. Die durchgeführten Messungen stimmten in überzeugender Weise mit der Vorhersage der Allgemeinen Relativitätstheorie überein. Die Allgemeine Relativitätstheorie erlebte hier ihre erste große Bestätigung. Am 8. Oktober jeden Jahres wird der Quasar 3C279 von der Sonne überdeckt. Eine Messung der Radiosignal-Ablenkung durch „Very Long Baseline Interferometry“ (VLBI) in Relation zum nahe gelegenen Quasar 3C273 erlaubt eine Genauigkeit von 0,001  und dient als ein Test der Allgemeinen Relativitätstheorie.

Nachtrag

10

Die Periheldrehung des Merkur oder auch die Lichtablenkung im Schwerefeld der Sonne waren winzige Effekte. Sie beeinflussten aber dennoch in den darauf folgenden 100 Jahren maßgeblich eine Vielzahl technischer Neu-Entwicklungen, die mittlerweile bis in die alltäglichen Bereiche hineinreichen (wie z. B. Handy, GPS, Zeitnormale). Wir haben gesehen, wie die Relativitätstheorie das Wesen der Zeit neu definiert, wie der Raum, welcher uns als ein zunächst abstraktes Gebilde umgibt, sich verändert und sich zusammen mit der Zeit zu einer neuen Größe, der Raum-Zeit vereint, und welche Rolle dabei die Gravitation (oder die Anwesenheit von Massen) spielt. Dies alles war der Konstanz der Lichtgeschwindigkeit geschuldet, die offensichtlich eine Obergrenze für jegliche Form von Informationsübertragung ist, sei es Licht, Neutrinos oder ordinäre Masse. In der bisherigen Zusammenstellung von Auswirkungen der Relativitätstheorie sind rotierende Systeme weitgehend ausgenommen worden. Ein rotierendes System erfordert immer einen Bezugspunkt gegenüber dem es rotiert, und ein solcher absoluter Bezugspunkt ist zunächst nicht erkennbar. Diese Problematik war bereits bei dem Foucault’schen Pendel aufgetreten → die Erde dreht sich, aber gegenüber was, und wer oder was definiert die mit der Drehung auftretenden Zentrifugalkräfte? Wir werden später im Rahmen von Neutronensternen und Schwarzen Löchern sehen, inwieweit die Allgemeine Relativitätstheorie eine solche Situation beschreiben kann und was es mit sogenannten „mitgeschleppten Inertialsystemen“ auf sich hat.

169 10.2

Allgemeine Relativitätstheorie und Highlights

10

Auf den nächsten Seiten sollen die . Abb. 10.6, 10.7, 10.8, 10.9, 10.10, 10.11, 10.12, 10.13, 10.14, 10.15 und 10.16 einen kleinen Einblick darüber geben, welche physikalischen Informationen die derzeitige und die zukünftige Forschung aus Gravitationlinsen extrahieren kann. Einblicke und Ausblicke in Gravitationslinsen

Gravitationslinse

QUASAR

axie und Gal Quasars Vordergr ungen eines Abbild mit vier

HUBBLE

. Abb. 10.6 Ein weit entfernter Quasar wird durch eine im Vordergrund liegende Galaxie auf das Hubble-Teleskop abgebildet. Aufgrund der Fokussierung wird die beobachtete Lichtmenge des Quasars um Größenordnungen erhöht, was somit eine Sicht zu großen Entfernungen erlaubt, welche sonst nicht oder nur kaum möglich wäre. Vierfach-Abbildungen eines Quasars oder einer entfernten Galaxie sind selten, da dies eine genaue Ausrichtung auf der Sichtlinie der abbildenden Galaxie und des Beobachter erfordert. (Quelle: NASA/ESA, D. Player (STScI))

170

Kapitel 10 · Relativität

Ga

lax

ie

Einstein-Kreuz

Galaxienkern

10 . Abb. 10.7 Der Quasar QSO 2237+0305 (Entfernung ca. 8 Mrd. Lichtjahre) steht von der Erde aus gesehen fast genau hinter dem Zentrum einer etwa 400 Mio. Lichtjahre entfernten Galaxie. Diese wirkt als eine Gravitationslinse, wodurch vier etwa gleich helle Abbildungen des Quasars in Form eines Kreuzes (bekannt unter der Bezeichnung „Einstein-Kreuz“) mit dem Galaxienkern in der Mitte entstehen. Erkannt wurde dieses Phänomen dadurch, dass die vier Abbildungen ein identisches Lichtspektrum besitzen. (Quelle: NASA/ESA/STScI)

171 10.2

Allgemeine Relativitätstheorie und Highlights

10

Einstein-Ringe

J073728.45+321618.5

J120540.43+491029.3

J140228.21+632133.5

J163028.15+452036.2

z=0,581 (5,76 Mrd. Lj)

z=0,470 (4,97 Mrd. Lj)

z=0,322 (3,73 Mrd. Lj) J095629.77+510006.6

z=0,240 (2,93 Mrd. Lj)

z=0,481 (5,05 Mrd. Lj)

z=0,795 (7,00 Mrd. Lj)

z=0,215 (2,67 Mrd. Lj) J125028.25+052349.0

z=0,232 (2,85 Mrd. Lj)

z=0,481 (5,05 Mrd. Lj)

z=0,524 (5,37 Mrd. Lj)

z=0,205 (2,56 Mrd. Lj) J162746.44-005357.5

z=0,208 (2,60 Mrd. Lj)

z=0,793 (7,00 Mrd. Lj)

z=0,532 (5,42 Mrd. Lj)

z=0,248 (3,02 Mrd. Lj) J232120.93-093910.2

z=0,082 (1,12 Mrd. Lj)

. Abb. 10.8 Eine Sequenz von sogenannten Einstein-Ringen. Diese sind Abbildungen von HintergrundGalaxien, die von den jeweiligen Vordergrund-Galaxien (in der Mitte des jeweiligen Rings) vermöge des Gravitationslinseneffekts entstehen. Die Bilder stammen aus dem Sloan-Digital-Sky-Survey (SDSS)-Projekt. Angegeben sind jeweils unten links die astronomischen Kennungen und unten rechts die Rotverschiebungen z und die daraus ermittelten Distanzen der Vordergrund-Galaxien. Jeweils oben rechts sind diese Parameter für die Hintergrund-Galaxien angegeben. (Quelle: NASA/ESA, A. Bolton (Havard-Smithonian CfA), SLAC Teams, Foto-Nr: STScl-PRC05-32)

172

Kapitel 10 · Relativität

Hufeisen-Abbildung

10 . Abb. 10.9 Nahezu perfekter Einstein-Ring. Eine Hintergrund-Galaxie wird in Form eines Hufeisenabdrucks abgebildet. (Quelle: NASA/ESA)

173 10.2

Allgemeine Relativitätstheorie und Highlights

10

“Happy Face”

. Abb. 10.10 „Smiling-Galaxycluster“ oder „Happy-face“ Cluster. – Die beiden „Augen“ sind besonders leuchtstarke Galaxien im Cluster und die Ringe werden durch die dahinter liegenden, weit entfernten Galaxien vermöge des Gravitationslinseneffekts verursacht. Durch den Linseneffekt ist man in der Lage, Epochen des frühen Universums zu erkunden, welche in anderer Weise kaum zugänglich sind. (Quelle: NASA/ESA, Judy Schmidt (geckzilla.org))

174

Kapitel 10 · Relativität

Verzerrte Galaxien

10 . Abb. 10.11 Sechs Abbildungen von Galaxien aufgenommen vom NASA/ESA-Hubble-Teleskop. Sie zeigen merkwürdig geformte Galaxien mit Bögen, Streifen und verschmierten Galaxien-Strukturen. Diese sind Abbilder einiger der stärksten im Infrarot-Bereiche strahlenden Galaxien. Sie sind etwa 10.000-mal lichtstärker als unsere Galaxie, die Milchstraße. Vermöge des Gravitationslinseneffekts lassen sich Strukturen in diesen Hintergrund-Galaxien von etwa 100 Lichtjahren Größe auflösen. Man schaut hier 8–11,5 Mrd. Jahre in die Vergangenheit, d. h. zu einem Zeitpunkt als sich in diesen extrem aktiven Galaxien ca. 10.000 neue Sterne pro Jahr entwickelten (zum Vergleich, in unserer heutigen Galaxie werden etwa 3 Sterne pro Jahr geboren). Diese enorme Sterngeburtenrate erzeugt Staub- und Gaswolken, welche die Galaxien umgeben und diese im sichtbaren Licht „vernebeln“ und nur im Infraroten leuchten lassen. Die gezeigten Aufnahmen sind Teil eines Hubble-Projekts zur Untersuchung von entfernten, ultra-leuchtstarken Galaxien. Die Aufnahmen wurden erstellt mit der Hubble „Wide-Field“ Inrafrarot-Kamera. (CC-BY 4.0)

175 10.2

Allgemeine Relativitätstheorie und Highlights

10

Gelinste Supernova

. Abb. 10.12 Die Bildsequenz zeigt eine Supernova-Explosion vom Typ Ia, welche durch eine Vordergrund-Galaxie vermöge des Gravitationslinseneffekts abgebildet wird. Die Hintergrundaufnahme entstand am Mount Palomar Observatory in Kalifornien, das obere linke Bild stammt aus den Beobachtungen des Sloan Digital Sky Survey (SDSS) Projekts und das Bild in der Mitte mit der linsenden Galaxie (Name: J210415.89-062024.7) vom Hubble-Teleskop. Das ganz rechte obere Bild stammt ebenfalls vom HubbleTeleskop und zeigt die vier Abbildungen der Supernova, welche die linsende Galaxie umgeben. Die Supernova besitzt eine Rotverschiebung von z = 0,409 (Entfernung 4,4 Mrd. Lichtjahre), während die Galaxie eine Rotverschiebung von z = 0,2163 aufweist.‡ (Supernova-Kennung: iPTF16geu). (CC-BY 4.0). ‡ E. Mörtsell et al., Lens modelling of the strongly lensed Type Ia supernova iPTF16geu, arXiv:1907.06609v2 [astro-ph.CO], (2020). A. Goobar et al., iPTF16geu: A multiply imaged, gravitationally lensed type Ia supernova, Science 356, 291 (2017)

176

Kapitel 10 · Relativität

Schwangere kosmische Schlange

10

. Abb. 10.13 Eine mit Sternen „schwangere kosmische Schlange“. Die Abbildung zeigt, wie eine ferne Hintergrund-Galaxie mit hoher Sterngeburtenrate durch den Gravitationslinseneffekt, verursacht durch eine oder mehrere Vordergrund-Galaxien, abgebildet wird. Besonders zu vermerken ist der hohe Vergrößerungsfaktor, der es erlaubt, einzelne neu entstehende Sterne in der Hintergrund-Galaxie zu identifizieren.‡ (Quelle: ESA/Hubble, NASA, Antonio Cava). ‡ A. Cava et al., The nature of giant clumps in distant galaxies probed by the anatomy of the cosmic snake, Nature Astronomy 2, 76 (2018). D. Meloy Elmegreen et al., Resolved galaxies in the Hubble Ultra Deep Field: Star formation in disks at high redshift, The Astrophysical Journal 658:763 (2007).

10

177 10.2

Allgemeine Relativitätstheorie und Highlights

Dunkle Materie im Spiel? 66 48 53,6 53,4 53,2

Deklination

53,0 52.8 52,6 52,4 52,2 52,0

19 38 25,50

25,45

25,40

25,35

25,30

25,25

Rektaszenion

. Abb. 10.14 Das Bild links zeigt eine Hintergrund-Galaxie bei einer Rotverschiebung von z = 2,059 (Entfernung ca. 11,05 Mrd. Lichtjahre), welche durch eine Vordergrund-Galaxie bei z = 0,881 (Entfernung ca. 7,3 Mrd. Lichtjahre) als nahezu perfekter Einstein-Ring abgebildet wird. Der Ring zeigt eine schwache Deformation, die möglicherweise durch eine Zwerg-Galaxie im Bereich der Vordergrund-Galaxie entsteht. Der Masse-Anteil der Zwerg-Galaxie entspricht etwa dem von 190 Millionen Sonnen. Ihre Leuchtkraft ist jedoch um mindestens einen Faktor 3,5 zu klein, um nur aus sonnenähnlichen Sternen zu bestehen. Diese Diskrepanz könnte ein Hinweis sein, dass die Zwerg-Galaxie zum überwiegenden Teil aus Dunkler Materie besteht, was wiederum nahe legt, dass Dunkle Materie aus „kalten“ und „schweren“ Teilchen besteht (auch bezeichnet als „cold dark matter“). Die Figur rechts zeigt eine Bild-Analyse des Rings.‡ (Quelle Bild a: Chris Fassnacht, Univ. of California, Davis; Quelle Bild b: HST und MERLIN, L. J. King et al.) ‡ Vegetti et al. Gravitational detection of a low-mass dark satellite galaxy at cosmological distance, Nature 481, 341 (2012)

178

Kapitel 10 · Relativität

Ferne aktive Galaxien

10 . Abb. 10.15 Diese Bildsequenz von 5 entfernten Galaxien ist eine Fotomontage aus Daten vom Atacama Large Millimeter/Submillimeter Array (ALMA) und Bildern vom Hubble-Teleskop. Die ALMA-Bilder in Rot zeigen die Hintergrund-Galaxien, die vermöge des Linseneffekts, welcher hervorgerufen wird durch die Vordergrund-Galaxien (in Blau, aufgenommen mit dem Hubble-Teleskop), zu Einstein-Ringen verzerrt sind. Das ALMA-Teleskop befindet sich auf einem 5000 Meter hohen Plateau in der Atacama-Wüste in Chile. ALMA besteht aus 66 Einzelteleskopen, die im Verbund bis zu 16 Kilometer voneinander entfernten sind. ALMA ist derzeit das größte erdgebundene Teleskop im Millimeter und Submillimeter Wellenlängenbereich. (Credit: ALMA (ESO/NRAO/NAOJ), J. Vieira et al.)

179 10.2

Allgemeine Relativitätstheorie und Highlights

10

Gelinste Galaxie

. Abb. 10.16 Vom Hubble-Teleskop aufgenommenes Bild einer gelinsten Galaxie bei einer Rotverschiebung von z = 1,53 (damit ca. 9,5 Mrd. Lichtjahre entfernt). Im Zentrum liegt der massive Kernbereich der linsenden Vordergrund-Galaxie. Das Lichtspektrum der Hintergrund-Galaxie liefert Information über die frühe und teils violente Phase der Stern- und Galaxienentwicklung. (CC-BY 4.0)

181

Neutronensterne, Inertialsysteme, Schwarze Löcher

Inhaltsverzeichnis 11.1

Physik der Neutronensterne – 182

11.2

Das Gravity-Probe-B-Experiment – 194

11.3

Schwarze Löcher – 201

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 D. Frekers und P. Biermann, Weltall, Neutrinos, Sterne und Leben, https://doi.org/10.1007/978-3-662-65110-0_11

11

182

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

Die Gravitation ist in der bisher gemeingültigen Form die einzige unter den bekannten Wechselwirkungen, die sich einem Übergang in eine Unendlichkeit nicht widersetzt. D. h., man könnte Massen – wenn auch nur als Gedankenexperiment – immer weiter komprimieren, was dann zur Folge hat, dass die Gravitation bei einer Ausdehnung der Masse gegen Null ihrerseits gegen Unendlich strebt. Auch die Allgemeine Relativitätstheorie zeigt kein Verhalten, diesem unphysikalischen Vorgang ab einer gewissen Grenze Einhalt zu gebieten. Die Allgemeine Relativitätstheorie ist somit unvollständig, nur wo und wie zeigt sich diese Unvollständigkeit? In der Tat ist es sogar so, dass eine Singularität (= Unendlichkeit) in der Raum-Zeit bereits viel früher auftritt, nämlich an der Grenze zu einem Schwarzen Loch, und das bereits bei Massendichten, die keineswegs ungewöhnlich sind. Während alle anderen Wechselwirkungen letztlich in eine Quantenmechanik einmünden, die ein solches singuläres Verhalten unterbindet, ist für die Relativitätstheorie ein solcher oder ähnlicher Übergang von theoretischer Seite nicht in Sicht. In den folgenden Abschnitten sollen deshalb einige der teils verblüffenden Eigentümlichkeiten, die sich aus der Allgemeinen Relativitätstheorie ergeben, aufgezeigt werden. Astronomische Beobachtungen und/oder besonders präzise erdgebundene Experimente zielen dann darauf ab, diese zu verifizieren oder auch mögliche Grenzen der Allgemeinen Relativitätstheorie aufzudecken und zu erforschen.

11.1

11

Physik der Neutronensterne

Ein Neutronenstern ist der übrig gebliebene Kern einer Supernova-Explosion. Er besteht anfänglich im Wesentlichen aus Eisen/Nickel-Elementen. Der enorme und weiterhin zunehmende gravitative Druck presst schließlich die Elektronen in die Atomkerne und setzt Reaktionen der Form e− + p −→ n + ν in Gang. Der Stern wird „neutronisiert“ und schließlich zu einem Objekt, welches fast nur noch aus Neutronen besteht. Die Gravitation ist unerbittlich und komprimiert dieses Gebilde bis etwa nukleare Dichte (ca. 1014 –1015 g/cm3 ) erreicht ist. An dieser Stelle widersetzt sich die weitgehend inkompressible Kernmaterie einer weiteren Verdichtung. Es entsteht ein Gleichgewicht und somit ein stabiler Neutronenstern. Der ganze Prozess dauert etwa 100.000 Jahre. Abhängig von der Masse des ursprünglichen Sterns (ca. 10–25 solare Massen) besitzt der Neutronenstern zwischen 1,4 und 3,2 Sonnenmassen bei einem Radius von nur etwa 10–15 km. Der Rest ist durch die Explosion in den interstellaren Raum expandiert. War die ursprüngliche Sternenmasse größer als etwa 20–25 solare Massen und ist die Masse des Neutronenstern somit größer als etwa 3,2 Sonnenmassen, entsteht ein Schwarzes Loch. Eine weitere Kompression ist dafür nicht unbedingt notwendig. Die angegebenen Werte sind ungefähre Werte, da vieles davon abhängt, wie weit sich Kernmaterie komprimieren lässt. Nicht viel ist über diese Kern-Eigenschaft, die auch als nukleare Kompressibilität bezeichnet wird, bekannt. Sie ist deshalb ein wichtiges Forschungsthema der Kosmo- und Astrophysik, aber auch ein nicht minder bedeutsames Thema in der Elementarteilchenphysik (z. B. an der Forschungsanlage CERN bei Genf). Die Kompressibilität gibt letztlich an, bei welchem

183 11.1 · Physik der Neutronensterne

11

. Tab. 11.1 Parameter von Neutronensternen

Masse-Radius-Verhältnis der Übergang des Neutronensterns zu einem Schwarzen Loch stattfindet, aber auch, was die Grenzfrequenz für seine Rotation ist. In der . Tab. 11.1 sind Kenngrößen typischer Neutronensterne angegeben. Zu beachten ist, dass Neutronensterne immer noch etwa 10 % Protonen enthalten, was letztlich der Tatsache geschuldet ist, dass Protonen etwas leichter sind als Neutronen. Einige der in der Tabelle aufgeführten Parameter sind aufgrund ihrer schieren Größe besonders kommentierungswürdig, vor allem auch im Hinblick auf die Relativitätstheorie. Da Neutronensterne aus Supernova-Explosionen hervorgehen, und diese auf kosmischen Zeitskalen recht häufige Ereignisse darstellen, schätzt man, dass es etwa 108 –109 Neutronensterne allein in der Milchstraße gibt. Das bedeutet auch, dass Neutronensterne etwa 1–2 % der Gesamtmasse einer Galaxie ausmachen. Die meisten Neutronensterne sind jedoch unauffällig und auch mit den besten Teleskopen nicht sichtbar. Auch wird vermutet, dass sich viele Neutronensterne als Blindgänger außerhalb der Galaxienscheibe befinden.

Wie viele gibt es?

Die enorme Fallbeschleunigung, auch ausgedrückt durch den g -Faktor, welcher mehr als das 1011 -fache des Wertes auf der Erde erreichen kann, gibt einer irdischen Mücke ein Gewicht von nahezu 500 Tonnen. Ein freier Fall aus 5 m Höhe führt zu einer Geschwindigkeit von 3,1 Mio. Meter/Sekunde (oder ca. 11 Mio. km/h). Träfe eine „solche Mücke“ mit einer solchen Geschwindigkeit auf die Erdoberfläche, würde ein Äquivalent von ca. 18 % des Jahresenergieverbrauchs in Deutschland in Form von Zerstörungsenergie freigesetzt. Aber Vorsicht mit der Relativitätstheorie bei solchen Experimenten: Der 5mAbstand vom Standpunkt des Neutronensterns ist nicht der gleiche 5m-Abstand vom Standpunkt eines Beobachters auf der Erde.

Eine Mücke zu 500 Elefanten

184

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

. Abb. 11.1 Illustriert ist ein Neutronenstern (in der Mitte) mit seinem Magnetfeld, dessen Achse gegenüber der Rotationsachse geneigt ist. Entlang der Magnetfeldachse emittiert der Stern intensive RadioStrahlung, die die Rotationsfrequenz des Sterns verringert. Der Emissionskegel hat typischerweise eine Winkelöffnung von etwa 20◦ . Hinweis: Im Fall eines Schwarzen Lochs ist die Magnetfeldachse immer identisch zur Rotationsachse

Alle bekannten Neutronensterne rotieren, wobei der Drehimpuls des Muttersterns sich im Zuge der Kontraktion nur unwesentlich verändert hat, was dann in der Folge zu Rotationsfrequenzen von bis zu 1000 Hz führt (Pirouetten-Effekt). Der schnellste Pulsar „PSR J1748-2446ad“ besitzt eine Rotationsperiode von 1,4 ms (716 Hz) und der langsamste „PSR J1841-0456“ eine von knapp 11,8 Sekunden. Zum Vergleich: Die Sonne mit Radius von ca. 696.000 km rotiert einmal in etwa 26 Tagen. Komprimierte man ihre Gesamtmasse zu einem Objekt von ca. 20 km im Radius, würde sich ihre Rotationsperiode auf ca. 2 ms reduzieren bzw. ihre Rotationsfrequenz auf 500 Hz erhöhen (die Frequenzen verhalten sich wie die Quadrate der Radien). Dieses Schicksal wird die Sonne allerdings nicht erleiden.

Rotierende Neutronensterne

11

In der Regel besitzen rotierende Neutronensterne extreme Magnetfelder von bis zu 500 Mio. Tesla. Dadurch wird intensive elektromagnetische Strahlung vornehmlich im Radiowellenbereich und entlang der Pole emittiert. Ist die Magnetfeldachse gegen die Rotationsachse geneigt wie in . Abb. 11.1 gezeigt, so entsteht ein „kosmisches Leuchtfeuer“, welches in regelmäßigen zeitlichen Abständen aufblinkt, so denn man sich in der Sichtlinie des Emissionskegels befindet. Gelingt es, diese zeitlichen Abfolgen mit einem entsprechenden Detektor aufzulösen, so bilden diese elektromagnetischen Pulse natürlich auch die Eigenrotation des Neutronensterns ab. Neutronensterne heißen aufgrund dieser Eigenschaften Pulsare, eine Wortprägung, die als Folge der Entdeckung des ersten Pulsars 1967 durch Jocelyn

Pulsare

11

185 11.1 · Physik der Neutronensterne

2 arcmin

2 arcmin

(a)

(b)

toroidaler Nebel Pulsar

Jet

(c)

(d) innerer Ring

2 arcmin

2 arcmin

. Abb. 11.2 Abbildungen des Krebs-Nebels (Entfernung ca. 6500 Lichtjahre) in vier verschiedenen Wellenlängenbereichen: (a) Überlagerung verschiedener Wellenlängenbereiche; SynchrotronStrahlung (blau-grün) umgeben von Filamentstrukturen durch Linienemission von Atomen (rot), hier vornehmlich Sauerstoff und Silizium. (b) Strahlung im fernen Infrarot-Bereich. (c) Komposit aus dem optischen Bereich (rot) und Röntgen-Bereich (blau). (d) Strahlung im Röntgen-Bereich, hervorgerufen in Jets und durch Schockfronten im inneren Ring. Alle Abbildungen sind untereinander in gleicher Weise ausgerichtet. Aus der Vielzahl der mittlerweile erfolgten spektralen Untersuchungen konnte zudem die Gesamtmasse des ursprünglichen Sterns zu etwa 10 Sonnenmassen bestimmt werden. (Quellen: (a) Hubble-Teleskop NASA/ESA, J. Hester, A. Loll (ASU); (b) Herschel/HubbleTeleskope, ESA/Herschel/ PACS/MESS-Team, NASA/ESA, A. Loll, J. Hester (ASU); (c) Hubble/ Chandra/Spitzer-NASA-Teleskope; (d) NASA/CXC/SAO)

Bell und Antony Hewish entstand1 . Inzwischen ist bekannt, dass diese Lichtpulse sogar Substrukturen besitzen, die auf Strukturen im Neutronenstern hindeuten, die in ihrer Ausdehnung kleiner sind als 200 m. Radiale Verwölbungen sind sogar kleiner als 2 cm. Es ist deshalb nicht überraschend, dass Pulsare zu den interessan1

Jocelyn Bell war 1967 mit 23 Jahren Doktorandin am Winston Churchill College der Cambridge University, UK, und Antony Hewish ihr Doktorvater. Für die Entdeckung des ersten Pulsars und der richtigen Klassifizierung als Neutronenstern erhielt allerdings nur Antony Hewish (*1924) im Jahr 1974 den Nobelpreis, den er sich mit Martin Ryle (1918–1984) für die Entwicklung eines neuartigen Radioteleskopsystems teilte.

186

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

testen Forschungsobjekten der Astrophysik und Kosmologie gehören, wobei die zugehörigen Fragestellungen derweil bis tief in die Elementarteilchenphysik hineinreichen. Die für die Emission der Strahlung benötige Energie bezieht der Pulsar vornehmlich aus seiner eigenen Rotation. Aufgrund des mitrotierenden Magnetfeldes werden die in der Neutronenstern-Atmosphäre (immer noch) enthaltenen Ladungsträger (Elektronen) spiralförmig entlang der magnetischen Feldlinien mitgeführt und kontinuierlich beschleunigt, wodurch polarisierte Synchrotron-Strahlung entsteht. Die abgestrahlte Energie wird so der Rotation entnommen, was dazu führt, dass sich die Pulsar-Frequenz über kosmische Zeitskalen (106 –108 Jahren) kontinuierlich reduziert, bis schließlich die Rotation zu gering wird und die Synchrotron-Strahlung erlischt. Die anfänglich abgestrahlte Leistung ist enorm und kann über mehrere tausend Jahre die von ca. 10.000 Sonnen erreichen. Aus der Pulsfrequenz f und ihrer zeitlichen Änderung f˙ = df dt lässt sich anhand einfacher klassischer Gleichungen das ungefähre Alter des Pulsars bestimmen (τ = 2·f /f˙ ) und vergleichen, entweder mit Berechnungen basierend auf Beobachtungen des Supernova-Rests, aus dem er entstand, oder mit entsprechenden historischen Aufzeichnungen. So errechnete man im Jahr 2021 beispielsweise für den 6500 Lichtjahre entfernten Krebs-Pulsar (. Abb. 11.2), welcher 1054 aus einer Supernova entstand, ein Alter von ca. 1350 Jahren, was dem tatsächlichen Alter von 967 Jahren bereits gut nahekommt. „Slow-down“ der Pulsare

Natürlich kann die Rotationsfrequenz nicht beliebig hoch werden, denn bei etwa 2380 Hz würde sich die Oberfläche am Äquator eines solchen Sterns (20 km im Radius) klassisch gesehen mit Lichtgeschwindigkeit bewegen! Die Relativitätstheorie wird dies verhindern müssen. Allerdings wird schon früher ein Limit erreicht, denn ab einer Frequenz von etwa 1500–2000 Hz erzeugen die enormen Zentrifugalkräfte in der Äquatorregion Instabilitäten und lokale Verwölbungen aufgrund eines „Aufweichens“ der nuklearen Kompression. Solche Verwölbungen zerstören die Rotationssymmetrie und führen sofort zur Emission von Gravitationswellen und damit zu einer Energie-Abstrahlung, welche die Rotationsfrequenz auf ihr Limit zurückdrängt. Die von Gravitationswellen abgestrahlte Leistung ist proportional zur 6-ten Potenz (!) der Frequenz (P ∝ f 6 ). Gravitationsstrahlung ist damit der letztlich bestimmende Faktor für die Obergrenze der Rotationsfrequenz eines Neutronensterns. Fänden sich in naher Zukunft Sub-Millisekunden Neutronensterne, hätte die Theorie der Neutronensterne sowie auch die Relativitätstheorie eventuell ein Problem.

Rotation und Relativität

11

Neutronensterne können ihre Rotationsfrequenz vermöge der Akkretion von Masse eines Begleiter-Sterns (z. B. im Fall eines Doppelsternsystems) erhöhen und dabei gleichzeitig den Übergang zu einem rotierenden Schwarzen Loch vollziehen. Prinzipiell besteht damit sogar die Möglichkeit, den Übergang zu einem Schwarzen Loch „live“ mitzuerleben. Das etwa 18.000 Lichtjahre entfernte Doppelstern-System „SS433“ enthält einen solchen möglichen Kandidaten (siehe . Abb. 11.3). Der in dieser Abbildung innerhalb der

Kollaps zum Schwarzen Loch

187 11.1 · Physik der Neutronensterne

11

Begleiter-Stern

Jet Akkretionsscheibe

Hot spot

Akkretionsfluss Halo

Jet

. Abb. 11.3 Gezeigt ist eine grafische Darstellung eines Neutronensterns, welcher seinem Begleiterstern Masse entzieht, um damit zu einem Schwarzen Loch zu konvertieren. In diesem Fall handelt es sich um eine Darstellung des 1976 entdeckten und ca. 18.000 Lichtjahre entfernten Systems „SS433“. Die akkretierte Masse wird gravitativ bis zu etwa 30 % der Lichtgeschwindigkeit beschleunigt und emittiert in der Nähe des „Hot spots“ und im Inneren der Scheibe intensive Röntgen- und γ -Strahlung. Zu beachten ist, dass die beiden Objekte nur etwa 39 Mio. km (entspricht etwa 56 Sonnenradien) voneinander entfernt sind und mit einer Periode von 13,1 Tagen umeinander rotieren. Die Masse des Begleitersterns ist bestimmt zu 12,3 ± 3,3 und die des Neutronensterns zu 4,3 ± 0,8 Sonnenmassen, sodass der Neutronenstern möglicherweise bereits zu einem Schwarzen Loch konvertiert ist

Akkretionsscheibe liegende Neutronenstern entstand irgendwann einmal aus einer Supernova. Er ist gravitativ gefangen von einem massiven Stern und entzieht diesem große Mengen an Masse. Ob er den Übergang zu einem Schwarzen Loch bereits vollzogen hat, ist bislang nicht schlüssig beantwortet, ungewöhnlich ist jedoch die extrem hochenergetische Strahlung, die er mit den Jets emittiert. Sie reicht bis zu 1016 eV (siehe Fußnote2 ). Neutronensterne sind nur aufgrund ihres charakteristischen Verhaltens erkennbar und natürlich nicht direkt sichtbar. Dieses gilt selbst für die beiden dem Sonnensystem wahrscheinlich am nächsten liegenden Pulsare, dem Vela- und dem Geminga-Pulsar, deren ungefähre Positionen innerhalb der Milchstraße in der . Abb. 11.4 angegeben sind. Der Abstand zu Vela ist 935 ± 60 Lichtjahre und der Abstand zu Geminga ist 810 +400 −200 Lichtjahre –

Anatomie des Neutronensterns

2

T. C. Hillwig, et al., Identification of the Mass Donor Star’s Spectrum in SS433, The Astrophysical Journal 615, 422 (2004) oder gleiche Autoren, arXiv:astro-ph/0403634v1, und T. C. Hillwig, D. R. Gies, Spectroscopic Observations of the Mass Donor Star in SS433, The Astrophysical Journal 676:L37 (2008).

Vela Pulsar

Crab Pulsar

Pulsar

Sonnensystem Geminga

. Abb. 11.4 Eine Projektion der Milchstraße mit den ungefähren Positionen der beiden dem Sonnensystem am nächsten liegenden Pulsare, dem Vela- und dem Geminga-Pulsar. Im Sichtfeld ist zudem zu sehen die Projektion des etwa 7,7 Mrd. Lichtjahre entfernten Blazars 3C454.3, dessen Strahlungsleistung in Phasen besonderer Aktivität vergleichbar ist mit etwa 550 Mrd. Sonnen (seine Jet-Emissionen sind dabei zielgenau auf die Milchstraße ausgerichtet). Er gilt als das hellste je beobachtete astronomische Objekt. Zu beachten: Die horizontale Skala ist in dieser Darstellung nicht linear. (Public Domain)

Blazar 3C454.3

11 Zentrum der Milchstraße

188 Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

189 11.1 · Physik der Neutronensterne

11

vergleiche auch . Abb. 11.5. Gleichwohl lässt sich die Struktur eines Neutronensterns aus den charakteristischen Licht-Emissionen und den Emissionsformen (siehe z. B. . Abb. 11.6) einigermaßen sicher erschließen, sodass theoretische Modelle im Laufe der Zeit durch die immer detaillierteren Beobachtungen auch immer besser testbar werden. In . Abb. 11.7 ist die Anatomie eines Neutronensterns dargestellt, wie man sich diese nach heutigem Kenntnisstand in etwa vorstellt. Demnach besitzt ein Neutronenstern an seiner Oberfläche eine ultradünne Wasserstoff-„Atmosphäre“, die bis zu einer Dichte von ρ ≈ 104 g/cm3 komprimiert ist. Diese Schicht ist wahrscheinlich nur wenige Millimeter bis Zentimeter dick. Darauf folgt eine etwa 100 m

. Abb. 11.5 Maßstabsgerechte Aufsicht der Milchstraße mit ihren verschiedenen Armen. Die Sonne befindet sich innerhalb der gelben Scheibe. In dieser Darstellung hat die Scheibe einen Radius von etwa 1000 Lichtjahren. Die Tatsache, dass in dieser Umgebung gleich mehrere Neutronensterne gefunden werden, zeigt, dass Neutronensterne keineswegs seltene Objekte in einer Galaxie sind. (Quelle: NASA/Adler/U. Chicago/Wesleyan/JPL-Caltech, adaptiert für dieses Buch)

190

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

11

. Abb. 11.6 Der Vela-Pulsar mit dem für Pulsare unverkennbaren Jet, welcher sich in den Nebel, der den Pulsar umgibt, hineinbohrt und diesen zu Lichtemissionen anregt. Der Vela-Pulsar rotiert mit etwa 11,2 Hz. Die Länge des Jets ist etwa 0,7 Lichtjahre und hat die Form einer rotierenden Helix als Folge der Präzession um die Rotationsachse des Pulsars. In dem hier gezeigten Einzelbild aus einer Film-Sequenz ist diese Bewegung jedoch nicht unmittelbar erkennbar. (Public Domain)

dicke Schicht bestehend aus Kernen der Eisen/Nickel-Region. Die Eisen/NickelKerne sind noch ein Überbleibsel aus der Supernova-Explosion, aus der der Neutronenstern ja irgendwann einmal entstanden ist. Diese Schicht hat typischerweise Dichten von bis zu einigen 1011 g/cm3 . Bohrt man tiefer, erreicht man einen Bereich, der zwar anfänglich noch einen geringen Anteil extrem neutronenreicher Kerne aufweist, aber schließlich fast nur noch aus Neutronenflüssigkeit und einem kleinen Prozentsatz freier Protonen besteht. Verbindungen zu atomkernartigen Zuständen sind nicht mehr möglich. Hier werden Dichten von etwa 1012 bis 1013 g/cm3 erreicht, je nach Tiefe. Jenseits von 1013 g/cm3 und ab einer Tiefe von etwa 5 Kilometern erreicht man die dichtest mögliche Packung von Neutronen, in

191 11.1 · Physik der Neutronensterne

11

ultradünne Atmosphäre (cm-Bereich, Dichte ~104 g/cm3) äußere Kruste (i.W. Eisen-Kerne) (~ 100 m, Dichte ~109 g/cm3) Neutronenflüssigkeit mit neutronenreichen Kernen (~ einige km, Dichte ~1012 g/cm3) äußerer Kernbereich mit Nukleonen, Mesonen udgl. (~ einige km, Dichte ~1014 g/cm3)

innerer Kernbereich mit freien Quarks und Gluonen (~ 5 km, Dichte ~ 4 x1014 g/cm3)

20 - 30 km . Abb. 11.7 Anatomie eines Neutronensterns

einer Weise, dass diese noch als „Neutronen“-Objekte halbwegs identifizierbar bleiben. Im Zentralbereich und ab etwa einer Dichte von einigen 1014 g/cm3 (= einige 100 Mio. Tonnen pro cm3 ) kommen sich die Neutronen so nahe, dass sie sich in ihre Konstituenten auflösen, als da sind Quarks und Gluonen. Temperatur Die Oberflächentemperatur eines Neutronensterns liegt typischerwei-

se im Bereich zwischen 10 und 500 Mio. K, und leider kühlt sich der Neutronenstern nur sehr langsam ab (was auch an seiner geringen Oberfläche liegt). Dennoch: Der Abkühlvorgang ist nach wie vor ein nicht generell verstandener Prozess. Zur Abstrahlung elektromagnetischer Strahlung bedarf es elektrischer Ladungen, und deren Anzahl ist in einem Neutronenstern nun einmal erheblich reduziert. Pulsare entnehmen die Energie ihrer Strahlung vornehmlich aus ihrer Rotationsenergie und nicht aus dem Temperaturbad. Elektromagnetische Strahlung aus einer Tiefe größer als einige hundert Meter hat keine Chance, je die Oberfläche des Sterns zu erreichen – die Frage bleibt also bestehen: Welcher Prozess sorgt für Kühlung, und wie lange dauert ein solcher Kühlprozess? Antwort =⇒ nächster Abschnitt. Urca ist ein kleiner Stadtteil in der Nähe von Rio de Janeiro in Brasilien, etwa 3 km von der Copacabana entfernt. Dieser kleine Ort beherbergte eine Spielbank, das „Cassino da Urca“. George Gamow besuchte 1940 Rio de Janeiro und traf dort auf den später sehr bekannt gewordenen brasilianischen Astrophysiker Mário Schenberg, der in der Folge dieser Begegnung als Guggenheim-Stipendiat zu Gamow an die George Washington University in Washington, DC, wechselte. Noch in Urca besuchten beide das „Cassino da

URCA-Kühlung – eine Geld-ist-weg-Anekdote

192

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

Urca“ und verspielten in kurzer Zeit eine sicher ansehnliche Menge Geld. Zurück in Washington befassten sich beide mit den physikalischen Prozessen, welche sowohl den enormen als auch den beeindruckend schnell ablaufenden Energie-Abfluss von Supernovae bewirken, wobei sich dieser Energie-Abfluss zudem noch einer direkten Beobachtung entzieht. Zu bemerken ist dabei, dass die Physik von Supernovae bis dato noch weitgehend im Dunkeln lag. In diesem Zusammenhang bemerkte Schenberg scherzhaft zu Gamow3 : ,,die Energie in einer Supernova verschwindet ebenso schnell wie das Geld am RouletteTisch in Urca‘‘. George Gamow übernahm in der Folge den Begriff «URCA», zumal dieser Begriff in seiner ukrainischen Muttersprache auch die Bedeutung von „Dieb“ hatte. Er benutzte ihn als Synonym für die „diebischen“ Neutrinos, die den nicht beobachtbaren Energie-Abfluss einer Supernova bewirkten – Neutrinos waren zu jener Zeit noch nicht experimentell verifiziert. Der Begriff überlebte und wurde nach der 1967 erfolgten Entdeckung von Neutronensternen und Pulsaren benutzt für die Neutrino-Kühlung von Neutronensternen. Von dem URCA-Prozess gibt es zwei Varianten den „direkten“ und den „modifizierten“ URCA-Prozess. Der direkte Prozess: n −→ p + e− + ν unmittelbar gefolgt von p + e− −→ n + ν

11

erzeugt ein Anti-Neutrino und ein Neutrino, die beide den Stern verlassen und ihm dabei Energie entziehen. Dieser Prozess ist zwar äußerst effizient, aber aus thermodynamischen und quantenmechanischen Gründen nur jenseits extremer Temperaturen (>500 Mio. K) erlaubt und auch nur dort, wo der Protonen-Anteil im Stern mindestens 10 % ist. Der modifizierte Prozess: n + n −→ n + p + e− + ν unmittelbar gefolgt von n + p + e− −→ n + n + ν

sieht ähnlich aus, erzeugt ebenfalls zwei Neutrinos, die den Stern verlassen, ist aber um einige Größenordnungen weniger effizient und unterliegt nicht den obigen Restriktionen. Das zusätzliche Neutron ist erforderlich, um in dem dicht gepackten Neutronenstern eine ausgewogene Impulsbilanz zu gewährleisten. Wir wollen auf dieses Detail, welches ein quantenmechanischer Effekt für Fermionen ist, hier nicht näher eingehen. Gleichwohl ist diese Reaktion der bestimmende Prozess zur Kühlung eines Neutronensterns auch unterhalb einer Temperatur von etwa 500 Mio. K. Er definiert zudem die Zeitskala bis zu dessen vollständigen Erkaltung und nachfolgenden Unsichtbarkeit. Eine solche Zeitspanne könnte weit jenseits des derzeitigen 3

George Gamow, My World Line – An Informal Autobiography, The Viking Press, New York, 1970.

193 11.1 · Physik der Neutronensterne

11

Universum-Alters liegen. Was dann passiert ist unklar – der mögliche NukleonenZerfall gäbe ihm vielleicht noch einmal etwa 1045 Sekunden, bis zu seiner vollständigen Auflösung in Photonen und Neutrinos (siehe auch Seite 40). Die Allgemeine Relativitätstheorie macht für rotierende Systeme eine erstaunliche und auch überaus kuriose Vorhersage: Eine rotierende Masse besitzt ein eigenes mitrotierendes oder mitgeschlepptes Inertialsystem. Wir erinnern uns an die von Ernst Mach angestellten Überlegungen über den Ursprung der sogenannten Scheinkräfte, zu denen eben auch die Zentrifugalkraft zählt. Er vermutete, dass die Massen der fernen Sterne, die sich ja subjektiv um „mich“ gegenläufig drehen wenn „ich mich“ drehe, eine Rückwirkung ausüben derart, dass eine „scheinbare“ Zentrifugalkraft entsteht. Im interstellaren (oder intergalaktischen) Raum ist diese gegenläufige Drehung der fernen Sterne die einzige Möglichkeit, um die eigene Drehung und damit die Richtung der Zentrifugalkraft festzustellen. Sollte Ernst Machs Vermutung greifen, dann müsste dieser Effekt auch durch eine „nahe Masse“, z. B. die eines Neutronensterns, auftreten. Tatsächlich macht die Allgemeine Relativitätstheorie genau eine solche Vorhersage. Die Zentrifugalkräfte eines rotierenden Neutronensterns werden teilweise kompensiert durch die Mitführung des Intertialsystems. Abhängig von der inneren Struktur des Neutronensterns, die natürlich weitgehend modellabhängig ist, kann das mitgeführte Inertialsystem bis zu 40 % der Rotation ausmachen. Davon merkt ein Beobachter am Äquator des Sterns nur bedingt etwas. Der Sternenhimmel dreht sich nach wie vor in Gegenrichtung, aber der Beobachter fühlt nur noch 60 % der Zentrifugalkraft. Im Grenzfall tritt ein Kuriosum auf: Der Sternenhimmel dreht sich mit der Drehfrequenz des Neutronensterns (d. h. bis zu 1000-mal pro Sekunde), ohne dass der Beobachter eine Zentrifugalkraft spürt, oder auch nur, dass er überhaupt weiß, dass er sich dreht. Sein kräftefreies Inertialsystem dreht sich mit ihm mit (. Abb. 11.8).

Mitgeschlepptes Inertialsystem

. Abb. 11.8 Ruhe und Erholung im eigenen Inertialsystem

194

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

. Abb. 11.9 Links: Ein stationäres Inertialsystem. Objekte fallen in gerader Linie in Richtung Erdmittelpunkt. Rechts: Ein „mitgeschlepptes“ Inertialsystem. Objekte fallen dem Inertialsystem folgend in Richtung Erdmittelpunkt

11

Aber Vorsicht: Er fühlt nun die volle anziehende Gravitationskraft. Dieser Grenzfall tritt aber real nicht ein. Nun ist die Erde ebenfalls eine „nahe Masse“, und die Frage drängt sich auf, inwieweit dieser Effekt bei der Rotation der Erde (siehe . Abb. 11.9) eine Rolle spielt und wie dieser durch eine Messung erfasst werden könnte. Wir kommen wieder einmal auf das Foucault-Pendel zurück, unter dem sich der Erde hinwegdreht. Der Allgemeinen Relativitätstheorie zur Folge müsste das von der Erde mitgeführte Inertialsystem das rotierende Pendel mitziehen und damit die an den Polen zu beobachtende 24-Stunden-Rotation verringern. – Erinnerungen an das geozentrische Weltmodell werden wach, welches ja bis ins 18. Jahrhundert das gängige Narrativ war: Ist die Erde vielleicht doch der Mittelpunkt des Universums, um die sich alle Sterne einschlielich Planeten und Sonne drehen? Und: Tritt das geozentrische Weltbild nun durch die Hintertür wieder in Erscheinung? – Antwort: Ja, aber nur ein winziges Stückchen. Im Fall des Foucault-Pendels fehlt diesem nach ca. 30 Mio. Jahren eine ganze 360◦ -Drehung, oder synonym dazu, nach ca. 30 Mio. Jahren hat sich ein zusätzlicher siderischer Tag akkumuliert, und dies ohne Rotation. Am Äquator ist die Zentrifugalkraft um einen Faktor 6,1 × 10−12 gegenüber einer rein klassischen, Newton’schen Theorie reduziert, und ein Mensch, der 100 kg auf die Waage bringt, ist aufgrund dieses fehlenden Fliehkraftanteils um 0,063 Mikrogramm schwerer. Der 100 kg Mensch wird das nicht merken, ihm fehlt der Vergleich mit dem „klassischen, Newton’schen Gewicht“.

11.2

Das Gravity-Probe-B-Experiment

Das Mitführen des Inertialsystems durch eine rotierende Masse ist zunächst nur eine Vorhersage der Allgemeinen Relativitätstheorie. Aufgrund der vergleichsweise

195 11.2 · Das Gravity-Probe-B-Experiment

11

winzigen Erdmasse galt sie lange als unmessbar4 . Vorschläge, am Südpol ein Foucault-Pendel zu installieren und dessen Rotation im Verlauf eines Jahres mit einer Tages-Genauigkeit von 0,01 Millibogensekunde (≈ 3 × 10−9 Winkelgrad) zu verfolgen, erwies sich letztlich als unrealistisch. Allein die sich im Eis verändernde Pendel-Entfernung zum geografischen Südpol (ca. 10 m/Jahr) hätte mit einer ca. 10-Zentimeter-Genauigkeit kontinuierlich erfasst werden müssen. Dazu kommen weitere und mit extremer Genauigkeit zu bilanzierende Störeffekte infolge des Erdmagnetfelds, der kosmischen Strahlung, der minimalen Schwankungen von Temperatur und Druck in einem eigens konstruierten Vakuumbehälter oder auch infolge von Reibungseffekten der verschiedensten und nicht immer kontrollierbaren Art. Eine Zusammenfassung ist beispielsweise in der Referenz5 gegeben. Natürlich drängt sich damit die Frage auf, wem dieser winzige Effekt, so er denn experimentell nachgewiesen wird, dienlich sein soll. In dem Zusammenhang mag man sich erinnern an den ebenfalls winzigen und der Allgemeinen Relativitätstheorie geschuldeten Effekt der Lichtablenkung im Schwerefeld der Sonne, welche die Abkehr von der klassischen Newton’schen Theorie einleitete. Diese Beobachtung setzte eine technische Entwicklung in Gang, die in knapp 100 Jahren unsere Lebensqualität nachhaltig und in einer nicht vorhersehbaren Weise positiv veränderte (z. B. Internet, Funk-Handys, Zeitnormale, Laser- und Computer-Technologie, Navigation, GPS etc.). Die heutige moderne Lebensweise wäre ohne Kenntnis der Allgemeinen Relativitätstheorie nicht denkbar. i Zur Erinnerung An anderer Stelle war bereits angeklungen, dass die Allgemeine Relativitätstheorie unvollständig ist und durch eine noch umfassendere Theorie ersetzt werden muss. Wie diese Theorie aussehen soll, ist unbekannt. Es besteht lediglich die Hoffnung, dass es wieder einmal die kleinen Diskrepanzen zu einer bisher gängigen Theorie sind, welche die Ansatzpunkte für neue Physik und neuartige Technologien liefern.

Das Gravity-Probe-B-Experiment ist ganz in diesem Sinne zu verstehen. Es ist eine von der Stanford University und der NASA initiierte Mission, um zwei Vorhersagen der Einstein’schen Allgemeinen Relativitätstheorie einem bis dato noch nicht erfolgten Test zu unterwerfen, als da sind: 1 Der geodätische Raum-Zeit-Effekt: Dieser ist gleichbedeutend mit dem Raumkrümmungseffekt als Folge der Erdmasse. Würde man einen Kreis um die Erde ziehen und dafür eine euklidische Geometrie zugrunde legen, so fehlten am 4

Dieser Effekt der Allgemeinen Relativitätstheorie wird auch als „Lense-Thirring“-Effekt bezeichnet nach den beiden österreichischen Physikern Josef Lense (1890–1985) und Hans Thirring (1888–1976), die diesen Effekt 1918 erstmalig im Rahmen der Allgemeinen Relativitätstheorie formulierten. Der Name Hans Thirring findet noch einmal in einem anderen Zusammenhang Erwähnung auf Seite 233.

5

V. B. Braginsky, A. G. Polnarev, K. S. Thorne, Foucault Pendulum at the South Pole: Proposal For an Experiment to Detect the Earth’s General Relativistic Gravitomagnetic Field, Physical Review Letters 53, 863 (1984).

196

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

Umfang dieses Kreises etwa 3–4 cm (auch als „the missing inch“ bezeichnet). So die Theorie – die Frage ist: Stimmt das? 2 Das Mitschleppen (,,frame-dragging‘‘ ) des Inertialsystems: Ein Inertialsystem ist wie eine zähe Flüssigkeit, innerhalb derer sich die Erde dreht. Von der Erddrehung mitgezogen und verdrillt, vollzieht es an der Erdoberfläche in 30 Mio. Jahren eine vollständige 360◦ -Drehung. Aus Sicht des Erdbewohners erscheint das wie eine in 30 Mio. Jahren fehlende ganze Drehung. Hingegen sieht ein ferner Beobachter beispielsweise das Foucault-Pendel, anstatt dass es stationär zu ihm ausgerichtet bleibt, einmal um sich selbst drehen (. Abb. 11.10). So die Theorie – die Frage ist: Stimmt das?

11

Natürlich ist dieses NASA-Experiment nicht ganz uneigennützig. Die gewonnenen Erkenntnisse haben direkte Auswirkungen auf die Präzision des Global Positioning Systems (GPS), des Weiteren fließen sie unmittelbar ein in die Satelliten-Navigation bei interplanetaren Missionen und in die frühe und genaue Bahnbestimmung von Meteoriten, die, von außerhalb des inneren Planetensystems kommend, auf Kollisionskurs mit der Erde stehen. Geringste Bahnstörungen verursacht durch die besonders massiven äußeren Planeten sind für die Kursbestimmung erheblich. Das Gravity-Probe-B-Experiment ist vom Grundgedanken her identisch zu dem des Foucault-Pendels. Nur die Hin-und-her-Bewegung des Pendels wird ersetzt durch einen Kreisel, dessen Rotationsachse, wie beim Pendel auch, immer senkrecht zur Rotationsachse der Erde steht. Die Beobachtungsgröße (vom Standpunkt eines fernen Beobachters) ist dann die Drehung der Kreiselachse im vollständig kräftefreien Inertialsystem – oder in der lokalen Raum-Zeit – der rotierenden Erde. Das klingt zunächst einfach, doch die damit verbundenen technischen Problemstellungen erforderten eine nahezu 60 Jahre andauernde kontinuierliche Entwicklung.

~ 30 Mio. Jahre

. Abb. 11.10 Das Pendel und die Allgemeine Relativitätstheorie

197 11.2 · Das Gravity-Probe-B-Experiment

11

NASA

. Abb. 11.11 Die Kreisel des Gravity-Probe-B-Experiments während der Herstellung. Links die Rohform aus Quarz und rechts die endgültige Form mit der Niob-Beschichtung

Kräftefrei bedeutet schwerelos, und das wiederum bedeutet: Das Experiment muss in einem Satelliten, welcher in einem möglichst tiefliegenden Orbit um die Erde kreist, durchgeführt werden. Hier einige der wichtigsten und bemerkenswertesten Kenngrößen für dieses Projekt: Das Herzstück des Kreiselinstruments, oder Gyroskops, waren vier in Perfektion hergestellte, hochreine Quarzglas-Kugeln, 3,8 cm im Radius. Für diese Kugeln war eine maximale Abweichung von der Kugelform von 55 nm spezifiziert, erreicht wurde ein Wert von kleiner als 33 nm. Die Kugeln waren damit die am genauesten je hergestellten kugelförmigen Objekte. Quarzglas wurde benutzt, weil es aufgrund seiner amorphen Struktur einerseits extrem homogen ist (relative Dichte-Abweichung ρ/ρ ≤ 3 × 10−7 ) und andererseits zu den Materialien mit den geringsten thermischen Ausdehnungskoeffizienten zählt. Die Kugeln, oder Kreisel, wurden sodann mit einer ultradünnen Schicht des supraleitenden Metalls Niob (Sprungtemperatur 9,25 K) versehen (siehe . Abb. 11.11) und schließlich im Experiment auf die Temperatur von flüssigem Helium (1,8 K) abgekühlt und in einer speziellen Halterung mittels eines elektrischen Feldes berührungslos zentriert. Zusätzlich existierte eine magnetische Abschirmung gegenüber dem Erdmagnetfeld.

Die Kreisel

Eine Delta-II-Rakete brachte schließlich am 20. April 2004 das vollends ausgestattete Gyroskop mit den vier Kreiseln in einen 642 km hohen, polaren und nahezu perfekten Zirkular-Orbit (Abweichung von der Zirkularität ca. 12 m). Die Zeit für einen Erdumlauf betrug hier 97 Minuten und 36 Sekunden. Im Ziel-Orbit angelangt wurde das Gyroskop freischwebend im Inneren des Satelliten auf den 300 Lichtjahre entfernten Stern „IM Pegasi“ (synonym zu dem „fernen Beobachter“) ausgerichtet, dessen Position und Eigenbewegung besonders gut bekannt sind (siehe . Abb. 11.12). Um gravitative Kräfte ausgehend von der umhüllenden Satelliten-Masse auszugleichen, versetzte man den Satelliten in eine 77,5 Sekunden dauernde Eigenrotation.

Der Orbit

198

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

642 Kilometer (401 Meilen)

mitrotierendes Inertialsystem 39 mas/Jahr (0,000 011 Grad /Jahr) Referenz-Stern IM Pegasi

Raumkrümmung 6 606 mas/Jahr (0,0018 Grad /Jahr)

. Abb. 11.12 Darstellung der Kreiselbewegung im Gravity-Probe-B-Experiment. Ausgerichtet ist das Experiment auf den 300 Lichtjahre entfernten Stern „IM Pegasi“, dessen Position und Eigenbewegung extrem genau bekannt sind. Die Änderung der Kreiselorientierung wird von der Allgemeinen Relativitätstheorie mit 6606 mas (Milli-Bogensekunden oder „milli-arcseconds“) in Nord-Süd-Richtung und mit 39,2 mas in West-Ost-Richtung pro Jahr vorhergesagt. Die gemessenen Werte sind 6601,8±18,3 mas und 37,2 ± 7,2 mas

11 In dem relativ niedrigen Orbit wirken nach wie vor Bremskräfte, die durch die äußere Erdatmosphäre verursacht werden. Ohne eine kontinuierliche Kompensation würde ein Satellit stetig an Geschwindigkeit und Höhe verlieren. Gas-Auslassventile regelten deshalb im vorliegenden Fall die nötige Schubleistung und hielten somit Satellit und Gyroskop in Position. Allerdings existieren auch nicht-kompensierbare gravitative Kräfte und Drehmomente. Diese sind durch die inhomogene Massenverteilung der Erde bedingt und verursachen Schlinger-Bewegungen in der Satelliten-Bahn. In dem Gravity-Probe-B-Experiment sind diese Kräfte mit kleiner als 10−11 · g angegeben (g = 9,81 m/s2 , oder N/kg, gleich Erdbeschleunigung auf der Erdoberfläche). Das entspricht einer gravitativen Kraft, die zwei 1 kg-Kugeln im Abstand von etwa 0,8 m aufeinander ausüben, oder – in einer etwas amüsanten Form – einer Kraft, die das Beinchen einer Mücke in etwa 30 min auf eine Geschwindigkeit von 1 m/s (= 3,6 km/h) bringt. Der Erfolg des Experiments erforderte zwingend, dass alle (!) auf das Gyroskop einwirkenden Kräfte auf maximal 10−10 · g beschränkt blieben, und tatsächlich gelang es, diesen Wert real um eine ganze Größenordnung zu unterschreiten. Kompensation der auf den Satelliten wirkenden Kräfte

199 11.2 · Das Gravity-Probe-B-Experiment

11

Experiment Mit Beginn des Experiments wurden die vier Kreisel des Gyroskops in Rotation versetzt, zwei rechtsdrehend und zwei linksdrehend, und anschließend bei einer Drehfrequenz von 80 Hz sich selbst überlassen. Die Zeitkonstante der Rotation, d. h. die Zeit bis die Kreisel etwa 37 % ihrer anfänglichen Rotationsfrequenz verlieren, war vorab zu etwa 15.000 Jahren (!) bestimmt worden. Bei einer Umgebungstemperatur der Kreisel von 1,8 K (Temperatur von flüssigem Helium) ist die oben erwähnte Niob-Beschichtung supraleitend. Nun kommt eine merkwürdige Eigenschaft von Supraleitern ins Spiel – rotierende Supraleiter erzeugen unabhängig vom Material ein magnetisches Feld (oder magnetisches Dipol-Moment), dessen Stärke proportional zur Rotationsfrequenz ist. Die Eigenschaft ist unter dem Namen London-Moment bekannt und nach dem Physiker Fritz London (1900–1954) benannt, der diesen Effekt erstmals korrekt interpretierte6 . Hierbei ist die Richtung der Magnetfeldachse identisch mit der Richtung der Rotationsachse. Das bei einer Frequenz von 80 Hz erzeugte Magnetfeld eines rotierenden Supraleiters hat eine Stärke von 5,7 × 10−9 Tesla. Im Vergleich dazu: Das Erdmagnetfeld hat an den Polen eine Stärke von etwa 70 × 10−6 Tesla und am Äquator etwa 25 × 10−6 Tesla. Mit einer entsprechenden magnetischen Abschirmung konnte im Gravity-Probe-B-Experiment die Restfeldstärke auf unter 10−11 Tesla abgesenkt werden, was mehr als zwei Größenordnungen kleiner ist als die des rotierenden Supraleiters. Die Bestimmung der Magnetfeld-Eigenschaften in dem Gravity-Probe-Gyroskop erfolgte mittels „Squids“ (Squid = Superconducting quantum interference device). Squids sind höchstauflösende Magnetometer und in der Lage, kleinste Magnetfeldstärken bis unter 10−18 Tesla zu detektieren. In dem Gyroskop rotierten sie ihrerseits um die Kreisel, sodass sich aus dem Signal sowohl Achsenlage als auch Stärke des von der Squid-Schleife eingeschlossenen Feldes ermitteln ließ. Eine schematische Darstellung des Gyroskops mit den auf den Stern IM-Pegasi fest ausgerichteten Squid-Magnetometern ist in . Abb. 11.13 zu sehen.

Das Gravity-Probe-B-Experiment erstreckte sich über einen Zeitraum von etwa 17 Monaten bis der Vorrat an flüssigem Helium schließlich verbraucht war. Die eigentliche Messphase dauerte etwa 12 Monate, und während dieser Zeit vollführte der Satellit etwa 5000 Erdumläufe. Störeffekte, die erst während der Mission entdeckt wurden, erschwerten die Analyse, sodass die endgültigen Ergebnisse erst 2011 publiziert werden konnten und diese leider auch einen

Ein erstaunliches Ergebnis

6

Das Phänomen der Magnetfeld-Erzeugung bei rotierenden Supraleitern wurde bereits 1933 von R. Becker, F. Heller und F. Sauter [Zeitschrift für Physik 85, 772 (1933)] vorhergesagt. Die theoretische Herleitung beruhte jedoch auf einigen inhärent falschen Annahmen. F. London wies 1950 [Superfluids, John Wiley & Sons, New York, Vol. 1, Sec. B, (1950)] darauf hin und lieferte eine korrekte Erklärung, weshalb der Effekt auch seinen Namen trägt. Auch die später entwickelte BCS-Theorie der Supraleitung von Bardeen, Cooper und Schrieffer beschreibt dieses Phänomen maximal inkorrekt bis hin zu einer falschen Richtung des Magnetfeldes. Erst 1964 konnte das London-Moment auch experimentell von A. F. Hildebrandt [Physical Review Letters 12, 190 (1964)] gemessen werden, in Übereinstimmung mit der von F. London gemachten theoretischen Vorhersage.

200

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

Kreisel- und Magnetfeldachse Richtung IM Pegasi

Squid Signal

Squid Signal

Squid

Squid Signal

Squid Signal

. Abb. 11.13 Bestimmung der Kreiselachse im Gravity-Probe-B-Experiment mittels eines SquidMagnetometers. Das Squid rotiert um den Kreisel und zeichnet ein Phasensignal auf, aus dem die Orientierung der magnetischen Feldlinien, die die Squid-Schleife durchdringen, mit höchster Präzision bestimmt werden kann

11

größeren Fehler aufwiesen als anfänglich spezifiziert7 . Vom Beginn des Projekts 1959/60 an bis zu dessen Ende verstrichen mehr als 50 Jahre, und mehr als 500 Jungwissenschaftler (i. a. Doktoranden) haben in der ein oder anderen Weise zu diesem Experiment beigetragen. Im Ergebnis hat die Allgemeine Relativitätstheorie mit diesem Experiment einen der wichtigsten Tests bravourös bestanden – obgleich man fast geneigt wäre zu sagen, „leider“, denn eine Abweichung von der Relativitätstheorie wäre erheblich aufregender gewesen. Im Einzelnen: 5 Das von der Erde mitrotierende Inertialsystem dreht sich in der Höhe des Satelliten in West-Ost-Richtung um: Gravity-Probe-B gemessen: Allgemeine Relativit¨atstheorie:

37,2 ± 7,2 mas/Jahr 39,2 mas/Jahr

Zur Erinnerung: 39 mas entspricht der Breite eines menschlichen Haars (0,1 mm) beobachtet aus einer Entfernung von ca. 530 Metern. 5 Die Raumkrümmung der Erde verursacht in der Höhe des Satelliten eine Drehung der Kreisel in Nord-Süd-Richtung um:

7

C. W. F. Everitt et al., Gravity Probe B: Final Results of a Space Experiment to Test General Relativity, Physical Review Letters 106, 221101 (2011).

201 11.3 · Schwarze Löcher

Gravity-Probe-B gemessen: Allgemeine Relativit¨atstheorie:

11

6601,8 ± 18,3 mas/Jahr 6606,1 mas/Jahr

Dieses bedeutet, dass unter Zugrundelegung einer flachen euklidischen Geometrie bei jedem kreisförmigen Erdumlauf des Satelliten etwa 4,2 cm fehlen. Bezogen auf einen Umfangskreis nahe der Erdoberfläche sind das 3,8 cm (1,5 inch = the missing inch). (1 mas = 1 milli-arcsecond = 2,778 · 10−7 Grad = 4,848 · 10−9 Radian [= Meter/Meter])

11.3

Schwarze Löcher

Schwarze Löcher sind vermutlich die bizarresten und die am wenigsten verstandenen Objekte im Universum. Zudem sind sie keineswegs seltene Erscheinungen. Nahezu jede der besonders mächtigen Galaxien – soweit man dieses weiß – beherbergt in ihrem Zentrum ein extrem massereiches Schwarzes Loch, welches bis zu 10 Mrd. Sonnenmassen umfassen kann. Demgegenüber ist das Schwarze Loch in unserer Milchstraßen-Galaxie mit seinen etwa 4,3 Mio. Sonnenmassen vergleichsweise winzig. Hinzu kommt, dass etwa 10 % aller Supernova-Explosionen in einer Galaxie ein Schwarzes Loch hinterlassen. Das bedeutet, dass sich in unserer Milchstraßen-Galaxie zwischen 20 und 40 Mio. Schwarze Löcher aus vergangenen Supernova-Explosionen tummeln könnten. Auch der „Big Bang“ könnte vor 13,81 Mrd. Jahren Mini-Schwarze-Löcher produziert haben, die auch heute noch im extragalaktischen Umfeld (d. h. in der Umgebung von einigen 100 Mio. Lichtjahren) vagabundieren und dort hin und wieder explosionsartig zerfallen. Allerdings, beobachtet hat man ein solches Ereignis noch nicht. Wir werden auf den nächsten Seiten auch sehen, dass solche MiniVersionen von Schwarzen Löchern eine Mindestmasse von etwa 107 Tonnen haben müssten, um bis in die heutige Zeit überleben zu können. Allen kosmischen (!) Schwarzen Löchern ist eine kosmische Gefräßigkeit gemein – wer ihnen zu nahe kommt, wird unweigerlich und unwiderruflich verschluckt und beginnt eine Reise in ein unbekanntes, kosmisches Jenseits. Das „Ausscheidungsprodukt“ von Schwarzen Löchern ist Strahlung, und wenn die abgestrahlte Energie nicht durch stetigen Massenzuwachs ausgeglichen wird, wird ein Schwarzes Loch wie oben und auch bereits am Anfang dieses Buches erwähnt, zum Ende seines Daseins in einer kosmischen Mini-Explosion verdampfen – so die gängige Vorstellung, wenn man mit einigen Erweiterungen die bekannten Gesetze der Physik anwendet. Doch zunächst ist es angebracht, sich ein klareres Bild über Schwarze Löcher zu verschaffen und zu schauen, welche Physik sich entwickelt bei einer Extrapolation der bekannten Gesetze hin zu extremen Massen und extremen Gravitationspotenzialen. Inwieweit dies dann auch einer Realität entspricht, sei zunächst einmal dahingestellt.

202

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

Die Anwesenheit einer Masse ändert das Raum-Zeit-Gefüge. Dies wurde bereits an verschiedener Stelle beschrieben und ist auch experimentell beobachtet. Doch wie sehen diese Änderungen aus, wenn Massen so extrem werden, dass selbst Licht gefangen bleibt, obwohl doch die Lichtgeschwindigkeit eine unveränderliche Konstante ist? Karl Schwarzschild (1873–1916) hatte bereits kurz nach der Veröffentlichung der Einstein’schen Feldgleichungen diese Gleichungen für eine Reihe von vereinfachenden Annahmen gelöst und eine Metrik für die Raum-Zeit hergeleitet. Die Metrik ist als Schwarzschild-Metrik nach ihm benannt und beschreibt mit der folgenden Gleichung bereits die wesentlichen und für dieses Buch relevanten physikalischen Zusammenhänge (der Übersicht halber sind die winkelabhängigen Terme ausgelassen): Schwarzschild-Metrik, Schwarzschild-Radius

Schwarzschild-Metrik ⎛ ⎞   1 2GM 1 ⎝ 2 ⎠ r2 t − 2 1− 2 c r c 1 − 2GM c2 r   1 1 r2 = (1 − Rs /r) t2 − 2 1 − Rs /r c

τ 2 =

mit

11

GM ⇐= Gravitationspotenzial r 2GM RS = ⇐= Schwarzschild-Radius c2

Die Metrik gibt an, wie die Raum-Zeit-Koordinate τ 2 eines Objekts nahe einer Masse sich transformiert auf die Raum- und Zeit-Koordinaten t2 und r2 eines entfernten Beobachters.

Erreicht das Objekt in der obigen Formel den Schwarzschild-Radius RS , so wird der Ausdruck in der ersten Klammer „0“ (Null) und in der zweiten „∞“ (Unendlich). Das Objekt hat sich vom Beobachter „verabschiedet“ – selbst ein

203 11.3 · Schwarze Löcher

11

Licht-Signal erreicht den Beobachter nun nicht mehr, das Objekt scheint jetzt unendlich weit entfernt und befindet sich auf der Grenze zum Schwarzes Loch. Ein Zurück aus der Unendlichkeit ist nicht möglich, da dieses ja bedeuten würde, dass es eine Zeit nach einer unendlichen Zeit gäbe. In der . Abb. 11.14 sind die Verhältnisse für ein Objekt B, welches in ein Schwarzes Loch fällt und dabei von A (und in dem Referenzsystem von A) beobachtet wird, nochmals verdeutlicht. B sendet kontinuierlich Lichtpulse aus, die von A in immer länger werdenden Zeitabständen (t1 , t2 , . . .) empfangen werden. Der Licht-Emissionskegel von B schnürt sich immer weiter zusammen (entsprechend der obigen Gleichung). Indes läuft die Zeit in A „normal“ weiter, während sie in B immer langsamer abzulaufen scheint, bis schließlich das am Schwarzschild-Radius

We l t l i n i e des L i ch ts

t´o

t r

?

t2

t´e

Emission

to t1 te

Emission

Rs

t

We ltlinie des Beobachters

Schwarzes Loch

re

B

ro

A

. Abb. 11.14 Weltlinien (Ort gegen Zeit) in der Nähe eines Schwarzen Lochs. Objekt B fällt in ein Schwarzes Loch und wird von A beobachtet. A befindet sich stationär am Ort r0 . Objekt B sendet kontinuierlich Lichtpulse jeweils an den Emissionspunkten re aus, die von A in immer länger werdenden Zeitabständen (t1 , t2 , . . .) empfangen werden. Der Emissionskegel von B zieht sich immer weiter zusammen, bis schließlich das am Schwarzschild-Radius RS ausgesendete Signal den Beobachter A nicht mehr in einer endlichen Zeit erreicht. A sieht Zeitstillstand für B. Der Sprung über die Singularität (Unendlichkeit) und die dann folgende Physik innerhalb eines Schwarzen Lochs entzieht sich der Kenntnis. Angedeutet ist hier eine spezielle Metrik, in welcher die Raum-Zeit-Parameter Ort und Zeit ausgetauscht werden – Ort wird zu Zeit und Zeit zu Ort (in Rot). Das ist mathematisch entsprechend der Allgemeinen Relativitätstheorie korrekt hergeleitet, von der Intuition her allerdings merkwürdig

204

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

11

. Abb. 11.15 Oben: Versuch, die Raum-Zeit-Krümmung in 3-dimensionaler Projektion darzustellen. Unten: Der hypothetische Sturz ins Schwarze Loch

RS (oder am Ereignishorizont) ausgesendete Signal den Beobachter A nicht mehr in einer endlichen Zeit erreicht. Für den zum Schwarzen Loch Reisenden B ist die Situation zunächst unkritisch. Er besitzt seine eigene Eigenzeit, und die ändert sich für ihn nicht. Allerdings, je näher dieser Reisende an den Schwarzschild-Radius herankommt, desto mehr wird

205 11.3 · Schwarze Löcher

11

sein eigener Kopf zum „Beobachter“ für die Füße, die sich jetzt immer weiter vom Kopf entfernen und schließlich in der Unendlichkeit verschwinden. Zudem werden ihn die gravitativen Unterschiede zwischen Kopf und Füße beizeiten zerreißen. Die Situation ist in der . Abb. 11.15 in etwas vereinfachter Weise dargestellt. Nehmen wir dennoch an, dass dem Reisenden B der Sprung über die Singularität unversehrt gelungen ist. Was ihn nun erwartet, ist unklar und großenteils spekulativ. Natürlich gibt es in der theoretischen Physik Ansätze, eine Metrik im Innenbereich des Schwarzen Lochs an die äußere Schwarzschild-Metrik unter Umgehung der physikalisch nicht sinnvollen Singularität anzuschließen, wobei auch quantenmechanische Effekte oder auch Extra-Dimensionen ins Spiel gebracht werden. Jedoch ist allen Metriken gemein, dass es eine stationäre Situation für B nicht mehr gibt, und auch die Richtungsumkehr ist ausgeschlossen. Objekt B befindet sich auf einer immer schneller werdenden Reise zu einem unbekannten Ziel. Beobachter A ist abgehängt. Informationen von oder über B dringen nicht mehr nach außen. ! Dies ist natürlich für die Physik eine äußerst unbefriedigende Situation. Es wird deshalb eine zentrale Aufgabe der experimentellen Astrophysik bleiben, herauszufinden, welche Informationen man Schwarzen Löchern dennoch entziehen kann, um somit theoretische Modelle weiter voran bringen und testen zu können. Die im Science-FictionBereich vielfach kolportierten Wurm-Löcher, Weißen Löcher oder Parallel-Universen stehen deutlich außerhalb unseres derzeitigen Physik-Verständnisses, sie werden deshalb zunächst das bleiben müssen, was sie sind: Fiktionen.

Mit einem Schwarzen Loch verbindet sich häufig die Auffassung, dass es sich dabei um eine extrem kompakte Form von Materie handeln müsse mit einer Massendichte, die jenseits der normalen Vorstellung liegt. Diese Auffassung ist in dieser generellen Form nicht korrekt. Da der Schwarzschild-Radius proportional zur Masse M ist, ist die Dichte ρ :

Größe eines Schwarzen Lochs, Spaghettifizierung

ρ=

M V



M R3



1 , M2

d. h., mit zunehmender Masse wird die Dichte quadratisch kleiner. Dieser Sachverhalt ist für einige Objekte in . Tab. 11.2 festgehalten. Man sieht, dass nur die vergleichsweise kleinen Massen, wie z. B. die des Protons, des Menschen oder der Erde, extreme und zugleich auch völlig unrealistische Dichten erfordern. Und während auch die Sonne immer noch auf etwa die 40-fache Dichte eines Neutronensterns komprimiert werden müsste, um in einem Schwarzen Loch zu versinken, sind die Dichten von super-massereichen Schwarzen Löchern in den Zentren von Galaxien vergleichsweise gering. So ließen sich z. B. 1 Mrd. Sonnen(!) problemlos als Schwarzes Loch im Innern unseres Sonnensystems unterbringen. Der Schwarzschild-Radius des Schwarzen Lochs wäre dann etwa 2/3 der Distanz zum Planeten Neptun, aber die Dichte von 18 kg/m3 (= 0,018 g/cm3 ) gerade mal dieselbe wie die von besonders leichtem Styropor. Ähnliches gilt für eine ganze Galaxie, deren Schwarzschild-Radius etwa ein halbes Lichtjahr beträgt. Bei homogener Verteilung der Masse wäre die Dichte vergleichbar mit der eines „mittelguten“ Vakuums auf der Erde (ca. 10−2 mbar).

206

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

. Tab. 11.2 Die Tabelle listet Kenngrößen, wie Schwarzschild-Radius, Dichte, Lebensdauer und Temperatur von Schwarzen Löchern verschiedener Größe. Die gelb unterlegten Zahlen sind nach dem derzeitigen physikalischen Verständnis wohl nicht sehr plausibel. Das theoretische Modell von Stephen Hawking ist hier sicher unvollständig. Zu beachten ist, dass je massereicher ein Schwarzes Loch wird, desto größer wird der Schwarzschild-Radius und desto kleiner die Dichte. Die Masse des Schwarzen Lochs in unserer Milchstraßen-Galaxie ist mit 4,2 Mio. Sonnenmassen vergleichsweise klein. Es besitzt einen Schwarzschild-Radius von etwa 18 Sonnenradien und eine Dichte, die etwa dem 100-fachen der Dichte von Blei entspricht. Ein 1 Mrd. Sonnen schweres Schwarzes Loch hat hingegen nur eine Dichte von superleichtem Styropor (18 kg/m3 = 0,018 g/cm3 ). Die aus der Hawking-Strahlung abgeleitete Temperatur massereicher Schwarzer Löcher (ab etwa Masse Erde) ist mindestens für die nächsten 1019 Sekunden (ca. 300 Mrd. Jahre) kleiner als die Temperatur des Universums. Letztere ist dann ungefähr einige 10−2 K. Ein Mini-Schwarzes-Loch (Mini-SL) mit der Masse von 170 Mio. Tonnen hätte in etwa den Durchmesser eines Protons und eine Lebensdauer, die dem Alter des Universums gleicht

11

Eine interessante Situation entsteht, wenn man den Schwarzschild-Radius des Universums berechnet. Dessen sichtbare Masse beträgt in etwa 1053 kg, und daraus errechnet sich der Schwarzschild-Radius zu 14,8 Mrd. Lichtjahren, was in etwa der Größe des sichtbaren Universums und damit auch seiner derzeitigen Dichte entspricht. Zufällig ?? – vielleicht, aber Zufälligkeiten sind in der Physik äußerst unbeliebt. Eine weitere interessante und auch amüsante Situation entsteht, wenn der Radius eines Schwarzen Lochs besonders klein wird, wie dies beispielsweise für den Mond (RS 100 µm) oder die Erde (RS 9 mm) der Fall wäre. Für den Astronauten in der . Abb. 11.15 hätte dies eine „Spaghettifizierung“ zur Folge. Nicht nur,

207 11.3 · Schwarze Löcher

11

dass er in die Länge gezogen würde, die transversalen Kräfte würden ihn zudem zusammenpressen bis auf unterhalb von 10−10 m (etwa ein Atom-Durchmessers). Aber Vorsicht: Diese unsinnigen Folgerungen ergeben sich nur, wenn man die bekannte Physik ohne Korrekturen bis in diese extremen Bereiche fortsetzt. Wäre ein Schwarzes Loch „völlig schwarz“, dann müsste seine Oberflächentemperatur beim absoluten Temperatur-Nullpunkt (T = 0 K) liegen. Da ein solches Schwarzes Loch dann aber kälter wäre als das Universum (TUniv. = 2,73 K), würde unentwegt thermische Energie vom Universum in das Schwarze Loch hineinfließen. Damit würde sich die Masse des Schwarzen Lochs gemäß der Äquivalenz von Masse und Energie kontinuierlich vergrößern und ebenso die Größe, hingegen bliebe die Oberflächentemperatur nach wie vor unverändert bei T = 0 K. Ein solches Verhalten ist mit den Gesetzen der Thermodynamik völlig unvereinbar, da dieses einem Perpetuum mobile gleichkäme8 . Die Thermodynamik diktiert deshalb unmissverständlich, dass die Oberflächentemperatur eines Schwarzen Lochs endlich zu sein hat, eine Forderung, die gleichzeitig auch die Singularität am Ereignishorizont als nicht sinnvoll ausweist. Für den umgekehrten Fall, dass die Oberflächentemperatur größer ist als die Temperatur des Universums, wird das Schwarze Loch – diesmal konform mit der Thermodynamik – Energie (d. h. Temperatur) an das Universum abgeben. D. h., das Schwarze Loch hat dann die Eigenschaft, mit der Zeit zu schrumpfen, bzw. zu zerfallen. In diesem Fall stellt sich allerdings die Frage: Welcher Mechanismus gibt dem Schwarzen Loch eine Temperatur, welchen Wert besitzt diese und wie groß ist die Zerfallskonstante? Stephen Hawking war der Erste, der diese Fragestellung im Rahmen einer Quantenfeldtheorie anging und eine Formel für die Temperatur-Strahlung eines Schwarzen Lochs entwickelte, dieses allerdings in einer semi-klassischen Näherung. Die Strahlung ist in der Literatur als Hawking-Strahlung nach ihm benannt. Die Formel ist streng genommen nur für extrem massereiche Schwarze Löcher sinnvoll anwendbar, da für solche Objekte die Raum-Zeit-Krümmungen nur eine geringe Korrektur der Formel erfordern. Für vergleichsweise kleine Schwarze Löcher (dann, wenn die oben zitierte Spaghettifizierung unsinnige Dimensionen annimmt) ist eine Quanten-Gravitationstheorie erforderlich, die aber bislang nicht existiert. Von einer solchen Theorie ist eine Verkürzung der Lebensdauer gegenüber der semi-klassischen Formel von Hawking zu erwarten. In . Tab. 11.2 sind die Kenngrößen „Zerfallszeit“ und „Temperatur“ nach der Hawking-Formel berechnet. Sie zeigt, dass die Temperatur von besonders massereichen Schwarzen Löchern (d. h. Massen größer als die Sonnenmasse) für alle Hawking-Strahlung und Lebensdauer

8

Eine einfache Erklärung: Vergrößert sich das Schwarze Loch, dann leistet es Arbeit gegen den äußeren Druck (z. B. gegen den Strahlungsdruck) des Universums. Thermische Energie lässt sich aber nicht vollständig in Arbeit umsetzen, sodass das Schwarze Loch einen Teil der Wärme wieder an das Universum zurückgeben muss. Dies ist das Prinzip der Wärmekraftmaschine. Ließe sich dieses Prinzip umgehen, könnte man ein Perpetuum mobile z. B. in Form eines Fahrzeugs konstruieren, welches Luft ansaugt, diese abkühlt, die frei werdende Energie zur Fortbewegung (Arbeit) nutzt und die abgekühlte Luft wieder an die Umgebung abgibt – ganz ohne Treibstoff und ganz ohne äußere Energiezufuhr. Selbst bis in die heutige Zeit versuchen Tüftler, in Unkenntnis der physikalischen Gesetze, eine solche Maschine zu konstruieren – ohne Erfolg.

208

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

vernünftigen Zeiten unterhalb der Umgebungstemperatur des Universums verbleibt und die Schwarzen Löcher sich somit zunächst vergrößern. Im Fall eines Schwarzen Lochs von der Masse der Sonne würde sich diese Situation erst nach dem 10.000-fachen des derzeitigen Alters des Universums (d. h. nach etwa 1022 s) umkehren. Das Schwarze Loch hätte dann immer noch 6,7 × 1074 Sekunden Zeit zu zerfallen. Für noch massereichere Schwarze Löcher fände eine solche Umkehrung zu einem noch viel späteren Zeitpunkt statt. Hier ist anzumerken, dass solche Zeiten jenseits sämtlicher Beobachtungsgrenzen liegen. Für vergleichsweise kleine Schwarze Löcher sieht die Hawking’sche Strahlungsformel ein kataklysmisches Ende vor. Die abgestrahlte Energie wird zunehmend explosiv und die verbleibende Lebensdauer nimmt exponentiell ab. Ein MiniSchwarzes-Loch von etwa 1000 Tonnen „verpufft“ in ungefähr einer Minute (siehe . Tab. 11.2), und vermöge E = mc2 setzt es dabei etwa 2,5 × 1016 kWh in Strahlungsenergie um. Wiederum der Vergleich: Dies ist etwa das 150-fache des jährlichen Welt-Energieverbrauchs. Die starke Raumkrümmung, welche ein Schwarzes Loch umgibt und in der Hawking-Formel nicht berücksichtigt ist, tut ein Übriges und wird in noch kürzerer Zeit noch größere Massen in Strahlungsenergie umsetzen. Kurzer, intuitiver Abriss zu den quantenfeldtheoretischen Gedankengängen im Fall der Hawking-Strahlung:

11

209 11.3 · Schwarze Löcher

11

Leider sind die meisten theoretisch postulierten Eigenschaften Schwarzer Löcher experimentell nicht verifiziert. Licht in dieses Dunkel könnten deshalb sogenannte primordiale Mini-Schwarze-Löcher bringen – so die Hoffnungen. Der Theorie zufolge wären solche Objekte kurz nach dem „Big Bang“ entstanden. Die Bedingungen während dieser frühen kosmischen Epoche würden das zulassen, allerdings nur innerhalb eines engen Zeitfensters von ca. 10−24 Sekunden nach dem „Big Bang“ und zeitlich auch nur nach der inflationären Phase9 . Die Massen solcher primordialen Mini-Schwarzen-Löcher wären dann verteilt von 1 kg aufwärts bis etwa 1 Mrd. Tonnen (häufig auch verglichen mit der Größe eines Bergs). Die Lebensdauer eines 1 Mrd. Tonnen Schwarzen Lochs ist, wie aus der . Tab. 11.2 ersichtlich, deutlich länger als das derzeitige Alter des Universums; man sollte deshalb erwarten, dass das finale und explosive „Verdampfen“ von den weniger langlebigen und somit kleineren Objekten (Ursprungsmasse: 170 Mio. Tonnen, siehe . Tab. 11.2) sowohl gegenwärtig als auch

Primordiale Mini-Schwarze-Löcher

9

Jacob D. Bekenstein, BLACK HOLES: PHYSICS AND ASTROPHYSICS Stellar-mass, supermassive and primordial black holes, arXiv:astro-ph/0407560v1 (2004).

210

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

in allen vergangenen Epochen bis hin zu den Zeiten der kosmischen Hintergrundstrahlung beobachtbar ist – allerdings, je kleiner das ursprüngliche Objekt, desto weiter in der Vergangenheit entfernt und somit lichtschwächer und rotverschobener das hinterlassene Signal. Vermeintliche Sichtungen gab es in den vergangenen Jahren vielfach, doch keines dieser Signale hielt im Nachhinein einer Interpretation in diesem Sinne stand. Auch eine Durchforstung des kosmischen Hintergrundspektrums brachte kein Ergebnis. – Dennoch, die Suche nach solchen Mini-SchwarzenLöchern geht unvermindert weiter. Zweifellos würde ein positives Signal einen enormen Erkenntnisschub erzeugen. Nicht nur, dass das Emissionsspektrum eines Schwarzen Lochs während seines finalen Stadiums vieles über dessen Inneres verrät, auch bereits die Existenz solcher primordialen Mini-Schwarzen-Löcher könnte ein Hinweis sein, dass die supermassereichen Schwarzen Löcher, welche man in den Zentren nahezu aller bisher beobachteten Riesen-Galaxien findet, aus solchen Mini-Versionen erwachsen sind und diese den Galaxien bereits zu einem frühen Zeitpunkt in der kosmischen Geschichte ihre Struktur aufgeprägt haben. Eine schlüssige Erklärung für das scheinbar universelle Vorkommen solcher super-massereichen Gebilde gibt es nämlich bislang nicht. Rotierende Schwarze Löcher besitzen eine besonders vielfältige und facettenreiche Physik. Dem neuseeländischen Mathematiker Roy Kerr gelang es 1963 als erstem aus den Einstein’schen Feldgleichungen die nach ihm benannte Kerr-Geometrie (oder auch Kerr-Metrik) für rotierende Schwarze Löcher exakt herzuleiten10 . Sie brachte in der Folge eine enorme Einsicht in die Physik Schwarzer Löcher und der beobachteten Phänomene in deren Umgebung. Einige der bemerkenswertesten Beobachtungen sollen in diesem Paragrafen angeschnitten werden. Durch die Rotation und die dadurch entstehenden Zentrifugalkräfte verringert sich der Schwarzschild-Radius oder synonym dazu der Radius des Ereignishorizonts eines Schwarzen Lochs. Dem steht jedoch das vom Schwarzen Loch mitgeführte und kräftefreie Inertialsystem gegenüber. Das Zusammenspiel beider Effekte führt zur Ausbildung einer sogenannten Ergosphäre, welche das Schwarze Loch in toroidaler Form umgibt (siehe . Abb. 11.17) und welches für die von außen zu beobachtende Physik eine Schlüsselfunktion einnimmt. Ein Eindringen in die Ergosphäre entspricht in etwa einem Eindringen ins Schwarze Loch, wobei aber in einem solchen Fall die Möglichkeit besteht, dieses Gebiet wieder zu verlassen – allerdings nicht ohne einen erheblichen Schaden zu erleiden. Rotierende Schwarze Löcher

11

10 Roy P. Kerr, Gravitational Field of a Spinning Mass as an Example of Algebraically Special Metrics, Physical Review Letters 11, 237 (1963).

211 11.3 · Schwarze Löcher

11

. Abb. 11.17 Ein rotierendes Schwarzes Loch wird von einer Ergosphäre umgeben. Dieses ist ein Bereich, in dem das vom Schwarzen Loch mitrotierende („mitgeschleppte“) Inertialsystem nicht mehr durch eine Gegenrotation kompensiert werden kann, derart dass dann der umgebende Sternenhimmel stationär erscheinen würde. Ein Objekt, welches in diesen Bereich eindringt, kann wie im Bild dargestellt auseinander gerissen werden, wobei der eine Teil mit negativer Energie ins Schwarze Loch stürzt, die frei werdende positive Energie auf den anderen Teil übertragen wird und dieser an den Polen dem Einflussbereich des Schwarzen Lochs mit nahe Lichtgeschwindigkeit entkommt (real beobachtbar als die Emission eines relativistischen Jets). Dieser als Penrose-Prozess bekannte Effekt entzieht dem Schwarzen Loch sukzessive Drehimpuls und Energie. Im Grenzfall extremer Rotation ist der Radius des Ereignishorizonts (Kerr-Radius) gleich der Hälfte des Schwarzschild-Radius des nicht-rotierenden Systems. Im Bereich des Äquators wird die andere Hälfte von der Ergosphäre übernommen

Überschreitet ein Objekt die Grenze zur Ergosphäre, so wird es von nun an gezwungen, mit dem Schwarzen Loch zu ko-rotieren, auch dann, wenn der Eintritt entgegen der Rotationsrichtung des Schwarzen Loches erfolgte. Die verdrillte Raum-Zeit zwingt zur Bewegungsumkehr. Das Objekt nimmt diese Situation wahr, indem der Sternenhimmel innerhalb der Ergosphäre gegenläufig rotiert. Eine Eigenrotation entgegen der Richtung des Schwarzen Lochs, derart, dass der Sternenhimmel stationär erscheint, ist innerhalb der Ergosphäre nicht mehr möglich. Dieses gilt auch für das Licht, welches der verdrillten Raum-Zeit folgend vornehmlich zu den Polen hingeführt wird. Erreicht das Objekt den Ereignishorizont, ist seine Rotationsgeschwindigkeit identisch zu der des Schwarzen Lochs, welche im extremsten Fall die halbe Lichtgeschwindigkeit beträgt.

212

11

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

Die Ergosphäre besitzt eine weitere und zudem recht merkwürdige Eigenschaft. Bei einer Kollision zweier Objekte innerhalb der Ergosphäre, oder auch in dem Fall dass ein Objekt von außen in die Ergosphäre fällt und dort auseinander gerissen wird, kann der eine Teil mit negativer Energie in das Schwarzes Loch stürzen, wobei dann der jeweils andere Teil die Energiedifferenz übernimmt und die Ergosphäre nun mit einer größeren als die ursprünglich vorhandene Energie wieder verlässt, und dies vornehmlich in den Pol-Regionen, wie in . Abb. 11.17 dargestellt. Ein solcher Prozess ist aufgrund der extremen Verdrillung der Raum-Zeit möglich und wird nach Roger Penrose11 als Penrose-Prozess bezeichnet. Er besitzt kein unmittelbares Analogon in der klassischen Newton’schen Physik. Penrose konnte zudem zeigen, dass die gewonnene Energie aus der Rotationsenergie des Schwarzen Lochs stammt und dazu führt, dass sich die Rotationsfrequenz mit der Zeit verringert. Anhand von experimentellen Daten konnte dieses Phänomen auch bestätigt werden. Der Penrose-Prozess ist einer der wichtigsten Mechanismen zur Beschreibung der Physik von „Aktiven Galaktischen Kernen“ oder „Active Galactic Nuclei (AGN)“. AGNs sind die leuchtkraftstärksten Objekte im Kosmos. Sie wurden bereits Anfang des letzten Jahrhunderts entdeckt, ohne dass auch nur ansatzweise eine Erklärung für diese Phänomene existierte. In den 1960er-Jahren konnten diese enormen Energie-Quellen schließlich den Zentren von Galaxien und später den darin enthaltenen super-massereichen Schwarzen Löchern zugeordnet werden. Die Leuchtstärke entsteht durch die Akkretion von Materie, die beim Sturz ins Schwarze Loch relativistische Geschwindigkeiten erreicht, sich durch Verdichtung aufheizt und dabei zunehmend im Röntgenbereich leuchtet, bevor schließlich alles in der Ergosphäre des rotierenden Schwarzen Lochs verschwindet. Durch den Penrose-Prozess, der noch zusätzlich befeuert werden kann durch die Verzwirbelung extremer Magnetfelder (Blandford-Znajek-Mechanismus12 – hier nicht weiter erklärt), werden dann in der Folge an den Polen des Schwarzen Lochs gebündelte, hochenergetische Energie- und Materie-Jets wieder ausgestoßen. Ein instruktives Beispiel ist der Jet aus dem super-massereichen Schwarzen Loch, welches im Zentrum der M87-Galaxie wohnt (siehe . Abb. 11.18). Der Jet ragt mehr als 5000 Lichtjahre aus dem Zentrum der Galaxie heraus und bringt dabei das intergalaktische Gas zum Leuchten. Die Milchstraße ist, wenn man sie nach Größe und Masse bewertet, eine durchschnittliche Galaxie, und ihr Schwarzes Loch im Zentrum ist mit ca. 4,2 Mio. Sonnenmassen sogar unterdurchschnittlich klein. Warum dessen Wachstumsrate in der kosmischen Vergangenheit so klein geblieben

Das Schwarze Loch in der Milchstraße

11 R. Penrose and R. M. Floyd, Extraction of Rotational Energy from a Black Hole, Nature Physical Science 229, 177 (1971). Sir Roger Penrose, University of Oxford, UK, erhielt für seine Arbeiten über Schwarze Löcher 2020 den Nobelpreis für Physik. Er teilt den Preis mit Andrea Ghez und Reinhard Genzel. 12 R. D. Blandford, R. L. Znajek, Electromagnetic extraction of energy from Kerr black holes, Monthly Notice of the Royal Astronomical Society 179, 433 (1977). Die komplizierten Gleichungen der Magnetohydrodynamik in der Kerr-Raum-Zeit können heute mit leistungsstarken Computern gelöst werden. Die Ergebnisse zeigen eine grundsätzliche Übereinstimmung mit allen Beobachtungsdaten.

213 11.3 · Schwarze Löcher

11

M87

. Abb. 11.18 Die M87-Galaxie im Sternbild Virgo (Jungfrau) mit ihrem zentralen supermassereichen Schwarzen Loch, welches einen Materie-Jet mit relativistischer Geschwindigkeit ausstößt und dabei das interstellare Gas zum Leuchten anregt. Der Jet in dem Bild überstreicht etwa 5000 Lichtjahre. Die Galaxie ist ca. 53,5 Mio. Lichtjahre entfernt und besitzt eine Masse von ca. 1014 Sonnenmassen. Das Schwarze Loch hat eine Masse von (6,5±0,7) Mrd. Sonnenmassen. (Quelle: NASA, public domain)

214

11

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

ist, bleibt eine nach wie vor zu klärende Frage. Aus . Tab. 11.2 entnimmt man, dass der Schwarzschild-Radius des Lochs ca. 18 Sonnenradien beträgt, was aus einem Abstand von (26.660 ± 85) Lichtjahren13 zum Sonnensystem eine gerade noch optisch auflösbare Dimension wäre. Leider ist aber das Zentrum der Milchstraße vom Sonnensystem aus gesehen durch interstellare Staub- und Gaswolken verdeckt und daher für den optischen Wellenlängenbereich undurchlässig. Im Radio- und Infrarotwellenbereich lässt sich jedoch mit den heutigen Teleskopen der zentrale Bereich mit dem Schwarzen Loch durchforsten und studieren. Ein ganz entscheidender technologischer Fortschritt bei der Instrumentierung, welcher die hochaufgelöste Beobachtung des Milchstraßen-Zentrums möglich gemacht hat, ist in den letzten Jahren dem European Southern Observatory (ESO) in Zusammenarbeit mit weiteren wissenschaftlichen Instituten gelungen. Im Zentrum der Milchstraße konnte eine überraschend hohe Sternendichte ausgemacht werden, und in unmittelbarer Nähe des Schwarzen Lochs (hier innerhalb von einigen Lichtjahren) ließen sich die Bahnen einer Vielzahl von Sternen mit einer bis dato unerreichten Präzision bestimmen. Die Positionen, welche über 26 Jahre mit Tagesgenauigkeit aufgezeichnet wurden, offenbarten eine außergewöhnliche und fast chaotische Bewegungsaktivität in diesem inneren Bereich. Sterne, die sich mit teils extremen Geschwindigkeiten (bis zu einigen Prozent der Lichtgeschwindigkeit) in allerlei Umlaufbahnen um das Schwarze Loch tummeln, wurden einzeln identifiziert, und aus deren Bahnparametern ließ sich die Existenz des Schwarzen Lochs mit einer Masse von (4,23 ± 0,11) Mio. Sonnenmassen zweifelsfrei nachweisen14 . Das Schwarze Loch erhielt zudem den festen Namen «Sagittarius-A*» oder «Sgr-A*». Die . Abb. 11.19 zeigt ein einzelnes „digital-image-frame“ aus einem ESOVideo-Clip mit den Umlaufbahnen der Sterne, welche im Zentrum der Milchstraße um das Schwarze Loch Sgr-A* rotieren. Ein besonderes Augenmerk richtete sich im Zuge dieses Projekt auf das Objekt S2 (siehe . Abb. 11.19). S2 umkreist Sgr-A* innerhalb von 16,046 Jahren auf einer extrem exzentrischen Bahn und kommt dabei im Perihel dem Schwarzen Loch bis auf 19 Mrd. Kilometer (ca. 17,5 Licht-Stunden) nahe. Dieser Abstand entspricht etwa dem 1500-fachen des Schwarzschild-Radius von Sgr-A*. Der Stern S2 erreicht an diesem Punkt eine Geschwindigkeit von 2,56 % der Lichtgeschwindigkeit. Die Bahn von S2 wurde über mehr als 25 Jahre mit hoher Präzision aufgezeichnet, und im Mai 2018 konnte sein Perihel zum zweiten Mal in Folge direkt beobachtet werden. Man hatte sich auf dieses Event besonders vorbereitet und war nun 13 The GRAVITY Collaboration, A geometric distance measurement to the Galactic center black hole with 0,3 % uncertainty, Astronomy & Astrophysics 615, L10 (2019). 14 Während der Erstellung dieses Buchs publizierte die GRAVITY-Kollaboration neue und genauere Daten. Die Masse des Schwarzen Lochs wurde zu 4,297±0,013 Mio. solare Massen bestimmt und der Abstand zum Zentrum der Milchstraße zu 26.989 ± 30 Lj. Siehe Gravity Collaboration, Improved GRAVITY astrometric accuracy from modeling optical aberrations, Astrononmy & Astrophysics 647, A59 (2021).

S14

S31

S67

S60

S33

S2

S4

S11

S54

S38

S13

S55

S18

S89

S9

215

. Abb. 11.19 Ein „digital-video-frame“ aus einem ESO-Video (id:1825f), welches die Sternpositionen und Umlaufbahnen in der Nähe des Schwarzen Lochs in der Milchstraße zeigt. Der äußere gelbe Kreis soll den Abstand eines Licht-Monats vom Schwarzen Loch (in der Mitte des Bildes) darstellen, der innere gelbe Kreis zeigt den Abstand eines Licht-Tags (ca. 26 Mrd. Kilometer). Der Stern S2 befindet sich auf einer extrem exzentrischen Bahn, dessen Periheldrehung mit besonderer Aufmerksamkeit studiert wurde, um die Allgemeine Relativitätstheorie zu testen. – Unten rechts eine künstlerische Illustration zur Periheldrehung eines Sterns, der um ein Schwarzes Loch rotiert. Der Effekt ist zur besseren Visualisierung übertrieben gezeichnet, denn für eine vollständige Periheldrehung bräuchte S2 1714 Umläufe oder ca. 27.500 Jahre. (Quelle: ESO/L. Calçada/spaceengine.org)

S12

S29

S39

S2 S175

11.3 · Schwarze Löcher

11

216

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

in der Lage, den durch die Raumkrümmung von Sgr-A* verursachten Winkel der Periheldrehung genau zu bestimmen. Man erinnere sich an die Periheldrehung des Planeten Merkur von 43 Bogensekunden (= 0,012 Grad) pro Jahrhundert (oder umgerechnet 2,9 × 10−5 Grad pro Umlauf von 88 Tagen). Im Fall von S2 ergab sich eine Periheldrehung um Sgr-A* von ϕ = 0,22 ± 0,04 Grad pro Umlauf; das ist fast 8000-mal größer als die Periheldrehung von Merkur bei einem im Perihel fast 300-mal größeren Abstand zur zentralen Masse. Der im Rahmen der Allgemeinen Relativitätstheorie errechnete Wert ist ϕ = 0,202 Grad15 . Das Ergebnis wird als der erste experimentelle Test der Allgemeinen Relativitätstheorie im Fall von extremen Gravitationspotenzialen gewertet. Dieser Test erlaubt die keineswegs unbedeutende Schlussfolgerung, dass die Allgemeine Relativitätstheorie nicht nur die winzigen Effekte, wie sie in unserer unmittelbaren Umgebung auftreten, korrekt beschreibt, sondern gleichermaßen anwendbar ist beim Übergang zu extremen Bedingungen. Die entscheidenden Arbeiten zu diesem Langzeitprojekt wurden im Jahr 2020 mit dem Nobelpreis für Physik ausgezeichnet16 . Der interessierte Leser findet auf der ESO-Homepage weitere Informationen zum Themenkreis der Allgemeinen Relativitätstheorie und ihrer Überprüfung. Die bereits zuvor angesprochene M87-Galaxie ist eine elliptische Riesengalaxie. Sie befindet sich im Zentrum des Virgo-Galaxienhaufens, dem etwa 200 Riesengalaxien und weitere ca. 2000 Galaxien mittlerer und kleiner Größe angehören. M87 ist unter diesen die größte und massereichste mit einer geschätzten Gesamtmasse von ungefähr 1014 Sonnenmassen. Ihr Abstand von der Milchstraße beträgt ca. 53,5 Mio. Lichtjahre. Aufgrund ihrer schieren Größe, ihrer ungewöhnlichen, nahezu kugelsymmetrischen Form, und vor allem aufgrund ihrer Nähe zu „uns“ ist sie ein zentrales Forschungsobjekt der Astronomie und Astrophysik. M87 hält einen weiteren Rekord. Im Zentrum residiert ein Schwarzes Loch, dessen Masse von etwa 6,5 Mrd. Sonnenmassen alles andere in den Schatten stellt. Wie es zu dieser enormen Masse – vergleichbar mit der einer mittleren Galaxie – gekommen ist, ist unklar. Diskutiert wird, dass in kosmischer Vorzeit zwei oder mehrere Galaxien kollidiert sein könnten, aus denen sich M87 formte, wobei auch das Schwarze Loch einen erheblichen Anteil an Masse mitbekam. Im April 2019 veröffentlichte die „Event Horizon Telescope“-Kollaboration das in . Abb. 11.20 gezeigte Bild des Schwarzen Lochs der M87 Galaxie17 . Es zeigt einen dunklen Kreis umgeben von einer leuchtenden Aura, welche durch Das Schwarze Loch in M87

11

15 GRAVITY Collaboration, Detection of the Schwarzschild precession in the orbit of the star S2 near the Galactic centre massive black hole, Astronomy & Astrophysics 636, L5 (2020) siehe auch gleiche Autoren, gleicher Titel, arXiv:2004.07187v1 [astro-ph.GA], (2020). 16 Andrea Ghez, Dept. of Physics and Astronomy Univ. of California Los Angeles, und Reinhard Genzel, Max-Planck-Institut für Extraterrestrische Physik München, Nobelpreis für Physik 2020. Sie teilen den Preis mit Sir Roger Penrose. 17 The Event Horizon Telescope Collaboration, First M87 Event Horizon Telescope Results. IV. Imaging the Central Supermassive Black Hole, The Astrophysical Journal Letters, 875:L4, 1 ( 2019), 7 https://doi.org/10.3847/2041-8213/ab0e85.

217 11.3 · Schwarze Löcher

11

. Abb. 11.20 Von der ,,Event-Horizon-Telescope‘‘-Kollaboration aus Messdaten erstelltes digitales Bild des Schwarzen Lochs in der Galaxie M87. Da Licht aus allen Richtungen kommend um das Schwarze Loch herumgebogen wird, erscheint der zentrale Bereich für einen entfernten Beobachter dunkler. Dabei ist es unerheblich, aus welcher Richtung die Beobachtung stattfindet – das Schwarze Loch steht sozusagen unabhängig vom Beobachtungswinkel in seinem eigenen Schatten

die Akkretion von Masse während des beschleunigten Absturz ins Schwarze Loch erzeugt wird. Es ist wichtig zu bemerken, dass es sich bei diesem Bild nicht um eine Fotografie des Schwarzen Lochs handelt. Es ist vielmehr ein Bild, welches aus einem großen Satz von Messdaten mit unterschiedlichsten Kennungen computer-generiert wurde. Mehrere Gruppen der EHT-Kollaboration hatten dazu das Datenmaterial unabhängig voneinander einer sogenannten „blind analysis“ unterzogen18 . Alle Gruppen erhielten schließlich ein gleiches oder ein sehr ähnliches Bild17 . Zur weiteren Erläuterung der . Abb. 11.20: Die extreme Raumkrümmung in der unmittelbaren Nähe eines Schwarzen Lochs bewirkt, dass Lichtstrahlen bis zu 180◦ um das Schwarze Loch herum abgelenkt werden können. Ein entfernter Beobachter sieht Licht, das aus unterschiedlichen Richtungen kommt, vermöge dieses Linseneffekts auf sich fokussiert, derart, dass die Peripherie des Schwarzen Lochs hell und

18 In einer „blind analysis“ werden alle ankommenden Messdaten, die für eine spätere Analyse benutzt werden könnten, zunächst in einer virtuellen Datenbox eingeschlossen – niemand hat Zugang zu den Daten. In der Zwischenzeit werden Computer-Programme entwickelt und mit computer-simulierten Daten getestet. Die Simulationen berücksichtigen alle charakteristischen Eigenschaften der Detektoren und deren Leistungsmerkmale unter unterschiedlichen Beobachtungsbedingungen. Neuronale Netze – ein häufig verwandtes Software-Werkzeug – werden eingehend getestet und getrimmt. Das ganze Verfahren kann mehrere Jahre in Anspruch nehmen. Die Datenbox mit den realen Messdaten wird schließlich geöffnet und mehreren Software-Teams für deren spezifische Analyse zur Verfügung gestellt. Zu diesem Zeitpunkt sind Änderungen an den Analyse-Software-Paketen nicht mehr möglich („blind analysis“). Auch ein Wissensaustausch unter den Teams ist solange unterbunden, bis alle Teams die Analyse abgeschlossen haben.

218

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

11

. Abb. 11.21 Zwei „frames“ aus einem Video-Clip der EHT-Kollaboration zur Verdeutlichung des in der . Abb. 11.20 gezeigten Bildes. Der Intensitätszuwachs am unteren Rand der beiden Bilder wird der Rotation des Schwarzen Lochs von M87 zugeschrieben

das Zentrum dunkel erscheint. Es ist dabei unerheblich, aus welchem Winkel eine solche Beobachtung gemacht wird. Das Schwarze Loch befindet sich unabhängig vom Beobachtungswinkel immer in seinem eigenen Schatten. Diese merkwürdige Situation ist in einem Video-Clip auf der Homepage der EHT-Kollaboration visuell verdeutlicht. Zwei „frames“ sind diesem Video entnommen und in der . Abb. 11.21 gezeigt. Sie sollen als Erklärungshilfe dienen, wie sich der Ring um das Schwarze Loch entwickelt.

219 11.3 · Schwarze Löcher

11

Eine weitere Beobachtung verdient an dieser Stelle Beachtung. Die Bilder zeigen eine signifikant erhöhte Leuchtstärke auf der einen Seite des Schwarzen Lochs. Dieses wird interpretiert als ein Hinweis auf ein Schwarzes Loch, welches rotiert. Einfallende Materie und damit auch die Lichtemission ko-rotiert mit dem Schwarzen Loch und führt auf der Seite, die sich auf den Beobachter zu bewegt, zu einer Leuchtstärke-Erhöhung und einer Dopplerverschiebung des Lichts zu kürzeren Wellenlängen. Zwischen Sinn und Unsinn Die Tatsache, dass die Physik von Schwarzen Löchern an vielen Stellen nicht oder nur unvollständig bekannt ist und dass den vielen existierenden theoretischen Modellen nur wenig experimentell gesichertes Faktenmaterial gegenübersteht, scheint wohl ein Grund zu sein, dass es manches Mal und auch quer durch die Gesellschaft zu abstrusen Spekulationen und Endzeitängsten kommt. Hier einiges Wissenswertes:

5 In Anbetracht des Alters der Erde oder auch des Sonnensystems und deren über kosmische Zeiten ungestörte Entwicklung, ist eine Kollision mit einem Schwarzen Loch, welches Erde und/oder Sonnensystem auslöscht, ausgerechnet zu einer Zeit, in der man die Physik dieser Objekte studiert, nicht besonders wahrscheinlich. Die Entstehung Schwarzer Löcher innerhalb von Galaxien ist jedoch auf kosmischen Zeitskalen nicht unbedingt selten. Die Entdeckung der Gravitationswellen im Jahr 2015 war z. B. auf eine Kollision zweier gravitativ gebundener Schwarzer Löcher jeweils von 35 und 29 Sonnenmassen zurückzuführen. Der Schauplatz lag allerdings in einer Entfernung von etwa 1,3 Mrd. Lichtjahren. Dabei wurden in 0,2 Sekunden allein drei SonnenmassenÄquivalente in Gravitationswellen-Energie umgesetzt, bevor schließlich ein neues Schwarzes Loch mit nur ca. 62 Sonnenmassen zurückblieb. In der Milchstraße ist indes eine solche oder ähnliche Kollision in vergangener Zeit, trotz immer besser werdender Beobachtungstechniken, bisher nicht nachträglich nachweisbar. 5 Rotierende Schwarze Löcher leuchten und emittieren hochenergetische Jets. Aber auch wenn ein Schwarzes Loch nicht rotiert, entzieht es sich nicht unbedingt einer direkten Beobachtung, denn die Leuchtstärke der kontinuierlich einfallenden Materie ist dann immer noch über große Distanzen sichtbar. 5 Bei primordialen Mini-Schwarzen-Löchern weiß die Wissenschaft denkbar wenig, außer dass es sie vielleicht geben könnte. Hier wird man auf entsprechende Beobachtungen, d. h. auf einen Zerfall eines solchen Objekts warten müssen. Die Signatur dafür wäre eine plötzlich und explosionsartig aufleuchtende, punktförmige Quelle im interstellaren oder intergalaktischen Raum, wobei das Spektrum der emittierten Strahlung dem eines Schwarzen Körpers bei einer charakteristischen Temperatur entsprechen sollte. Jedes explodierende Mini-Schwarze-Loch hätte dieselbe charakteristische Temperatur.

220

Kapitel 11 · Neutronensterne, Inertialsysteme, Schwarze Löcher

5 Eine bislang nicht erwähnte Eigenschaft von Schwarzen Löchern bereitet jedem, der sich mit ihnen befasst, Kopfschmerzen: Wenn Schwarze Löcher einfach nur thermisch „verdampfen“, wie von Hawking vorgesehen, tritt ein „Informationsverlust-Paradoxon“ (oder auch Entropie-Problem) auf. Alles, was an Materie und Information in ein Schwarzes Loch fällt, wird vernichtet, und alles „verdampft“ schließlich in Form einer Schwarz-Körper-Strahlung, oder damit gleichbedeutend, löst sich unwiederbringlich in ein thermisches Zufalls-Chaos auf. Die Entropie, häufig als die Unordnungs- oder Zufallsgröße in der Thermodynamik angesehen, vergrößert sich dabei je nach Masse des Schwarzen Lochs um bis zu 100 Größenordnungen, und das ohne irgendeine erkennbare äußere Einwirkung. Es ist, als ob ein wohlgeordneter Haushalt rein zufällig und ohne besonderes Zutun von der einen zur anderen Minute in völliges Chaos verfällt. Sogar der „Big Bang“ gibt Informationen wieder heraus, und eine Ordnung stellt sich wieder ein, sonst gäbe es uns nicht. Dieses fundamentale Problem des Schwarzen Lochs erkannte natürlich auch Stephen Hawking in seiner Theorie, ohne jedoch eine Lösung dafür zu finden.

11

5 Im Jahr 2008 wurde der „Large Hadron Collider“ (LHC) am CERN in Betrieb genommen. Befürchtungen machten die Runde, dass man bei den zu erwartenden Energien von 1012 –1013 eV Mikro-Schwarze-Löcher erzeugen würde mit Konsequenzen, die nicht abschätzbar seien. Abgesehen davon, dass man aus der Kernphysik fundierte Kenntnisse besitzt, welche enorme Energie erforderlich ist, um einen Atomkern auch nur um weniger als 1 % zu komprimieren, geschweige denn um einen Faktor von 1040 (siehe . Tab. 11.2), würde so ein Mikro-Schwarzes-Loch instantan wieder zerfallen. Auch das von ihm ausgehende, anziehende Gravitationspotenzial wäre um etwa 30–40 Größenordnung zu klein, um überhaupt von einem Objekt in einem Abstand von der Größe eines Atomkerns wahrgenommen zu werden. Zudem sind die LHC-Energien immer noch mindestens einen Faktor 100 Mio. kleiner als die höchsten gemessenen Energien von Teilchen, die Teil der kosmischen Strahlung sind und unentwegt die Erde bombardieren. Diese gemessenen Energien liegen bei etwa 1020 –1021 eV, und Teilchen mit solchen Energien treffen etwa 500-mal pro Stunde auf die Erdatmosphäre19 . Nimmt man hingegen 1013 eV, d. h. LHCEnergien20 , als den unteren Richtwert für die Energie, so findet man, dass der kosmische Teilchenfluss auf die Erdatmosphäre bei etwa 3000 Mrd. Teilchen pro Sekunde (!) liegt. Mikro-Schwarze-Löcher, die die Erde verschluckt haben, sind in den letzten 4 Mrd. Jahren nicht aufgetreten.

19 „The Pierre Auger Collaboration“, Features of the Energy Spectrum of Cosmic Rays above 2,5 × 1018 eV Using the Pierre Auger Observatory, Physical Review Letters 125, 121106 (2020). 20 Bei den hier zitierten LHC-Energien handelt es sich um Energien/Nukleon. Nur diese Werte sind hier von Belang.

221

Kosmische Botschaften

Inhaltsverzeichnis 12.1

Historie – 222

12.2

Entschlüsselung der kosmischen Strahlung – 234

12.3

Gravitationswellen, die neue Strahlung – 243

12.4

Drei Detektoren – 250

12.5

Noch etwas Wissenswertes – 261

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 D. Frekers und P. Biermann, Weltall, Neutrinos, Sterne und Leben, https://doi.org/10.1007/978-3-662-65110-0_12

12

Kapitel 12 · Kosmische Botschaften

222

Die Entdeckung und die mit ihr einsetzende Erforschung der kosmischen Strahlung und der in ihr enthaltenen Teilchen-Komponenten ist im Nachhinein betrachtet eines der erstaunlichsten, der großartigsten und auch richtungsweisendsten Kapitel der Physik. Der Forschergeist, der sich damit verband, und auch die Unermüdlichkeit der handelnden Personen findet bis heute kaum seinesgleichen. Wohl kein anderes Teilgebiet der Physik hat mit dieser vor etwas mehr als 100 Jahren gemachten Entdeckung so viele Überraschungen erlebt und so häufig die Forscher in ungläubiges Staunen versetzt – und das bis in die heutige Zeit. Besonders bemerkenswert ist, mit welch einfachen Instrumenten und Hilfsmitteln diese Forschung begann. Die Apparaturen waren anfänglich von der Größe eines Schuhkartons und dennoch in der Lage, grundlegende und gänzlich neue Erkenntnisse zu liefern. Hierzu im Vergleich: Die Größe heutiger Experimente zur Untersuchung der kosmischen Strahlung haben, wie z. B. das Pierre-AugerExperiment in Argentinien, eine Flächengröße von fast 3000 km2 , oder das IceCubeExperiment am Südpol, eine Volumengröße von etwa 1 km3 – das sind im Vergleich dazu ca. 2×1011 Schuhkartons. Im ersteren Fall ist die ca. 50 km dicke Atmosphäre das Medium, in welches die kosmische Strahlung einschlägt, und im letzteren sind es die bereits vornehmlich durch die Atmosphäre heraus gefilterten Neutrinos, die in einer etwa 3000 m dicken Eisschicht der antarktischen Eiskappe ihr Signal hinterlassen.

12.1

12

Historie

Die Entdeckung der kosmischen Strahlung erfolgte keineswegs als ein zielgerichtetes Forschungsprojekt. Zu jener Zeit existierte nicht einmal der Begriff « kosmische Strahlung», dieser wurde erst 1925 vom amerikanischen Physiker Robert Millikan (1868–1953) geprägt. Der Entdeckung vorausgehend war ein seit Mitte des 18. Jahrhunderts bestehendes, unerklärtes Phänomen. – Zur Erinnerung: Dies war die Zeit, in der die Erforschung der Elektrizität ihren Anfang nahm, wobei aber Elektronen, Protonen, Atome, Photonen und auch die chemischen Elemente (erst 1869 von Mendelejew und Meyer klassifiziert) noch keine existierenden Begriffe waren. – Charles-Augustin de Coulomb (1736–1806) beobachtete in seinen Kondensator-Experimenten zur Elektrostatik, dass die Elektrizität, bzw. die elektrische Ladung, immer auf unerklärliche Weise verschwand1 . Auch die besten Isolatoren konnten diesem Verschwinden nicht Einhalt gebieten. Bis zum Ende des 19. Jahrhunderts hatte sich die Vorstellung verfestigt, dass Elektrizität sich „zerstreut“ entsprechend einem allgemein akzeptierten, sogenannten „Coulomb’schen Zerstreuungsgesetz“. Alle Experimente bis dato zeigten dieses Verhalten.

1

C. A. Coulomb, Mémoires de l’Académie de Paris, Seite 616 (1785).

223 12.1 · Historie

12

Erst 1887 fand W. Linss2 in seinen meteorologischen und luftelektrischen Studien, dass das „Coulomb’sche Zerstreuungsgesetz“ eine deutliche Schwachstelle enthielt. In der Coulomb’schen Vorstellung sollten die Ladungen vornehmlich durch Aerosole in feuchter Luft weggetragen werden. Linss fand jedoch in seinen bemerkenswerten und über zwei Jahre kontinuierlich durchgeführten Experimenten das genaue Gegenteil, nämlich dass nicht die feuchte Luft, sondern die trockene Luft die höhere elektrische Leitfähigkeit besaß und diese somit auch schneller die elektrischen Ladungen „zerstreute“. Diese Erkenntnis setzte eine Vielzahl ähnlicher meteorologischer und luftelektrischer Untersuchungen in Gang, was unter anderem auch zu der weiteren Erkenntnis führte, dass von der Erdoberfläche ein elektrisches Feld ausgeht – nur wo befanden sich die entgegengesetzten Ladungen, auf die die Feldlinien zustrebten, und wo schließlich befanden sich die offensichtlich nicht versiegen wollenden Ladungsreservoirs, welche den elektrischen Strom, der dann ja von der leitenden Luft ständig weggetragenen wird, aufrechterhielten? Die verschiedensten Meinungen kursierten, welche mitunter heftig kontrovers diskutiert wurden, so z. B. dass die Wolken elektrisch geladen seien oder die Feldlinien sich bis zur Sonne oder gar bis in die Unendlichkeit des Kosmos erstreckten. Anmerkung: Die elektrische Potenzialdifferenz zwischen Erdoberfläche und Atmosphäre liegt bei etwa 100 – 300 V pro Meter Höhendifferenz und nimmt in sehr groß en Höhen rasch ab. Nimmt man eine mittlere Leitfähigkeit der Atmosphäre, so ergibt sich durch die Wanderung der freien Ladungsträger ein ständiger vertikaler Strom, der über die gesamte Erdoberfläche summiert bei etwa 500 Ampere liegt, was dann zu einem Überschuss an positiver Ladung auf der Erdoberfläche führt. Atmosphärische Entladungen, vor allem Blitze, führen zu einem regelmäß igen Ladungsausgleich und halten so die Potenzialdifferenz konstant. Dieses war zu der damaligen Zeit natürlich nicht bekannt. Auch dass die Elektronen die Träger der elektrischen Ladung waren, wurde erst um 1897 von Sir J. J. Thomson erkannt3 . Er war es auch, der den Begriff „Elektron“ prägte. Bemerkenswerterweise schlug Linss in seiner Arbeit bereits vor, Drachen in größere Höhen aufsteigen zu lassen, um dann mittels eines eigens dafür konstruierten „on board“- Elektrometers das Potenzialgefälle des elektrischen Feldes an verschiedenen Punkten in der Atmosphäre zu bestimmen, und das unter verschiedenen Wetterbedingungen. Erst mehr als 10 Jahre später wurde diese Idee von Victor Hess wieder aufgenommen und auch realisiert – mit der Konsequenz eines darauf folgenden Nobelpreises.

2

Dr. Linss, Ueber einige die Wolken- und Luftelektricität betreffende Probleme, Meteorologische Zeitschrift 4, 345 (1887) und Dr. W. Linss, Darmstadt, Ueber Elektricitätszerstreuung in der freien Atmosphäre, Elektrotechnische Zeitschrift, Heft 38, 506 (1890).

3

Sir Joseph John Thomson (1856–1940), Nobelpreis 1906 für seine Forschungen zur elektrischen Leitfähigkeit von Gasen.

224

Kapitel 12 · Kosmische Botschaften

In diesen 10 Jahren änderte sich jedoch einiges: 5 Eher zufällig entdeckte Henri Becquerel 1896 die Radioaktivität4 . Er experimentierte mit der Phosphoreszenz von Uransalzen und fand, dass eine Fotoplatte, auf der er einige Präparate deponiert hatte, sich trotz Verpackung geschwärzt hatte. Aufsehen erregte diese Entdeckung jedoch nicht. 5 Ein Jahr später identifizierte Sir Joseph Thomson im Zuge seiner Studien zu Kathodenstrahlen das Elektron als den Träger der elektrischen Ladung, und 5 um 1900 zeigte wiederum Becquerel, dass die aus dem Atomkern entweichende Strahlung magnetisch ablenkbar war. Allerdings, dass diese sogenannten β-Strahlen lediglich schnelle Elektronen waren, wurde erst 1948 von Maurice Goldhaber und Gertrude Scharff-Goldhaber gezeigt5 , 5 und schließlich konnten Marie und Pierre Curie mit einem Elektroskop die relative Stärke der neuen Strahlung über die Ionisierung der Luft abschätzen und zeigen, dass die Leitfähigkeit (oder „Ladungszerstreuung“) der Luft mit der Präsenz geladener Ionen verknüpft ist, welche sich als Folge der ladungstrennenden Wirkung der Strahlung ergibt. Der Begriff „Radioaktivität“ wurde hier geprägt.

12

Mit der Entdeckung weiterer natürlicher Radioisotope wie Thorium, Radium oder Polonium6 ergaben sich hinsichtlich der elektrischen Leitfähigkeit der Luft die Fragen, bis zu welchen Höhen wird die Atmosphäre durch die Strahlung noch merklich ionisiert, wie intensiv ist die Bodenaktivität und gibt es an der Bodenoberfläche vielleicht weitere unentdeckte natürliche Strahler? Gleichwohl war damit das grundsätzliche Problem der Leitfähigkeit der Luft in Höhen jenseits des Einflussbereichs der Strahlung nicht gelöst, denn auch bei einer effektiven Abschirmung der radioaktiven Strahlungsquellen blieb eine „Grund-Ladungszerstreuung“ der Luft nach wie vor erhalten. Um diesem Problem nachzugehen, bedurfte es der Durchführung von Messungen in größeren Höhen oberhalb der Bodenfläche, was in mancher Hinsicht ein zunächst aussichtsloses Unterfangen darstellte. Eine in diesem Zusammenhang wegweisende technische Neuentwicklung war das von Theodor Wulf 7 1906 entwickelte Zweifaden-Elektrometer. Zum ersten Mal hatte ein solches Messgerät eine sehr zweckmäßige „Karton“-Größe, und es umfasste trotz dieser kleinen Bauweise einen für die damaligen Verhältnisse extrem großen Messbereich; es reagierte empfindlich auf kleinste Ladungsmengen (einige 4

5 6 7

Henri Becquerel (1852–1908), Marie Curie (1867–1934) und Pierre Curie (1859–1906), Nobelpreis 1903 für die Entdeckung der Radioaktivität. Marie Curie, geb. Sklodowska war Schülerin von Becquerel und die erste Frau, die mit einem Nobelpreis für Physik geehrt wurde. M. Goldhaber, Gertrude Scharff-Goldhaber, Identification of Beta-Rays with Atomic Electrons, Physical Review 73, 1472 (1948). Das Element Polonium wurde Marie Curie zu Ehren nach ihrem Geburtsland Polen benannt. Theodor Wulf (1868–1946) war ein gebürtiger Westfale (Geburtsstadt Hamm), Physiker und Jesuitenpater.

225 12.1 · Historie

12

Stellschraube

Wulf’sches Fadenelektrometer

Zylinder O 2 cm

Mikroskop Fäden

Spiegel

Natrium-Behälter

. Abb. 12.1 Das Wulf’sche Zweifaden-Elektrometer. Zwei mit einem Bügel leicht gespannte QuarzFäden (Dicke ca. 1 – 2μm) im Inneren eines Zylinders stoßen sich durch Anlegen einer elektrischen Spannung ab. Durch eine im Zylindermantel ausgesparte Öffnung werden die Fäden über einen Spiegel beleuchtet und durch ein Mikroskop auf der gegenüberliegenden Seite beobachtet. Durch einen zeitlichen Entladungsvorgang verringert sich der Abstand der Fäden entsprechend. Ein Natrium-Reservoir entzieht der Luft die Feuchtigkeit und sorgt für reproduzierbare Verhältnisse

Skalenteile pro Volt) und war zudem außerordentlich robust. Aufgeladen wurde es durch eine Trockenbatterie. Die damalige Literatur rühmte dieses Elektrometer als „von einer einzigartigen Qualität“, und tatsächlich wurde dieses Instrument in der Folge für fast alle Messungen zur Luftleitfähigkeit an den verschiedensten Punkten auf Land und auf See benutzt mit den immer gleichen und konsistenten Messergebnissen. Wulf selbst (. Abb. 12.2) unternahm 1910 eine Reise nach Paris, um auf der Höhe des Eiffel-Turms, dem damals höchsten Bauwerk der Welt, eigene Elektrometer-Messungen durchzuführen. Er war überzeugt, dass in 300 m Höhe der Ionisierungseffekt durch die Boden-Radioaktivität nahezu verschwinden würde. Überraschenderweise war die Abschwächung von ca. 10 % aber deutlich geringer als der erwartete Wert von ca. 75 %, was auf eine unbekannte radioaktive Quelle innerhalb der Atmosphäre hindeutete. Das Wulf’sche Zweifaden-Elektrometer ist in der . Abb. 12.1 dargestellt und dort in seiner Wirkungsweise beschrieben. Es muss wohl pure Abenteuerlust gepaart mit einem unbeirrbaren Pioniergeist sowie mit einer guten Portion Unbefangenheit gewesen sein, als Victor Hess, damals gerade mal 27-jährig und frischer HonorarProfessor an der Tierärztlichen Hochschule Wien, sich entschied, dem Problem der atmosphärischen Ionisation mit einem neuen Ansatz nun endlich auf den Grund zu gehen. Von seiner eher medizinisch orientierten Ausbildung her gesehen lag die Physik der Radioaktivität und Strahlung nicht gerade in seiner Fachkompetenz. Sein Vorschlag, Ballonfahrten zu unternehmen, um dann in größeren Höhen Messungen zur Luftionisation durchzuführen, ließ sich deshalb auch wohl kaum als gemütlicher Nachmittagsausflug einstufen. Zudem war Hess keines-

Victor F. Hess – eine erstaunliche Karriere

226

Kapitel 12 · Kosmische Botschaften

12

. Abb. 12.2 Oben links: Theodor Wulf (um 1910), Physiker und Jesuitenpater, entwickelte das Wulf’sche Elektrometer, welches zur Entdeckung der kosmischen Strahlung führte Oben rechts: Victor Franz Hess (Nobelpries Physik 1936), Entdecker der kosmischen Strahlung Unten: Victor F. Hess (in der Gondel vorn) vor einer Ballonfahrt. (Quelle: © Victor-Franz-Hess-Gesellschaft e.V. - Archiv Dauerleihgaben VFH-Breisky, Pöllau)

falls Experte in der Steuerung eines Freiluftballons. Erstaunlicherweise gelang es ihm, zwischen 1911 und 1912 insgesamt 9 Ballonfahrten zu organisieren und auch finanziert zu bekommen, wobei die ersten beiden in 1911 mehr oder weniger als Trainings-Fahrten einzustufen waren. Von den sieben in 1912 durchgeführten Ballonaufstiegen war der letzte der mutigste, aber auch der mit Abstand entscheidendste. Vier dieser besonders spektakulären Ballonfahrten im Jahr 1912 sollen an dieser Stelle kurz kommentiert werden, als da sind die erste, die vierte, die fünfte und die letzte Fahrt:

227 12.1 · Historie

12

5 Die erste Fahrt im Freiluftballon fand am 17. April 1912 um ca. 10:30 Uhr morgens vom Wiener Prater aus statt. Das Datum ist insofern bemerkenswert, da an diesem Tag eine totale Sonnenfinsternis über West- und Nord-Europa stattfand und auch in Wien noch ein großer Teil der Sonnenscheibe verdeckt war. Ausgerüstet mit mehreren Elektrometern an Bord war es Ziel, die Änderung der Ionisierung der Luft während der verschiedenen Phasen der Sonnenfinsternis zu ermitteln, so denn die Ionisierung von der Sonne verursacht würde. Der Ballon erreichte Höhen zwischen 2000 und 2800 Metern und befand sich damit oberhalb der an diesem Tag geschlossenen Wolkendecke. Das geplante Messprogramm ließ sich allerdings nicht ganz vollständig durchführen, da während der Finsternis der Ballon sich abkühlte und Hess und sein Ballonführer sich zur vorzeitigen Landung etwa 135 km von Wien entfernt gezwungen sahen. Dennoch, eine merkliche Änderung der Luftionisation während der Verfinsterung der Sonne war nicht zu erkennen. 5 Die vierte Fahrt war eine Nachtfahrt in der Nacht vom 3. auf den 4. Juni 1912. Nach einer Reihe von bodennahen Messungen zwischen 800 und 1200 Metern Höhe wollte Hess den wärmenden Einfluss der frühen Morgensonne nutzen, um in größere Höhen vorzudringen. Hess hatte sich dafür einen besonders großen, 2200 m3 fassenden Ballon geliehen. Das Vorhaben scheiterte; eine Gewitterfront am frühen Morgen zwang die 2-Mann-Crew zur Landung. 5 Die fünfte Fahrt erfolgte einige Tage später und war eine Solo-Fahrt. Den Mitarbeitern von Hess schien dessen unverminderter Tatendrang mittlerweile zu suspekt, sodass Hess – diesmal auf sich alleine gestellt – sowohl die Strahlungsmessungen als auch die Führung des Ballons zu übernehmen hatte. Hess erreichte eine Maximalhöhe von 1200 Metern. 5 Die siebte Fahrt vom 7. August, 1912 war schließlich die entscheidende Fahrt. Da Hess bislang keine Minderung der Luftionisation entdeckt hatte, vielmehr mit zunehmender Höhe eher einen leichten Anstieg feststellte, schien ihm der Aufstieg in weit größere Höhen zwingend notwendig. Seine Geldgeber sahen seine Aktivitäten jedoch mit zunehmendem Argwohn und sperrten die Gelder für weitere Vorhaben. Hess erreichte, dass er in Böhmen (zu jener Zeit Österreichisches Kronland) einen mit 1680 m3 Wasserstoff(!!) gefüllten Ballon für nur eine Fahrt zur Verfügung gestellt bekam. Mit zusätzlichen meteorologischen und Luftdruck-Messgeräten und drei unterschiedlich abgeschirmten Elektrometern ausgestattet, startete er zusammen mit einer 2-köpfigen Crew am frühen Morgen des 7. August in Aussig an der Elbe. Der Wind trug den Ballon nordwestlich in Richtung Berlin. Man stieß bis in eine Höhe von 5350 Metern vor und machte kontinuierlich Messungen. Unglücklicherweise traten bei Hess mit zunehmender Höhe die Symptome einer immer lebensbedrohlicher werdenden Höhenkrankheit auf, sodass die Fahrt bereits nach 6 Stunden gegen Mittag abgebrochen werden musste. Die bis dahin genommenen Messdaten zeichneten jedoch ein eindeutiges Bild. Ab etwa 2500 Metern Höhe zeigten die Daten eine unverkennbare Zunahme der Strahlung und ab etwa 4500 Metern übertraf der Strahlungswert

Kapitel 12 · Kosmische Botschaften

relative Höhe [m]

228

Ionisationsverlauf in der Atmosphäre (Messungen von V. F. Hess, 1912)

5000 4000 3000 2000 1000 0 0

10 20 30 Ionisation [ Ionen / (s cm3) ]

40

. Abb. 12.3 Die Messungen (in Rot) von Victor Hess zeigen, dass die Atmosphäre, Zitat V. Hess: „von oben aus“, einer intensiven ionisierenden Strahlung ausgesetzt ist. Der schattierte Bereich wäre ungefähr die erwartete höhenabhängige Ionisation, welche sich als Folge der natürlichen Radioaktivität der Erdoberfläche ergeben hätte. Adaptiert aus: G. Federmann, Viktor Hess und die Entdeckung der Kosmischen Strahlung, Dipl.-Arbeit, Inst. f. Radiumforschung und Kernphysik, Univ. Wien (Jan. 2003). Sie enthält auch die Werte aus den originalen Messprotokollen

12

den auf der Erde bereits um fast einen Faktor zwei. Von allen drei Messgeräten wurde diese Zunahme übereinstimmend angezeigt. Der letzte Wert oberhalb von 5000 Metern wurde jedoch durch eine ungeschickte Bewegung des mittlerweile sehr angeschlagenen Hess vor dem Ablesen gelöscht. Dieser Tag am 7. August 1912 gilt dennoch als der Entdeckungstag der kosmischen Strahlung. Im folgenden Jahr 1913 konnten die Ergebnisse von V. Hess durch Messungen, welche Werner Kolhörster (ab 1931 Professor am Institut für Höhenstrahlungsforschung, Berlin) in noch größeren Höhen durchführte, im vollen Umfang bestätigt werden. Die aus Originalprotokollen aufgearbeiteten Daten sind in der . Abb. 12.3 gezeigt. Sie bestätigen die Aussage von V. Hess, ,,dass eine Strahlung von sehr hoher Durchdringungskraft von oben her in die Atmosphäre der Erde eindringt‘‘. Victor Franz Hess (. Abb. 12.2, 12.4) erhielt für diese Arbeiten 1936 den Nobelpreis für Physik, den er sich mit Carl David Anderson (s. a. folgende Seite) teilte. Marietta Blau ist in der Physik-„Community“ nicht sehr bekannt – leider!, denn ihre Entdeckung ist noch bedeutsamer einzustufen als die von Victor Hess. M. Blau war ebenfalls im Institut für Radiumforschung der Österreichischen Akademie der Wissenschaften tätig, in dem auch V. Hess 10 Jahre zuvor seine Entdeckung machte. Sie arbeitete dort von 1923 an als unbezahlte Wissenschaftlerin mit fotografischen Emulsionen, deren Tauglichkeit sie für den Nachweis und die Identifizierung von ionisierenden Teilchen (vornehmlich Protonen und α -Teilchen) und Teilchenspuren untersuchte. Wichtig waren hierfür Verbesserungen von Herstellungstechniken sowie Verbesse-

Marietta Blau – Wegbereiterin der modernen Astroteilchenphysik

229 12.1 · Historie

. Abb. 12.4 BY-SA 4.0)

12

Victor Franz Hess (1915); neben ihm das Wulf’sche Elektrometer. (Quelle: Globetemp, CC

rungen von Homogenität und Feinkörnigkeit der Emulsionen. In diesem Bemühen arbeitete sie eng und erfolgreich mit der Firma Ilford zusammen. Nach der Entdeckung der kosmischen Strahlung durch V. Hess blieb dieser Wissenschaftszweig ein zentrales und schnell wachsendes Forschungsgebiet, und das auch weltweit. In den USA entdeckte 1932 Carl Anderson (1905–1991) in den kosmischen Schauern, die er in Nebelkammern sichtbar machte, das Positron als das Antiteilchen zum Elektron. Paul Dirac hatte dessen Existenz 3 Jahre zuvor in seiner bis heute uneingeschränkt gültigen relativistischen Quantentheorie vorhergesagt. 1936 wurden Carl Anderson « für die Entdeckung des Positrons » und Victor Hess «für die Entdeckung der kosmischen Strahlung» mit dem Nobelpreis für Physik ausgezeichnet. Marietta Blau (. Abb. 12.5) vermutete, dass auch die von ihr hergestellten Fotoplatten für die Untersuchung der kosmischen Strahlung eingesetzt werden könnten. Sie platzierte deshalb 1936 mehrere Stapel solcher Platten 5 Monate lang auf einer bereits von V. Hess benutzten Berg-Station am Hafelekar nahe Innsbruck in 2300 Metern Höhe. Die mikroskopische Analyse der eingelagerten Spuren zeigte ein unerwartetes Ergebnis. Die kosmische Strahlung besaß Komponenten höchstenergetischer Teilchen, deren Energien allemal ausreichten, die Atomkerne Brom und Silber in den Emulsionen bei einer Kollision vollständig zu „zertrümmern“. Kern-Kern-Reaktionen in dieser extremen Form waren bis dato völlig unbekannt. Das 1937 von M. Blau publizierte Foto einer solchen von ihr mit dem Wort „Zertrümmerungsstern“ belegten Kernreaktion ist in . Abb. 12.6 gezeigt. Dieses außergewöhnlich bemerkenswerte Bild setzte von nun an einen gänzlich neuen Akzent in der Erforschung der kosmischen Strahlung.

230

Kapitel 12 · Kosmische Botschaften

. Abb. 12.5 Marietta Blau, österreichische Physikerin (Foto ca. 1927). (Quelle: Eva Connors; Bildarchiv, Zentralbibliothek für Physik in Wien)

8

7

6

12

2 3 5 4 . Abb. 12.6 Erstmalige Darstellung der „Zertrümmerung“ eines Brom- oder Silberkerns in einer fotografischen Emulsion nach Kollision mit einem kosmischen Strahlungsteilchen. Insgesamt sind 8 Spuren in dieser 70 μm dicken fotografischen Emulsion identifizierbar. Eine derart hohe Multiplizität ist in einem natürlichen radioaktiven Zerfallsprozess nicht möglich. Aufgrund der Dicke der Emulsionsplatte sind die Spuren nicht über die gesamte Länge im Fokus. Spur 1 trifft nahezu senkrecht auf und ist nur im 3-dimensionalen Scan erkennbar. Dieses Bild änderte die bis dato existierende Vorstellung vom Kosmos grundlegend. (Quelle: M. Blau, H. Wambacher, Nature, 585 (1937))

Fotografische Emulsionen fanden auch weiterhin Anwendung bei der Erforschung der kosmischen Strahlung, auch deshalb weil sich deren Qualität sukzessive verbesserte. Die räumliche Auflösung im Sub-Mikrometerbereich spielt dabei die entscheidende Rolle, und selbst in heutigen Detektoren der Hochenergiephysik werden fotografische Emulsionen benutzt. Es sind hier vor allem die Spurbreite, ferner

231 12.1 · Historie

12

die sogenannten δ -Elektronen, welche aus Atomverbänden herausgeschlagen und senkrecht zur Spur emittiert werden, des Weiteren die Kleinwinkel-Änderungen, welche das Medium einer Teilchenbahn aufprägt, sowie auch die präzise bestimmbaren Raumkoordinaten einer Teilchenspur, die zusammen Aufschluss über Masse, Ladung, Impuls und Energie der Teilchen geben. Selbst kurzlebige, neutrale Teil-

a

TeV Magnesium

b

20 TeV Carbon (2 x 1013 eV)

A

C

50m

B

50m Platte 2-6 Ilford G5 Emulsion

Sardinian Expedition 1953 (unpublished)

Platte 6-19 Ilford G5 Emulsion

Daniel and Perkins (unpublished)

. Abb. 12.7 Links: Ein hochenergetisches kosmisches Teilchen (als Magnesium- oder Aluminium-Kern identifiziert) durchdringt einen Stapel fotografischer Emulsionsplatten und hinterlässt eine charakteristische Spur, an die sich 3 Kernreaktionen mit den Atom-Kernen der Emulsion (Silber oder Brom) aneinanderreihen (Punkt A, B und C). Im Punkt A (3 cm nach Eintritt in den Stapel) wird eine periphere Kollision identifiziert, wobei das kosmische Teilchen ein α-Teilchen „abdampft“ und damit 2 Ladungseinheiten (2e) verliert. Die beiden Fragmente bewegen sich nahezu parallel (siehe Pfeile am unteren Rand). Nach etwa 2 cm (jetzt in Platte 4) erfolgt eine weitere Reaktion, bei der Protonen und geladene Pionen erzeugt werden. Der primäre Kern verliert hier etwa 5 Ladungseinheiten (5e). Im Punkt C (nach nochmals ca. 1 cm und in Platte 6) erfolgt eine Reaktion, die zu einer Fragmentierung sowohl des primären Kerns als auch des von ihm getroffenen Kerns der Emulsion führt. Hierbei werden geladene Nukleonen und Pionen sternförmig emittiert, deren Spuren in weiteren 30 Emulsionsplatten verfolgt werden können. Rechts: Ein Kohlenstoff-Kern aus der kosmischen Strahlung mit etwa 20 TeV Energie kollidiert mit einem Atom-Kern der Emulsion (Brom oder Silber). Durch die Kollision werden die beiden Kollisionspartner nahezu vollständig zertrümmert und dabei mehr als 100 Pionen erzeugt. Die Spuren werden in den Emulsionen über eine arbeitsintensive Mikroskopie verfolgt. Die Teilchen- bzw. Ladungsidentifizierung erfolgt in diesem hochauflösenden Detektormaterial über die Vermessung der Spurbreite und über die Bestimmung der Zahl der nahezu senkrecht zur Spur emittierten Elektronen (sogenannte δ-Elektronen). Letztere werden beim Durchgang der primären elektrischen Ladung von den Brom- und SilberAtomen emittiert und hinterlassen dabei kurze und nichtgeradlinige Spuren. (Quelle:The Study of Elementary Particles by the Photographic Method, An account of The Principal Techniques and Discoveries illustrated by An Atlas of Photomicrographs by C. F. Powell, P. H. Fowler and D. H. Perkins, Pergamon Press 1959)

232

Kapitel 12 · Kosmische Botschaften

chen, lassen sich über ihre Zerfälle oder über Sekundärreaktionen identifizieren. Eine exakte Rekonstruktion der primären Reaktion ist daher mit einigem AnalyseAufwand und leistungsfähigen Mikroskopen fast immer möglich. Zwei Beispiele von kosmischen Einschlägen schwerer Atomkerne mit Energien von ca. 1013 eV sind in der . Abb. 12.7 vorgestellt. Beide Fotografien entstanden in den 1950er-Jahren. Ein kurzer Nachtrag zu diesen historischen Gegebenheiten ist an dieser Stelle angebracht, zumal ein Theater-Team eigens für das 2012 stattgefundene Münsteraner Astroseminar eine Aufführung inszeniert hatte, welche die Historie zu diesem Thema während der NS-Zeit auf eine Theaterbühne brachte.

Geschichtlicher Nachtrag

Hinweis Wenn an dieser Stelle Einzelschicksale beschrieben werden, möchten die Autoren dieses Buchs in keiner Weise das Leid, das mit der NS-Zeit über so viele Menschen hereinbrach, ausklammern. Die Autoren sind jedoch der Ansicht, dass Einzelschicksale eine deutlich nachhaltigere Wirkung erzeugen und daher geeignet sind, die Vergangenheit intensiver ins Gedächtnis zurück zu rufen.

12

Am 13. März 1938 erfolgte der „Anschluß“ Österreichs und damit einhergehend die „Arisierung“ des Landes durch die nationalsozialistische Diktatur. Dieses Datum stellte einen Wendepunkt sowohl im Leben von Victor Hess als auch in dem von Marietta Blau dar. Victor Hess hatte sich bereits im Vorfeld offen und vehement gegen den Nationalsozialismus bekannt. Dies blieb nicht folgenlos. Im September 1938 wurde seine seit 1931 bestehende Anstellung als Physik-Professor in Innsbruck und schließlich als Direktor am neuen Institut für Strahlenforschung mit sofortiger Wirkung und ohne spätere Pensionsansprüche aufgelöst. Auch die Konfiszierung seines Nobelpreisgeldes wurde angeordnet. Kurz vor seiner anstehenden Verhaftung flüchtete er mit seiner jüdisch-stämmigen Frau Maria Bertha in die Schweiz und von dort in die USA, wo er seine wissenschaftlichen Arbeiten an der Fordham University in New York City fortsetzte und wo beide 1944 die amerikanische Staatsbürgerschaft erhielten. Seine Mitgliedschaft in der Akademie der Wissenschaften in Wien wurde 1940 aufgekündigt, jedoch wurde er kurz nach Kriegsende in die Akademie als korrespondierendes Mitglied im Ausland (kMA) wieder zurückberufen. Victor Hess kehrte nur einmal nach Österreich und Innsbruck zurück. Er starb 1964 in Mount Vernon, NY, USA. Für Marietta Blau8 , die ebenfalls jüdische Wurzeln hatte, bedeutete dies bereits vor diesem Datum der Beginn einer Degradierung ihrer Person, was sie zeitlebens kränkte. Anfang 1938 kam sie einer Einladung für einen Forschungsaufenthalt an der Universität Oslo nach, und als sie am 12. März (beachte Datum !) Wien Richtung Oslo verließ, wurde ihr unterwegs klar, dass ein Rückkehr für sie nicht mehr möglich war. In Oslo war sie im dortigen chemischen Labor für eine kurze Zeit tätig.

8

Informationen über Marietta Blau teilweise entnommen aus: Robert Rosner, Brigitte Strohmeier (Hrsg.): Marietta Blau – Sterne der Zertrümmerung. Biographie einer Wegbereiterin der modernen Teilchenphysik, Böhlau Verlag, Wien 2003.

233 12.1 · Historie

12

Durch ein persönliches Empfehlungsschreiben von Albert Einstein, in dem er die „ungewöhnliche Begabung“ von Marietta Blau herausstellte, wurde ihr eine Stelle an der Technischen Hochschule in Mexiko-Stadt angeboten. Dort sollte sie ein Forschungslabor für kosmische Strahlung aufbauen. Sie gelangte im Oktober 1938 über Umwege nach Mexiko und begann ihre Arbeit als Professorin im Januar 1939 mit zunächst großem Enthusiasmus. Die Bedingungen in Mexiko-Stadt waren jedoch denkbar schlecht und das monatliche Salär von $100 eher dürftig, wobei ihr dieser Betrag auch nicht immer ausgezahlt wurde. Zudem beklagte sie sich bitter über Konkurrenzdenken und Kontroversen und vor allem über die besonders ausgeprägte männliche Dominanz, die sie als einzige Frau im 50-köpfigen Lehrkörper wohl deutlich zu spüren bekam. 1944 emigrierte sie schließlich in die USA und arbeitete bis 1948 in der Industrie. Danach war sie bis 1960 wieder in der Wissenschaft im Bereich Entwicklung und Erstellung fotografischer Verfahren zur Teilchendetektion bei HochenergieExperimenten an verschiedenen Beschleunigern in den USA tätig, mit großem Erfolg. Besonders bitter empfand sie, dass ihre in Wien zurückgelassenen Arbeiten durch ihre damaligen Kollegen weitergeführt und auch publiziert wurden, ohne sie zu erwähnen, wo hingegen deren NS-Systemtreue mit hohen Positionen belohnt wurde. Ebenfalls schmerzte sie die Tatsache, dass Cecil Powell 1950 den Nobelpreis für Physik für Arbeiten bekam, die ganz wesentlich durch sie und ihre damalige Mitarbeiterin Hertha Wambacher inspiriert waren, jedoch Powell diese ihm sehr wohl bekannten Arbeiten in seiner Nobelpreisrede nicht erwähnte. Dabei gab es sogar einen Vorschlag, den Erwin Schrödinger (Nobelpreis für Physik 1933) Anfang 1950 vorgebracht hatte, den Preis zwischen Powell, Blau und Wambacher zu teilen. Hertha Wambacher verstarb jedoch im April 1950. Hans Thirring (siehe Seite 195, Fußnote4 ) schlug Marietta Blau 1955 nochmals für den Nobelpreis vor, und auch Erwin Schrödinger reichte 1960 noch einmal einen entsprechenden Vorschlag ein. 1960 kehrte Marietta Blau nach Österreich zurück, wo sie bis 1964 wieder am Radiuminstitut in Wien als freie Mitarbeiterin Forschungsarbeiten durchführte und fotografische Aufnahmen von Teilchenspuren von Experimenten am CERN analysierte. 1970 starb Marietta Blau völlig verarmt in Wien. Ein Nachruf in einer wissenschaftlichen Zeitschrift erschien für sie nicht. Ihr Name erlosch. Erst 2004 wurde an dem Gymnasium in der Rahlgasse 4, an dem sie 1914 ihre Reifeprüfung absolvierte, eine Gedenktafel enthüllt (. Abb. 12.8), und die Stadt Wien schließlich gab der Marietta-Blau. Abb. 12.8 Gedenktafel für Marietta Blau Gasse im 22. Bezirk ihren Namen.

Kapitel 12 · Kosmische Botschaften

234

. Abb. 12.9 Luftschauer erzeugt durch höchstenergetische kosmische Strahlung – eine Illustration zur Verdeutlichung. (Quelle: © Simon Swordy (U. Chicago), NASA

12

12.2

Entschlüsselung der kosmischen Strahlung

Die seit nunmehr über 100 Jahren erforschte kosmische Strahlung hat in eindrucksvoller Weise aufgezeigt, wie extrem lebensfeindlich der scheinbar leere Raum außerhalb der Erde ist, aber auch wie effektiv die Erde ihren eigenen Lebensraum vor dieser Strahlung schützt. Das Erdmagnetfeld zusammen mit der mehrere 100 km hoch reichenden Atmosphäre schirmen etwa 99,9 % der Strahlung ab. Vor allem die höchstenergetischen Teilchen „schauern auf“ sobald sie auf die Atmosphäre treffen und „verteilen“ dabei ihre Energie durch Erzeugung von Sekundärteilchen über eine bis zu mehreren 100 km2 großen Einschlagsfläche. Auch der Stickstoff in der Atmosphäre erfüllt eine wichtige Abschirmfunktion, die an späterer Stelle noch gesondert behandelt wird. Eine Illustration des Schauer-Effekts ist in . Abb. 12.9 gezeigt. Es war Pierre Auger9 , der diesem Schauer-Phänomen bereits 1939 auf die Spur kam. Er zeigte, dass Detektoren, die er bis zu 300 Meter voneinander entfernt aufgestellt hatte, bisweilen koinzidente Ereignisse registrierten. Er interpretierte dieses korrekt als eine aus der primären kosmischen Strahlung in der Atmosphäre erzeugte

9

Pierre Auger, et al., Extensive Cosmic-Ray Showers, Reviews of Modern Physics 11, 288 (1939).

235 12.2 · Entschlüsselung der kosmischen Strahlung

LEAP - Satellite

10 6

Proton - Satellite Yakustk - Ground Array Haverah Park - Ground Array

solar

10 4 10 2

Strahlungsfluss [m2 sr GeV sec] -1

12

Akeno - Ground Array

1 / (m2 sec)

AGASA - Ground Array Fly’s Eye - Air Fluorescence HiRes1 mono - Air Fluorescence

10 -1

HiRes2 mono - Air Fluorescence HiRes Stereo - Air Fluorescence Auger - Hybrid

10 -4 10 -7 10 -10

“Knie” 1 / (m2 Jahr)

10 -13 10 -16 10 -19 10 -22

CERN LHC (14 TeV)

“Knöchel” 1 / (km2 Jahr)

10 -25 1 / (km2 100 Jahre)

10 -28 109

1011 1013 1015 1017 1019 Energie 1010 1012 1014 1016 1018 1020 [eV]

GeV solar & galaktisch

TeV galaktisch

PeV

EeV

galaktisch & extragalaktisch e extragalakatisch

. Abb. 12.10 Spektrum der kosmischen Strahlung. In dieser doppeltlogarithmischen Darstellung sind Feinheiten im Verlauf des Graphen nur schwer erkennbar. Die Energieabhängigkeit folgt einem E −γ -Gesetz mit einem anfänglichen Wert von γ = 2,6, welcher ab etwa 1015 eV langsam überwechselt zu noch größeren Werten, entsprechend einem noch stärker abfallenden Verlauf. Das Bild zeigt zudem, dass es bezüglich der Energien einen allmählichen Übergang von einem nahen solaren/galaktischen Bereich zu einem potenziell an Bedeutung gewinnenden extragalaktischen Bereich gibt, in denen man die Quellen dieser Strahlung vermutet. Zur Orientierung sind Einschlagshäufigkeiten angegeben: oberhalb von 1011 eV etwa 1 Einschlag pro Quadratmeter und Sekunde, oberhalb von 1016 eV etwa 1 Einschlag pro Quadratkilometer und Jahr und oberhalb von 1020 eV etwa 1 Einschlag pro Quadratkilometer und 100 Jahre. Letzterer Wert ergibt etwa 500 Einschläge pro Stunde, gerechnet auf die gesamte Erdoberfläche. (Quelle: [email protected], adaptiert für dieses Buch)

236

Kapitel 12 · Kosmische Botschaften

Kaskade von Sekundärteilchen. Der derzeitig flächengrößte Luftschauer-Detektor in der argentinischen Pampa trägt deshalb seinen Namen. Seit dieser Zeit ist die Erforschung der kosmischen Strahlung mit fast beispielloser Geschwindigkeit expandiert. Detektoren wurden platziert unter der Erde, im Gletschereis, in der Tiefsee, am Erdboden oder in neuester Zeit auch an Bord von Satelliten, die sich entweder im Erd-Orbit oder auf interplanetaren Missionen befinden. Selbst im Mondgestein und im Meteoritenstaub sind die Spuren kosmischer Strahlung eingelagert und identifizierbar. Diese Stein- und Staubobjekte sind wichtige Zeugen, da sie Auskunft geben über Veränderungen in der Intensität und Zusammensetzung der Strahlung, wie sie möglicherweise über kosmische Zeitskalen stattgefunden haben. Es würde den Rahmen dieses Buchs sprengen, alle diese Projekte und deren wissenschaftliche Ausrichtungen einzeln zu beschreiben. Wir werden uns deshalb nach einer kurzen Beschreibung der derzeitigen experimentellen Befunde und einem kurzen Exkurs über Gravitationswellen auf die drei größten und vielleicht auch spektakulärsten Projekte beschränken, als da sind das IceCubeProjekt am Südpol, das bereits erwähnte Pierre-Auger-Projekt in der argentinischen Pampa und das TA-Projekt im US-Bundesstaat Utah. Die Fragestellungen, die zunächst interessieren sind: 5 Wie sieht das Spektrum der kosmischen Strahlung aus, und gibt es vielleicht eine maximale Energie, die im Kosmos nicht überschritten werden kann/darf? 5 Welches sind die Quellen der kosmischen Strahlung und wo befinden sich diese?

12

5 Welche physikalischen Prozesse erzeugen die Energien, die insbesondere im extremen Hochenergie-Bereich der kosmischen Strahlung auftreten? 5 Welche Teilchenkomponenten enthält die kosmische Strahlung? 5 Unterliegt die kosmische Strahlung kurzzeitigen Änderungen, welche mit anderen beobachtbaren kosmischen Ereignissen korreliert werden können? 5 Wie lässt sich die beobachtete Isotropie der kosmischen Strahlung verstehen? Das experimentell bestimmte Energiespektrum der kosmischen Strahlung ist in . Abb. 12.10 dargestellt. Es umfasst eine in der experimentellen Physik selten gesehene Spanne von mehr als 35 Größenordnungen. Hier sind die Daten aus der Vielzahl der unabhängigen Experimente an den unterschiedlichsten Punkten der Erde zusammengefasst. Neben der wissenschaftlichen Relevanz ist dieses Spektrum auch Zeugnis einer funktionierenden, weltumfassenden Kooperation auf diesem Gebiet. Die doppeltlogarithmische Darstellung bringt die Feinheiten im Spektrum nur ungenügend zur Geltung. Die Energieabhängigkeit folgt einem relativ steil abfallenden E −γ Potenzgesetz mit einem anfänglichen Wert des Exponenten γ = 2,6, welcher ab etwa 1015 eV zu noch größeren Werten überwechselt, entsprechend einem noch steiler abfallenden Verlauf der Energieabhängigkeit. In dieser doppeltlogarithmischen Darstellung (. Abb. 12.10) sind die im Fachjargon mit „Knie“

237 12.2 · Entschlüsselung der kosmischen Strahlung

12

(„knee“) und „Knöchel“ („ankle“) bezeichneten Strukturen bei etwa 1016 eV und bei ca. 1018,5 eV zunächst kaum erkennbar. Es mag an dieser Stelle sinnvoll sein, eine Parallele zu ziehen zu den hier vorkommenden Energien. Eine Teilchenenergie von 1020 eV (1011 GeV) ist äquivalent zur Energie eines Tennisballs, der eine Geschwindigkeit von ca. 90 km/h besitzt.

In den . Abb. 12.11 (a) und (b) ist das Spektrum aus . Abb. 12.10 deshalb mit E +2,6 multipliziert, was die eingelagerten Strukturen klarer zum Vorschein bringt. Weiterhin eingezeichnet sind in . Abb. 12.11 (a) die Werte aus zwei entscheidenden Projekten, hier PAMELA und CREAM-II, welche Information geben über die Teilchenkomposition der kosmischen Strahlung.

Die zusätzlichen Daten von PAMELA und CREAM-II sind nun wichtige Ankerpunkte für theoretische Modelle. Rechnungen im Rahmen eines dieser Modelle sind beispielhaft in der . Abb. 12.11 (a) als durchgezogene Linien gezeigt. In dem (b)Teil der Abbildung sind diese Ergebnisse zudem aufgeteilt in drei Bereiche, einen theoretisch gut verstandenen und weitgehend unstrittigen Bereich mit den leichtesten und im Universum am häufigsten vorkommenden hadronischen Teilchen Protonen und Helium, einen Bereich mit den in Supernova-Explosionen ebenfalls häufig produzierten Atomkernen Kohlenstoff und Sauerstoff und einen Bereich, der theoretisch im Detail weniger gesichert ist und in dem hier vorgestellten Modell dominiert ist von Kernen in der Eisen/Nickel-Gegend (ebenfalls Produkte aus Supernova-Explosionen innerhalb der Milchstraße). In dieser Darstellung ist ein extragalaktischer Anteil bei Energien unterhalb von 1011 GeV (oder 1020 eV) nicht ausschlaggebend. Ob eine solche Annahme bestand hat, lässt sich nur durch eine experimentelle Bestimmung der Teilchensorten erweisen. Diese steht aber bislang

Skalierter Starhlungsfluss E 2.6 [GeV 2.6 ] x Fluss [GeV m 2 sr sec] -1

Proton He C O Fe Z ~ 53 Z ~ 80

10 4

10 3

10 2

10

PAMELA Proton PAMELA He CREAM-II Proton CREAM-II He CREAM-I C CREAM-II O CREAM-II Fe

1

(a)

103

105 107 109 primäre Energie E [GeV]

1011

Skalierter Starhlungsfluss E 2.6 [GeV 2.6 ] x Fluss [GeV m 2 sr sec] -1

Kapitel 12 · Kosmische Botschaften

238

10 4

10 3

10 2

10

1

(b)

103

105 107 109 primäre Energie E [GeV]

1011

. Abb. 12.11 Spektrum der kosmischen Strahlung im Bereich von 1011 − 1020 eV (102 − 1011 GeV). Die Multiplikation mit E 2,6 stellt die Strukturen um 106 GeV („Knie“) und 1010 GeV („Knöchel“) deutlicher heraus. Des Weiteren sind in (a) Daten aus den Experimenten PAMELA und CREAM-II eingezeichnet, die die Teilchenkomposition bis zu etwa 105 GeV zeigen. Sie sind Ankerpunkte für Rechnungen, von denen eine beispielhaft hier in Form der durchgezogenen Linien gezeigt ist. In (b) sind diese Rechnungen aufgeteilt in drei Bereiche, einen theoretisch gut verstandenen Bereich mit den leichtesten Teilchen Protonen und Helium, einen Bereich mit den in Supernova-Explosionen ebenfalls häufig vorkommenden Teilchen um Kohlenstoff und Sauerstoff und einen Bereich, der theoretisch im Detail weniger gesichert ist und hier dominiert ist von Teilchen in der Eisen-Gegend. In dieser Darstellung wäre ein extragalaktischer Anteil unterhalb von 1011 GeV eher nicht ausschlaggebend. (Quelle: T. K. Gaisser et al., arXiv:1303.3565v1 [astro-ph.HE] (2013), adaptiert für dieses Buch)

12

noch aus, was natürlich auch an den niedrigen Ereignisraten in diesem Energiebereich liegt. Wir können deshalb an dieser Stelle lediglich bemerken, dass die Fragen zum Ursprung und zur Komposition der kosmischen Strahlung in diesem extremen Energiebereich noch weitgehend unbeantwortet sind. Interessanterweise ist es nahezu unumgänglich, dass die höchsten Teilchenenergien, die auf der Erde in der kosmischen Strahlung beobachtet werden, in unmittelbarer Nähe unserer „kosmischen Haustür“ erzeugt werden. Die kosmische Mikrowellen-Hintergrundstrahlung gibt hier für fast alle Teilchen eine harte Grenze vor. Je schneller sich ein Teilchen gegen die kosmische Hintergrundstrahlung bewegt, desto stärker „sieht“ dieses Teilchen aufgrund des Doppler-Effekts diese Strahlung zu kürzeren Wellenlängen (höheren Frequenzen) blau-verschoben. Dies gilt auch für extrem relativistische Teilchen, bei denen sich die Geschwindigkeit mit zunehmender Energie nur noch minimal verändert10 . Ein Proton mit einer Energie von ca. (1 − 5) × 1020 eV sieht die kosmische Hintergrundstrahlung als harte γ -Strahlung auf sich zukommen, die genügend Energie besitzt, um die Reaktion

Suche nach den Quellen

10 Die Doppler-verschobene Frequenz f , die ein Teilchen mit Geschwindigkeit β = v/c sieht, wenn es sich √ gegen die kosmische Hintergrundstrahlung (T = 2,73 K) bewegt, berechnet ich zu: f = f2,73 · (1 + β)/(1 − β).

239 12.2 · Entschlüsselung der kosmischen Strahlung

p + γ −→ p + π 0

Energieschwelle in dieser Reaktion 145 MeV

n + π+

Energieschwelle in dieser Reaktion 150 MeV

p + γ −→

|−→

12

p + e− + ν¯

zu initiieren. Die Pionen zerfallen nach kurzer Strecke, und das Proton verliert etwa die Hälfte seiner anfänglichen Energie. Nach ein wenig Formel-Physik findet man, dass die mittlere freie Weglänge fürs Proton gerade einmal 60–100 Mio. Lichtjahre beträgt. Der „Knöchel“ im Spektrum der kosmischen Strahlung (siehe . Abb. 12.11) könnte deshalb maßgeblich durch die Akkumulation von Protonen, deren Energie anfänglich größer war als 1020 eV, entstanden sein. Diese „cut-off“Energie ist in der Literatur als „GZK cut-off“ bekannt, benannt nach Greisen, Zatsepin und Kuz’min11 . Das relativistische Neutron aus der obigen Reaktion zerfällt nach einer vergleichsweise kurzen Reise von einigen Millionen Lichtjahren zurück zum Proton. Sollten deshalb Protonen mit Energien größer als einige 1020 eV im Spektrum der kosmischen Strahlung beobachtet werden, so müssten die zugehörigen Quellen innerhalb einer Umgebung von etwa 100 Mio. Lichtjahren zu finden sein. Eine ähnliche Argumentation, jedoch mit gänzlich anderer Konsequenz, lässt sich entwickeln, sollten die höchstenergetischen Teilchenkomponenten aus Atomkernen mit Massen größer als z. B. Kohlenstoff oder Sauerstoff bestehen. Für diese Kerne reicht bereits eine γ -Energie von ca. 15 MeV, um sie während ihrer intergalaktischen Reise zu photo-dissoziieren. Bei dem Prozess wird von dem hochenergetischen Photon ein Nukleon aus dem Nukleonenverband herausgeschlagen. Die im Vergleich zur obigen Pion-Erzeugung benötigte geringere Energie bewirkt außerdem, dass die „cut-off“-Energien für massereiche (damit „weniger schnelle“) Systeme in etwa gleich jener für Protonen sind. Die freie Weglänge für eine solche nukleare Photo-Dissoziation ist jedoch nur etwa 50.000–100.000 Lichtjahre und damit deutlich kürzer als die Abstände zweier Galaxien. Da der anfängliche Atomkern dabei weniger als 4 % Energie verliert, ist der Prozess über intergalaktische Distanzen kumulativ und endet mit der weitgehenden Zerstörung des Kerns. Eine Akkumulation schwerer Kerne knapp unterhalb des „cut-offs“ wie dies für Protonen der Fall wäre, ist daher nicht zu erwarten. Sollte deshalb der „Knöchel“ im Spektrum der kosmischen Strahlung dennoch überwiegend aus Eisen bestehen, wie in der . Abb. 12.11 dargestellt, so kann diese Komponente nur innerhalb der Milchstraße und in nahezu ursprünglicher Form entstanden sein. Dennoch bleibt die Lokalisierung einer kosmischen Strahlungsquelle selbst bei einer genauen Bestimmung der Einschlagsrichtung des auf der Erde ankommenden Teilchens problematisch. Mit Ausnahme des Neutrinos unterliegen nämlich alle anderen bislang bekannten kosmischen Teilchen der elektromagnetischen Wechselwirkung. Über große Distanzen sind daher Richtungsänderungen infolge von Streuung und vor allem solche verursacht durch magnetische Felder nicht auszuschließen (siehe . Abb. 12.12). Galaktische und/oder intergalaktische Ionen-Ströme sind die Erzeugenden dieser Magnetfelder, wobei sich deren Feldlinien über Bereiche weit 11 G. T. Zatsepin, V. A. Kuz’min, Upper Limit of the Spectrum of Cosmic Rays., Journal of Experimental and Theoretical Physics Letters. 4, (1966), und Kenneth Greisen, End to the Cosmic-Ray Spectrum?, Physical Review Letters 16, (1966).

240

Kapitel 12 · Kosmische Botschaften

geladenes Teilchen

. Abb. 12.12 Ablenkung geladener Teilchen durch galaktische und intergalaktische Magnetfelder. Nur Photonen und Neutrinos bewegen sich geradlinig. Allerdings werden Photonen durch intergalaktischen Staub gestreut und dabei aus ihrer ursprünglichen Bahn geworfen. Lediglich Neutrinos erleiden keines dieser Schicksale. Sie können ungehindert kosmologische Distanzen zurücklegen

12

außerhalb der Galaxien erstrecken. Schätzungen von Magnetfeldstärken im intergalaktischen Raum gehen von etwa 0,01–10 pT (pico-Tesla) aus, je nach betrachtetem Raumgebiet. Diese Feldstärken sind im Vergleich zum Erdmagnetfeld mit seinen etwa 30 μT eher winzig, jedoch auf kosmischer Skala durchaus beachtlich. Ein geladenes Teilchen mit einer Energie von 1020 eV würde in einem solchen intergalaktischen Feld auf einer Kreisbahn mit einem Radius von 0,03–30 Mio. Lichtjahren festgehalten. Neutrinos hingegen können kosmische Distanzen ungehindert durchqueren und somit zielgenau auf den Punkt ihrer Entstehung hinweisen. Zudem werden ihre Energien durch den oben beschriebenen „cut-off“ nicht herabgesetzt. Die Hoffnung ist deshalb, dass sie den „Vorhang“ bei 1020/1021 eV liften und ein Sichtfenster öffnen zu neuer und unbekannter Physik. Unglücklicherweise durchdringen Neutrinos auch gleichermaßen ungehindert die von den Menschen aufgestellten Neutrino-Detektoren. There is no free lunch. Hier hilft dann nur schlichte Detektorgröße und ausdauerndes Warten, bis schließlich eines dieser Teilchen hin und wieder mal eingefangen wird. Die Tatsache, dass in der kosmischen Strahlung Energien bis jenseits von 1020 eV beobachtet werden, wirft die Frage auf, wie diese enormen Energien entstehen können. Klar ist, Sonnen, Supernovae, Neutronensterne sind nicht annähernd in der Lage, in einem direkten Prozess Teilchen mit diesen Energien zu produzieren. Das Limit dürfte hier bestenfalls bei etwa 1016 eV liegen. Allerdings stoßen Supernovae sowie auch Neutronensterne und rotierende Schwarze Löcher Kosmische Tennisschläger

241 12.2 · Entschlüsselung der kosmischen Strahlung

v1

12

Schockfront v2

Eein

Eaus . Abb. 12.13 Vereinfachte Visualisierung einer Schockfront-Beschleunigung anhand des TennisschlägerEffekt. Die Schockfront entsteht, wenn schnelle Teilchenströme (z. B. aus Supernovae) auf interstellares Gas treffen und dort abgebremst und komprimiert werden (Geschwindigkeit v1  v2 ). Turbulenzen und extreme elektrische und magnetische Feld-Verwirbelungen sind die Folge. Ein nachfolgendes Objekt kann Energie gewinnen, wenn es die Schockfront in Bewegungsrichtung durchdringt aber auch wenn es in die Front zurück reflektiert wird. Der Prozess ist kumulativ und kann mit erheblichem Energiegewinn enden (Eaus  Eein ). In dieser Darstellung stehen die Tennisschläger für die extremen Felder, welche die geladenen Teilchen reflektieren und beschleunigen. Der Prozess ist zudem diffusiv, d. h., Information über die anfängliche Bewegungsrichtung des Teilchens geht verloren

große Mengen Materie in Form von hochenergetischen geladenen Teilchenströmen aus, die dann auf quasi-thermisches interstellares Gas treffen und dort gebremst und komprimiert werden. Die Folge ist die Ausbildung einer gigantischen Schockfront. Die Physik von Schockfronten ist generell nicht neu, die Beschreibung der physikalischen Vorgänge in Kombination mit elektromagnetischen Feldern ist jedoch außerordentlich komplex und vielschichtig und ohne Großrechenanlagen nicht zu bewältigen. Das gesamte Spektrum der Plasma-Physik kommt hier zum Tragen. Turbulenzen mit hochgradigen Instabilitäten jeweils in Wechselwirkung mit extremen elektrischen und magnetischen Feldern sind in der Lage, großvolumige Bereiche zu beschleunigen, abzubremsen oder auch an den Schockgrenzen unter Energiegewinn mehrfach zu reflektieren. Diese Prozesse sind zudem diffusiv, d. h., die Information über die anfängliche Bewegungsrichtung eines Objekts geht verloren. Trotz der Komplexität, lässt sich der Prozess eines Energiegewinns aus einer Schockfront in seiner Endbilanz mittels einfacher Analogien aus dem täglichen Leben verstehen. Zwei Beispiele mögen das verdeutlichen (siehe auch . Abb. 12.13): 5 Das Tennisschläger-Phänomen: Beim Aufschlag im Tennis erreicht der Tennisball Geschwindigkeiten von bis zu 250 km/h (Tennis-Profis vorausgesetzt!). Weder der schlagende Arm, noch der Tennisschläger besitzen auch nur annähernd diese Geschwindigkeit. Die Bespannung des Tennisschlägers hat hier die Funktion einer Schockfront und das Rückstell-Kraftpotenzial der Bespannung bewirkt die Reflexion und die Beschleunigung, ähnlich dem Magnetfeld in einer kosmischen Schockfront (. Abb. 12.14).

242

Kapitel 12 · Kosmische Botschaften

Hilda-Gruppe (L3)

Trojaner-Gruppe (L5)

Mars

Venus Merkur Sonne Erde

Jupiter Griechische Gruppe (L4)

. Abb. 12.14 Planetensystem und Asteroiden-Gürtel. In den Lagrange-Punkten L3, L4 und L5 des Systems Jupiter-Sonne befinden sich die sogenannten Trojaner-Camps, in denen sich mehrere Millionen KleinstAsteroide aufhalten, von denen etwa 7000 katalogisiert sind. Die Sonde Cassini benutzte den 2-fachen Flyby zur Venus und erreichte somit den Asteroiden-Gürtel zwischen Mars und Jupiter

12

5 Das Flyby-Phänomen: Ein ähnliche, allerdings völlig berührungslose Situation tritt in der Satelliten-Physik bei interplanetaren Missionen auf. Ein Satellit, der sich einem Himmelsobjekt (Venus, Mars, etc.) rückseitig, d. h. seiner orbitalen Bewegungsrichtung folgend, nähert, wird von dem Gravitationsfeld eingefangen und im Flyby aus dem Gravitationsfeld mit höherer Geschwindigkeit herausgeschleudert. Je schneller der Himmelskörper sich bewegt (z. B. Venus, Erde, Mars), desto größer ist der Geschwindigkeitsgewinn. Die bereits erwähnte Cassini-Mission ist das in der Öffentlichkeit wahrscheinlich bekannteste Projekt. Die Raumsonde vollführte 2 Flybys zu dem inneren Planeten Venus (am 26. April 1998 und am 24. Juni 1999) und hatte damit genügend „Schwung“, um den Asteroiden-Gürtel zwischen Mars und Jupiter zu erreichen. Sein HuygensModul landete schließlich 2005 auf dem Saturn-Mond Titan.

Die beiden Prozesse, Tennisschläger und Flyby, sind in geschlossener mathematischer Form berechenbar und werden bereits in unteren Semestern eines Physikstudiums behandelt. Astronomische Beobachtungen helfen natürlich, die mathematischen Beschreibungsmodelle solcher Schockfronten zu prüfen und weiterzuentwickeln. Jedoch, die zentrale Frage, ob kosmische Schockfronten generell als die Erzeugenden der beobachteten Teilchenenergien bis zu 1020 eV und darüber in Frage kommen, wird nach wie vor kontrovers diskutiert.

243 12.3 · Gravitationswellen, die neue Strahlung

12

Die häufigsten Formen von Schockfronten innerhalb einer Galaxie (z. B. Milchstraße) entstehen als Folge von SupernovaExplosionen, und zwar dann, wenn die Überreste („supernova-remnants“) des ursprünglichen Sterns mit hoher Geschwindigkeit auf das interstellare Gas treffen. Sollte deshalb die auf der Erde gemessene hoch- und höchstenergetische kosmische Strahlung hier ihren Ursprung haben, so muss die Teilchenkomposition der Strahlung ein Abbild der Supernova-Nukleosynthese sein mit einer für sie typischen, stark ausgeprägten Eisen/Nickel-Komponente, wie dies z. B. in der . Abb. 12.11 gezeigt ist. Bei einer Frequenz von etwa 2 Supernovae pro Jahrhundert in der Milchstraße und einer aktiven Lebenszeit der Supernova-Schockfronten von größer als 106 Jahren, ergäbe sich über kosmische Zeitskalen ein nahezu konstanter kosmischer Strahlungsfluss. Da zudem die Entstehungsprozesse diffusiv sind, wäre die innergalaktische kosmische Strahlung weitestgehend isotrop. Diese Argumentationen stehen im Einklang mit der derzeitigen Beobachtung. Wenn die kosmische Strahlung nicht gerade auf Objekte wie die Erde trifft, so wird sie die Galaxie verlassen. Aus der Dichte des auf die Erde treffenden Strahlungsflusses und unter der Annahme einer Isotropie lässt sich die aus der Milchstraßen-Galaxie abfließende Energie pro Zeiteinheit (oder die Leistung) leicht errechnen. Die von Supernovae in die Galaxie im zeitlichen Mittel eingebrachte Leistung beträgt etwa 6 × 1034 Watt (bei 2 Supernovae pro Jahrhundert mit einer mittleren Explosionsenergie von 1044 Wattsekunden, Neutrinos ausgenommen). Der errechnete Energie-Abfluss pro Zeiteinheit beträgt etwa 10 % dieses Wertes, sodass der Strahlungsinhalt einer Galaxie problemlos durch SupernovaExplosionen über kosmische Zeiten konstant aufrechterhalten werden kann. Sollten unsere Nachbargalaxien einen ähnlichen Energie-Abfluss besitzen, so wäre diese Strahlung mit den größten erdgebundenen Strahlungsdetektoren erkennbar (allerdings, siehe Fußnote12 ).

Supernovae und kosmische Strahlung

12.3

Gravitationswellen, die neue Strahlung

Es ist ganz einfach: Wenn die Allgemeine Relativitätstheorie eine korrekte Theorie sein soll, dann ist die Existenz von Gravitationswellen zwingend. Albert Einstein hatte dies bereits 1916 folgerichtig postuliert. Allerdings enthielt seine anfängliche Herleitung einen entscheidenden Fehler, sodass er sich Anfang 1918, d. h. etwa eineinhalb Jahre später genötigt sah, diesen Fehler in einer etwas ausführlicheren

12 Eine Galaxie ist i. a. ebenfalls umgeben von einem intergalaktischen Gas. Trifft ein hochenergetischer Teilchenfluss auf dieses Gas bildet sich auch hier eine Schockfront aus, die einen Teil des Teilchenstroms zurückwirft. Allerdings ist wenig experimentelles Datenmaterial hierfür vorhanden. Eine recht allgemeinverständliche theoretische Abhandlung zu diesem wohlbekannten Problem gibt es in der Referenz: Lukas Merten, Chad Bustard, Ellen G. Zweibel und Julia Becker Tjus, The Propagation of Cosmic Rays From the Galactic Wind Termination Shock: Back to the Galaxy?, arXiv:1803.08376v2 [astro-ph.HE], (2018) und gleiche Autoren, gleicher Titel in The Astrophysical Journal, 859, 63 (2018).

244

Kapitel 12 · Kosmische Botschaften

und 14-seitigen Abhandlung zu korrigieren13 . Diese Veröffentlichung beginnt dann auch mit einem denkwürdigen Satz: Albert Einstein 1918: Die wichtige Frage, wie die Ausbreitung der Gravitationsfelder erfolgt, ist schon vor anderthalb Jahre in einer Akademiearbeit von mir behandelt worden[Zitat] . Da aber meine Darstellung des Gegenstandes nicht genügend durchsichtig und auß erdem durch einen bedauerlichen Rechenfehler verunstaltet ist, muß ich hier nochmals auf die Angelegenheit zurückkommen. [Zitat]:

12

Sitzungsbericht Königlich Preußische Akademie der Wissenschaften zu Berlin 1916, Seite 648 ff

Das Phänomen « Gravitationswellen » ist intuitiv und einfach zu verstehen. Da jede Masse von einem Gravitationspotenzial umgeben ist, welches direkt auf seine Umgebung einwirkt, muss eine Bewegung der Masse und damit die Veränderung der gravitativen und raum-zeitlichen Verhältnisse auch jener Umgebung mitgeteilt werden. Dabei wird präjudiziert, dass dieser Informationsaustausch mit Lichtgeschwindigkeit erfolgt. Aus den Einstein’schen Feldgleichungen lässt sich mit ein wenig, jedoch nicht ganz einfach zu verstehender Mathematik für solche zeitlich veränderlichen Gravitationsfelder eine Wellengleichung herleiten. Erstaunlicherweise ist diese Wellengleichung der Maxwell’schen Wellengleichung für elektromagnetische Felder sehr ähnlich. Gravitationswellen wirken jedoch auf die Raum-Zeit, und da die « gravitative » Wechselwirkung etwa 36!! Größenordnungen schwächer ist als die «elektromagnetische» Wechselwirkung, ist der „fühlbare“ Effekt auch um einen entsprechenden Faktor geringer (vgl. hierzu auch die . Tab. 4.1). Grundsätzlich bedeutet dies aber auch, dass selbst ein Mensch, so er sich bewegt, Gravitationswellen abstrahlt, und dies als direkte Folge der durch diese Bewegung verursachten Änderung der Raum-Zeit. Der Effekt ist allerdings nicht messbar und zurzeit wohl auch eher akademisch. In der Tat ist es sogar so, dass Gravitationswellen aufgrund ihrer winzigen Wechselwirkung bis in die 1960/1970er-Jahre allgemein als nicht messbar galten. Der erste, allerdings indirekte Nachweis einer Energie-Abstrahlung durch Gravitationswellen gelang 1974 den Astronomen Russell A. Hulse and Joseph H. Taylor14 durch eine beeindruckende, 25 Jahre lange und extrem genaue Beobachtung der Bahndaten des Millisekunden-Pulsars PSR1913+16. Dieser befindet sich in einer Entfernung von 20.870 Lichtjahren und besitzt eine Rotationsperiode von ca. 59 ms. Der Pulsar bildet mit einem nicht sichtbaren Neutronenstern ein Doppelsternsystem, wobei beide Systeme eine nahezu identische und für Neutronensterne typische Masse von ca. 1,4 Sonnenmassen besitzen. Beide Sterne befinden sich auf einer exzentrischen, elliptischen Bahn um einen gemeinsamen Schwerpunkt mit einer Umlaufszeit von 7,75 Stunden. Ihr Abstand variiert zwi13 Albert Einstein, Über Gravitationswellen, Sitzungsbericht, Königlich Preußische Akademie der Wissenschaften zu Berlin 1918, 154 (1918). 14 „Für die Entdeckung eines neuen Pulsar-Typs, welche neue Möglichkeiten für das Studium der Gravitation eröffnet.“ erhielten Russell A. Hulse and Joseph H. Taylor, Jr, beide Princeton University, USA, den Physik-Nobelpreis 1993.

245 12.3 · Gravitationswellen, die neue Strahlung

12

. Abb. 12.15 Illustration des Pulsar-Doppelsternsystems PSR1913+16, in dem zwei Neutronensterne (rechts der Pulsar) auf exzentrischen Bahnen umeinander rotieren und dabei Gravitationswellen emittieren. Die derzeitige Umlaufszeit von 7,75 Stunden ändert sich dabei um 76,5 μs pro Jahr

schen 765.000 km (Minimum) und 3,34 Mio. km (Maximum) (siehe . Abb. 12.15). Hulse und Taylor konnten durch ihre Messungen zeigen, dass sich die Umlaufszeit von 7,75 Stunden aufgrund von Gravitationswellen-Abstrahlung sukzessive verringert. Der heutige genaue Wert dieser Änderung beträgt 76,5 μs pro Jahr, und das Verhältnis aus diesem gemessenen und von der Allgemeinen Relativitätstheorie berechneten Wert ergibt 0,997 ± 0,002 – ein in jeder Hinsicht erstaunliches Ergebnis. Ferner, aufgrund des konstanten Energie-Ausstoßes durch Gravitationswellen schrumpfen die großen Halbachsen der jeweiligen Umlaufbahnen um etwa 3,5 m pro Jahr. Die abgestrahlte Leistung dieses Systems beträgt etwa 7, 35 × 1021 kW. Das entspricht etwa 2 % der von der Sonne abgestrahlten Lichtleistung. Mit diesen Daten verbleiben dem Doppelstern-System noch ca. 300 Mio. Jahre, bevor es zu einem Schwarzen Loch kollabiert. Die Entdeckung von Hulse und Taylor stellte ohne Zweifel einen Höhepunkt in der Forschung zur Gravitation dar. Dennoch ist bis heute immer noch erstaunlich wenig über diese Wechselwirkung bekannt und vieles unterliegt auch immer noch spekulativen theoretischen Modellen. Erfolg versprechende Laser-Technologien haben schließlich den Ausschlag gegeben, die Entwicklung und Konstruktion von Gravitationswellen-Detektoren voranzutreiben, mit dem Ziel, mit diesen Instrumenten Gravitationswellen in direkter Weise messtechnisch zu erfassen. Die beiden größten und mittlerweile bereits aktiven Projekte sind das LIGO-Observatorium (LIGO=Laser Interferometer Gravitational wave Observatory) in den USA und das von Frankreich und Italien initiierte VIRGO Projekt auf dem Gelände des „European Gravitational Observatory“ (EGO) in Cascina nahe der Stadt Pisa. Die Techniken wurden dabei so ausgelegt, dass die von den Gravitationswellen aus kosmischen Ereignissen zu erwartenden relativen Längenänderungen von l/l ≤ 10−21 erfasst werden können. Auf einer Skala von 1 m entspricht diese Messvorgabe etwa dem 1 Mio.-sten Teil eines Proton-Durchmessers (oder dem 100 Mrd.-sten Teil des Durchmessers eines Wasserstoff-Atoms). LIGO und VIRGO haben mittlerweile

246

Kapitel 12 · Kosmische Botschaften

Hanford

37

00

km

Livingston

Pisa

12

. Abb. 12.16 Die LIGO und VIRGO Gravitationswellen-Detektoren in den USA und Italien. Die Luftaufnahmen zeigen die jeweiligen Ausmaße der Interferometeranordnungen. Die Armlängen von LIGO betragen 2 km in Hanford und 4 km in Livingston, und diejenigen von VIRGO 3 km

signifikante Erweiterungen zur Erhöhung der Empfindlichkeiten vorgenommen und werden in der Literatur mit den Namen „Advanced-LIGO“ und „AdvancedVIRGO“ benannt (. Abb. 12.16). Das Advanced-LIGO-Observatorium besteht aus zwei gigantischen und weit voneinander getrennten Michelson-Interferometern, eines in Hanford im USBundesstaat Washington und eines etwa 3700 km entfernt in Livingston im USBundesstaat Louisiana. Beide Instrumente sind zeitlich aufeinander abgestimmt, um mögliche Gravitationswellen-Signale miteinander korrelieren zu können und somit etwaige lokal bedingte Störanteile aus unterschiedlichen Quellen zu unterdrücken. Nach einer 10-jährigen Bauzeit und einer anschließenden etwa 5-jährigen Testphase begann LIGO 2007 mit der ersten Datennahme. Etwa zeitgleich wurde das Interferometer „VIRGO“ erstellt, welches nach einer Aufrüstungspause als „ Advanced-VIRGO“ am 1. August 2017 den wissenschaftlichen Betrieb aufnahm. Mit diesem dritten Instrument ist es nun auch erstmals

247 12.3 · Gravitationswellen, die neue Strahlung

12

möglich, eine genaue Ortung der Strahlungsquelle vornehmen zu können, denn im Gegensatz zu elektromagnetischen Wellen (z. B. Licht) haben Gravitationswellen eine andere Formationscharakteristik (siehe . Abb. 12.17). Zur Ortung einer Quelle ist deshalb die Messung von Laufzeitdifferenzen der Gravitationswellen zwischen mindestens drei (möglichst weit voneinander entfernten) Detektoren erforderlich. Die Funktionsweise eines Michelson-Interferometer ist in der . Abb. 12.18 mit den relevanten Daten aus dem LIGO-Experiment dargestellt. Die Strahlleistung eines 180 Watt frequenzstabilisierten Lasers wird zunächst in einem „Power-Recycling“-Spiegel auf ca. 5 kW erhöht. Über einen Strahlteiler wird der Strahl in die beiden rechtwinklig zueinander stehenden Arme mit dem jeweiligen Fabry-Pérot Resonator geleitet. Jeder Resonator besteht aus zwei Spiegeln, von

2

1

4

3

. Abb. 12.17 Wirkungsweise Gravitationswelle: Innerhalb einer ganzen Wellenlänge (1 – 4) treten in Abständen von jeweils der halben Wellenlänge (2 – 3) eine Längs- und eine Querkontraktion auf. Bei einer typischen Frequenz von etwa 300 Hz erstreckt sich die Wellenlänge über einen Bereich von 1000 km

Endspiegel

4 km

700 kW Fabry-Pérot Resonator (280 mal)

Power Recycling Spiegel Eingangsspiegel

Laser

180 W

Nd: YAG laser λ = 1064 nm

5 kW

700 kW 4 km

Strahlteiler

Fabry-Pérot Resonator (280 mal)

Signal Recycling Spiegel

Foto-Diode

. Abb. 12.18 Wirkungsweise des LIGO Michelson-Interferometers

248

Kapitel 12 · Kosmische Botschaften

1.0 0.5 0.0 -0.5 -1.0

H1-Signal

L1-Signal H1-Signal

1.0 0.5 0.0 -0.5 -1.0

ART-Rechnung

ART-Rechnung

0,35 0,4 0,45 Zeit [s]

0,3

0,35 0,4 0,45 Zeit [s]

512 256 128 64 32

8 6 4 2 0

0,3

0,35 0,4 0,45 Zeit [s]

0,3

relative Amplitude

0,3 Frequenz [Hz]

12

rel. Auslenkung (10-21)

denen einer (der Eingangsspiegel) teildurchlässig ist. Das Licht durchläuft die 4 km lange Strecke in dem Resonator 280 Mal, ehe es durch den teildurchlässigen Spiegel wieder auf den Strahlteiler trifft und von dort auf die lichtempfindliche Foto-Diode gelangt. Durch die Technik der Mehrfachreflexionen wird die effektive Lauflänge des Lichts auf 280 ×4 km = 1120 km vergrößert, wodurch eine signifikante Erhöhung der Empfindlichkeit des Instruments erreicht wird. Die gesamte Anordnung befindet sich natürlich in einem Hoch-Vakuum. Durchquert eine Gravitationswelle das Interferometer, ändern sich die relativen Längen der beiden Arme. Im Wellenberg der Gravitationswelle verkürzt sich die Länge, im Wellental wird sie verlängert. Aufgrund der rechtwinkligen Anordnung ist der Effekt in beiden Armen unterschiedlich. Das ruft eine winzige Frequenzverschiebung hervor, die sich als eine Phasenverschiebung der beiden Teilwellen des Laserlichtes äußert und bei Überlagerung das Interferenz-Profil in dem Lichtdetektor ändert. Die Nullstellung wird so eingestellt, dass sich das Laserlicht am Ort des Lichtdetektors idealerweise exakt auslöscht. Frequenz und Intensität der Gravitationswelle werden somit direkt auf den Strom der Foto-Diode übertragen. Am 14. September 2015 – und fast 100 Jahre nach Einsteins Vorhersage – gelang der LIGO-Kollaboration der erste direkte Nachweis von Gravitationswellen. Das gemessene Signal (siehe . Abb. 12.19) stammte von zwei Schwarzen Löchern, die

0,35 0,4 0,45 Zeit [s]

. Abb. 12.19 Gravitationswellen-Signal zweier kollabierender Schwarzer Löcher am 14. September 2015, gemessen vom „ Advanced-LIGO“-Detektor. Das obige Bild zeigt die Schwingungscharakteristik hervorgerufen durch die Umlaufsfrequenz der beiden Schwarzen Löcher, in Rot das Signal im Hanford-Detektor und in Blau das Signal im Livingston-Detektor – darunter Rechnungen im Rahmen der Allgemeinen Relativitätstheorie. Der untere Bildteil zeigt die Frequenzanalyse des Signals mit dem Maximum bei etwa 150 Hz. Die gesamte Zeitskala erstreckt sich gerade einmal über 0,2 Sekunden. (Quelle: LIGO/P.B. Abbott et al., (CC-BY 3.0))

249 12.3 · Gravitationswellen, die neue Strahlung

12

umeinander rotierten, dabei sich immer schneller aufeinander zubewegten, um schließlich in der Endphase zu einem neuen Schwarzen Loch zu verschmelzen. Vereinigt hatten sich dabei ein Schwarzes Loch von ca. 36 und eines von ca. 29 Sonnenmassen, und übrig blieb ein Schwarzes Loch von ca. 62 Sonnenmassen. Die Differenz von 3,0±0,5 !! Sonnenmassen wurde dabei vollständig in GravitationswellenEnergie umgesetzt und auf die Reise durchs Universum geschickt. Das ganze Geschehen spielte sich innerhalb von weniger als einer Sekunde ab und geschah in einer Entfernung von etwa 1,3 ± 0,5 Mrd. Lichtjahren. Auf der Erde angekommen erzeugte die Gravitationswelle eine relative Raumverzerrung in der Größenordnung von l/l ≈ 10−21 mit einer Schwingungsfrequenz, die der Orbitalfrequenz der beiden Schwarzen Löcher bis zu deren Verschmelzung entsprach15 . Am 14. August 2017 um 12:30:43 Uhr MEZ beobachteten sowohl die beiden LIGO-Detektoren als auch der VIRGO-Detektor das Signal GW170814 (GravitationsWelle 14-08-2017), welches ebenfalls von zwei kollabierenden Schwarzen Löchern erzeugt wurde – bedeutungsvoll auch insofern, da Advanced-VIRGO gerade am 1. August mit Beobachtungen begonnen hatte. Am 17. August 2017 konnten erstmals elektromagnetische Strahlung und Gravitationswellen von einem Ereignis in der 130 Mio. Lichtjahre entfernten Galaxie NGC 4993 simultan registriert werden. Die Analyse zeigte auf eine Kollision zweier Neutronensterne. Im Oktober 2020 veröffentlichten die LIGO- und die VIRGO-Kollaboration einen aktualisierten Gravitationswellenkatalog mit mittlerweile 50 Einträgen, von denen 46 Ereignisse verschmelzenden Schwarzen Löchern zugeordnet werden16 . Der erfolgreiche Nachweis von Gravitationswellen öffnet ein völlig neues, unbekanntes und spannendes Kapitel in der kosmischen Forschung. Die Tatsache, dass innerhalb kürzester Zeit nach dem „Einschalten“ der Gravitationswellen-Detektoren Verschmelzungen von Neutronensternen und Schwarzen Löchern beobachtet werden konnten, zeigt, dass solche Ereignisse im Universum nicht selten sind. Dieses birgt denn auch ein beachtliches Erkenntnis-Potenzial, welches nicht nur auf kosmologische Fragestellungen beschränkt bleibt. Einiges hierzu sei hier angemerkt:

Der Ausblick

5 Gravitationswellen, die von Schwarzen Löchern und deren Kollisionen emittiert werden, geben einen unmittelbaren Einblick in das gesamte Spektrum von Merkwürdigkeiten, welches Schwarze Löcher erzeugen. Ein solcher Einblick ergibt sich mittels anderer Strahlungstypen nicht. Dabei geht es vor allem um die Frage, welche physikalischen Gesetze diese Gebilde beschreiben und inwieweit diese unser derzeitiges Weltbild verändern. 5 Primordiale Gravitationswellen tragen Informationen über das früheste Universum und erlauben eine ungehinderte Sicht bis hin zur Inflationsphase. Weder 15 Im Jahr 2017 erhielten Rainer Weiss, Mass. Inst. of Technology (MIT), Barry Barish, Calif. Inst. of Technology (Caltech) und Kip Thorne (Caltech) für diese Arbeiten den Nobelpreis für Physik. 16 URL: 7 www.ligo.org/science/Publication-O3aCatalog/

Kapitel 12 · Kosmische Botschaften

250

Neutrinos noch Photonen erlauben eine solche Rückschau in die Vergangenheit. 5 Die Fragen, wie Zeit und Raum entstehen und wie diese Größen einer Quantisierung unterliegen, werden mit dem Studium von Gravitationswellen ebenfalls direkt tangiert. Die Quantengravitationstheorie harrt nach wie vor ihrer Entdeckung und experimentellen Überprüfung. 5 Bei Verschmelzung Schwarzer Löcher werden bisweilen immense Massen in Gravitationswellen-Energie umgesetzt unter Umgehung der in der Teilchenphysik fest etablierten und von allen anderen Wechselwirkungen respektierten Baryonenzahl- und Leptonenzahl-Erhaltung. Die Elementarteilchenphysik wird sich im Rahmen einer umfassenden Quantentheorie mit diesem Phänomen beschäftigen müssen. 5 Der innere Materiezustand von Neutronensternen und Pulsaren ist nach wie vor wenig verstanden. Bis zu welchen Dichten lässt sich Materie komprimieren und welche neue Formen von Zuständen werden hier gebildet? Gibt es die von theoretischen Modellen vorhergesagten supraleitenden Formen baryonischer Materie? Gravitationswellen haben das Potenzial, hierüber Auskunft zu geben. 5 Und schließlich, wie wechselwirken Gravitationswellen mit Dunkler Materie und Dunkler Energie?

12.4

12

Drei Detektoren

Es gibt derzeit insgesamt 41 verschiedene aktive experimentelle Projekte zur Untersuchung und Aufschlüsselung der kosmischen Strahlung, davon sind 24 erdgebundene Experimente, 10 sind Satelliten-Experimente – das älteste davon ist Voyager-1 mit nun über 43 Jahren im All und Ende 2020 etwa 22 Lichtstunden entfernt – und 7 sind Ballon-Experimente. Jedes einzelne verfolgt eine spezifische Fragestellung. Wir werden an dieser Stelle lediglich die drei größten und wegen ihrer Größe auch spektakulärsten Detektoren kurz beschreiben. Detaillierte Beschreibungen dieser Detektoren, deren Funktionsweisen sowie die wissenschaftlichen Zielstellungen der Projekte finden sich auf den jeweiligen Internet-Plattformen. IceCube ist ein Hochenergie-Neutrino-Observatorium in der Antarktis und Teil der dortigen Amundsen-Scott-Südpolstation. Die Station liegt in 2835 m Höhe auf dem Inlandeis. Das Observatorium betreibt im Rahmen einer internationalen Kollaboration den namensgleichen IceCube-Detektor, welcher speziell für den Nachweis hoch- und höchstenergetischer Neutrinos in der kosmischen Strahlung ausgelegt ist und dazu relevante Daten produziert. Da Neutrinos nicht durch kosmische Magnetfelder abgelenkt werden und auch Materie nahezu ungehindert durchdringen, lassen sich aus deren Einfallsrichtung die kosmischen Quellen lokalisieren. Zusammen mit astronomischen Beobachtungen, die

Der „ IceCube“-Detektor

251 12.4 · Drei Detektoren

12

an anderen Orten der Erde durchgeführt werden, versucht man, den Entstehungsmechanismus höchstenergetischer Neutrinos zu entschlüsseln. IceCube benutzt als Detektormaterial das originäre Gletscher-Eis am Südpol. Dieses Eis besitzt eine besonders vorteilhafte Eigenschaft, die letztlich ausschlaggebend war, einen Hochenergie-Neutrino-Detektor an dieser unwirtlichen Stelle zu installieren. Es zeichnet sich durch eine außergewöhnliche Reinheit aus und ist ˇ damit von besonders hoher Transparenz für die Cerenkov-Strahlung, welche z. B. von geladenen Teilchen, die aus einer Neutrino-Wechselwirkung stammen, erzeugt wird. In dem Eis sind 86 Kabelstränge mit insgesamt 5160 Einzel-Detektoren (Photomultipliern) bis zu einer Tiefe von 2450 m eingelassen. Sie formen den IceCubeDetektor mit seinem 1 km3 großen Volumen und seiner 6-eckigen Struktur. Die Einzel-Detektoren sind wie an einer Perlenkette an Kabelsträngen aufgereiht, wobei jeder dieser Stränge während der Installation in ein mit heißem Wasser „gebohrtes“ ˇ Eisloch eingelassen wurde, welches anschließend wieder zufror. (Zur Cerenkov17 Strahlung siehe Fußnote .) Zusätzlich zum Neutrino-Detektor im Eis gibt es oberhalb von IceCube ein ˇ welche 1 km2 großes Areal (IceTop) mit 162 Wasser/Eis-Cerenkov-Detektoren, Luftschauerprofile messen, die durch kosmische Strahlung erzeugt werden, und deren Signale sich mit denen vom IceCube-Detektor korrelieren lassen. Die Photodetektoren stellen eine besondere Entwicklung dar. Sie haben eine 550 cm2 große photoempfindliche, halbkugelförmige Kathodenfläche und sind zusammen mit einer digitalen Auslese- und Kommunikationselektronik in ein druckfestes Glasgehäuse eingebracht. Die Glasgehäuse wurden einzeln getestet bis zu einem Außendruck von ca. 650 atm (ca. 6500 Meter Wasser-Äquivalent). Eine eindrucksvolle und detaillierte Beschreibung aller technischen Aspekte zur Instrumentierung des IceCube-Detektors ist in der Referenz18 gegeben. Die . Abb. 12.20 gibt einen Überblick über das Areal am Südpol und die Größe des IceCube-Detektors oberhalb und unterhalb der Eisoberfläche. Der Nachweis von Neutrinos führt immer über die von Neutrinos hervorgerufenen Reaktionen und die dabei entstehenden geladenen Teilchen. Dieses gilt natürlich auch für IceCube, bei dem die geladenen Teilchen, so sie genüˇ gend Energie besitzen, Cerenkov-Strahlung im Eis erzeugen. Je höher die primäre ˇ Energie, desto mehr Teilchen werden erzeugt und desto intensiver ist die CerenkovStrahlung. Eine Identifizierung primärer kosmischer Neutrinos, d. h. solche die ihren Ursprung in einer kosmischen Quelle haben, ist jedoch keineswegs trivial.

Neutrinos in IceCube

ˇ 17 Cerenkov-Strahlung entsteht, wenn geladene Teilchen sich in einem Medium mit Überlichtgeschwindigkeit bewegen. Dies ist möglich, da im Medium die Lichtgeschwindigkeit cM um einen Faktor n gegenüber der Vakuum-Lichtgeschwindigkeit cV reduziert ist (cM = cV /n), wobei n der Brechungsindex des Mediums ist. Die Strahlung wird kegelförmig entlang der Teilchenbahn emittiert, ähnlich dem in der Akustik beobachteten Mach-Kegel nach dem Durchstoßen der Schallmauer. Eis und Wasser haben einen Brechungsindex n = 1,31 und n = 1,33. Der Unterschied resultiert aus der unterschiedlichen Dichte. „Für die Entdeckung und Interpretation des Cerenkov-Effekts“ ˇ erhielten Pavel A. Cerenkov, Ilja M. Frank und Igor J. Tamm den Physik-Nobelpreis 1958. 18 IceCube Collaboration: M. G. Aartsen et al., The IceCube Neutrino Observatory: Instrumentation and Online Systems, arXiv:1612.05093v2 [astro-ph.IM], 1 (2017) und gleiche Autoren, gleicher Titel, Journal of Instrumentation 12, P03012 ( 2017).

252

Kapitel 12 · Kosmische Botschaften

Astronomie Sektor

}

Südpol-Station Gebäude

IceCube

AMANDA

ay iw hn Sk eba nd La

IceCube Control-Center

IceCube Control Center IceTop 162 Tanks mit je 2 optischen Sensoren (Cerenkov-Detektoren)

50 m

v

IceCube Array 86 Stränge mit insgesamt 5160 optischen Sensoren

1450 m

DeepCore 8 Stränge optimiert für geringere Energien und 480 optischen Sensoren

12

Eiffelturm 324 m

2450 m 2850 m

Felssohle . Abb. 12.20 Oben: Die Amundsen-Scott-Südpolstation mit dem „Antarctic Muon And Neutrino Detector Array“ (AMANDA) und dem IceCube-Detektor. AMANDA war ein Vorläufer von IceCube und wurde 2005 nach 9-jährigem Betrieb abgeschaltet. Unten: Das Innere von IceCube mit den Kabelsträngen und den daran aufgereihten Photodetektoren

Dieses soll die . Abb. 12.21 veranschaulichen, in dem verschiedene Szenarien von Reaktionen der kosmischen Strahlung mit der Erde und/oder ihrer Atmosphäre dargestellt sind: 5 In 1 trifft ein hochenergetisches kosmisches Strahlungsteilchen auf die Atmosphäre und produziert einen typischen Luftschauer. In dem Luftschauer entstehen Myonen und Myon-Neutrinos (z. B. durch den Zerfall von Pionen). In

253 12.4 · Drei Detektoren

. Abb. 12.21

12

Neutrino-Signaturen im IceCube-Detektor am Südpol. In den Beispielreaktionen 1 und

2 werden „atmosphärische Neutrinos“ als sekundäre Teilchen in der Atmosphäre erzeugt, in 3 und 4 werden die Reaktionen von primären „kosmischen Neutrinos“ initiiert (siehe auch Text)

dem Bild verlässt das Neutrino die Erde, während das Myon in den IceCubeDetektor gelangt und dort registriert wird. 5 Auch 2 ist ein Wechselwirkungsprozess mit der Atmosphäre, bei dem ein Neutrino entsteht. Das Neutrino durchdringt die Erde, und in einem zweiten Wechselwirkungsprozess ensteht ein Myon, welches den Detektor erreicht. 5 In dem Prozess 3 handelt es sich um ein primäres kosmisches Neutrino, welches eine Reaktion innerhalb der Erde initiiert und dabei ein Myon erzeugt. 5 Auch Prozess 4 wird ausgelöst durch ein primäres kosmisches Neutrino, allerdings jetzt innerhalb des IceCube-Detektors. Auch diese Reaktion ist häufig leicht zu identifizieren, da hier die Teilchenspuren innerhalb des Detektors erzeugt werden.

In . Abb. 12.22 ist ein als Neutrino-Event identifiziertes Ereignis dargestellt. Die ˇ in den Photodetektoren deponierte Energie in Form von Cerenkov-Strahlung ist durch die Größe der einzelnen „Blobs“ symbolisiert, und die Farbkodierung gibt die Zeitinformation in einem Zeitfenster von ca. 40 μs an. Das Neutrino tritt in dem Bild von unten rechts in den Detektor und induziert einen Teilchenschauer, der nach oben links propagiert. Eine Schwerpunktsanalyse der Signalintensitäten zusammen mit der Zeitinformation erlaubt eine genaue Bestimmung (Genauigkeit ca. 0,5◦ –1◦ ) der Einfallsrichtung und macht damit eine Ortung der Neutrino-Quelle möglich.

254

12

Kapitel 12 · Kosmische Botschaften

. Abb. 12.22 Neutrino-Event im IceCube-Detektor. Die Größe der einzelnen „Blobs“ symbolisiert die gemessene Energie in den Detektoren und die Farbkodierung gibt die Zeitinformation. In diesem Fall beginnt der Teilchenschauer unten rechts im Bild und propagiert nach oben links. „Oben“ bedeutet hier in Richtung zur Oberfläche. (Quelle: 7 https://www.icecube.wisc.edu/gallery)

IceCube registriert etwa 2500 Events pro Sekunde! Davon sind Myonen die mit Abstand am häufigsten auftretenden Teilchen. Sie entstehen als sekundäre Teilchen in den von der kosmischen Strahlung erzeugten Luftschauern. Etwa ein Ereignis aus einer Million kann einem hochenergetischen Neutrino zugeordnet werden, welches ebenfalls in der Erdatmosphäre produziert wird und daher mit dem Namen „atmosphärisches Neutrino“ gekennzeichnet wird. Nur etwa 20–30 Neutrino-Events pro Jahr weisen auf Neutrinos kosmischen Ursprungs hin. Im Jahr 2017 gelang erstmalig eine Zuordnung eines kosmischen Neutrinos zu einer kosmischen Quelle. Die Richtung des detektierten kosmischen Neutrinos (Event: IceCube-170922A) zeigte auf eine Position im Sternbild Orion. Wie in solchen Fällen üblich, wird von der IceCube-Kollaboration sofort ein „Alert“-Signal an alle Teleskope auf der Erde mit einer vorläufigen Richtungsangabe übermittelt. In diesem Fall wurde als kosmische Quelle der 5,7 Mrd. Lichtjahre entfernte Blazar „TXS 0506+056“ identifiziert, von dem bekannt ist, dass sein relativistischer Jet direkt auf die Erde ausgerichtet ist. Die Teleskopdaten zeigten, dass der Blazar gerade zu dieser Zeit in ein Stadium besonders hoher Aktivität übergegangen war.

255 12.4 · Drei Detektoren

6,6°

12

erste Mitteilung Fri 22 Sep 1720:55:13 UT Best-Fit Richtung IC170922A IC170922A 50% (c. l.) - Fläche: 0,15 Grad2 IC170922A 90% (c. l.) - Fläche: 0,97 Grad2

Deklination

6,2° TXS 0506+056

5,8° 5,4° 5,0° 4,6° 78,4° 78,0° 77,6° 77,2° 76,8° 76,4°

Rektaszension

. Abb. 12.23 Das IceCube Neutrino Event IC170922A konnte im Jahr 2017 dem 5,7 Mrd. Lichtjahre entfernten Blazar „TXS 0506+056“ im Sternbild Orion zugeordnet werden. Der Blazar (im Bild nicht erkennbar) entwickelte zu diesem Zeitpunkt eine besonders hohe Aktivität. Die Abbildung zeigt die zunächst vorläufig von IceCube ermittelte Neutrino-Richtung sowie den späteren Best-Fit mit den 50 % und 90 % KonfidenzIntervallen (c. l.). Das rechte Bild entstammt dem Fermi-Large-Area-Weltraumtelekop

In der . Abb. 12.23 ist dieses Event und dessen Rückverfolgung zum Blazar „TXS 0506+056“ gezeigt19 . Von den vielen Millionen Neutrinos, die der Blazar zu dieser Zeit in Richtung antarktisches Eis auf die Reise schickte, blieb dieses eine Neutrino schließlich im IceCube-Detektor hängen – allerdings, bei einer nochmaligen Analyse älterer Daten kamen noch eine Handvoll hinzu, die auf die gleiche Richtung zeigten. IceCube kann für sich eine beachtliche Anzahl wissenschaftlicher Erfolgsmeldungen verbuchen. Dieses macht es naheliegend, eine Ausbaustufe zu einem nahezu 10 km3 großen Nachfolger „IceCube-Gen2“ in Betracht zu ziehen. Eine Fülle von bisher aufgetauchten Fragen zu den Teilchen und Teilchensorten, zu deren Energien und Eigenschaften, zu neuer, unbekannter Physik oder auch zu den Mechanismen der Energie-Erzeugung im Universum können damit einer Klärung nahe gebracht werden. Ziel ist es, eine um einen Faktor 5 verbesserte Richtungsbestimmung zu erreichen und parallel dazu die Effizienz für eine Separation kosmischer und atmosphärischer Neutrino-Signale durch Installa-

Die Zukunft von IceCube

19 The IceCube, Fermi-LAT, MAGIC, AGILE, ASAS-SN, HAWC, H.E.S.S, INTEGRAL, Kanata, Kiso, Kapteyn, Liverpool telescope, Subaru, Swift/NuSTAR, VERITAS, and VLA/17B-403 teams, Multi-messenger observations of a flaring blazar coincident with high-energy neutrino IceCube170922A, arXiv:1807.08816v1 [astro-ph.HE] (2018).

256

Kapitel 12 · Kosmische Botschaften

tion zusätzlicher Detektor-Komponenten zu erhöhen. So sollen Radioantennen ins Oberflächen-Eis oberhalb von IceCube in etwa 100 m Tiefe eingelassen werden, um die von Teilchenschauern im Eis emittierte Radiostrahlung (Askaryan-Strahlung20 ) für eine bessere Richtungsangabe der potenziellen kosmischen Quellen zu nutzen. Hinzu kommt ein an der Oberfläche installiertes und IceCube überdeckendes Detektor-Areal, welches Myonen aus atmosphärischen Schauer-Ereignissen identifizieren kann. Zeitlich korrelierte Neutrino-Signale im IceCube-Detektor können dann eindeutig klassifiziert werden als von „atmosphärischen“ Neutrinos verursacht. „Kosmische“ Neutrinos weisen diese Signatur nicht auf (siehe . Abb. 12.21). Durch die Vergrößerung auf ca. 10 km3 wird natürlich auch die Datenrate um einen Faktor 10 erhöht, was damit die Möglichkeit eröffnet, in Energiebereiche jenseits von 1020 eV vorzudringen. Für die Fertigstellung von IceCube-Gen2 ist derzeit das Jahr 2033 anvisiert21 . Das Pierre-Auger-Observatorium in der argentinischen Pampa unterhält den derzeit größten Detektor zur Messung der kosmischen Strahlung. Er umfasst eine Fläche von 3000 km2 , und als Detektormaterial dient die gesamte über diese Fläche liegende Atmosphäre. Damit ist seine aktive Masse mehr als 30-mal so groß wie die von IceCube. „Pierre-Auger“ ist ein Luftschauer-Detektor, ausgelegt für die Messung kosmischer Teilchenenergien jenseits von etwa 1018 eV. Er ist zudem so konzipiert, dass auch die Richtung des einfallenden primären Teilchens mit hoher Präzision bestimmt werden kann. Dazu ist die Fläche in der Pampa überdeckt mit ˇ insgesamt 1660 Wasser-Cerenkov-Detektoren in Abständen von 1,5 km zueinander. Jeder dieser Detektoren besteht aus einem Behälter mit etwa 12 m3 vor Ort produziertem Reinstwasser, in dem jeweils drei Photomultiplier eingelasˇ sen sind, welche die Cerenkov-Strahlung der in das Wasser einfallenden geladenen Teilchen registrieren. Eine Sende-Einheit übermittelt die Informationen an eine zentrale Station. Jeder Behälter bezieht seine elektrische Energie aus einem zusätzlich angebrachten Sonnenlichtkollektor. An vier Eckpunkten des „PierreAuger“-Areals sind in eigens errichteten Gebäuden Fluoreszenzlicht-Teleskope installiert. In diesen sind jeweils 6 Teleskope aufgereiht, jedes mit einer Spiegelfläche von etwa etwa 13 m2 , mit denen sich die Schauerentwicklung in der Atmosphäre über einen Winkel von 180◦ (horizontal) × 30◦ (vertikal) verfolgen lassen – allerdings nur bei sternenklarer, mondloser Nacht. Etwa 90 % der im Schauer enthaltenen Energie wird in der Atmosphäre deponiert. Im Zuge dieses Prozesses kommt es dabei gleichzeitig zu einer Fluoreszenzstrahlung, welche vom atmosphärischen Stickstoff im ultravioletten Strahlungsbereich emittiert wird. Die Messung dieser Strahlung erlaubt daher die Erstellung eines orts- und zeitgetreuen Abbilds des Schauerprofils. Aus der Größe der „Fluoreszenz-Wolke“ und aus der Intensität

Das Pierre-Auger-Observatorium

12

ˇ 20 Askaryan-Strahlung wird emittiert, wenn infolge der Cerenkov-Strahlung eine unabgeschirmte Ladungswolke (i. a. Elektronenwolke) entsteht und im Medium propagiert. Die Frequenz der Strahlung liegt dabei im Bereich einiger 100 MHz. Die Strahlung ist benannt nach dem armenischen Physiker Gurgen A. Askar’Yan (1928–1997), der diese Strahlung 1962 theoretisch vorhersagte (G. A. Askar’yan, Zh. Eksp. Teor. Fiz. 42, 1360 (1962) [Soviet Physics, JETP 15, 943 (1962)]). 21 The IceCube-Gen2 Collaboration, IceCube-Gen2: The Window to the Extreme Universe, arXiv:2008.04323v1 [astro-ph.HE] (2020).

12

257 12.4 · Drei Detektoren

70 km 60 km 50 km

40 km

100km

30 km 20 km

10 km

0 km

. Abb. 12.24 Geografische Lage des Pierre-Auger-Observatoriums in Argentinien. Der untere Teil zeigt ˇ das Areal mit den Cerenkov-Wassertanks (gekennzeichnet durch Punkte) sowie den Überdeckungsbereich (grau schattiert) der vier an der Peripherie angeordneten Fluoreszenz-Teleskope. Diese registrieren das im Teilchenschauer vom atmosphärischen Stickstoff emittierte Fluoreszenzlicht – allerdings nur bei sternenklarer und mondloser Nacht (siehe auch . Abb. 12.25).

der Strahlung lässt sich dann mit hoher Genauigkeit auf die Energie des primären Teilchens schließen22 . In dem Komposit-Bild . Abb. 12.25 ist die Entwicklung eines Schauerprofils über dem Detektor-Areal dargestellt. Etwa 80 % der bis auf die Erdoberfläche transportierten Teilchenkomponenten bestehen aus Photonen, etwa 18 % sind Elektronen und Positronen, der Rest besteht aus Myonen und Hadronen. Allerdings sind dann bereits bis zu 90 % der primären Energie von der Atmosphäre absorbiert worden. Die Wellenfront mit den hochrelativistischen Teilchen, die schließlich in die Wasserbehälter eindringt, hat eine Dicke von einigen Metern. Die . Abb. 12.26 zeigt ein reales Event erzeugt durch ein kosmisches Teilchen mit einer primären Energie von 1,25×1019 eV. Es produziert einen Teilchenschauer, der sich über fast 30 km2 innerhalb des „Pierre-Auger“-Areals erstreckt. Die Intensität des von einem der Fluoreszenz-Teleskope empfangenen Lichtsignals, welches vom atmosphärischen Stickstoff emittiert wird, ist entlang der Einschlagsrichtung gezeigt.

22 Einen sehr ausführlichen Artikel über die außerordentliche technologische Leistung bei der Instrumentierung des Pierre-Auger-Observatoriums findet man in: The Pierre Auger Collaboration, The Fluorescence Detector of the Pierre Auger Observatory, Nuclear Instruments & Methods A620, 227 (2010), siehe auch gleiche Autoren, gleicher Titel arXiv:0907.4282v1 [astro-ph.IM], (2009).

258

12

Kapitel 12 · Kosmische Botschaften

. Abb. 12.25 Komposit-Bild des Pierre-Auger-Obervatoriums in der argentinischen Pampa (im Hintergrund die Anden-Gebirgskette). Im Bild ist die Form eines Teilchenschauers, welcher in der oberen Atmoˇ sphäre entsteht, eingefügt. Im Vordergrund sind die Tanks mit den Wasser-Cerenkov-Detektoren, welche die ˇ Cerenkov-Strahlung von Sekundärteilchen registrieren, deren Geschwindigkeiten die Lichtgeschwindigkeit im Medium „Wasser“ übersteigen. In diese sind jeweils 3 Lichtdetektoren eingelassen. Eine Sende-Einheit übermittelt alle Informationen zu einer zentralen Station. Sonnenlicht-Kollektoren erzeugen die notwendige elektrische Energie. Die Behälter haben einen Abstand von 1,5 km voneinander (hier nicht maßstabsgetreu) und überstreichen ein Gebiet von etwa 3000 km2 . Ein Teilchenschauer hinterlässt eine spezifische Intensitätsund Zeitstruktur in den Signalen. Damit kann der Einfallswinkel des primären Teilchens mit einer Genauigkeit von unter einem Winkelgrad rekonstruiert werden. Der atmosphärische Stickstoff emittiert infolge der Wechselwirkung mit dem Teilchenschauer Fluoreszenzlicht im ultravioletten Wellenlängenbereich, welches durch die an der Peripherie installierten Fluoreszenz-Teleskope registriert wird (siehe auch . Abb. 12.24). (Quelle: Nach Vorlagen der Internetplattform Pierre-Auger-Observatorium)

Die Zukunft von „Pierre-Auger“: Das Pierre-Auger-Observatorium erfährt zurˇ zeit eine Aufstockung zu „ AugerPrime“. Hierbei werden die Wasser-CerenkovTanks mit zusätzlichen äußeren Detektoren (Szintillationsdetektoren) sowie auch mit klassischen Radio-Empfangsantennen ausgerüstet. Die Szintillatoren registrieren dann die hochenergetischen Photonen und Elektronen/Positronen, und die Antennen empfangen die von den Luftschauern emittierte Askaryan-Strahlung (siehe Fußnote20 , Seite 256), welche im Frequenzbereich einiger 100 MHz liegt. Die Messung beider Komponenten erlaubt eine genauere Bestimmung der Energie und des Einschlagwinkels des primären Teilchens, aber vor allem auch eine Bestimmung der Teilchenmasse. In einem zweiten Projekt werden die Fluoreszenz-

259 12.4 · Drei Detektoren

12

~30 km2

. Abb. 12.26 Signatur des Einschlags eines kosmischen Teilchens in die Atmosphäre und des nachfolgenden Schauerprofils. Der Teilchenschauer breitet sich am Boden über eine Fläche von etwa 30 km2 aus. Das von einem der Fluoreszenz-Teleskope empfangene Lichtsignal des atmosphärischen Stickstoffs ist entlang der Einschlagsrichtung gezeigt (in Blau). Der Zeitverlauf dieses Signals ist durch den farblichen Übergang von violett-blau nach grün-orange gekennzeichnet. (Quelle: Internetplattform Pierre-Auger-Observatorium)

Detektoren nachgerüstet, sodass das Licht des Mondes während der Nachtstunden nicht mehr deren Abschaltung erfordert. Und schließlich werden in dem Teilprojekt „AMIGA“ (Auger Muons and Infill for the Ground Array) in einem ausgesuchten ˇ in Abständen von 20 km2 großen Gebiet zusätzliche Wasser-Cerenkov-Detektoren nur 750 m installiert und in einigen Metern Tiefe unter ihnen großflächige MyonDetektoren. Damit wird es möglich, in diesem Areal die Energie-Nachweisschwelle der primären Teilchen in der kosmischen Strahlung auf etwa 1017 eV herabzusetzen, um somit den möglichen Übergangsbereich von galaktischer zu extragalaktischer kosmischer Strahlung genauer zu untersuchen (siehe hierzu auch . Abb. 12.10 und 12.11 mit den Bildunterschriften). Das Pendant zum Pierre-Auger-Observatorium auf der Nordhalbkugel ist das „Telescope Array (TA)“-Observatorium, welches sich in der Nähe von Salt Lake City im US-Bundesstaat Utah befindet23 . Es benutzt eine zum Pierre-Auger-Observatorium vergleichbare flächenmäßige Anordnung der einzelnen Detektoren, welche derzeit allerdings nur ein Areal von etwa 700 km2 ˇ überdecken. Im Gegensatz zu den Wasser-Cerenkov-Detektoren im Pierre-AugerObservatorium bestehen die Bodendetektoren hier aus Szintillatorplatten (Dimension: 3 m2 × 1,2 cm, Material: Plastik). Diese erzeugen beim Durchgang geladener Teilchen Lichtimpulse, die über ein Lichtleitersystem den jeweiligen Photodetektoren zugeführt werden. Auch dieses Detektorsystem befindet sich in einer AusDas „Telescope Array“ (TA)

23 T. Abu-Zayyad, et al., The surface detector array of the Telescope Array experiment, Nuclear Instruments and Methods, Physics Research A 689, 87 (2012).

Kapitel 12 · Kosmische Botschaften

260

1020eV

Salt Lake City ca. 200 km De

1019eV

TAx4 SD NE

n tio na kli

60°

30°

1018eV Middle Drum FD

Long Ridge FD

360°

TA SD

e en Eb l. ga

Delta

180°



Rektaszension

-30° Black Rock FD

1019eV

1019eV

30 km

-60° TAx4 SD SE

-3 1020eV

-1 1 3 σ - Signifikanz für E > 5,7 x 1019 eV

5

. Abb. 12.27 Links: Flächenmäßige Auslegung des „Telescope Array“ (TA)-Detektors und seines Nachfolgers TAx4 in der Nähe der Stadt Delta, die etwa 200 km von der Stadt Salt Lake City im US-Bundesstaat Utah entfernt ist. Eines der Ziele dieses Projekts ist die Erkundung von höchstenergetischen kosmischen Strahlungsqellen im Sichtbereich der Nordhalbkugel. (Bedeutung: SD „surface detector“ (Bodendetektor), FD Fluorenz-Detektor-Stationen) Rechts: Das vom TA erstellte Signifikanzprofil für kosmische Strahlung mit Energien E > 5,7 × 1019 eV (negative Werte für Energien E < 5,7 × 1019 eV). Es zeigt eine Quelle, welcher derzeit eine besondere Aufmerksamkeit zukommt

12

baustufe zum „TAx4“, welches bei Fertigstellung mit 2800 km2 eine 4-mal größere Detektor-Fläche überdecken wird24 . Der TA-Detektor ist ausgelegt für höchstenergetische kosmische Strahlung jenseits von etwa 1018 eV, um den Übergang von der galaktischen zur extragalaktischen Komponente in der kosmischen Strahlung zu studieren. Er hat über die Jahre seit seiner Inbetriebnahme in 2008 eine ungewöhnlich starke kosmische Quelle mit Energien größer als 5, 7 × 1019 eV im Sichtfeld der Nordhalbkugel lokalisieren können (siehe . Abb. 12.27). Diese Energie entspricht der „GZK-cut-off“-Energie für Protonen (siehe Seite 239) und könnte auf eine starke und weitaus höher-energetische Primärquelle jenseits dieses GZK-Vorhangs und damit jenseits von etwa 100 Mio. Lichtjahren hindeuten. Der TAx4-Detektor wird in den nächsten Jahren vorrangig diese Quelle untersuchen und der Frage nachgehen, welche kosmischen Objekte sich möglicherweise hinter diesem Vorhang verbergen und welche physikalischen Prozesse hier zum Tragen kommen.

24 R.U. Abbasi et al., Surface detectors of the TAx4 experiment, arXiv:2103.01086 [astro-ph.IM] (2021).

261 12.5 · Noch etwas Wissenswertes

12.5

12

Noch etwas Wissenswertes

Es bleibt zum Ende die Frage, wenn die kosmische Strahlung so extrem energiereich und so extrem intensiv ist, ob dieses dann eventuell auch zur Folge hat, dass die uns schützende Atmosphäre im Laufe der Zeit radioaktiv wird. Die Antwort darauf ist: „Das ist unvermeidbar.“ Bei der Ausbildung eines Teilchenschauers in der Atmosphäre werden sukzessive bis zu 1011 Protonen und Neutronen freigesetzt. Die radioaktiven Restkerne, die natürlich ebenfalls produziert werden, sind allerdings überwiegend kurzlebig mit Lebensdauern in der Größenordnung von Sekunden bis Minuten, sodass eine merkliche Anreicherung in der Atmosphäre nicht stattfindet. Für einige längerlebigen Reste sind die Bildungswahrscheinlichkeiten so gering, dass biologische Konsequenzen in der Biosphäre auch für diese nicht in Betracht gezogen werden müssen. Von einer völlig anderen Qualität ist jedoch die große Zahl der freien Neutronen. Neutronen wirken auf Organismen 20–50-mal stärker schädigend als die durch Radio-Nuklide freigesetzte ionisierende Strahlung. Das Maximum der durch die kosmische Strahlung bewirkten Neutronen-Produktion liegt in etwa 15–30 km Höhe, und der zeitlich gemittelte Neutronenfluss erreicht hier Werte von etwa 6 × 106 Neutronen/m2/s. Hingegen ist der produzierte Neutronenfluss an der Erdoberfläche nur noch etwa 200–300 Neutronen/m2/s. Überdies ist der Fluss an den Polen aufgrund des Erdmagnetfelds etwa doppelt so hoch wie am Äquator. Die Kenntnis über eine mit der Höhe stark zunehmende atmosphärische Strahlenbelastung hat schließlich auch zur Konsequenz, dass das fliegende Personal von kommerziellen Fluggesellschaften einer gesonderten Strahlenschutzüberwachung unterliegt (in Deutschland vorgenommen durch das Bundesamt für Strahlenschutz). Glücklicherweise erreicht der weitaus überwiegende Teil der in großer Höhe produzierten Neutronen nicht die Erdoberfläche. Hier kommt eine besondere und fast schon singuläre kernphysikalische Eigenschaft des Stickstoffs zum Tragen. Stickstoff ist ein außerordentlich effektiver „Neutronenfänger“, und hier ist es auch nur das Isotop Stickstoff-14 (14 N), welches diese Eigenschaft besitzt. Passenderweise ist 14 N zugleich das häufigste in der Natur vorkommende Isotop mit einer natürlichen Häufigkeit von 99,63 % (das andere stabile Isotop ist 15 N mit einer Häufigkeit von 0,37 %), und mit 78 % macht Stickstoff zudem noch den größten Teil der Erdatmosphäre aus. Die am Stickstoff in der Atmosphäre ablaufende Reaktion Produktion von Kohlenstoff-14

14

N + n −→

14 C

+ p

|

−→14N + e− + ν¯ (E = 157 keV)

konvertiert das Neutron zum Proton – allerdings entsteht jetzt neben dem harmlosen Proton das radioaktive Kohlenstoff-14. Kohlenstoff-14 besitzt eine lange Halbwertszeit von 5730 ± 30 Jahren und zerfällt vermöge eines β -Zerfalls zurück zu 14 N. Der Zerfall ist für biologische Substanzen kritisch, da ein organisches Molekül sich beim Zerfall eines eingebauten 14 C-Atoms plötzlich konfrontiert sieht mit einem Stickstoff-Atom in seiner chemischen Struktur. Das sofortige Auseinanderbrechen des Moleküls ist dann die Konsequenz.

262

Kapitel 12 · Kosmische Botschaften

Atmosphäre 14C/= 1,035

Kohlenstoffkreislauf Gehalt: Gt Austausch: Gt / Jahr

Atmosphäre (750) CO2

121,3 60 60

Biosphäre 14C/= 1

0,5

5,5

Biosphäre (610) 1,6 90

92

Pedosphäre (1580) ( Oberflächenwasser 14C/= 1

50 Meeresbiota (3) 6

Tiefsee 14C/ C = 0,84

Gelöster organischer Kohlenstoff (~ 700)

Meeresoberfläche (1.020) 40 4 6

90

fossile Rohstoffe (~7000) Erdgas, Erdöl, Kohle

100

14C/= 0

Tiefsee (38.100) 0,2 Sedimente (~75.000.000) Lithosphäre

12

. Abb. 12.28 Kohlenstoff-Kreislauf zwischen Atmosphäre und verschiedenen kohlenstoffhaltigen Bereichen der Erde. Die Zahlen in Rot bezeichnen die Größe des jeweiligen Kohlenstoff-Reservoirs in Gigatonnen und in Blau die jährliche Austauschmenge in Gigatonnen. Eingezeichnet sind zudem die Kohlenstoff-14 (14 C)-Konzentrationen in den einzelnen Bereichen in Einheiten der mittleren Biosphären-Konzentration von 1,3 × 10−12 g/g

Jedoch, der Weg bis zum Einbau des 14 C in ein organisches Molekül ist etwas verzweigter. Das in der Atmosphäre gebildete 14 C verbindet sich umgehend mit dem Sauerstoff in der Atmosphäre zu Kohlendioxid CO2 . Von da an unterliegt es dem in der . Abb. 12.28 dargestellten Kohlenstoff-Kreislauf, der zunächst mit einem raschen wechselseitigen Austausch des CO2 zwischen Atmosphäre, Biosphäre und dem gesamten Oberflächenwasser der Weltmeere beginnt. Die mittleren Austauschzeiten sind im Vergleich zur 14 C-Halbwertszeit kurz. Sie liegen bei etwa 10 Jahren, sodass sich das in der Atmosphäre gebildete Kohlenstoff-14 schnell und über große Mengen kohlenstoffhaltiger Verbindungen gleichmäßig verteilt. Es ist genau diese Eigenschaft, welche die Grundlage bildet für die radiometrische 14 C-Datierungsmethode.

263 12.5 · Noch etwas Wissenswertes

12

In der Biosphäre liegt die 14 C-Konzentration bei etwa 1,3 × 10−12 g/g (siehe Fußnote25 ). In der Atmosphäre, die ja die 14 C-Quelle darstellt, ist die Konzentration etwa 3 % höher, in der Tiefsee aufgrund der langen Austauschzeiten von ca. 1000 Jahren etwa 14 % geringer. In den fossilen Brennstoffen wie Kohle, Erdgas und Öl sind die Austauschzeiten so lang, dass es zu keiner Akkumulation von 14 C kommen kann. Da Kohlenstoff-14 von lebenden Organismen kontinuierlich inkorporiert wird, führt die mittlere 14 C-Konzentration beispielsweise im Menschen zu einer Zerfallsrate von etwa 4000 Becquerel (Zerfälle pro Sekunde). Insgesamt wird durch die kosmische Strahlung in der Atmosphäre jährlich etwa 4 kg Kohlenstoff-14 produziert. Damit errechnet sich für die Biosphäre eine zwischen Produktion und Zerfall bestehende Gleichgewichtsmenge an Kohlenstoff-14 von etwa 40 Tonnen. Kleiner Nachtrag Ohne diese besondere Eigenschaft des Stickstoff-14 als effektiver atmosphärischer Neutronen-Filter wäre die Entwicklung lebensfähiger Organismen auf der Erdoberfläche deutlich anders verlaufen. In den Ozeanen wäre die Entwicklung lebensfähiger Organismen von diesen Besonderheiten jedoch weit weniger betroffen.

25 Langzeitige Schwankungen in der kosmischen Strahlung sowie auch kurz- und langzeitige SonnenZyklen haben Einfluss auf die 14 C-Produktion in der Atmosphäre und erzeugen Abweichungen vom mittleren Biosphären-Wert, die von der Größenordnung einiger Prozent sind. Insbesondere die Verbrennung fossiler Brennstoffe hat in den letzten 100 Jahren zu einer Verminderung der 14 C-Konzentration geführt.

265

Flucht in die Zukunft

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 D. Frekers und P. Biermann, Weltall, Neutrinos, Sterne und Leben, https://doi.org/10.1007/978-3-662-65110-0_13

13

266

13

Kapitel 13 · Flucht in die Zukunft

Die fernen Zukunftsaussichten für die Erde und ihre Bewohner sind nicht gut. Mehrere Ereignisse mit kataklysmischen Ausmaßen sind bereits vorgezeichnet. So wird die Sonne nach etwa 500–900 Mio. Jahren allmählich immer heißer, sodass die Lebensbedingungen auf der Erde zunehmend ungünstiger werden. Spätestens nach 900 Mio. Jahren wird wohl die Grenze des Erträglichen erreicht sein. Die Sonne bleibt jedoch unerbittlich und wird in ihrer Endphase die Erde irgendwann einfach verschlucken. Für die intelligenten Erdbewohner bedeutet dies, dass eine möglichst frühzeitige Suche nach einem anderen und dann hoffentlich auch für einige Zeit sicheren Planeten eingeleitet werden muss, welcher dann beizeiten für eine Neubesiedlung infrage kommt – irgendwo in der Milchstraße. Schätzungen gehen von mehreren zig Millionen Möglichkeiten aus. Natürlich sollte dieser Planet nicht schon mit „Intelligenz“ besiedelt sein – das führt zu Konflikten. Allerdings ist auch hier bereits die nächste Katastrophe abzusehen, denn die riesige AndromedaGalaxie, die mit bloßem Auge schon jetzt am dunklen Himmel erkennbar ist, befindet sich zielgenau auf Kollisionskurs zur Milchstraße mit einer Geschwindigkeit von etwa 410.000 km/h – Treffpunkt in etwa 3,5–4,3 Mrd. Jahren. Wenn das passiert, wird über weitere 3–4 Mrd. Jahre bis hin zur vollständigen Verschmelzung der beiden Objekte eine so hohe Kollisions- und Sternentstehungsrate ausgelöst, dass es ratsam wird, kosmisch zur Seite zu treten. Und wiederum beginnt die Suche nach einem neuen Planeten, diesmal aber in einer anderen und vorzugsweise weit abgelegenen Galaxie, damit dieser nicht ein ähnliches Schicksal widerfährt. Dennoch, in fernster Zukunft, so grob in 100 Mrd. Jahren, droht der gesamten Galaxien-Nachbarschaft eine ungesunde Nähe zu extrem massereichen Schwarzen Löchern. Dann müsste man richtig weit umziehen. Da sich das Universum aber mittlerweile um mehr als eine Größenordnung ausgedehnt hat, könnte die Suche länger dauern. Aber vielleicht ist die Lösung der irdischen Probleme zunächst doch noch wichtiger.