Raum-Zeit 9783110214093, 9783110176940

The philosophical treatment of space and time has had a long history. This continuing interest stems not least from the

191 118 4MB

German Pages 247 [248] Year 2009

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Raum-Zeit
 9783110214093, 9783110176940

Table of contents :
Frontmatter
Inhaltverzeichnis
Einleitung
1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit
2. Sein und Werden: Reversibilität, Irreversibilität und die Richtung der Zeit
3. Geometrie und Wirklichkeit: Erkenntnisprobleme beim Ausmessen von Raum und Zeit
4. Raum-Zeit und Materie: Die Naturphilosophie von Raum und Zeit
Backmatter

Citation preview

Thomas Bartelborth Martin Carrier

Erklären Raum-Zeit

Grundthemen Philosophie

Herausgegeben von Dieter Birnbacher Pirmin Stekeler-Weithofer Holm Tetens

Walter de Gruyter · Berlin · New York

Martin Carrier Thomas Bartelborth

Erklären Raum-Zeit

Walter de Gruyter · Berlin · New York



Gedruckt auf säurefreiem Papier, das die US-ANSI-Norm über Haltbarkeit erfüllt. ISBN 978-3-11-017694-0 978-3-11-019433-3 Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliographie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar © Copyright 2009 2007 by Walter de Gruyter GmbH & Co. KG, D-10785 Berlin Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Printed in Germany Umschlaggestaltung: kommunikation und gestaltung, Willich Umschlaggestaltung: +malsy, Martin Zech, Bremen Satzherstellung: Fotosatz-Service Köhler GmbH, Würzburg Umschlagkonzept: +malsy, Willich Druck und buchbinderische Druckhaus Thomas Müntzer, Satzherstellung: vitaledesign,Verarbeitung: Berlin | www.vitaledesign.com Bad Langensalza Druck und buchbinderische Verarbeitung: AZ Druck und Datentechnik GmbH, Kempten

Inhaltverzeichnis Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Naturphilosophie, Wissenschaft und menschliche Erfahrung . . . . . . . . . . . . . . . 2. Thematische Gliederung . . . . . . . . . . . . . . . . . 1. 1.1 1.2 1.2.1 1.2.2 1.3 1.4 1.5 1.5.1 1.5.2 2. 2.1 2.1.1 2.1.2 2.1.3 2.2 2.2.1 2.2.2

Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit . . . . . . . . . . . Die klassische Form der kausalen Zeittheorie: Leibniz und Kant . . . . . . . . . . . . . . . . . . Die Raum-Zeit-Struktur in der speziellen Relativitätstheorie . . . . . . . . Die Konzeption der Speziellen Relativitätstheorie und die Tradition der Elektrodynamik . . . . . . Die spezielle Relativitätstheorie als Theorie der Raum-Zeit . . . . . . . . . . . . . Zeitfolge und Gleichzeitigkeit in der Minkowski-Raum-Zeit . . . . . . . . . . . Kausalstruktur und Minkowski-Raum-Zeit . . . Kausalität und Anisotropie der Zeit . . . . . . . . Kausalordnung und Zeitfolge . . . . . . . . . . . Die Gabelungsasymmetrie . . . . . . . . . . . . . Sein und Werden: Reversibilität, Irreversibilität und die Richtung der Zeit . . . Die Zeitlosigkeit der Welt . . . . . . . . . . . . . Dynamik des Wandels versus Unveränderlichkeit des Seins . . . . . . . . . . . . . . . . . . . . . . . Die Zenonschen Paradoxien . . . . . . . . . . . . Die Reversibilität der Fundamentalprozesse und das statische Blockuniversum . . . . . . . . . Irreversibilität und statistische Mechanik . . . . . Der Zweite Hauptsatz der Thermodynamik . . . Boltzmanns mechanische Begründung des Zweiten Hauptsatzes . . . . . . . . . . . . . .

1 1 4

. . .

8

. . .

9

. . .

17

. . .

17

. . .

28

. . . . .

. . . . .

39 42 48 48 49

. . . . . .

58 59

. . . . . .

59 60

. . . . . . . . .

67 71 72

. . .

75

. . . . .

VI 2.2.3 2.2.4 2.2.5 2.2.6

Inhaltverzeichnis

Der Maxwellsche Dämon . . . . . . . . . . . . . . Der Zweite Hauptsatz als Anthropomorphismus . Irreversibilität bei Nicht-Gleichgewichtssystemen . Die philosophische Tragweite faktischer (nicht-nomologischer) Irreversibilität . . . . . . . . 2.2.7 Physikalische Grundlagen des Zeitpfeils . . . . . . 2.3 Nomologische Irreversibilität: Der Zeitpfeil der schwachen Wechselwirkung . . . . . . . . . . . 2.4 Wandel oder Werden: Die Zeitlichkeit der Welt . . 2.4.1 Die Relativität des „Jetzt“ und der Unterschied von Vergangenheit und Zukunft . . . . . . . . . . . 2.4.2 Der Fluss der Zeit und der Unterschied von Wandel und Werden . . . . . . . . . . . . . . . 3. 3.1 3.1.1 3.1.2 3.1.3 3.1.4 3.1.5 3.2 3.2.1 3.2.2 3.2.3 3.2.4 3.3 3.3.1 3.3.2 4. 4.1

. . . . . .

84 89 92

. . . .

95 98

. . 103 . . 106 . . 107 . . 109

Geometrie und Wirklichkeit: Erkenntnisprobleme beim Ausmessen von Raum und Zeit . . . . . . . . Die empirische Ermittlung der physikalischen Geometrie . . . . . . . . . . . . . . . Nicht-Euklidische Geometrien . . . . . . . . . . . . Das Ausmessen der Raum-Zeit . . . . . . . . . . . . Die empirische Unterbestimmtheit der physikalischen Geometrie . . . . . . . . . . . . . Hohlwelttheorie und geometrischer Konventionalismus . . . . . . . . . . . . . . . . . . . Reichenbachs universelle Kräfte und die Gravitation Die Grundzüge der allgemeinen Relativitätstheorie . Einsteins „drei Prinzipien“ . . . . . . . . . . . . . . Lichtstrahlen, Uhren, Maßstäbe und Bewegung im Gravitationsfeld . . . . . . . . . . . . . . . . . . . Die Geometrisierung der Gravitation . . . . . . . . . Grenzen der Geometrisierung . . . . . . . . . . . . . Die erkenntnistheoretische Stellung der physikalischen Geometrie . . . . . . . . . . . . . Universelle Kräfte in der allgemeinen Relativitätstheorie . . . . . . . . . . . . . . . . . . . Die Feldinterpretation der physikalischen Geometrie und die Konventionalitätsthese . . . . . .

. 113 . 114 . 114 . 123 . 126 . . . .

131 134 137 137

. 144 . 147 . 154 . 158 . 158 . 161

Raum-Zeit und Materie: Die Naturphilosophie von Raum und Zeit . . . . . . . . . . . . . . . . . . . 168 Raum und Zeit in der klassischen Physik . . . . . . . . 169

VII

Inhaltverzeichnis

4.1.1 Newtons absolute Position: intrinsische Strukturen von Raum und Zeit . . . . . . . . . . . . 4.1.2 Leibniz’ relationale Interpretation: der Raum als Anordnung von Körpern . . . . . . . . 4.1.3 Raum-Zeit und Kräfte: Die Behandlung der Rotation und die Leibniz-Clarke-Kontroverse . 4.1.4 Machs Kritik an Newtons Argument und sein relationaler Gegenentwurf . . . . . . . . . . 4.2 Die Struktur der Raum-Zeit in der allgemeinen Relativitätstheorie . . . . . . . . . 4.2.1 Absolute Eigenschaften der Raum-Zeit . . . . . . . . 4.2.2 Das Machsche Prinzip und die allgemeine Relativitätstheorie . . . . . . . . . . . . . 4.3 Substanzialismus und Relationalismus . . . . . . . . 4.3.1 Die Unterscheidung zwischen Raum und Materie . . 4.3.2 Substanzialismus und Loch-Argument . . . . . . . . 4.4 Der Strukturenrealismus in der Raum-Zeit-Philosophie 4.4.1 Epistemischer Strukturenrealismus . . . . . . . . . . 4.4.2 Ontologischer Strukturenrealismus: Objekte als Relationen . . . . . . . . . . . . . . . . .

. 170 . 174 . 179 . 182 . 190 . 190 . . . .

195 204 204 206 212 . 214 . 216

Schluss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . 225 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227

Einleitung 1. Naturphilosophie, Wissenschaft und menschliche Erfahrung Die philosophische Beschäftigung mit Raum und Zeit blickt auf eine lange Geschichte zurück. Dieses anhaltende Interesse stammt nicht zuletzt daraus, dass Raum und Zeit die Grundlage von Bewegung bilden, welche eben räumliche und zeitliche Bestimmungen in sich schließt. Daran knüpft die historisch früheste Problemstellung der Raum-Zeit-Philosophie an, die Frage nämlich nach der Wirklichkeit von Bewegung. Bei den Vorsokratikern findet sich die erste Kontroverse der Raum-Zeit-Philosophie, welche sich gerade auf die Streitfrage richtet, ob die Natur ihrem Wesen nach statisch und unveränderlich ist, oder ob sie Neuartiges aus sich hervorbringt. Nach der ersten Auffassung ist der Wechsel in der Sinnenwelt trügerisch; in Wirklichkeit gibt es keinen Wandel. Nach der alternativen Meinung bilden Veränderung und Voranschreiten ein Wesensmerkmal der Wirklichkeit. Diese Kontroverse über die Realität des Wandels findet sich auch in der neuzeitlichen Philosophie – wenn auch in veränderter Form. Diese Mitte des 19. Jahrhunderts einsetzende und bis in die Gegenwart andauernde Debatte zielt auf den Stellenwert der alltäglichen Erfahrung von Veränderlichkeit im Vergleich zu den Grundlagen der einschlägigen wissenschaftlichen Theorien. In dieser Erfahrung nämlich spielt die Unterscheidung zwischen vergangen, gegenwärtig und zukünftig eine zentrale Rolle. Aber weder lässt sich im Lehrgebäude der Wissenschaften ein herausgehobener Ort der jeweiligen Gegenwart finden, noch erschließt sich ohne weiteres der Unterschied zwischen Vergangenheit und Zukunft. Die Schwierigkeit wurzelt letztlich darin, dass sämtliche Grundgesetze der Physik keine Zeitrichtung auszeichnen. Andererseits laufen einige Prozesse in der Erfahrung ohne Zweifel gerichtet und einsinnig statt. Noch niemals ist die Beobachtung berichtet worden, dass Zucker, der in heißem Kaffee aufgelöst wurde, spontan in seiner früheren würfelförmigen Gestalt auf dem Boden der Tasse auskristallisierte. Und niemand hat die Erfahrung mitgeteilt, dass

2

Einleitung

auf einem See spontan ringförmige Wellen entstanden sind, die auf einen Mittelpunkt zulaufen und dort einen Stein aus dem Wasser schleudern. Die Zeitumkehrung bestimmter Prozesse findet sich offenbar in der Natur nicht. Die Frage ist dann aber, was die Basis einer solchen Irreversibilität oder Einsinnigkeit von Prozessen ist, und ob ein Zusammenhang mit der „Gerichtetheit der Zeit“ besteht (vgl. Kapitel 2). Eine weitere traditionelle Fragestellung lautet, ob die Beschaffenheit von Raum und Zeit unabhängig von der Natur der Gegenstände in ihnen festliegt, oder ob Raum und Zeit durch diese Gegenstände überhaupt erst gebildet werden. Kontrovers ist, ob Raum und Zeit eine Art „Behälter“ oder „Arena“ für die Ereignisse bilden, die sich in ihnen abspielen, und von diesen Ereignissen entsprechend unabhängig oder ihnen vorgeordnet sind, oder ob Raum und Zeit umgekehrt erst aus den Beziehungen zwischen diesen Ereignissen entstehen und diesen entsprechend nachgeordnet sind. Nach dieser zweiten Vorstellung ist der Raum nichts anderes als die Gesamtheit der relativen Lagebeziehungen zwischen Objekten (vgl. Kapitel 4). Eines der Kennzeichen der neuzeitlichen Diskussion besteht darin, die Klärung der betreffenden Fragen auf der Grundlage einschlägiger wissenschaftlicher Theorien anzustreben und sie entsprechend im Rahmen der Wissenschaftsphilosophie zu behandeln. Ziel ist dann nicht, die Eigenschaften von Raum und Zeit aus der Analyse der Alltagserfahrung oder durch Rekurs auf die einschlägigen Empfindungen zu ermitteln. Vielmehr bilden Naturprozesse und die zugehörigen wissenschaftlichen Theorien die Grundlage der Untersuchungen. Es geht zunächst um den Zeitverlauf in der Natur oder um die „Zeit der Welt“, nicht hingegen um die „Zeit des Bewusstseins“. Allerdings sollte die Kluft zwischen der menschlichen Erfahrungswirklichkeit in Sachen Raum und Zeit und ihrer naturphilosophischen Deutung nicht auf Dauer bestehen bleiben. Der Mensch ist ein Naturwesen, so dass menschliche Zeiterfahrung am Ende mit Naturprozessen in Verbindung zu bringen ist. Die Zeit des Menschen sollte sich auf die Zeit der Natur zurückführen lassen, jedenfalls wenn die physiologischen und psychologischen Verarbeitungsmechanismen in die Betrachtung einbezogen werden. Es zählt zu den Stärken der Wissenschaft der vergangenen anderthalb Jahrhunderte, dass sie sich zunehmend der Komplexität der Erfahrungswelt stellt, statt sich auf idealisierte Fälle zu konzentrieren.

1. Naturphilosophie, Wissenschaft und menschliche Erfahrung

3

Auf diese Weise rückt auch die Alltagswelt in wachsendem Maß in den Anwendungsbereich wissenschaftlicher Theorien. Die Wissenschaftsphilosophie schreitet auf dem gleichen Weg voran. So stellt sich etwa die Philosophie des Geistes der Herausforderung, verständlich zu machen, was es für ein Naturwesen wie den Menschen heißt, nach Gründen zu handeln, wie sich also der Mensch als rationale und semantische Maschine denken lässt. Mit ähnlicher Stoßrichtung, wenn auch inhaltlich ganz anders angelegt, muss auch die menschliche Erfahrung von Zeit und Veränderung ihren Platz in der Naturordnung finden – wenn auch unter Umständen eher in der Psychologie des Menschen als in der Physik des Universums. Die Raum-Zeit-Philosophie zeichnet sich entsprechend durch eine Wissenschaftsorientierung aus: sie reflektiert die allgemeinen oder grundlegenden Merkmale von Raum und Zeit wie sie von unterschiedlichen Formen der wissenschaftlichen Durchdringung von Raum und Zeit nahegelegt werden. Konkret stellt sich die Raum-Zeit-Philosophie in einer solchen wissenschaftsgestützten Betrachtungsweise als eine der beiden zentralen Themenstellungen der Philosophie der Physik dar, dem historisch ältesten Vertreter einer „Philosophie spezieller Wissenschaften“. Eine solche Philosophie einer Wissenschaftsdisziplin zielt auf die Klärung inhaltlicher oder begrifflicher Besonderheiten spezifischer Theorien ab. Dabei gibt man für ein philosophisches Problem eine Übersetzung in die Begrifflichkeit der jeweils einschlägigen wissenschaftlichen Theorien an und interpretiert die Resultate als Antwort auf das ursprüngliche philosophische Problem. Charakteristisch für einen solchen wissenschaftsphilosophisch geprägten Zugang ist, dass man – im Gegensatz zur Naturphilosophie traditionellen Zuschnitts – nicht gleichsam vorprescht und als philosophische Antwort präsentiert, was die Wissenschaft nicht oder noch nicht zu sagen vermag. Eine solche vorwitzige, auf die Kraft der Spekulation vertrauende Strategie hat in der Geistesgeschichte nur zu oft Schiffbruch erlitten. Bei der wissenschaftsphilosophischen Explikation orientiert man sich stattdessen am vorfindbaren Bestand des Wissens und sucht in dessen Licht nach einer Klärung und Interpretation der einschlägigen Sachverhalte. Die Wissenschaftsphilosophie arbeitet in systematischer Ordnung und begrifflicher Klarheit heraus, von welcher Beschaffenheit die Natur ist, wenn die betreffenden Theorien wahr sind. Als ein philosophisch relevanter Aspekt gilt dabei, was von Bedeutung für das grundlegende Verständnis der betreffenden Sache

4

Einleitung

ist. Dazu gehören sicher die vorgenannten Beispiele: Was macht Veränderung in der Natur aus, und woraus ergibt sich die Richtung der Zeit – sofern die Zeit der Welt eine Richtung hat? Treten Raum und Zeit neben die Materie, oder ist eines von beiden (oder ein drittes) grundlegend? Fragen dieser Art haben zunächst einmal nichts mit dem Ziel der technischen Beherrschung von Phänomenen zu tun, sondern sind auf Naturverständnis gerichtet. Eine wissenschaftsphilosophische Behandlung solcher Fragen ist dadurch charakterisiert, dass sie diejenigen Facetten einer wissenschaftlichen Theorie ins Zentrum rückt, die Aufschluss zu geben vermögen über das Naturbild, das sich in ihr ausdrückt. Naturphilosophie in diesem Verständnis legt die allgemeinen und wesentlichen Charakteristika der Wirklichkeit auseinander, wie sie bestünden, wenn die betreffenden Theorien uneingeschränkt zuträfen (Bartels 1996, 12).

2. Thematische Gliederung Im Folgenden stehen also Konzeptionen der Raum-Zeit im Zentrum, wie sie in der Raum-Zeit-Philosophie zum Gegenstand der Analyse gemacht werden. Im Einzelnen kommen vier große Themenblöcke zur Sprache, die den Kapiteln des Buches entsprechen. Es geht um die kausale Theorie der Zeit, (2) die physikalische Grundlage der Gerichtetheit der Zeit, (3) die erkenntnistheoretischen Probleme der Ermittlung der Raum-Zeit-Struktur und (4) das Verhältnis von Raum und Zeit zu Körpern und Ereignissen. Bei der kausalen Theorie der Zeit geht es darum, Zeitverhältnisse aus Beziehungen von Ursache und Wirkung abzuleiten. Insbesondere sollen Zeitfolge und Gleichzeitigkeit auf die Kausalordnung zurückgeführt werden. Die klassischen Vertreter dieses Ansatzes sind Leibniz und Kant. Auf diesem Felde ist durch Einsteins Formulierung der speziellen Relativitätstheorie eine grundlegende Wendung herbeigeführt worden. Ich skizziere in diesem Zusammenhang die wichtigsten Merkmale dieser relativistischen Raum-Zeit-Struktur und erläutere dann eine für die zugehörige Raum-Zeit-Struktur geeignete Version der kausalen Zeittheorie. Abschließend kommen neuere Versuche zur Sprache, auch die Gerichtetheit der Zeit auf die Kausalordnung zurückzuführen. Diese Bemühungen um eine physikalische Grundlegung der Gerichtetheit der Zeit rücken im zweiten Kapitel ins Zentrum. De-

2. Thematische Gliederung

5

ren Ziel ist es, über die zeitliche Ordnung von Phänomenen hinaus auch für den Unterschied zwischen Vergangenheit und Zukunft eine physikalische Grundlage aufzuweisen. Während die Richtungen im Raum gleichberechtigt sind, verläuft die Zeit gerichtet. Bestimmte Prozesse sind nicht umkehrbar, bestimmte Ereignisse stehen in eindeutiger Folge. Diese Wahrnehmung der gerichteten Zeit wird durch die Metapher des „Zeitpfeils“ ausgedrückt, derzufolge bestimmte Ereignissequenzen objektiv nach „früher“ und „später“ geordnet sind. Die herkömmliche physikalische Grundlage der Asymmetrie der Zeit bildet der Zweite Hauptsatz der Thermodynamik, welcher so genannten irreversiblen Prozessen eine Vorzugsrichtung zuschreibt: Temperaturunterschiede oder Konzentrationsunterschiede gleichen sich aus und entstehen nicht spontan. Jedoch unterliegt der Zweite Hauptsatz Geltungseinschränkungen, die ihn als physikalische Basis der gerichteten Zeit zweifelhaft machen. Das Bedenken stützt sich dabei auf den Umstand, dass der Zweite Hauptsatz nur bei Vorliegen spezifischer Sachumstände einsinnig gerichtete Prozesse auszeichnet und entsprechend den Zeitpfeil nicht auf eine rein naturgesetzliche Grundlage zu stellen vermag. Die philosophisch relevante Frage dieses Kapitels ist, welche Naturumstände die Asymmetrie der Zeit objektiv fassbar werden lassen. Der dritte Themenblock ist den erkenntnistheoretischen Herausforderungen bei der Ermittlung der Raum-Zeit-Struktur gewidmet. Es geht um den Freiraum, den die Tatsachen bei der Bestimmung der geometrischen Beschaffenheit der Welt lassen. Dieses Problem verdichtet sich zu der These der Konventionalität der physikalischen Geometrie, die über Jahrzehnte hinweg das wichtigste Thema der Raum-Zeit-Philosophie darstellte. Der Aufweis nicht-Euklidischer Geometrien warf die Frage auf, welche dieser unterschiedlichen mathematischen Ansätze die Beschaffenheit der wirklichen Raum-Zeit wiedergibt. Das philosophische Problem in diesem Zusammenhang entsteht aus der Analyse der zugehörigen Erkenntnissituation. Die Raum-Zeit sollte sich ausmessen lassen, was jedoch Maßstäbe unveränderter Form voraussetzt. Um aber festzustellen, ob ein Maßstab beim Transport seine Gestalt verändert, ist selbst ein Maßstab unveränderter Form erforderlich. Hier scheint sich eine grundsätzliche Zirkularität im Messverfahren aufzutun, in deren Folge die Behauptung der Konventionalität der physikalischen Geometrie formuliert wurde. Die Annahme einer

6

Einleitung

besonderen Theorie der physikalischen Geometrie ist dann zwar durch die Tatsachen beschränkt, aber nicht eindeutig festgelegt. Andererseits ist es eine der zentralen Konsequenzen der von Einstein 1915 formulierten allgemeinen Relativitätstheorie, dass die Raum-Zeit eine spezifische, von der Euklidischen Form abweichende Struktur besitzt, die durch die Masse-Energie-Verteilung des Universums festgelegt ist. Dadurch entsteht ein Gegensatz zwischen der erkenntnistheoretischen Behauptung der Konventionalität auf der einen Seite und der physikalischen Behauptung einer besonderen, nicht-Euklidischen Beschaffenheit der Raum-Zeit auf der anderen. Neben die konventionalistische Deutung treten daher alternative Zugangsweisen, die die geometrische Struktur der Welt auf ähnliche Weise durch die Tatsachen fixiert sehen wie andere theoretische Größen der Physik. Der vierte Block behandelt das Verhältnis von Raum und Zeit zu Körpern und Ereignissen. Im Kern geht es darum, ob eine so genannte absolute oder eine relationale Auffassung angemessen ist. Hier findet etwa die zuvor angedeutete Frage ihren Platz, ob die Raum-Zeit sinnvoll als eine Art „Behälter“ der Ereignisse aufgefasst werden kann oder ob die Raum-Zeit nichts anderes ist als die Gesamtheit der Ereignisse aus einem bestimmten Blickwinkel betrachtet. Zunächst stelle ich die klassischen, an der Newtonschen Mechanik orientierten Positionen dar, insbesondere die LeibnizClarke-Debatte über die Natur des Raums und die Kritik Machs an der Newtonschen Position. In diesem Zusammenhang kommt auch der notorische „absolute Raum“ zur Sprache, der den unveränderlichen Rahmen der wechselnden Ereignisse bilden soll. Durch die allgemeine Relativitätstheorie hat sich die einschlägige Sachlage erheblich verändert. Daher gehe ich nachfolgend darauf ein, wie sich das Problem der Beschaffenheit der Raum-Zeit vor deren Hintergrund darstellt. Diese Problematik stellt eines der aktuellen Themen der Raum-Zeit-Philosophie dar.

Kontext und Voraussetzungen Wilfrid Sellars hat einmal hervorgehoben, dass das „Problem der Zeit“ und ebenso – wie ich ergänzen möchte – das Problem der Raum-Zeit dem Leib-Seele-Problem darin gleicht, dass seine Behandlung unausweichlich alle wichtigen Anliegen der Philosophie

2. Thematische Gliederung

7

ins Spiel bringt (Savitt 1996, 366). Sellars hat recht. Die Raum-ZeitPhilosophie umgreift in der Tat ein weites Spektrum und schließt eine Reihe von Themen ein, die auf den ersten Blick mit Raum und Zeit wenig zu tun haben. Es geht um Kausalität und um Wahrscheinlichkeit, um den Urknall und den Wärmetod. Es geht um den Zugriff von Logik und Erfahrung auf die Gestalt des Systems des Wissens. Es geht um Achilles und die Schildkröte sowie um Maxwells Dämon. Und schließlich geht es darum, ob sich die Dinge in der Welt letztlich in Strukturen auflösen. Wenn man sich mit Raum und Zeit befasst, befasst man sich eben bei Weitem nicht nur mit Raum und Zeit. Die Behandlung setzt keineswegs ein abgeschlossenes Physikstudium voraus. Im Gegenteil. Alle einschlägigen physikalischen Sachverhalte werden auf möglichst untechnische und anschauliche Weise entwickelt. Insbesondere werden die einschlägigen Grundzüge sowohl der Speziellen wie der Allgemeinen Relativitätstheorie erklärt. Dabei wird nicht die Meisterung des zugehörigen Formalismus angestrebt. Einige Abschnitte sind daher als Beiträge zu der Textgattung „Physik für Philosophen“ zu verstehen. Gleichwohl handelt es sich keineswegs um einen populärwissenschaftlichen Text. Im Vordergrund stehen Fragen des Naturverstehens, die sich aus den entsprechenden Theorien ergeben. Hinter den Gleichungen stehen stets allgemeine Ideen und Vorstellungen, und es sind diese, und kaum jemals die kalkulatorischen Einzelheiten, an denen die philosophische Diskussion ansetzt.

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit Die zeitliche Anordnung von Ereignissen erfolgt durch die Beziehungen „früher“ und „später“ bzw. „gleichzeitig“, also „weder früher noch später“. Zeitliche Beziehungen dieser Art sind sicher tief in der Erfahrungswirklichkeit verankert; gleichwohl hat sich nicht erst die neuere Philosophie der Physik, sondern bereits herkömmliches philosophisches Denken der Herausforderung gestellt, diese Beziehungen auf noch basalere Begriffe und Vorstellungen zu gründen. Die kausale Theorie der Zeit strebt eine Rückführung von Zeitrelationen auf Kausalrelationen an. Danach ist die Beziehung der Verursachung fundamentaler als die Beziehungen der Abfolge und der Gleichzeitigkeit. Dieser Denkansatz ist traditionell vor allem von Gottfried Wilhelm Leibniz (1646–1716) und Immanuel Kant (1724–1804) verfolgt worden und hat in der Gegenwart im Zusammenhang der Formulierung der Speziellen Relativitätstheorie, im Folgenden kurz SRT, vor allem durch Hans Reichenbach (1891–1953) erneut Auftrieb erhalten. Die kausale Theorie der Zeit bildet einen Gegensatz zu der auf David Hume (1711–1776) zurückgehenden Regularitätstheorie der Kausalität, in deren Rahmen gerade umgekehrt Verursachung unter anderem anhand der Zeitfolge gekennzeichnet wird. Ich stelle kurz diesen humeschen Hintergrund vor und gehe dann auf die kausale Zeittheorie bei Leibniz und Kant ein. Allerdings führt die SRT zu einer erheblichen Veränderung in den Grundlagen und den Ansprüchen der kausalen Theorie der Zeit, wobei sie dem kausalen Anliegen entgegenkommt. Tatsächlich beginnt mit der Annahme der SRT eine Wiederbelebung und Reformulierung der kausalen Theorie. Daher entwickle ich im zweiten Abschnitt die Grundzüge der SRT und führe die Merkmale der zugehörigen Raum-ZeitStruktur vor Augen. Im dritten und vierten Abschnitt skizziere ich die Umsetzung der kausalen Theorie im Rahmen der SRT. Dabei geht es um Versuche, die Raum-Zeit-Struktur allein auf der Grundlage der Beziehungen der kausalen Verknüpfbarkeit zu rekonstruieren. Im fünften Abschnitt stehen die modernen Ansätze zu einer

1.1 Die klassische Form der kausalen Zeittheorie: Leibniz und Kant

9

kausalen Begründung temporaler Beziehungen im Zentrum. Die Abschnitte 1.4 und 1.5 sind thematisch anspruchsvoller als der Rest des Buches und für ein Verständnis der nachfolgenden Argumentation nicht unabdingbar.

1.1 Die klassische Form der kausalen Zeittheorie: Leibniz und Kant Humes Regularitätstheorie sieht eine Kausalbeziehung durch drei Merkmale gekennzeichnet: (1) Kontiguität: Räumliche Nachbarschaft von Ursache und Wirkung. (2) Asymmetrie: Zeitliche Priorität der Ursache vor der Wirkung. (3) Regularität: Beständiges gemeinsames Auftreten von Ursache und Wirkung (Hume 1739, 229-235). Die Kontiguitätsbedingung der räumlichen Nachbarschaft beschränkt alle Kausalprozesse auf Nahewirkungen. Wenn zwei entfernte Ereignisse kausal miteinander verbunden sind, so muss es eine dazwischenliegende, verbindende Kette von Ursachen und Wirkungen geben, zwischen denen jeweils eine Nahewirkungsbeziehung besteht. Die Asymmetriebedingung legt zunächst fest, dass Ursache und Wirkung nicht vertauschbar sind. Die Ursache bringt die Wirkung hervor, nicht aber die Wirkung die Ursache. Diese Asymmetrie stellt den wesentlichen Unterschied zu Beziehungen der Wechselwirkung dar. Als Kriterium für diese Unterscheidung zwischen Ursache und Wirkung wird die Zeitfolge eingeführt. Die Nicht-Vertauschbarkeit von Ursache und Wirkung ergibt sich daraus, dass die Ursache der Wirkung zeitlich vorangeht. Die zentrale Bestimmung kausaler Beziehungen besteht in der Regularität, der Beständigkeit des gemeinsamen Auftretens von Ursache und Wirkung; ein besonderes „Vermögen“, kraft dessen die Ursache die Wirkung erzeugte, ist dagegen nicht aufweisbar. Nach Humes Ansicht ist entsprechend Kausalität durch die genannten drei Bedingungen erschöpfend charakterisiert. Für die kausale Theorie der Zeit stellt sich die Problematik in ganz anderer Weise dar. Es geht nicht um eine Explikation der Kausalität; der Begriff der Verursachung wird vielmehr als grundlegend aufgefasst. Ziel ist stattdessen, auf diesen zeitliche Ordnungsbeziehungen zu gründen. Relevant sind zunächst Zeitfolge und

10

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

Gleichzeitigkeit; in modernen Fassungen wird der Einbezug von Zeitdauern (oder eigentlich Raum-Zeit-Intervallen) angestrebt. Die zentrale Festlegung der kausalen Zeittheorie lautet: Wenn Ereignis A dazu beiträgt, Ereignis B hervorzubringen, dann ist A früher als B.

Leibniz: Zeitfolge und zureichender Grund Leibniz vertrat eine relationale Theorie von Raum und Zeit, derzufolge Raum und Zeit keine selbstständig existierenden Größen sind, sondern einen spezifischen Typus von Beziehungen zwischen Ereignissen zum Ausdruck bringen (s.u. 4.1.2). Entsprechend ergab sich für Leibniz die Frage, von welcher Art diese zeitlichen Beziehungen zwischen Ereignissen sind; und seine Antwort lautete, dass es sich um Verursachungsbeziehungen handelt. Das Prinzip des zureichenden Grundes soll Ereignisse zu einer zeitlichen Folge ordnen. „Wenn einer von zwei nicht-gleichzeitigen Zuständen den Grund für den anderen enthält, dann ist ersterer früher und letzterer später“ (Leibniz, in: Mehlberg 1935, 46). Diese Bedingung erlaubte für Leibniz die Bestimmung der Zeitfolge aller nicht-gleichzeitigen Ereignisse, da er eine universelle Wechselwirkung zwischen ihnen annahm (Mehlberg 1935, 46).1

Kant: Zeitfolge und Kausalität Kants Beitrag zur kausalen Zeittheorie konzentriert sich demgegenüber auf eine kausale Definition der Gleichzeitigkeit. Gleichzeitige Ereignisse sind dadurch charakterisiert, dass zwischen ihnen eine Wechselwirkung besteht. Diese Definition stellt das genaue Gegenteil der modernen Festlegung dar; danach sind gleichzeitige Ereignisse umgekehrt dadurch gekennzeichnet, dass zwischen ihnen keine Wechselwirkung vorliegen kann. Ich stelle zunächst Kants modifizierte Übernahme der Leibnizschen Theorie der Zeitfolge dar und skizziere dann die neuartige Bestimmung der Gleichzeitigkeit.

1.1 Die klassische Form der kausalen Zeittheorie: Leibniz und Kant

11

Immanuel Kant

Kant übernimmt Leibniz’ kausale Theorie der Zeitfolge, versieht diese aber mit dem für die kantsche Philosophie charakteristischen transzendentalen Anspruch. Die „Zweite Analogie der Erfahrung“ drückt den Grundsatz aus, dass jede Erfahrung von Veränderung das Kausalgesetz voraussetzt. Diese Erfahrung nämlich erfordert eine festgelegte Verknüpfung der Wahrnehmungen, welche ihrerseits nicht durch die subjektive Zeitfolge der Wahrnehmungen bestimmt ist. Die Betrachtung der Wahrnehmungen zeigt allein, „daß meine Imagination eines vorher, das andere nachher setze, nicht daß im Objekte der eine Zustand vor dem anderen vorhergehe“ (Kant 1787, 233). Eine objektive, nicht-beliebige Zeitfolge der Wahrnehmungseindrücke wird erst durch die ordnende Kraft der Kategorie der Kausalität hergestellt. Diese soll die Transformation einer subjektiven Folge von Wahrnehmungen in eine objektive Folge von Ereignissen leisten. Konkret läuft die Durchführung dieses Ansatzes auf die folgende Argumentation hinaus: Bei der Beobachtung eines Hauses und der Beobachtung eines Bootes, das einen Fluss herunterfährt, zeigt sich ein wesentlicher Unterschied. Im ersten Fall ist die Reihenfolge der Wahrnehmungen beliebig; man kann den Blick vom Dach zum Boden oder in umgekehrter Richtung schweifen lassen. Bei der Beobachtung des Bootes liegt hingegen eine gerichtete Abfolge

12

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

oder eindeutige Ordnung vor. Von zwei Wahrnehmungen, deren eine das Boot weiter stromaufwärts, die andere es stromabwärts erfasst, muss die erste früher als die zweite sein. Es liegt entsprechend eine objektive Folge der Erscheinungen vor. Die Grundlage dieser Einsinnigkeit kann nicht in den Wahrnehmungen selbst liegen, da es sich in beiden Fällen um subjektive Folgen handelt. Vielmehr erzeugt die Kategorie der Kausalität eine feste Ordnung unter den Erscheinungen. Diese Kategorie überführt die verschiedenen Wahrnehmungen des Bootes in eine gerichtete Erfahrung von Veränderung. Es ist der Verstand, der die verschiedenen Bootspositionen durch die Strömung des Flusses kausal miteinander verknüpft sieht und auf diese Weise die Abfolge der Wahrnehmungen des Bootes als eindeutig geordnet erfährt (Kant 1787, 234-240). Auf Arthur Schopenhauer geht der Einwand zurück, Kants Fassung der kausalen Theorie sei zirkulär und damit untauglich: „Wie läßt sich Kants Behauptung, daß die Objektivität der Succession allein erkannt werde aus der Nothwendigkeit der Folge von Wirkung auf Ursache, vereinigen mit jener (Kr. d. r. V. p. 249), daß das empirische Kriterium, welcher von zwei Zuständen Ursach und welcher Wirkung sey, bloß die Succession sey? Wer sieht hier nicht den offenbarsten Cirkel“ (Schopenhauer 1813, 39). Für Schopenhauer muss eine kausale Theorie der Zeitordnung zwischen Ursachen und Wirkungen unterscheiden können, ohne dafür auf die Zeitfolge zurückgreifen zu müssen. Die kausale Theorie besagt, dass die Anordnung von Ereignissen dadurch festgelegt ist, dass Wirkungen später als ihre Ursachen eintreten. Damit eine solche Ansicht gehaltvoll wird, müssen Ursachen von Wirkungen anhand nicht-temporaler Eigenschaften unterschieden werden können. Aber Kant lässt sich im Gegenteil dahingehend ein, dass Zeitfolge oder die regelmäßige Verknüpfung die einzige Basis einer Unterscheidung von Ursachen und Wirkungen ist. „Demnach ist die Zeitfolge allerdings das einzige empirische Kriterium der Wirkung, in Beziehung auf die Kausalität der Ursache, die vorhergeht“ (Kant 1787, 249). Und weiter: „Vom Begriffe der Ursache würde ich (wenn ich die Zeit weglasse, in der etwas auf etwas anderes nach einer Regel folgt) in der reinen Kategorie [der Kausalität] nichts weiter finden, als dass es so etwas sei, woraus sich auf das Dasein eines anderen schließen lässt, und es würde dadurch nicht allein Ursache und Wirkung gar nicht von einander unterschieden werden können“ (ebd. 301). Danach stellte die Kategorie der Kausalität keine Grundlage für die Unterscheidung zwischen Ursache und Wirkung bereit; diese

1.1 Die klassische Form der kausalen Zeittheorie: Leibniz und Kant

13

muss vielmehr aus der Anschauungsform der Zeit stammen. Entsprechend verfehlte die Kausalität die Differenz zwischen früher und später, sie vermöchte allenfalls eine geordnete, nicht aber eine gerichtete Abfolge von Ereignissen zu erzeugen – und darauf zielt Schopenhauers Einwand ab. Ich komme auf dieses Problem aus modernem Blickwinkel zurück (s.u. 1.5.1).

Kant: Gleichzeitigkeit, Wechselwirkung und die instantane Ausbreitung der Gravitation Kants kausale Theorie der Gleichzeitigkeit macht seine Originalität auf diesem Felde aus. Nach Kant besteht zwischen gleichzeitigen Ereignissen eine wechselseitige Kausalbeziehung. Die „Dritte Analogie der Erfahrung“ spezifiziert den „Grundsatz des Zugleichseins, nach dem Gesetze der Wechselwirkung oder Gemeinschaft“ (Kant 1787, 256). Dieser Grundsatz legt fest: „Alle Substanzen, so fern sie im Raume als zugleich wahrgenommen werden können“, sind in durchgängiger Wechselwirkung (ebd.). Empirisches Merkmal gleichzeitiger Zustände ist die willkürliche Anordnung der Wahrnehmungen. Bei der Betrachtung des Hauses gibt es deshalb keine ausgezeichnete Reihenfolge der Wahrnehmungen, weil die Teile des Hauses gleichzeitig existieren. Zwischen den Wahrnehmungen besteht keine objektive Zeitordnung; ihre Abfolge lässt sich durch Wechsel der Blickrichtung umkehren. Grundlage dieser objektiven Gleichzeitigkeit ist die Kategorie der „Gemeinschaft“ oder „Wechselwirkung“, also die wechselseitige Bestimmung der Zeitverhältnisse. Da Zeitverhältnisse durch die Kausalordnung bestimmt werden, verlangt das objektive Bestehen von Gleichzeitigkeit das Vorliegen einer Wechselwirkung zwischen den betreffenden Zuständen. Diese Wechselwirkung ist der objektive Grund für die Umkehrbarkeit der subjektiven Reihenfolge der Wahrnehmungen (Kant 1787, 257-258; Watkins 1997, 419). Bei der Betrachtung des Hauses ist die Reihenfolge der Wahrnehmungen umkehrbar, weil die Teile des Hauses in Wechselwirkung miteinander stehen. Die unterschiedlichen Positionen des Bootes auf dem Fluss stehen hingegen nicht in Wechselwirkung miteinander. Kants kausale Theorie zeitlicher Beziehungen ist entsprechend von hoher begrifflicher Homogenität (und überragt in dieser Hinsicht sowohl ihre Vorgänger wie ihre Nachfolger). Die zeitlichen

14

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

Beziehungen werden einheitlich durch ein einziges Prinzip festgelegt: „Nun bestimmt nur dasjenige dem andern seine Stelle in der Zeit, was die Ursache von ihm oder seinen Bestimmungen ist“ (Kant 1787, 259). Eine eindeutig gerichtete Folge von Wahrnehmungen mit ihren Beziehungen von „früher“ und „später“ ergibt sich aus der Verursachungsbeziehung; die Umkehrbarkeit von Wahrnehmungen entspricht der Beziehung der Gleichzeitigkeit und beruht darauf, dass die Kausalität in beide Richtungen wirkt. Der subjektiven Umkehrbarkeit liegt ein wechselseitiger Einfluss zugrunde, eine „reale Gemeinschaft (commercium) der Substanzen“ (Kant 1787, 261). Diese Konstruktion läuft demnach auf die Vorstellung hinaus, dass zwischen allen Objekten, die als gleichzeitig erfahren werden, eine durchgängige Wechselwirkung besteht (Kant 1787, 257-258). Allerdings entsteht auch hier ein weiteres Zirkularitätsproblem. Wenn Gleichzeitigkeit auf wechselseitige kausale Einwirkung zurückführbar sein soll, dann dürfen offenbar die einschlägigen entgegengesetzt gerichteten Kausalprozesse nicht aufeinanderfolgen. Sie müssen sich gleichsam überkreuzen. Dies ist aber gleichbedeutend damit, dass diese Prozesse gleichzeitig auftreten. Damit gründete jedoch Gleichzeitigkeit nicht etwa auf dem Bestehen von Wechselwirkung, sondern von gleichzeitiger Wechselwirkung, und ihre Bestimmung geriete entsprechend in einen Zirkel (Watkins 1997, 435-437). Zur Lösung dieses Problems ist Kants Analyse der Mitteilung der Bewegung aus den Metaphysischen Anfangsgründen der Naturwissenschaft herangezogen worden. Diese Analyse beinhaltet, dass die Bewegung, die Körper unter beliebigen Umständen einander erteilen, stets wechselseitig ist. Solche Prozesse der Mitteilung der Bewegung weisen demnach gerade die erforderliche Art von wechselseitiger kausaler Bestimmung auf. Wenn man also ohne Bezug auf temporale Größen sicherstellen kann, dass eine Mitteilung von Bewegung vorliegt, dann erlaubt dies den Schluss auf das Bestehen von Gleichzeitigkeitsbeziehungen (Kant 1786, 544; Watkins 1997, 437). Kants Analyse erstreckt sich zwar auf beliebige Mitteilungsprozesse, wird jedoch nur für die Mitteilung der Bewegung durch Stöße weiter ausgearbeitet. Der Bezug auf Stoßprozesse ist in der Tat geeignet, den Anwendungszirkel bei der Bestimmung der Gleichzeitigkeit aufzulösen: Stoßprozesse lassen sich ohne Voraussetzung von Gleichzeitigkeitsbeziehungen identifizieren. Zwischen stoßenden Körpern besteht demnach die geforderte Beziehung wechselseitiger Verursachung. Wenn zwei Körper aufeinandertreffen, dann existieren sie während des Zusammenpralls zur gleichen Zeit.

1.1 Die klassische Form der kausalen Zeittheorie: Leibniz und Kant

15

Andererseits ist wechselseitige Mitteilung von Bewegungen in Stößen nicht für eine umfassende Festlegung der Gleichzeitigkeit geeignet. Man benötigt einen verallgemeinerten Ansatz für die Explikation von Gleichzeitigkeitsbeziehungen zwischen entfernten Ereignissen. Tatsächlich ist Kant der Auffassung, dass sämtliche gleichzeitig existierenden Körper (also nicht allein die miteinander kollidierenden Objekte) in Wechselwirkung miteinander stehen. Alle Gegenstände in einem zeitlichen Querschnitt durch das Universum stehen in „dynamischer Gemeinschaft“. Diese Gemeinschaft kann sich offenbar nicht auf direkte Stoßeinwirkung gründen, und tatsächlich tritt für Kant neben die unmittelbare Gemeinschaft ohne Übertragungsprozess die „mittelbare“. Kants Beispiel für eine mittelbare Gemeinschaft ist das Wechselspiel der Lichtstrahlen. „Unseren Erfahrungen ist es leicht anzumerken, daß nur die kontinuierlichen Einflüsse in allen Stellen des Raumes unseren Sinn von einem Gegenstande zum anderen leiten können, daß das Licht, welches zwischen unserm Auge und den Weltkörpern spielt, eine mittelbare Gemeinschaft zwischen uns und diesen bewirken, und dadurch das Zugleichsein der letzteren beweisen [...] kann“ (Kant 1787, 260). Bei einer mittelbaren Gemeinschaft beruht demnach die Wechselwirkung auf einem vermittelnden Prozess. Auge und Stern sind gleichzeitig, weil das Licht des Sterns das Auge erreicht, und – so muss man es wohl verstehen – weil umgekehrt das vom Auge ausgehende Licht den Stern trifft („zwischen dem Auge und den Weltkörpern spielt“). Das Bestehen einer mittelbaren Gemeinschaft ist also für die Erfahrung von Gleichzeitigkeit hinreichend. Aber ebenso wenig wie Stoßprozesse kommt wechselseitige Beleuchtung der Körper als Grundlage einer umfassenden, das Universum umspannenden „dynamischen Gemeinschaft“ in Frage. Für eine solche Verallgemeinerung bietet sich jedoch die Vermittlung durch die Gravitation an. Ihre Eignung beruht darauf, dass sie universell und instantan wirkt. Als Folge ihrer Universalität stellt sie Kausalbeziehungen zwischen sämtlichen existierenden Körpern her, und als Folge ihrer unendlich schnellen Ausbreitung verknüpft sie diese Körper jeweils zur gleichen Zeit. Bei allen Prozessen endlicher Ausbreitungsgeschwindigkeit tritt die erwähnte Zirkularität auf: Man muss die Zeitpunkte der Signalaussendung miteinander koordinieren und benötigt entsprechend bereits eine Gleichzeitigkeitsbeziehung. Anders hingegen bei der

16

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

Gravitation. Aufgrund der instantanen Fortpflanzung beinhaltet das bloße Bestehen einer Wechselwirkung bereits die Gleichzeitigkeit von Wirkung und Rückwirkung. Wenn Sonne und Erde in instantan übertragener gravitativer Wechselwirkung stehen, dann sind Hin- und Rückwirkung in jedem Fall gleichzeitig. Die empirische Identifikation der einschlägigen, sich überkreuzenden Kausalprozesse ist dann ohne weiteres möglich. Die Gravitationswirkung, die der Körper A auf den Körper B zum Zeitpunkt t0 ausübt, ist gleichzeitig mit der Gravitationswirkung, die vom Körper B auf den Körper A zum gleichen Zeitpunkt t0 ausgeübt wird. Der Zeitpunkt der Aussendung des betreffenden Kausalprozesses vom Körper A stimmt überein mit dem Zeitpunkt des Eingangs des zugehörigen Kausalprozesses vom Körper B. Dies stellt gerade den Unterschied zu Prozessen endlicher Ausbreitungsgeschwindigkeit dar; bei diesen würden durch eine solche Übereinstimmung der Zeitpunkte gerade aufeinanderfolgende und damit ungeeignete Kausalprozesse ausgesondert. Durch Rückgriff auf die instantane Ausbreitung der Gravitation könnte daher die Anwendungszirkularität der kantschen Bestimmung der Gleichzeitigkeit gelöst werden. Dies begründet den wesentlichen Vorzug der Gravitation gegenüber allen anderen die gleichzeitigkeitskonstitutive Wechselwirkung vermittelnden Prozessen. Allerdings verlangt diese Rekonstruktion, dass die Fernwirkung der Gravitation eine transzendentale Tragweite besitzt. Die Gravitation zählte dann zu den Bedingungen der Möglichkeit der Erfahrung: sie macht die Erfahrung von entfernter Gleichzeitigkeit möglich. Tatsächlich legt Lehrsatz 8 des Dynamikkapitels der Metaphysischen Anfangsgründe der Naturwissenschaften fest, dass die „ursprüngliche Anziehungskraft“, das ist die Gravitation, eine Fernwirkung ist, was deren unendliche Ausbreitungsgeschwindigkeit beinhaltet. Allerdings wird diese Fernwirkung auf die Möglichkeit der Erfahrung von Materie, nicht auf die Erfahrung entfernter Gleichzeitigkeit gegründet (Kant 1786, 516-517); es fehlt dort jeder Bezug auf die Kategorie der Wechselwirkung oder auf die Gleichzeitigkeit. Vermutlich hat Kant das Zirkularitätsproblem der entfernten Gleichzeitigkeit nicht bemerkt und daher auch nicht die Ressourcen seiner eigenen Konzeption zu deren Bewältigung genutzt.

1.2 Die Raum-Zeit-Struktur in der speziellen Relativitätstheorie

17

1.2 Die Raum-Zeit-Struktur in der speziellen Relativitätstheorie

Albert Einstein

Seit den Zeiten Kants hat sich die einschlägige wissenschaftliche Sachlage drastisch gewandelt. Von zentraler Bedeutung ist dabei die Formulierung der SRT im Jahre 1905 durch Albert Einstein (1879–1955). Ich stelle zunächst die Grundzüge dieser Theorie vor und skizziere die wesentlichen Merkmale der zugehörigen RaumZeit-Struktur. Anschließend diskutiere ich in ihrem Rahmen Fortentwicklungen der kausalen Theorie der Zeit.

1.2.1 Die Konzeption der Speziellen Relativitätstheorie und die Tradition der Elektrodynamik Einsteins bahnbrechende Arbeit zur „Elektrodynamik bewegter Körper“ aus dem Jahre 1905 stellt zwei Grundsätze an den Anfang, das später so genannte spezielle Relativitätsprinzip und die Konstanz der Lichtgeschwindigkeit. Das spezielle Relativitätsprinzip sieht vor, dass alle geradlinig-gleichförmig bewegten Beobachter in jedweder physikalischen Hinsicht gleichberechtigt sind. Dies drückt die Gleichberechtigung von sog. Inertialsystemen aus; danach eignen sich alle geradlinig-gleichförmig bewegten Bezugssysteme für die Beschreibung von Bewegungen in gleicher Weise.

18

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

Umgekehrt treten in nicht-inertialen Bezugssystemen, die beschleunigt sind oder rotieren, Trägheitskräfte auf (etwa Zentrifugalkräfte). Durchfährt etwa ein Bus eine Kurve, so fühlt sich ein im Bus stehender Fahrgast gegen die Wand gepresst. Diese Kraft stammt aus der ungleichförmigen (oder nicht-inertialen) Bewegung des Busses (also des Bezugssystems). Für den äußeren Betrachter folgt der Fahrgast lediglich seiner Trägheitsbahn; er bewegt sich geradeaus, und auf ihn wirkt keinerlei Kraft. Die einzig wirksame Kraft greift stattdessen am Bus an. Charakteristikum von Trägheitskräften ist damit, dass sie beim Übergang in ein Inertialsystem verschwinden und dass die zugrunde liegende Kraft auf das Bezugssystem wirkt und nicht auf den betrachteten Körper (oder Beobachter) in ihm. Durch das Relativitätsprinzip ist es ausgeschlossen, ein in Wirklichkeit ruhendes Bezugssystem anhand von physikalischen Sachverhalten zu identifizieren. Für mechanische Vorgänge war dies bereits von Galileo Galilei (1564–1642) und systematischer von Isaac Newton (1643–1727) ausgesprochen worden; in dieser Form heißt es auch „klassisches Relativitätsprinzip“. Einsteins Erweiterung betraf elektromagnetische Prozesse wie die Lichtausbreitung. Auch solche Prozesse sollten keine Möglichkeit für die Feststellung eröffnen, ob ein Beobachter sich in Ruhe befindet oder eine geradlinig-gleichförmige Bewegung ausführt. Allein Bewegungen relativ zu anderen Körpern oder Beobachtern sind der Erfahrung zugänglich und Gegenstand der physikalischen Beschreibung. Einsteins zweites Prinzip der Konstanz der Lichtgeschwindigkeit besagt, dass die Ausbreitungsgeschwindigkeit des Lichts unabhängig von der Geschwindigkeit der Lichtquelle ist. Ob sich eine Lampe bewegt, ist für die Geschwindigkeit des von ihr ausgesendeten Lichts ohne Belang. Dieser Sachverhalt folgt aus der traditionellen Elektrodynamik; es handelt sich nicht um ein neuartiges Postulat. Anders als es im Rückblick scheinen mag, stellte Einsteins Relativitätsprinzip, das spezielle Relativitätsprinzip, keineswegs eine naheliegende Verallgemeinerung des auf die Mechanik beschränkten, klassischen Relativitätsprinzips dar. Die Elektrodynamik der Zeit schien vielmehr eine Möglichkeit für die Ermittlung absoluter Geschwindigkeiten bereitzustellen. Die Lichtgeschwindigkeit sollte nämlich mit Bezug auf den als ruhend angenommenen Lichtäther einen festen Wert annehmen. Folglich sollten unterschiedlich bewegte Beobachter verschiedene Werte der Lichtgeschwindigkeit

1.2 Die Raum-Zeit-Struktur in der speziellen Relativitätstheorie

19

messen. Ein mechanisches Analogon ist, dass ein mit konstanter Geschwindigkeit geworfener Ball eine je nach Geschwindigkeit des Auffangenden unterschiedliche Auftreffgeschwindigkeit besitzt. Wer dem Ball entgegeneilt, wird härter getroffen. Aus der Messung der Auftreffgeschwindigkeit lässt sich entsprechend die Geschwindigkeit des Fängers ermitteln. Der Vorteil der elektrodynamischen Situation ist, dass die Lichtgeschwindigkeit mit Bezug auf den Äther für beliebig bewegte Lichtquellen übereinstimmt und damit einen festen Referenzwert für Geschwindigkeitsmessungen bildet, welcher überdies aus elektromagnetischen Kenngrößen ermittelbar ist. Daher sollte man aus der Abweichung des gemessenen Werts von diesem Referenzwert auf den Bewegungszustand des Beobachters schließen können. Es sollte also gelingen, die Geschwindigkeit eines Beobachters gegen den ruhenden Äther zu ermitteln, seine „absolute Geschwindigkeit“. Eine Serie von Experimenten, die von Albert Michelson und Edward Morley in den 1880er Jahren ausgeführt worden war, hatte dagegen unter Beweis gestellt, dass eine solche Messung scheitert. Ergeben hatte sich ein „Nullresultat“: der Messwert für die Lichtgeschwindigkeit stimmt für verschieden bewegte Beobachter überein.

Einsteins Analyse der entfernten Gleichzeitigkeit Es ist diese Sachlage, auf die Einstein 1905 mit den beiden genannten Grundsätzen reagierte, dem Relativitätsprinzip und der Annahme der Konstanz der Lichtgeschwindigkeit. Die „mißlungenen Versuche, eine Bewegung der Erde relativ zum Lichtmedium zu konstatieren, führen zu der Vermutung, daß … für alle Koordinatensysteme, für welche die mechanischen Gleichungen gelten, auch die gleichen elektrodynamischen und optischen Gesetze gelten ... Wir wollen diese Vermutung (deren Inhalt im folgenden ‘Prinzip der Relativität’ genannt werden wird) zur Voraussetzung erheben und außerdem die mit ihm nur scheinbar unverträgliche Voraussetzung einführen, daß sich das Licht im leeren Raum stets mit einer bestimmten, vom Bewegungszustande des emittierenden Körpers unabhängigen Geschwindigkeit V fortpflanze“ (Einstein 1905, 26). Das spezielle Relativitätsprinzip und das Prinzip der Konstanz der Lichtgeschwindigkeit zusammengenommen führen auf die neuartige Konsequenz der Invarianz der Lichtgeschwindigkeit:

20

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

Die Ausbreitungsgeschwindigkeit des Lichts nimmt für beliebig bewegte Beobachter den gleichen Wert an. Dann gibt es nämlich keine Geschwindigkeitsdifferenzen, die die Ermittlung der absoluten Bewegung des Beobachters ermöglichen würden. Andererseits klingt diese Invarianzbehauptung widersinnig. Sie hat schließlich zur Folge, dass ein Beobachter, der einem Lichtstrahl mit hoher Geschwindigkeit nacheilt, den gleichen Messwert von c = 300.000 km/s erhält, wie ein Beobachter, der dem Lichtstrahl entgegenrast. Eine solche Behauptung steht im Gegensatz zur üblichen Vorstellungswelt wie auch zu den Prinzipien der klassischen Mechanik. Einsteins Auflösung dieses durch seinen Gedankengang aufgeworfenen Paradoxons besteht in der These der Relativität der Gleichzeitigkeit, also der begrifflichen Bindung von Urteilen über die Gleichzeitigkeit entfernter Ereignisse an Bewegungszustände von Beobachtern. Was dem einen Beobachter als gleichzeitig gilt, findet für den anderen Beobachter zu verschiedenen Zeiten statt. Dem Anschein nach wird dadurch das Paradoxe aber nur um den Preis des Absurden vermieden. Einstein steht entsprechend vor der Herausforderung, diese Aufgabe der objektiven, beobachterübergreifenden Gleichzeitigkeitsbeziehung plausibel zu machen. Dafür greift er auf die operationale Bestimmung der Gleichzeitigkeit zurück. Die Bedeutung des Begriffs der entfernten Gleichzeitigkeit wird über die Möglichkeiten der Ermittlung von Gleichzeitigkeitsbeziehungen bestimmt. Das von Einstein hier in den Mittelpunkt gerückte Verfahren sieht die Synchronisierung von Uhren durch Aussendung von Lichtstrahlen vor (Einstein 1905, 27-29).

Figur 1: Synchronisierung von Uhren durch Lichtstrahlen

Wenn man zwei entfernte Uhren an den Orten B und C miteinander synchronisieren will, sendet man vom Mittelpunkt A zwei Lichtsignale aus und stellt bei deren Eintreffen die beiden Uhren auf den gleichen Zahlenwert.

1.2 Die Raum-Zeit-Struktur in der speziellen Relativitätstheorie

21

Figur 2: Relativität der Gleichzeitigkeit

Dieses Verfahren führt bei der Übertragung auf bewegte Uhren zu Eigentümlichkeiten, die ich anhand einer Variation von Einsteins „Paradoxon der Blitze“ vorstelle (Einstein 1917, 24-25). Ein Zug bewege sich gegen den Bahndamm, wobei an seinen beiden Enden jeweils eine Uhr angebracht sei. Die Aufgabe bestehe darin, diese beiden Uhren miteinander zu synchronisieren. Zu diesem Zweck stellt man eine Lampe auf den Bahndamm, die gerade in dem Augenblick, in welchem sie sich auf gleicher Höhe mit der Zugmitte befindet, einen Lichtblitz aussendet. Zu diesem Zeitpunkt befindet sich die Lampe demnach in gleicher Entfernung von beiden Uhren, so dass das soeben beschriebene Verfahren zur Synchronisierung entfernter Uhren zur Anwendung kommt. Aus dem Blickwinkel der Zugreisenden verläuft die Synchronisierung der Uhren denn auch ohne Probleme, nämlich gerade wie im zuvor geschilderten Fall. Zwar befindet sich die Lampe relativ zum Zug in Bewegung, sie sendet aber zum richtigen Zeitpunkt und vom richtigen Ort ihren Lichtblitz aus. Anschließend bewegt sich die Lampe zwar weiter, aber ihre Bewegung nach der Lichtaussendung ist für die Angemessenheit der Synchronisierung ohne Belang. Hingegen erscheint vom Bahndamm aus gesehen diese Prozedur in wesentlicher Hinsicht fehlerhaft. Aus diesem Blickwinkel hat sich nämlich der Zug während der Laufzeit der Lichtsignale voranbewegt, so dass der Lichtstrahl eher am hinteren Ende als am vorderen Teil eintrifft. Aufgrund der Eigenbewegung des Zugs ist der Ausgangspunkt der Signale zum Zeitpunkt der Ankunft an den Uhren eben nicht mehr gleich weit von beiden Uhren entfernt. Aus der Warte des Bahndamms synchronisieren die Reisenden ihre Uhren demnach auf fehlerhafte Weise. Was die Reisenden für gleichzeitig halten, ist es tatsächlich nicht.

22

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

Das spezielle Relativitätsprinzip bringt aber die Gleichberechtigung aller geradlinig-gleichförmig bewegten Beobachter zum Ausdruck und lässt daher kein Urteil des Inhalts zu, die Zugfahrer ermittelten ihre Gleichzeitigkeitsbeziehungen auf unzutreffende Weise. Beide Bestimmungen müssen als adäquat gelten, und da sich die darauf gegründeten Urteile über Gleichzeitigkeitsbeziehungen unterscheiden, bleibt nur der Ausweg, entfernte Gleichzeitigkeit begrifflich an den Bewegungszustand von Beobachtern zu binden. Diese Relativität der Gleichzeitigkeit besagt, dass Gleichzeitigkeitsbeziehungen stets relativ zum Bewegungszustand des Beobachters sind. Unterschiedliche Beobachter geben hier zu Recht unterschiedliche Urteile ab. Damit Einsteins Innovationsleistungen klarer hervortreten, will ich seinen Ansatz mit der am weitesten vorangetriebenen Fassung der herkömmlichen Elektrodynamik kontrastieren. Diese stammt von Hendrik A. Lorentz (1853–1928) und, ausgehend von dessen Ergebnissen, von Henri Poincaré (1854–1912). Beide fanden auf dieser traditionellen Grundlage wichtige empirische Resultate der Speziellen Relativitätstheorie oder nahmen diese zum Teil sogar vorweg. Allerdings wich ihre Interpretation dieser Resultate wesentlich von derjenigen Einsteins ab. Zunächst war es Poincaré, der bereits 1898 die Ermittlung von Gleichzeitigkeitsbeziehungen auf den Austausch von Lichtsignalen stützen wollte (s.u.) und der 1904 erkannte, dass die Anwendung dieses Verfahrens auf bewegte Beobachter zu unterschiedlichen Urteilen über Gleichzeitigkeitsbeziehungen führt. Im selben Jahr arbeitete Poincaré heraus, dass keiner dieser Beobachter seine absolute Geschwindigkeit oder seine Bewegung gegen den Äther ermitteln kann. Bei der genannten Festlegung von Gleichzeitigkeitsbeziehungen ergab sich das so verstandene Relativitätsprinzip als ein Theorem der Elektrodynamik (Carrier 2006a, 20-21). Dieser Übereinstimmung der Ergebnisse stehen tief greifende Unterschiede in deren Deutung gegenüber. Poincaré hielt an der herkömmlichen Auffassung fest, der wahre Wert der Lichtgeschwindigkeit werde allein von dem im Äther ruhenden Beobachter korrekt gemessen. Beobachter in Bewegung gegen den Äther haben es der Sache nach mit verzerrten Werten für die Lichtgeschwindigkeit zu tun; diese Unterschiede kommen aber aufgrund von Störungen bei der Ermittlung dieses Wertes nicht zum Tragen. Zwar ergibt sich die richtige Gleichzeitigkeitsbeziehung allein für einen ruhenden Beobachter; aber niemand kann wissen, welcher Beob-

1.2 Die Raum-Zeit-Struktur in der speziellen Relativitätstheorie

23

achter in Wahrheit ruht. Bei Poincaré war das Relativitätsprinzip demnach rein epistemisch gemeint, nämlich als Erkenntnisgrenze. In der Natur gibt es durchaus privilegierte Bezugssysteme und absolute Bewegungen. Diese bleiben jedoch wegen der Kompensation unterschiedlicher Einflussfaktoren dem menschlichen Zugriff entzogen (Poincaré 1905, 188-189; Poincaré 1909, 10).

Henri Poincaré

Einstein sah das anders. Er leitete erstens das Relativitätsprinzip nicht als Theorem ab wie Poincaré, sondern führte es als Prämisse ein (s.o.); es wurde ohne Herleitungsversuch als Postulat an die Spitze der Theorie gestellt. Zweitens wollte Einstein seine Geltung nicht auf die bloße Kenntnis von Bewegungszuständen beschränkt wissen. Die Relativität der Gleichzeitigkeit bindet Gleichzeitigkeitsbeziehungen begrifflich an den Bewegungszustand von Beobachtern und schließt daher jedwede Privilegierung eines solchen Bewegungszustands in der Sache von vornherein aus. Entsprechend reicht es für Einstein nicht hin, dass die Beobachtungen lediglich keinen Schluss auf absolute Geschwindigkeiten erlauben; diese Größen dürfen auch in der theoretischen Beschreibung keine Rolle spielen. Einstein eröffnet seine erste Darstellung der SRT mit der Kritik an einer begrifflichen Asymmetrie der herrschenden Elektrodynamik, die die Bewegung einer Spule in einem Magnetfeld auf andersartige Weise darstellt als die Bewegung eines Magneten gegen eine Spule. Im Endergebnis stellt sich jeweils der gleiche Wert für die Stromstärke ein, aber Einstein wendet sich gegen eine Asymmetrie in der theoretischen Beschreibung, die den Phänome-

24

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

nen selbst nicht anhaftet (Einstein 1905, 26). Bei Einstein wird das derart weittragend gefasste Relativitätsprinzip zu einem grundlegenden Naturgesetz. Bei Lorentz und Poincaré stehen dagegen nur die Erscheinungen im Einklang mit Relativitätsprinzip, während es in der Wirklichkeit des Naturgeschehens verletzt ist (Schlick 1919, 11). Nun wird die Relativität der Gleichzeitigkeit (wie gesagt) zunächst widersinnig scheinen. Eine Definition entfernter Gleichzeitigkeit, die Gleichzeitigkeitsbeziehungen zwischen Ereignissen begrifflich an die jeweiligen Bewegungszustände bindet, wirkt sicher wenig plausibel. Die kontraintuitive Relativität könnte als Einwand gegen Einsteins begriffliche Bestimmung gelten. Man wird daher vielleicht vermuten, dass Einstein stützende Daten zu deren Gunsten anführen konnte, die die Überlegenheit seiner Interpretation gegen Poincarés Festhalten an einer wahren Gleichzeitigkeitsbeziehung verbunden mit der Annahme von Störungen des Messprozesses begründeten. Aber solche Daten standen Einstein nicht zur Verfügung. Das erste Experiment, das geeignet war, die Überlegenheit der SRT gegen die Lorentz-Poincaré-Fassung der hergebrachten Elektrodynamik auch empirisch zu stützen, war das sog. Kennedy-Thorndike-Experiment, das zuerst 1932 ausgeführt wurde. Aber zu diesem späten Zeitpunkt war die SRT überhaupt nicht mehr fraglich. Ähnlich wie beim Foucaultschen Pendel, das 1850 die Drehung der Erde endlich unter Beweis stellte, kam auch das scheinbar entscheidende Kennedy-ThorndikeExperiment zu einer Zeit, an der bereits alles entschieden war. Dies führt auf die Frage, aus welchen anderen Gründen denn Einstein auf die operationale Definition der Gleichzeitigkeit setzte – trotz ihrer scheinbar absurden Konsequenzen. Noch wichtiger ist die Frage, warum die wissenschaftliche Gemeinschaft Einstein auf diesem Wege folgte und seine Festlegung so schnell und einmütig akzeptierte. Die von Einstein benutzte operationale Definition des Gleichzeitigkeitsbegriffs durch Rückgriff auf die Signalsynchronisierung von Uhren geht (wie erwähnt) auf Poincaré zurück. Poincaré hatte 1898 die Benutzung telegraphischer Signale für die Synchronisierung entfernter Uhren empfohlen, diesen Vorschlag aber nicht als neuartig eingestuft, sondern als „die Definition, die implizit von allen Wissenschaftlern angenommen wird“ (Poincaré 1898, 11). Tatsächlich verstehen wir erst seit kurzem den gewaltigen technologischen Hintergrund dieses Urteils. Die Standardisierung von

1.2 Die Raum-Zeit-Struktur in der speziellen Relativitätstheorie

25

Zeitangaben durch die Synchronisierung von Uhren zählte zu den wichtigen technischen Herausforderungen um die Wende zum 20. Jahrhundert, als Einstein mit dem Problem der Gleichzeitigkeit rang. Der Ausbau des Eisenbahnwesens ebenso wie eine erste Welle der Globalisierung durch die Einrichtung von Kolonien schuf einen Bedarf nach kontinentweit oder weltweit standardisierten Zeitzonen. Tatsächlich wurden geografische Längen durch den Vergleich von Ortszeit und Weltzeit ermittelt, und dafür bediente man sich synchronisierter Uhren. Diese Synchronisierung wurde verbreitet durch den Austausch von Signalen erreicht. Dabei handelte es sich zunächst um elektrische Signale, die entlang von Kabeln gesendet wurden, später um Radiosignale. Poincaré war um die Jahrhundertwende Direktor des Pariser bureau de longitude und daher mit diesen technologischen Entwicklungen bestens vertraut. Das von ihm skizzierte Verfahren der Uhrensynchronisierung stützte sich tatsächlich auf die Praxis der Ingenieure der Epoche (Poincaré 1909, 7; Galison 2003, 184186). In seinem grundlegenden Artikel zur Begründung der SRT führt Einstein ebenfalls dieses Verfahren an und illustriert die Wichtigkeit der Bestimmung entfernter Gleichzeitigkeit durch Rückgriff auf den Zugverkehr (Einstein 1905, 27-28). Der technische Hintergrund wird hier deutlich sichtbar. Es ist daher nicht ohne Belang, dass Einstein am Berner Patentamt arbeitete. Die Stadt Bern betrieb in jenen Jahren ein Netzwerk elektrisch synchronisierter Uhren, und eine nicht geringe Zahl von Patentanträgen zur Uhrensynchronisation muss über Einsteins Schreibtisch gewandert sein (Galison 2003, 248). An dieser Stelle finden wir daher den Grund für Einsteins scheinbar voreiliges Vertrauen zu seiner operationalen Bestimmung der Gleichzeitigkeit. Es ist die technische Omnipräsenz dieses Verfahrens, die Einstein an der Signalsynchronisierung als Grundlage der entfernten Gleichzeitigkeit festhalten lässt, obwohl sie zu unplausiblen Konsequenzen führt. Es ist die Verankerung der Signalsynchronisierung in der technischen Praxis der Epoche, die Einstein in solchem Maße von der Verlässlichkeit dieser Methode überzeugt sein ließ, dass er auf ihrer Grundlage den Umsturz der vertrauten Begriffe von Raum und Zeit ans Werk setzte. Einstein gründete demnach die SRT auf eine operationale Analyse der entfernten Gleichzeitigkeit. Er band die Bedeutungsmerkmale dieses Begriffs an die Ergebnisse von Verfahren, die über die Anwendbarkeit des Begriffs entscheiden. „Der Begriff [„gleichzei-

26

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

tig“] existiert für den Physiker erst dann, wenn die Möglichkeit gegeben ist, im konkreten Fall herauszufinden, ob der Begriff zutrifft oder nicht. Es bedarf also einer solchen Definition der Gleichzeitigkeit, daß diese Definition die Methode an die Hand gibt, nach welcher im vorliegenden Fall aus Experimenten entschieden werden kann, ob [zwei Ereignisse] gleichzeitig sind oder nicht“ (Einstein 1917, 21).2 Tatsächlich ist Einsteins Verpflichtung auf einen solchen semantischen Operationalismus einer der Dreh- und Angelpunkte bei der Formulierung der Theorie: Da die verfügbaren Verfahren zur Synchronisierung von Uhren die Ermittlung von Gleichzeitigkeitsbeziehungen lediglich relativ zu Bezugssystemen erlauben, ist die Bedeutung des Begriffs der Gleichzeitigkeit nur relativ zu in bestimmter Weise bewegten Beobachtern festgelegt. Die Beschränkungen des empirischen Zugangs werden als Bedingungen der Begriffsbildung akzeptiert. Es ist dieser Operationalismus, für den die Technologie der Epoche und Einsteins technische Orientierung Pate steht. Andererseits hatte Poincaré vor dem gleichen technologischen Hintergrund und der gleichen Favorisierung der Signalsynchronisierung diesen Schritt zu einem semantischen Operationalismus gerade nicht getan. Zwar sind auch für Poincaré die wahren Gleichzeitigkeitsbeziehungen nicht in der Erfahrung aufweisbar, gleichwohl behalten diese ihre physikalische Signifikanz (s.o.). Begrifflich gibt es das wahre Maß der Zeit, auch wenn es sich auf niemandes Uhr zeigt. Erst für Einstein scheiden die nicht empirisch ermittelbaren Beziehungen kategorisch aus dem legitimen Bezugsbereich wissenschaftlicher Sprache aus. Das bei Einstein gegenüber Poincaré hinzutretende Merkmal besteht in der größeren Distanz zur herkömmlichen Begrifflichkeit. Diese Zurückhaltung stammte aus Einsteins Lektüre erkenntnistheoretischer und wissenschaftsphilosophischer Schriften im Rahmen seines privaten Lesekreises, der „Akademie Olympia“. Einstein selbst führt die Werke Humes, Kirchhoffs, Helmholtz’ und Machs an (Einstein 1949, 6). Hinter dem Innovator Einstein steht zum einen der Praktiker Einstein, der Patentanträge prüfte und in späteren Jahren einen neuartigen Kühlschrank konstruierte, zum anderen der Philosoph Einstein, der sich durch die empiristische Selbstbeschränkung auf die Erfahrung dazu berechtigt sah, in den Grenzen der Messverfahren die Grenzen des überhaupt sinnvoll Sagbaren zu sehen.

1.2 Die Raum-Zeit-Struktur in der speziellen Relativitätstheorie

27

Es ist Einsteins kompromissloser Operationalismus, der ihn das Relativitätsprinzip als Prämisse an die Spitze der Theorie stellen ließ. Da sich die beobachterübergreifenden Gleichzeitigkeitsbeziehungen der traditionellen Elektrodynamik nicht in der Erfahrung aufweisen ließen und allein in der theoretischen Beschreibung auftauchten, wies Einstein diese Beschreibung insgesamt ab. Die Beobachtungen offenbaren kein wahres Zeitmaß und keinen ausgezeichneten Zustand der Ruhe, und deshalb muss ein Grundsatz an die Spitze gestellt werden, der allein Relativbewegungen anerkennt. Für die herkömmliche Sichtweise machte es sich Einstein an dieser Stelle zu einfach, weil er bloß postulierte, was doch abzuleiten war, weil er als Prämisse einführte, was ein Theorem hätte sein sollen. Einstein selbst hat diesen Schritt später durch die Entgegensetzung von „konstruktiver Theorie“ und „Prinzipientheorie“ beschrieben. Lorentz und Poincaré fassten die Elektrodynamik als konstruktive Theorie auf, als eine Theorie, die das einschlägige Verhalten makroskopischer Körper auf die Wechselwirkungen ihrer geladenen Bestandteile zurückführt. Die Beobachtungen sollten sich aus dem Zusammenspiel mikroskopischer Ladungen ergeben, insbesondere von Elektronen. Das Relativitätsprinzip, das Scheitern der empirischen Auszeichnung absoluter Ruhe, sollte sich als Theorem einer solchen Mikrotheorie darstellen. Demgegenüber stützen sich Prinzipientheorien, so Einstein, auf empirisch unmittelbar bestätigte allgemeine Eigenschaften der Naturvorgänge. Das Relativitätsprinzip ist von solcher Art; es ist daher als fundamental einzustufen, nicht als derivativ (Einstein 1930; Carrier 2006b, 563-564). Einsteins semantischer Operationalismus hatte nachhaltige Folgen für die Philosophiegeschichte des 20. Jahrhunderts. Der sog. Wiener Kreis, der sich ab 1922 formierte und mit seiner Weiterentwicklung zum Logischen Empirismus die Wissenschaftsphilosophie bis etwa 1960 dominierte, nahm sich Einsteins Analyse des Begriffs der entfernten Gleichzeitigkeit zum Vorbild für Begriffsbildungen in der Wissenschaft generell und zum Muster sprachphilosophischer Kritik. Zum Beispiel macht Reichenbach die „Zuordnungsdefinition“ zum Kernstück der Einführung physikalischer Begriffe: „Die eigentliche physikalische Erkenntnis besteht gerade darin, daß Begriffe nicht immer nur auf Begriffe zurückgeführt, d.h. inhaltlich bestimmt werden, sondern daß Begriffe wirklichen Dingen zugeordnet werden“ (Reichenbach 1928, 23). Einstein hatte darauf bestanden, dass allen überhaupt sinnvollen Begriffen in der Wissenschaft ein Beobachtungsverfahren entsprechen müsse, das

28

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

ihre Verwendung leitet. Im Wiener Kreis wurde dieser Gedanke begeistert aufgegriffen und in ein Werkzeug philosophischer Kritik umgeschmiedet. Finden sich nämlich keine „wirklichen Dinge“, die bestimmten philosophischen Begriffsbildungen zugeordnet sind, dann sind Sätze mit solchen Begriffen ohne Sinn. Die Erfahrung ist die einzig legitime Quelle von Bedeutung. Einsteins Analyse wurde im Wiener Kreis zum Ausgangspunkt einer allgemeinen Theorie sprachlicher Bedeutung, die bei Sätzen die Prüfbarkeit oder Verifizierbarkeit zum Kriterium der Sinnhaftigkeit erhob. Mit dieser Verifikationstheorie der Bedeutung als Hebel setzte der Wiener Kreis eine gewaltige Reformanstrengung der Philosophie ans Werk, die zwar in ihren konkreten Zielen scheiterte, aber gleichwohl maßgebliche Auswirkungen auf das Selbstverständnis der Philosophie des 20. Jahrhunderts hatte.

1.2.2 Die spezielle Relativitätstheorie als Theorie der Raum-Zeit

Hermann Minkowski

Einstein hatte die SRT mit Bezug auf die Bewegungen von Körpern und Beobachtern formuliert; es ging ihm um die „Elektrodynamik bewegter Körper“. Wie zunächst Poincaré und im Anschluss vor allem Hermann Minkowski (1864–1909) zeigte, lässt sich die Theorie jedoch auch von einem abstrakteren, vierdimensionalen

1.2 Die Raum-Zeit-Struktur in der speziellen Relativitätstheorie

29

Standpunkt aus formulieren. Sie wird dann zu einer Theorie der Weltlinien und befasst sich mit deren invarianten, beobachterunabhängigen Eigenschaften. In der Umformulierung Minkowskis wird die SRT zu einer Theorie der Raum-Zeit-Struktur, deren Gefüge von Weltlinien gebildet wird.

Figur 3: Weltlinienstruktur

Als „Weltlinie“ wird die vierdimensionale Darstellung der Bewegung von Körpern oder der Ausbreitung von Lichtstrahlen bezeichnet. In dieser raumzeitlichen Darstellung tritt neben die drei Raumachsen eine Zeitachse, wobei die Zeitkoordinate durch den Ausdruck ct (mit der Lichtgeschwindigkeit c) repräsentiert wird, der formal einer Länge entspricht und daher zu den Einheiten der räumlichen Dimensionen passt. Aus der Invarianz der Lichtgeschwindigkeit ergibt sich zunächst, dass sich Licht in allen Inertialsystemen auf gleiche Weise ausbreitet. Der „Lichtkegel“, bei Verkürzung auf eine räumliche Dimension eine Lichtgerade, stellt sich dann in allen Inertialsystemen gleich dar. Wählt man die betreffenden Einheiten zu x = ct, dann repräsentiert der Lichtkegel gerade die Winkelhalbierende des Raum-Zeit-Diagramms. Körper bewegen sich langsamer als das Licht; ihre Bahnen fallen entsprechend in den oberen, „zeitartig“ genannten Teil des Lichtkegels. Trägheitsbewegungen stellen sich als Geraden dar, die sich mit wachsender Geschwindigkeit zunehmend dem Lichtkegel nähern. Jenseits des Lichtkegels liegt der „raumartige“ Bereich, der vom Koordinatenursprung aus durch lichtschnelle Signale nicht

30

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

mehr zu erreichen ist. Insgesamt bewegen sich Körper und Lichtsignale gleichsam ihre zugehörigen Weltlinien entlang. Auch die Bewegung eines Bezugssystems lässt sich in diesen Rahmen einfügen. Ist ein ct’-System gegen das ursprüngliche ct-System bewegt, so sind die beiden Zeitachsen gegeneinander geneigt. Dies ist in der klassischen Mechanik nicht anders. Die Zeitachse stellt stets einen Körper dar, der im Ursprung des zugehörigen Koordinatensystems ruht. Aus dem Blickwinkel eines relativ zu diesem bewegten Systems führt ein solcher Körper aber eine Bewegung aus, was entsprechend durch eine Neigung der Zeitachse ausgedrückt wird. Je größer die relative Bewegung ist, desto stärker ist diese Neigung.

Figur 4: Gleichzeitigkeitsebenen in bewegten Bezugssystemen

In der klassischen Mechanik stimmt die x-Achse in allen Inertialsystemen überein; sie wird also durch Bewegung nicht verändert. Der Grund ist die Universalität der Zeit und damit der Gleichzeitigkeitsbeziehungen. Ein Zeitpunkt wird durch einen Koordinatenwert auf der Zeitachse bestimmt; Ereignisse mit gleichen Zeitkoordinaten sind gleichzeitig. Entsprechend repräsentiert eine Parallele zur Raumachse einen Zeitschnitt durch das Universum oder eine Gleichzeitigkeitsebene. In der SRT kommt jedoch die Relativität der Gleichzeitigkeit zum Tragen. Danach fallen die Urteile über Gleichzeitigkeitsbeziehungen in unterschiedlich bewegten Inertialsystemen auseinander, mit der Folge, dass deren Gleichzeitigkeitsebenen gegeneinander geneigt sind. Diese Ebenen stellen sich als Parallelen zur Raumachse des betreffenden Bezugssystems dar, so dass in der SRT zur Neigung der ct- und ct’-Achsen eine Neigung der x- und x’-Achsen hinzutritt. Diese Neigung der Gleichzeitigkeitsebenen macht die Relativität

1.2 Die Raum-Zeit-Struktur in der speziellen Relativitätstheorie

31

der Gleichzeitigkeit augenfällig. Zwei Ereignisse, die auf einer Parallele zur x-Achse liegen und damit im x-System gleichzeitig sind, liegen nicht auch auf einer Parallele zur x’-Achse und sind daher im x’-System nicht gleichzeitig. Wegen der Invarianz der Lichtausbreitung stellt sich dagegen der Lichtkegel, oder die Lichtgerade, sowohl durch x = ct als auch durch x’ = ct’ dar. Aus der entwickelten Theorie folgt dann, dass die x’-Achse und die t’-Achse stets den gleichen Winkel mit dieser Lichtgeraden bilden; diese ist also die Winkelhalbierende sämtlicher Bezugssysteme. Der Bezug auf Weltlinien beinhaltet zunächst nur eine raumzeitliche Beschreibung von Bewegungen; Weltlinien sind ohne weiteres auch in der Raum-Zeit der klassischen Mechanik angebbar. Allerdings kommt Weltlinien im Rahmen der SRT eine besondere Bedeutsamkeit zu. Die Länge von Weltlinien bildet das vierdimensionale Raum-Zeit-Intervall oder die „Eigenzeit“. Bei dieser Größe handelt es sich um eine Invariante: ihr Zahlenwert stimmt in allen Inertialsystemen überein. Die Beziehungen zwischen den Werten einschlägiger physikalischer Größen in unterschiedlich bewegten Bezugssystemen werden in der SRT durch die sog. Lorentz-Transformationen wiedergegeben, die Lorentz im Rahmen der herkömmlichen Elektrodynamik gefunden – wenn auch anders interpretiert hatte (s.u.). Deren Anwendung zeigt, dass die Größe s2 = c2 t2 – x2 nicht allein für Lichtstrahlen übereinstimmt (wie erwähnt), sondern auch für die Bewegungen von Körpern, und dass sie darüber hinaus in allen inertialen Bezugssystemen den gleichen Wert annimmt. Dieses Raum-Zeit-Intervall s2 ändert sich durch Anwendung der Lorentz-Transformationen nicht; es ist Lorentzinvariant. Seiner Dimension nach handelt es sich um das Quadrat einer Länge, so dass s als vierdimensionale Erstreckung eines Weltlinienabschnitts aufgefasst werden kann; s gibt den invarianten „Viererabstand“ zwischen zwei Ereignissen wieder. Allerdings handelt es sich dabei um einen Längenbegriff, der sich von räumlichen Entfernungen in der klassischen Raum-Zeit deutlich unterscheidet. Der herkömmliche Begriff der Länge oder des Abstands wird durch die folgenden drei Bedingungen gekennzeichnet: (1) Nicht-Negativität: Der Abstand zwischen zwei verschiedenen Punkten ist stets positiv und reellwertig. Abstände verschwinden nur dann, wenn die betreffenden Punkte identisch sind. (2) Symmetrie: Der Abstand zwischen x und y stimmt stets überein mit dem Abstand zwischen y und x.

32

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

(3) Dreiecksungleichung: d(x,z) ≤ d(x,y) + d(y,z). Die direkte Verbindung zwischen zwei Punkten ist niemals länger als die Verknüpfung derselben Punkte über die zwei Katheten des entsprechend gebildeten Dreiecks. Raum-Zeit-Intervalle oder Vierabstände erfüllen hingegen allein die Symmetriebedingung. Zunächst ist der Lichtkegel durch die Bedingung x = ct (bzw. –x = ct) charakterisiert, so dass s2 = c2 t2 – x2 = 0 und folglich auch: s = 0. Alle Ereignisse, die auf dem Lichtkegel liegen und die entsprechend durch Lichtstrahlen miteinander verbunden werden können, haben einen verschwindenden raumzeitlichen Abstand. Solche „lichtartig“ zueinandergelegenen Ereignisse sind jedoch verschieden voneinander, so dass die Bedingung der NichtNegativität verletzt ist. Weltlinien von Trägheitsbewegungen werden von Geraden mit einer größeren Steigung als die Lichtgerade repräsentiert. Für diese zeitartigen Teilchenbahnen ist entsprechend s2 = c2 t2 – x2 > 0. Hingegen wären raumartige Ereignisse nur durch Signale mit Überlichtgeschwindigkeit zu verknüpfen. Die entsprechende Verbindungslinie ist gegen die x-Achse schwächer geneigt als die Lichtgerade, so dass: s2 = c2 t2 – x2 < 0. Damit wird s2 negativ und s selbst imaginär, was ebenfalls die Nicht-Negativität verletzt.

Figur 5: Verletzung der Dreiecksungleichung

Die Verletzung der Dreiecksungleichung wird anhand von Figur 5 augenfällig. In einem Inertialsystem, also von einem trägheitsbewegten Körper aus, wird ein Lichtsignal zu einem entfernt postierten Spiegel gesendet und von dort zurückreflektiert. Die

1.2 Die Raum-Zeit-Struktur in der speziellen Relativitätstheorie

33

Weltlinie des Körpers zwischen dem Ereignis x der Emission des Lichtsignals und dem Ereignis z seines Empfangs ist zeitartig und die Intervall-Länge entsprechend größer als Null. Dieselben Ereignisse x und z werden auch durch die Lichtstrahlen verknüpft, wobei das Licht den Weg über das Ereignis y der Reflexion nimmt. Für Lichtstrahlen ist die Intervall-Länge stets gleich Null (s.o.). Resultat ist, dass entgegen dem Augenschein der raumzeitliche Abstand zwischen x und z über y kleiner ist als dieser Abstand entlang der Trägheitsgeraden des betreffenden Körpers. Das Raum-Zeit-Intervall oder der Viererabstand ist die zentrale Größe der Raum-Zeit der SRT. Im Unterschied zur Raum-Zeit der klassischen Physik bleibt allein diese Größe, nicht aber dreidimensionale Längen und eindimensionale Zeitdauern einzeln, bei einem Wechsel des Inertialsystems erhalten. Wegen dieser Invarianz ist das Raum-Zeit-Intervall fundamentaler als die vom jeweiligen Bezugssystem abhängigen separaten räumlichen und zeitlichen Größen. Es ist also nicht die Vierdimensionalität als solche, die die Relativitätstheorie auszeichnet; auch Ereignisse in der Newtonschen RaumZeit werden erst durch drei Ortskoordinaten und eine Zeitkoordinate vollständig lokalisiert. Kennzeichnend für die SRT ist dagegen der Vorrang raumzeitlicher Größen vor ihren räumlichen und zeitlichen Bestandteilen. Dieser Primat der vierdimensionalen Größen wurde zuerst 1908 von Minkowski hervorgehoben. „Von Stund an sollen Raum für sich und Zeit für sich völlig zu Schatten herabsinken und nur noch eine Art Union der beiden soll Selbständigkeit bewahren“ (Minkowski 1908, 54). Minkowski erkannte, dass sich die SRT als eine spezifische, neuartige Geometrie darstellen lässt, in der die raumzeitlichen Abstände eine zentrale Stellung insofern einnehmen, als sie die objektiven Beziehungen zwischen Ereignissen wiedergeben, während deren räumliche und zeitliche Bestimmungsstücke vom Bewegungszustand des Beobachters abhängen und in diesem Sinne subjektiv sind. Minkowski zu Ehren wird die Raum-Zeit der SRT auch als Minkowski-Raum-Zeit bezeichnet. Das Raum-Zeit-Intervall ist unter Umständen unmittelbar beobachtbar. Der Viererabstand zwischen zwei Ereignissen ergibt sich aus den Differenzen der zugehörigen Zeitpunkte und Orte: Δs2 = cΔt2 – Δx2. Wenn ein Beobachter eine Uhr mitführt, die entsprechend relativ zu ihm ruht, dann ändert sich deren räumlicher Abstand zu ihm und damit ihr Koordinatenwert auf der x-Achse offenbar nicht. Für diesen Zustand relativer Ruhe vereinfacht sich der Ausdruck daher zu Δs2 = cΔt2. Die so bezeichnete invariante Größe

34

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

drückt (bis auf den konstanten Faktor der Lichtgeschwindigkeit) die in diesem Ruhesystem vergehende Zeitspanne aus; es handelt sich um die sog. Eigenzeit. Das Raum-Zeit-Intervall ist damit unter anderem diejenige Größe, die der Beobachter an seiner Armbanduhr abliest. Generell ist sie das Längenmaß der betreffenden Weltlinie; die Eigenzeit repräsentiert die Erstreckung der Weltlinie des Beobachters. Die bloß schattenhafte Existenz von räumlichen und zeitlichen Abständen jeweils für sich genommen schlägt sich in zwei Effekten nieder, die als Zeitdilatation und Lorentz-Kontraktion bezeichnet werden. Mit Zeitdilatation ist gemeint, dass die Vorgänge im x-t-Bezugssystem, wenn sie von dem dagegen bewegten x’-t’-Bezugssystem beobachtet werden, verlangsamt ablaufen. Die Lorentz-Kontraktion stellt das bereits aus der Lorentzschen Elektrodynamik bekannte (wenn auch anders gedeutete) Phänomen dar, dass im bewegten Inertialsystem die räumlichen Abstände verkürzt scheinen. Beide Phänomene ergeben sich aus der SRT, lassen sich jedoch auch direkt veranschaulichen.

Figur 6: Einsteins Lichtuhr (French 1968, 106; Abdruck mit freundlicher Genehmigung von M. Salmon).

Die Zeitdilatation wird bei Betrachtung der Zeitmessung mit einer Lichtuhr anschaulich. Eine Lichtuhr besteht aus zwei Spiegeln festen Abstands, zwischen denen ein Lichtsignal hin und herreflektiert wird. Als Zeitmaßstab gilt jeweils die Rückkehr des Signals zu einem der Spiegel. Bei einer ruhenden Lichtuhr mögen sich die beiden Spiegel im Abstand l voneinander befinden. Der relativ zur Uhr ruhende Beobachter misst das Zeitintervall 2l/c zwischen je

1.2 Die Raum-Zeit-Struktur in der speziellen Relativitätstheorie

35

zwei Rückkehrereignissen. Zur Vereinfachung wird in der Folge nur jeweils ein Durchgang des Lichtsignals berücksichtigt, die jeweilige Rückbewegung also außer Acht gelassen. Für den ruhenden Beobachter ergibt sich das so bestimmte Zeitintervall zu ΔtR = l/c. Eine zweite solche Lichtuhr möge sich mit der Geschwindigkeit v an dieser als ruhend aufgefassten Lichtuhr vorbei bewegen. Von dieser ruhenden Uhr aus betrachtet, bewegen sich die Spiegel der bewegten Uhr während der Laufzeit des Lichts voran. Während einer Durchquerung der Uhr verschiebt sich also der entfernte Spiegel weiter, so dass das Lichtsignal eine vergrößerte Entfernung d > l zurücklegen muss. Zunächst legt das Licht in der ruhenden Uhr den Weg l = cΔtR zurück. In der bewegten Uhr breitet sich das Licht ebenfalls mit der Geschwindigkeit c aus, benötigt aber für den längeren Weg d eine größere Zeitspanne Δt. Es ist also: d = cΔt. Während dieser Laufzeit Δt verschiebt sich der Spiegel um den Betrag vΔt (also um die Strecke vom Koordinatenursprung bis N). Die Aufgabe ist, Δt und Δt R miteinander in Beziehung zu setzen. Da ein rechtwinkliges Dreieck vorliegt, lassen sich die Größen über den Satz des Pythagoras miteinander verknüpfen. Es ist: (cΔt )2 = (cΔtR )2 + (vΔt )2. Umstellen und Ausklammern liefert zunächst c2 ΔtR 2 = Δt 2 (c2 – v2) und weiter ΔtR 2 = Δt 2 (1 – v2 /c2 ). Daraus erhält man das Resultat: ΔtR = Δt √(1– v2 /c2) (Salmon 1980, 82–85; Sexl & Schmidt 1979, 32– 33). Ergebnis ist, dass Δt > ΔtR , was besagt, dass bei einer bewegten Uhr die Rückkehr des Lichtpulses eine vergrößerte Zeitspanne benötigt. Die bewegte Licht uhr läuft verlangsamt. Wegen dieser Verlängerung der Zeiteinheiten sind zwei gegebene Ereignisse im bewegten System durch eine geringere Zahl von Zeiteinheiten getrennt, so dass in diesem Sinne eine Kontraktion des Zeitverlaufs vorliegt. Die Zeiteinheiten werden gedehnt, und deshalb spricht man von Dilatation; die mit diesen Einheiten angegebenen Zeitdauern erscheinen dann verkürzt. Diese Zeitdilatation ist symmetrisch oder reziprok. Man kann die Situation ebenso vom Standpunkt der zuvor als bewegt eingestuften Uhr betrachten. In diesem Ruhesystem der bewegten Uhr verschwindet deren Geschwindigkeit, während sich die vormals als ruhend geltende Uhr bewegt. Vom Ruhesystem dieser bewegten Uhr aus bleibt die andere Uhr zurück. Die Zeitdilatation besagt also, dass bei zwei relativ zueinander bewegten Inertialsystemen der Uhrengang wechselseitig verlangsamt erscheint. Im jeweiligen Ruhesystem läuft die Uhr am schnellsten.3

36

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

Die Lorentz-Kontraktion kann als unmittelbare Konsequenz der Zeitdilatation hergeleitet werden. Ein Beobachter lege in seinem Ruhesystem zwei Markierungen A und B mit bekanntem Abstand l fest. Diese Marken behalten also ihre Position bei; l bezeichnet die sog. Ruheentfernung oder Ruhelänge. Eine Uhr bewege sich am Beobachter vorbei und passiere dabei beide Markierungen (an denen in diesem Ruhesystem synchrone Uhren postiert seien). Für diesen ruhenden Beobachter benötigt die bewegte Uhr dafür die Zeitspanne Δt, so dass sich für diesen die Relativgeschwindigkeit der Uhr zu v = l /Δt bestimmt. Das Zusammentreffen von Uhr und Markierung stellt ein objektives Ereignis dar, das Beobachtern in beiden Bezugssystemen in gleicher Weise zugänglich ist. Entsprechend kann man das Passieren beider Marken auch vom Standpunkt der bewegten Uhr beschreiben. Aus dieser Perspektive bewegen sich die Markierungen sowie der vormals ruhende Beobachter. Folglich unterliegen dessen Zeitangaben einem Dilatationseffekt; die dort postierte Uhr geht verlangsamt. Resultat ist, dass aus der Perspektive der bewegten Uhr der Beobachter die Zeitspanne Δt’ = Δt √(1 – v2 /c2 ) erhält. Es gilt also Δt > Δt’. Daraus erhält man bei der Messung mit der bewegten Uhr den folgenden Abstand zwischen den Markierungen. Zunächst stimmen die Relativgeschwindigkeiten der beiden Bezugssysteme wechselseitig überein; vom Standpunkt der bewegten Uhr aus betrachtet bewegt sich der vormals ruhende Beobachter mit derselben Geschwindigkeit v. Diese Übereinstimmung führt auf die Bedingung: l’/Δt’ = l /Δt, wobei l’ die zunächst unbekannte Entfernung der beiden Markierungen bezeichnet, wie sie sich vom Standpunkt der bewegten Uhr aus ergibt. Umformung führt auf l’/ l = Δt’/Δt = √(1 – v2/c2), so dass l’ = l √(1 – v2 /c2 ). Entsprechend ist l > l’: die im Ruhesystem gemessene Entfernung zwischen den beiden Markierungen ist größer, als deren Abstand wie er von der bewegten Uhr aus erscheint. Andersherum ausgedrückt, die Entfernung zwischen den bewegten Markierungen erscheint verkürzt (Salmon 1980, 86-87). Resultat ist, dass die Länge eines bewegten Körpers in seiner Bewegungsrichtung kürzer gemessen wird als in seinem Ruhesystem. Wie die Zeitdilatation ist auch die Längenkontraktion symmetrisch. In zwei relativ zueinander bewegten Inertialsystemen erscheinen die Entfernungen wechselseitig verkürzt. Im jeweiligen Ruhesystem wird die Länge maximal. Dieser Effekt ist genau analog zur Dilatation – trotz der das Gegenteil suggerierenden Bezeichnung.

1.2 Die Raum-Zeit-Struktur in der speziellen Relativitätstheorie

37

Die jeweiligen Erstreckungen verkürzen sich für das bewegte System. Die Zeitabstände und Längen werden kürzer, was seinerseits daraus stammt, dass sich die Maßstäbe verlängern. Die Symmetrie der relativistischen Kontraktion und ihr Zusammenhang mit der Relativität der Gleichzeitigkeit werden durch ein Beispiel anschaulich. Ein Zug mit der Ruhelänge von 100 m durchquere einen Tunnel, der in seinem Ruhesystem ebenfalls 100 m lang sei. Die Frage, ob sich der Zug jemals zur Gänze innerhalb des Tunnels befindet, beantwortet der relativ zum Tunnel ruhende Beobachter mit „ja“: die Länge des Tunnels beträgt für ihn 100 m, während der bewegte Zug auf, sagen wir, 80 m kontrahiert ist. Der Beobachter im Zug beantwortet die gleiche Frage hingegen mit „nein“: für ihn ist der Zug 100 m lang, während der Tunnel auf 80 m kontrahiert ist. Dieser zunächst paradoxe Befund klärt sich durch die Berücksichtigung der Relativität der Gleichzeitigkeit. Eine Längenmessung erfordert, dass Anfang und Ende eines Objekts gleichzeitig markiert werden. Markiert man aber Anfangs- und Endpunkt eines bewegten Objekts zu unterschiedlichen Zeiten, dann ist es nicht erstaunlich, dass sich abweichende Werte ergeben. Wegen der Relativität der Gleichzeitigkeit unterscheiden sich die Urteile beider Beobachter über die Gleichzeitigkeit der Markierung der beiden Enden, mit der Folge unterschiedlicher Messergebnisse. Deutlich wird, dass die relativistische Längenkontraktion eine Folge des Verfahrens der Längenmessung ist. Die Kontraktion ist ein metrogener Effekt (Salmon 1980, 87-88; Sklar 1992, 34). Lorentz hatte 1895 eine Kontraktionshypothese zur Erklärung des Nullresultats des Michelson-Morley-Experiments ausgearbeitet (die zunächst von George FitzGerald 1889 skizziert worden war). Danach schrumpft die Länge eines bewegten Körpers in Richtung seiner Bewegung in einem solchen Maß, dass die Veränderung der Lichtgeschwindigkeit, die sich aus der Bewegung ergibt, gerade ausgeglichen wird. Der Nulleffekt von Michelson und Morley ergibt sich entsprechend aus einer Kompensation unterschiedlicher Einflussfaktoren. Die Kontraktion der Körper wird durch die Wechselwirkung zwischen dem Äther und der durch diesen hindurch bewegten Materie hervorgerufen; sie ergibt sich als Folge einer Art von Staudruck des Äthers. Lorentz gelang die Ableitung seiner Hypothese (und damit auch des quantitativen Ausdrucks für die Verkürzung) aus den Grundsätzen seiner Elektrodynamik unter der zusätzlichen Annahme, dass sich die intermolekularen Kräfte, die die Abmessungen von Körpern bestimmen, wie elekt-

38

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

romagnetische Kräfte verhalten. Bei Lorentz wird die Kontraktionshypothese (anders als bei FitzGerald) theoretisch gestützt; es handelt sich nicht um eine „Ad-hoc-Hypothese“ (Lorentz 1895; Lorentz 1899, 268-270; Lorentz 1904; McCormmach 1970, 47-48; Schaffner 1972, 113; Nersessian 1986, 224).4 Einstein hatte die SRT innerhalb der Elektrodynamik als Weiterentwicklung von Lorentz’ Theorie konzipiert (McCormmach 1970, 74). Gleichwohl unterscheiden sich beide in begrifflicher Hinsicht grundlegend. Zwar entspricht die von Einstein vorgesehene Verkürzung quantitativ genau der von Lorentz postulierten Längenkontraktion, sie entsteht aber auf ganz andere Weise. Lorentz’ Kontraktion wird durch die zwischen Äther und Materie bei der Bewegung wirkenden Kräfte verursacht; es handelt sich um einen dynamischen Effekt. Einsteins Verkürzung ergibt sich dagegen aus den Verfahren der Längenmessung bewegter Körper und beruht letztlich auf der Relativität der Gleichzeitigkeit und der Zeitdilatation. Diese Auffassungsunterschiede bleiben nicht ohne Folgen für die jeweiligen Charakteristika der Kontraktion. In der SRT ist die Verkürzung (wie gesagt) wechselseitig oder symmetrisch, bei Lorentz hingegen asymmetrisch: Ist ein Bezugssystem im Äther bewegt, so erscheinen Körper, die im Äther ruhen, nicht etwa verkürzt, sondern verlängert. Solche Deutungsunterschiede des gleichen mathematischen Ausdrucks stammen aus der unterschiedlichen Interpretation der relevanten Geschwindigkeiten. In Lorentz’ Kontraktionsformel bezieht sich der Term für die Geschwindigkeit auf die Bewegung eines Körpers relativ zum Äther. In Einsteins mathematisch gleichlautendem Ausdruck bezieht sich der Term dagegen auf die Relativgeschwindigkeit zwischen Körper und Beobachter. Diese unterschiedliche Interpretation der gleichen mathematischen Größe wird bei einer Betrachtung charakteristischer Situationen augenfällig. Wenn sich etwa nach Lorentz ein Körper durch den Äther bewegt, der Beobachter aber relativ zum Äther ruht, dann wird der Körper kontrahiert. Bei Einstein wird die gleiche Situation aber als Relativbewegung zwischen Körper und Beobachter beschrieben, mit der Folge, dass eine wechselseitige Kontraktion von Körper und Beobachter auftritt. Ruht in einem Lorentzschen Ansatz umgekehrt der Körper im Äther und bewegt sich stattdessen der Beobachter, so wird dieser kontrahiert, so dass der Körper gedehnt erscheint. Für Einstein hat sich hingegen gar nichts geändert: Körper und Beobachter befinden sich in relativer Bewegung, so dass weiterhin symmetrische Kontraktion

1.3 Zeitfolge und Gleichzeitigkeit in der Minkowski-Raum-Zeit

39

vorliegt. Bewegt sich für Lorentz ein Körper im Äther, und ist ein Beobachter mitbewegt, so sind beide kontrahiert, so dass die Kontraktion kompensiert wird und nicht in Erscheinung tritt. Dies stellt gerade die erwähnte Lorentzsche Interpretation des Experiments von Michelson und Morley dar, bei dem sich ein irdischer Beobachter neben dem mit der Erde mitbewegten Messinstrument befindet. Im Einsteinschen Ansatz liegt dagegen keine Relativbewegung vor, so dass weder Kontraktion noch Kompensation auftreten. Der Körper behält einfach seine Ruhelänge. Diese markanten begrifflichen Divergenzen setzen sich in empirische Unterschiede um, die in dem erwähnten Kennedy-Thorndike-Experiment von 1932 zum Tragen kommen, das Einstein gegen Lorentz bestätigte (Carrier 2001b, 133136; Carrier 2004, 81-85). Obwohl zeitliche und räumliche Distanzen in der SRT stets nur relativ zu einem Bezugssystem sinnvoll angegeben werden können, handelt es sich bei Zeitdilatation und Lorentz-Kontraktion doch um objektive Effekte. Sie ergeben sich eindeutig aus den Beziehungen zwischen Bezugssystem und betrachteter Bewegung. Darüber hinaus weist die Minkowski-Raum-Zeit eben auch bezugssystemübergreifende, invariante Größen auf, darunter das Raum-Zeit-Intervall bzw. die Eigenzeit und die Lichtgeschwindigkeit. Aus der SRT ist also keineswegs zu schließen, dass in raumzeitlicher Hinsicht „alles relativ“ sei. Erstens bleiben räumliche und zeitliche Größen in Bezug auf einen Beobachter wohlbestimmt, zweitens enthält die Theorie invariante, also „absolute“, raumzeitliche Größen. Insofern beinhaltet der Übergang von der Newtonschen zur Einsteinschen Raum-Zeit die Ersetzung dreidimensionaler bzw. eindimensionaler absoluter Größen durch vierdimensionale absolute Größen.

1.3 Zeitfolge und Gleichzeitigkeit in der Minkowski-Raum-Zeit Die SRT trug zu einer Förderung und Revision der kausalen Theorie der Zeit bei. Ihre Förderung ergab sich aus dem schon von Einstein selbst verfolgten Ansatz, die Zeitverhältnisse anhand der Verknüpfbarkeit der betreffenden Ereignisse durch Lichtsignale zu bestimmen. Einsteins operationale Festlegung von Gleichzeitigkeitsbeziehungen setzte an der Verknüpfung von Ereignissen durch Lichtstrahlen und damit an der kausalen Verknüpfbarkeit an (s.o.

40

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

1.2.1). Die Revision stammt daraus, dass die Lichtausbreitung den schnellstmöglichen Kausalprozess darstellt. Die Folge ist, dass zwei Ereignisse, die nicht durch Lichtsignale miteinander verknüpfbar sind, kausal nicht miteinander verbunden werden können. Eine kausale Theorie der Zeit in diesem neuen physikalischen Rahmen stützt daher die Zeitfolge naheliegenderweise auf die Verknüpfbarkeit von Ereignissen durch Lichtsignale. Wenn ein Lichtsignal von einem Ereignis e1 zu einem Ereignis e2 gesendet werden kann, dann ist e2 später als e1. Mit anderen Worten: Alle Ereignisse, die von e1 aus kausal beeinflussbar sind, bilden die Zukunft von e1. Umgekehrt gelten diejenigen Ereignisse, die ihrerseits auf e1 einwirken können, als früher als e1; sie liegen in der Vergangenheit von e1. Die Vergangenheit von e1 umfasst danach diejenigen Ereignisse, von denen man an e1 Kenntnis haben kann.

Figur 7: Die Relativität der Zeitfolge

Diese kausale Bestimmung der Zeitfolge bleibt im Rahmen der Kantschen Vorgaben. Hingegen eröffnet die von der SRT eingeführte Obergrenze der Wirkungsausbreitung eine neue Option für die Bestimmung von Gegenwärtigkeit. Alle Ereignisse, die von e1 aus weder zukünftig noch vergangen sind, bilden die Gegenwart von e1. Ereignisse in der Gegenwart von e1 können e1 weder beeinflussen noch von e1 aus beeinflusst werden. Dies steht in markantem Gegensatz zur Kantschen Bindung von Gleichzeitigkeit an das Bestehen von Wechselwirkungen zwischen den betreffenden Ereignissen.

1.3 Zeitfolge und Gleichzeitigkeit in der Minkowski-Raum-Zeit

41

Diese Zeitbeziehungen werden anhand des Lichtkegels anschaulich (Figur 3). Der Lichtkegel wird durch Lichtsignale gebildet, so dass alle Ereignisse auf dem Lichtkegel und innerhalb des Lichtkegels vom Ursprung O aus kausal erreichbar sind. Die auf oder im oberen Lichtkegel, dem Vorwärtslichtkegel gelegenen Ereignisse bilden entsprechend die Zukunft von O, die im Rückwärtslichtkegel gelegenen bilden seine Vergangenheit. Alle Ereignisse außerhalb Lichtkegels sind zu O raumartig gelegen und bilden entsprechend seine Gegenwart. Diese kausale Bestimmung der Zeitfolge wird dadurch gestützt, dass sich die Abfolge zeitartiger Ereignisse als invariant ergibt, die Abfolge raumartiger (oder gegenwärtiger) Ereignisse hingegen durch Wahl des Bezugssystems verändert werden kann. Die Ereignisse e1 und e2 liegen im Vorwärtslichtkegel von O. Dass e2 später stattfindet als e1, ergibt sich sowohl im x-t-System, als auch im dagegen bewegten x’-t’-System (wie der Verlauf der Parallelen zu den jeweiligen Raumachsen verdeutlicht). Das Kriterium der kausalen Verknüpfbarkeit zeichnet also für zeitartige Ereignisse eine eindeutige, nicht vom Bezugssystem abhängige Zeitfolge aus. Anders hingegen für die Ereignisse außerhalb des Lichtkegels. ec ist später als ea, welches seinerseits auf der x-Achse liegt und folglich im x-tSystem gleichzeitig mit O ist. In diesem System ist also ec später als O. Weiterhin ist ec früher als eb, welches seinerseits auf der x’-Achse liegt und folglich im x’-t’-System gleichzeitig mit O ist. In diesem System ist folglich ec früher als eb. In der Summe ist die Reihenfolge raumartig gelegener Ereignisse von der Wahl des Bezugssystems abhängig und kann entsprechend durch Übergang in ein anderes Bezugssystem vertauscht werden. Der Bereich der Gegenwart (auch als „topologische Gleichzeitigkeit“ bezeichnet) lässt also Spielraum für eine Mehrzahl von Gleichzeitigkeitsebenen (oder „metrische Gleichzeitigkeitsbeziehungen“). Jede Gleichzeitigkeitsebene entspricht einem bestimmten Inertialsystem; unterschiedliche Ebenen geben die Gleichzeitigkeitsbeziehungen in verschieden bewegten Inertialsystemen wieder. Topologische Gleichzeitigkeit ist kausal durch den Ausschluss kausaler Verknüpfbarkeit festgelegt, metrische Gleichzeitigkeit kann ebenfalls durch kausale Mittel näher bestimmt werden. Der Vorschlag Einsteins, zwei entfernte Uhren durch ein Lichtsignal zu synchronisieren, das in der Mitte zwischen beiden Uhren ausgesendet wird (s.o. 1.2.1), legt metrische Gleichzeitigkeit durch ein kausales Verfahren fest. Aber anders als bei der Kantschen Be-

42

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

stimmung der Gleichzeitigkeit sind die entfernten gleichzeitigen Ereignisse nicht selbst miteinander kausal verknüpft, sondern beide mit einer gemeinsamen Ursache verbunden, nämlich der zentralen Lichtaussendung. Die Minkowski-Raum-Zeit erlaubt daher ohne weiteres die Bestimmung der zeitlichen Beziehungen der Zeitfolge, der Gegenwärtigkeit und der Gleichzeitigkeit auf kausaler Basis. Die kausale Theorie der Zeit gewann entsprechend durch die SRT an Plausibilität und erfuhr tatsächlich durch diese eine Wiederbelebung.

1.4 Kausalstruktur und Minkowski-Raum-Zeit Die Fortentwicklung der kausalen Theorie im 20. Jahrhundert verdeutlicht weitergehend, dass die volle Raum-Zeit-Struktur der Minkowski-Raum-Zeit auf kausaler Grundlage darstellbar ist. In einer Minkowski-Raum-Zeit lassen sich nicht allein die genannten zeitlichen Beziehungen, sondern auch raumzeitliche Geraden und Längen von Raum-Zeit-Intervallen mit ausschließlich kausalen Mitteln darstellen. Pioniere dieser kausalen Explikation der RaumZeit-Struktur waren im ersten Drittel des 20. Jahrhunderts Alfred A. Robb und Reichenbach; ihren vorläufigen Höhepunkt erreichte diese Zugangsweise mit John A. Winnie (1977). Grundlage von Winnies Ansatz ist die Relation γ der kausalen Verknüpfbarkeit. Zwei Ereignisse sind kausal verknüpfbar: e1 γ e2 genau dann wenn ein Signal von e1 nach e2 oder umgekehrt von e2 nach e1 gesendet werden kann. Die Relation γ ist symmetrisch, unterscheidet also nicht zwischen Ursache und Wirkung. Ziel ist es, weitere raumzeitliche Größen durch explizite Definition aus dieser Grundrelation zu entwickeln (Winnie 1977, 138, 146-147). Die Relation „simul“ der Gegenwärtigkeit oder topologischen Gleichzeitigkeit wird über das Fehlen kausaler Verknüpfbarkeit definiert: e1 simul e2 ⇔ ¬ (e1 γ e2). Die so bestimmte Beziehung ist reflexiv (e1 simul e1), da man ein Ereignis nicht mit sich selbst durch einen Kausalprozess verbinden kann, und symmetrisch (e1 simul e2 ⇒ e2 simul e1), da die ihr zugrunde liegende kausale Verknüpfbarkeit symmetrisch ist. Die Definition der Gleichzeitigkeitsrelation ist noch nicht eindeutig und kann auf unterschiedliche Weise präzisiert werden. Insbesondere folgt aus ihr nicht die Transitivität der Gleichzeitigkeit.

1.4 Kausalstruktur und Minkowski-Raum-Zeit

43

Es gilt also nicht ohne weiteres: (e1 simul e2) ∧ (e2 simul e3) ⇒ e1 simul e3. Allerdings kann man die Transitivität zusätzlich fordern. Dieses Transitivitätspostulat wird von Winnie als Leibniz-Postulat bezeichnet, es hat aber mit Leibniz in der Sache nichts zu tun und erinnert lediglich an dessen Begründung der kausalen Theorie. Das Leibniz-Postulat lautet: (e1 simul e2) ∧ (e1 γ e3) ⇒ (e2 γ e3). Dies besagt: Wenn e1 und e2 für einander gegenwärtig, e1 und e3 aber kausal verknüpfbar sind, dann sind auch e2 und e3 kausal verknüpfbar. Anschaulicher und etwas spezieller gesprochen: wenn e1 und e2 gleichzeitig sind, und e3 später eintritt als e1, dann geschieht e3 auch später als e2. Eine Äquivalenzrelation ist durch die Eigenschaften der Reflexivität, Symmetrie und Transitivität charakterisiert. Nimmt man mit dem Leibniz-Postulat die Transitivität an, wird die Gleichzeitigkeit zu einer Äquivalenzrelation. Das Leibniz-Postulat läuft darauf hinaus, universelle Gleichzeitigkeitsebenen einzuführen und ist entsprechend charakteristisch für die Zeitstruktur der klassischen Physik (Winnie 1977, 138).

Figur 8: Einstein-Postulat

Die Minkowski-Raum-Zeit ist jedoch gerade durch eine Absage an das Leibniz-Postulat charakterisiert. In ihr gilt stattdessen das Einstein-Postulat: (e1 simul e2) ⇒ ∃e3 (e3 simul e2) ∧ (e3 γ e1). Eine solche Situation ist in Figur 8 illustriert: e1 und e2 liegen raumartig, sind also relativ zueinander gegenwärtig. Das Einstein-Postulat besagt, dass es dann ein e3 gibt, das gleichzeitig mit e2, mit e1 aber kausal verknüpfbar ist. Kurz: e3 liegt in der Gegenwart von e2, aber in der Zukunft von e1. Diese Situation beinhaltet eine Verletzung des Leibniz-Postulats. Aus diesem ergibt sich, dass aus der Gegenwär-

44

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

tigkeit von e1 und e2 und der Zukünftigkeit von e3 für e1 die Zukünftigkeit von e3 auch für e2 folgen müsste. Das ist aber gerade nicht der Fall – worin sich das Fehlen universeller Gleichzeitigkeitsebenen ausdrückt. In der Minkowski-Raum-Zeit ist die Gleichzeitigkeit entsprechend nicht transitiv und folglich keine Äquivalenzrelation. Im Rahmen der solcherart kausal rekonstruierten MinkowskiRaum-Zeit lassen sich weitere wichtige Größen einführen. Dazu zählt insbesondere die Trägheitsbewegung, die in raumzeitlicher Darstellung als zeitartige Gerade wiedergegeben wird. Für die Konstruktion zeitartiger Geraden auf der Basis der kausalen Verknüpfbarkeit durch Lichtstrahlen wird zunächst die Beziehung des „kausalen Zwischen“ eingeführt. Die Idee ist, dass e kausal zwischen e1 und e2 liegt, wenn die kausale Verknüpfung von e1 und e2 über e verlaufen kann, also in eine kausale Verknüpfung von e1 mit e und e mit e2 aufspaltbar ist, nicht aber umgekehrt. Das heißt, e1 und e sind nicht über eine Verknüpfung von e1 mit e2 und von e2 mit e verknüpfbar. Diese intuitive Beschreibung setzt aber bereits eine gerichtete Kausalbeziehung voraus; γ ist jedoch ungerichtet. Winnies Definition verfährt auf andere Weise und benötigt diese Hilfsannahme nicht (Winnie 1977, 147-149). Auf dieser Grundlage ergibt sich die Relation der Lichtverknüpfbarkeit λ wie folgt: e1 λ e2 =Df [e1 = e2] oder [e1 ≠ e2, e1 γ e2, und für alle Ereignisse e, e’ zwischen e1 und e2: e γ e’]. Zwei Ereignisse sind danach lichtverknüpfbar, wenn sie entweder miteinander übereinstimmen oder bei Nicht-Übereinstimmung kausal verknüpfbar sind, wobei überdies alle Ereignisse zwischen diesen beiden ebenfalls kausal verknüpfbar sind. Dies drückt die Vorstellung aus, dass die Ereignisse entlang der Ausbreitung eines Lichtstrahls kausal verknüpfbar sind, also durch den Lichtstrahl verknüpft werden. Daraus ergibt sich, dass alle Ereignisse auf dem Lichtkegel von e1 mit e1 lichtverknüpfbar sind. Es lässt sich zeigen, dass auch das Umgekehrte gilt, dass also alle Ereignisse, die mit e1 lichtverknüpfbar sind, auf dem Lichtkegel von e1 liegen. Insgesamt bildet also die Menge der mit e1 lichtverknüpfbaren Ereignisse genau den Lichtkegel von e1. Auf dieser Grundlage ergibt sich die zeitartige Verknüpfbarkeit τ zu: e1 τ e2 = Df (e1 γ e2) ∧ ¬(e1 λ e2). Danach ist ein Ereignis dann zeitartig zu einem anderen gelegen, wenn es mit diesem zwar kausal verknüpfbar ist, aber nicht durch Lichtstrahlen verbunden werden kann. Dies zeichnet gerade die Ereignisse im Inneren des Lichtkegels aus (Winnie 1977, 149-150).

1.4 Kausalstruktur und Minkowski-Raum-Zeit

45

Figur 9: Konstruktion raumzeitlicher Geraden

Für zwei zeitartig verknüpfbare Ereignisse e1 und e2 wird die Schnittebene des Rückwärtslichtkegels des einen (etwa e2) mit dem Vorwärtslichtkegel des anderen (etwa e1) konstruiert. Diese Schnitte ergeben sich durch die Bedingung, dass Lichtverknüpfbarkeit zu den Ausgangspunkten der beiden beteiligten Lichtkegel besteht. Lichtschnitt LS (e1 , e2) = {e | e λ e1 ∧ e λ e2}. Aus diesem Lichtschnitt erhält man die Ebene E1. Zieht man zwei weitere Ereignisse, etwa e2 und e3 hinzu, so erhält man auf analoge Weise die Ebene E2. Aufgrund der Gleichheit der Lichtausbreitung in alle Richtungen bilden diese Ebenen jeweils den gleichen Winkel zu der Verbindungslinie zwischen den betreffenden Ereignissen; im eingezeichneten Sonderfall stehen die Ebenen senkrecht auf dieser Verbindungslinie. Wenn sich die betreffenden Ebenen E1 und E2 nicht schneiden, also parallel sind, dann liegen die betrachteten Ereignisse e1, e2 und e3 auf einer raumzeitlichen Geraden. Dagegen ist die Schnittebene des von einem abseits der Geraden liegenden Ereignis e4 ausgehenden Lichtkegels mit dem Lichtkegel eines Ereignisses auf der Geraden (also etwa e2) nicht mehr parallel. Die Bedingung der Parallelität der Schnittebenen der Lichtkegel zeichnet entsprechend raumzeitliche Geraden aus, die Trägheitsbewegungen repräsentieren. Solche geradlinig-gleichförmigen Bewegungen lassen sich also in der Minkowski-Raum-Zeit ohne Bezug auf kräftefrei bewegte Teilchen und unter ausschließlichem Rückgriff auf die kausale Verknüpfbarkeit durch Lichtsignale auszeichnen (Winnie 1977, 160-162).

46

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

Weitergehend ist sogar die Einführung metrischer Beziehungen auf kausaler Grundlage möglich. Die Gleichheit von Raum-ZeitIntervallen (auf der gleichen Linie) ist nämlich der Bestimmung durch Lichtstrahlen zugänglich. Zunächst lässt sich Parallelität auf der Grundlage der Invarianz der Lichtgeschwindigkeit einführen. Wegen dieser Invarianz ist der Öffnungswinkel aller Lichtkegel gleich, so dass sich die Konstruktion eines raumzeitlichen Parallelogramms mit Hilfe von Lichtstrahlen durchführen lässt.

Figur 10: Konstruktion von Raum-Zeit-Intervallen (Winnie 1977, 166; mit freundlicher Genehmigung der University of Minnesota Press)

Die von zwei raumartig zueinandergelegenen Ereignissen e1 und e2 ausgehenden Lichtkegel schneiden sich in den Punkten A und B. Wegen des festen Öffnungswinkels der Lichtkegel sind die gegenüberliegenden Seiten jeweils parallel, so dass e1Be2A ein Parallelogramm bildet. Die Diagonalen des Parallelogramms schneiden sich im Zentrum S, und dieses halbiert stets beide Diagonalen. Folglich besitzen beide Diagonalenhälften jeweils gleiche Länge (Winnie 1977, 163-166). Die Konstruktion verlangt Raumartigkeit von e1 und e2, weil sich sonst die Lichtkegel nicht schneiden, und sie setzt voraus, dass e1 und e2 im gleichen Inertialsystem dargestellt werden, da die Lichtkegel unterschiedlich bewegter Beobachter gegeneinander geneigt sind und folglich keine Parallelen bilden. Es wird also ein raumzeitliches Lichtparallelogramm in einem gegebenen Inertialsystem konstruiert. In diesem Rahmen lassen sich Raum-ZeitIntervalle gleicher Länge entlang derselben Geraden auszeichnen.

1.4 Kausalstruktur und Minkowski-Raum-Zeit

47

Um zu einem allgemeinen Begriff der Intervall-Länge zu gelangen, muss die Konstruktion noch um die Parallelverschiebung und die Rotation von Intervallen ergänzt werden. Diese Ergänzungen lassen sich tatsächlich angeben, so dass die metrischen Verhältnisse der Minkowski-Raum-Zeit auf ausschließlich kausaler Grundlage einführbar sind. Während also in der traditionellen kausalen Theorie lediglich temporale Ordnungsbeziehungen angebbar sind, gelingt in der Minkowski-Raum-Zeit die kausale Spezifizierung der vollen Raum-Zeit-Struktur. Durch die SRT wird also die Tragweite der kausalen Theorie erheblich gesteigert. Ziel der kausalen Theorie ist die Explikation raumzeitlicher Größen durch kausale Größen, nicht die Ermittlung der vorliegenden raumzeitlichen Verhältnisse. Die angegebenen Konstruktionen sind oft nur auf dem Papier, nicht aber in der Erfahrung ausführbar. So werden zeitartige Geraden anhand des Umstands identifiziert, dass sich die aus Lichtkegeln konstruierten Gleichzeitigkeitsebenen nicht schneiden. Dies ist aber empirisch schwer zu ermitteln, so dass auf dieser Grundlage kaum festzustellen ist, ob eine gegebene Weltlinie eine Trägheitsbewegung darstellt oder nicht. Winnies Ansatz ist insgesamt nicht-operational ausgerichtet. Es geht um die begriffliche Rückführung raumzeitlicher Größen auf kausale Größen, nicht um das Ausmessen der Raum-Zeit durch Lichtstrahlen (Winnie 1977, 187). Beachtung verdient, dass allein in der Minkowski-Raum-Zeit ein derart umfassender Beitrag der kausalen Theorie gelingt. Insbesondere ist die kausale Bestimmung raumzeitlicher Größen nicht auf die Raum-Zeit der Allgemeinen Relativitätstheorie übertragbar, was nicht selten als Scheitern der kausalen Zeittheorie aufgefasst wird. Eine Rückführung raumzeitlicher Größen auf kausale Größen ist dann eben nicht in voller Allgemeinheit möglich, was den philosophischen Anspruch der Interpretation raumzeitlicher Größen in kausalen Begriffen als nicht einlösbar erscheinen lässt (Sklar 1992, 84-85). Andererseits gilt auch, dass die Minkowski-RaumZeit abseits von starken Gravitationsfeldern die Raum-Zeit-Struktur des Universums ausmacht und dass sie – anders als die RaumZeiten der Allgemeinen Relativitätstheorie – ohne Widerspruch mit der Quantentheorie zu verbinden ist. Die Minkowski-Raum-Zeit ist daher von herausragender Bedeutung, so dass deren besondere Affinität für eine kausale Rekonstruktion auch aus philosophischem Blickwinkel nicht ohne Signifikanz ist.

48

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

1.5 Kausalität und Anisotropie der Zeit Die kausale Theorie der Zeit war vor dem Aufkommen der SRT von Kant am nachhaltigsten geprägt, dessen Konzeption aber durch den Zirkularitätseinwand Schopenhauers in Bedrängnis gebracht worden war. Danach benötigt jede solche Theorie eine von der Zeitfolge unabhängige Unterscheidung zwischen Ursache und Wirkung; andernfalls gehe man im „offenbarsten Cirkel“ (s.o. 1.1). Zum Abschluss dieses Kapitels zur kausalen Zeittheorie will ich zunächst die Tragweite dieses Einwands und anschließend eine der Optionen zu seiner Entkräftung ausloten.

1.5.1 Kausalordnung und Zeitfolge Im Gegensatz zur Gleichberechtigung der Raumrichtungen unterscheiden sich die Beziehungen „früher“ und „später“ aller Erfahrung nach voneinander. Die erste Ambition der kausalen Zeittheorie besteht darin, diese sog. Anisotropie der Zeit auf der Basis der Verursachungsbeziehung zu erläutern und auf den Unterschied zwischen Ursache und Wirkung zurückzuführen (s.o. 1.1). Die zuvor erläuterten Ansätze haben zwar bedeutende Explikationsleistungen erbracht und dabei Erfolge erzielt, die weit außerhalb des Fragehorizonts der Gründerdenker im 18. Jahrhundert lagen, sie haben aber zur Klärung der Anisotropie der Zeit keinen Beitrag geleistet. Die kausale Behandlung der Minkowski-Raum-Zeit zeigt nicht, wie Ursachen von Wirkungen unabhängig von der Zeitfolge zu unterscheiden sind. Die Anisotropie der Zeit findet keinen Niederschlag in der SRT, sondern ergibt sich daraus, dass man aus anderen Quellen weiß, dass die Aussendung eines Lichtstrahls die Ursache seines Empfangs darstellt und nicht umgekehrt. Die SRT wäre durchaus damit verträglich, dass alle Ereignisfolgen in umgekehrter Richtung ablaufen. Auch Winnies kausale Explikation der Minkowski-Raum-Zeit ändert an dieser Lage nichts. Die Beziehung der kausalen Verknüpfbarkeit ist symmetrisch konzipiert; die Unterscheidung zwischen „früher“ und „später“ ist eine Sache der Definition (Winnie 1977, 151-153). Zugleich wird damit deutlich, dass Schopenhauers Zirkularitätseinwand keineswegs so fatal ist, wie dieser meinte. Die bislang vorgestellten Ansätze bedürfen nämlich einer Lösung dieses

1.5 Kausalität und Anisotropie der Zeit

49

Einwands gar nicht. Die kausale Theorie vermag auch unterhalb der Rückführung der Anisotropie der Zeit auf Verursachungsbeziehungen signifikante Explikationsleistungen zu erbringen. Die kausale Theorie kann es sich gleichsam leisten, Schopenhauers Zirkel durch eine bloß definitorische Auszeichnung von „früher“ oder „später“ zu überdecken. Die der kausalen Theorie zugrunde liegende Verknüpfung zwischen Zeitfolge und Ursache-WirkungsBeziehung hätte dann als Definition zu gelten statt als sachhaltige These. Ein Fehlschlag bei der kausalen Erfassung der Anisotropie der Zeit wäre daher lediglich eine Lücke der kausalen Theorie, kein fataler Zirkel. Tatsächlich werden jedoch im kausalen Theorienrahmen weitergehende Ansätze einer nicht-temporalen, nicht-willkürlichen Unterscheidung von Ursache und Wirkung verfolgt. Es ist entsprechend keineswegs ausgemacht, dass man Schopenhauers Bedenken lediglich in seiner Tragweite eingrenzen, nicht aber auch auflösen kann. Ich stelle den vielversprechendsten Ansatz dieser Art vor, der auf der sog. Gabelungsasymmetrie beruht.

1.5.2 Die Gabelungsasymmetrie Die Gabelungsasymmetrie stellt eine Verallgemeinerung des von Reichenbach formulierten Prinzips der gemeinsamen Ursache dar und wurde von Wesley C. Salmon (1925–2001) ausgearbeitet. Das Prinzip der gemeinsamen Ursache befasst sich mit Beziehungen zwischen den Eintretenswahrscheinlichkeiten von Ereignissen. Es geht um statistische Korrelationen im Auftreten von Ereignissen und entsprechend um probabilistische Verursachung. Ziel ist die Unterscheidung zwischen Ursachen und Wirkungen ohne Rücksicht auf deren Zeitfolge. Wenn sich die Aufsätze zweier Schüler auffallend gleichen, dann kann man diese Übereinstimmung entweder durch direkte Verursachung erklären, also annehmen, dass einer vom anderen abgeschrieben hat, oder man vermutet, dass beide die gleiche Vorlage benutzt haben. In diesem Fall ist keiner der schriftstellerischen Akte Ursache oder Wirkung des anderen. Vielmehr sind beide Wirkungen einer gemeinsamen, vorangegangenen literarischen Prägung der Autoren. Das Prinzip der gemeinsamen Ursache besagt, dass Korrelationen zwischen dem Eintreten von Ereignissen, von

50

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

denen keines die Ursache eines anderen ist, wahrscheinlich auf eine gemeinsame Ursache zurückgehen (Reichenbach 1956, 157). Wenn direkte Verursachung ausgeschlossen werden kann, dann beruht der Zusammenhang zwischen den betreffenden Vorkommnissen auf einem Ereignis, das alle diese Vorkommnisse hervorbrachte. Wenn also keiner der Schüler vom anderen abgeschrieben hat, dann gibt es wahrscheinlich einen Text, auf den sich beide gestützt haben. Die Erklärung solcher Ereigniskorrelationen zieht Ursachen heran, nicht etwa Wirkungen. Wenn alle Lampen in einem Zimmer plötzlich ausgehen, dann erklärt man dies durch die gemeinsame Ursache der durchgebrannten Sicherung, nicht hingegen durch die gemeinsame Wirkung der auf diese Weise erzeugten Dunkelheit. Diese Bevorzugung der Erklärung durch Ursachen gründet ihre Berechtigung auf die Gabelungsasymmetrie: Zwar besitzen korrelierte Ereignisse unter Umständen auch eine gemeinsame Wirkung, dies aber nur in Verbindung mit einer gemeinsamen Ursache. Ausgeschlossen ist, dass Ereignisse ausschließlich durch eine gemeinsame Wirkung miteinander verknüpft sind (Reichenbach 1956, 162).

Figur 11: Die Gabelungsasymmetrie (Reichenbach 1956, 159; mit freundlicher Genehmigung von Maria Reichenbach)

Die Gabelungsasymmetrie besagt also, dass Kausalverhältnisse der schematischen Typen (i) und (ii) möglich sind, Kausalverhältnisse vom Typus (iii) hingegen nicht. Reichenbach nennt eine Verzweigung „offen“, wenn nicht sowohl eine gemeinsame Ursache als auch eine gemeinsame Wirkung der korrelierten Ereignisse vorliegen. Die Anisotropie der Zeit ist dann dadurch bestimmt, dass bei

1.5 Kausalität und Anisotropie der Zeit

51

einer offenen Verzweigung die gemeinsame Ursache den korrelierten Ereignissen vorangeht (Reichenbach 1956, 162). Diese Festlegung erhält ihre Kraft durch die These, dass sich gemeinsame Ursachen von gemeinsamen Wirkungen ohne Bezug auf die Zeitfolge und allein anhand der korrelierten Eintretenswahrscheinlichkeiten der betreffenden Ereignisse unterscheiden lassen. Dabei spielen die Begriffe der statistischen Abhängigkeit und der statistischen Abschirmung eine zentrale Rolle. Ein Ereignistypus ist von einem anderen Ereignistypus statistisch abhängig, wenn seine Eintretenswahrscheinlichkeit davon beeinflusst wird, ob auch das andere Ereignis eintritt. Zum Beispiel wird die Wahrscheinlichkeit dafür, dass Benedikt das Telefon abhebt, dadurch erhöht, dass Annabelle bei ihm anruft. Benedikts Abheben des Telefonhörers ist statistisch abhängig davon, dass Annabelle seine Nummer wählt. Besteht keine solche Korrelation zwischen den Eintretenswahrscheinlichkeiten zweier Ereignistypen, so sind sie statistisch unabhängig. Zum Beispiel ist es ohne Einfluss auf Benedikts Verhalten gegenüber seinem Telefon, ob in China der berühmte Sack Reis umfällt. Der zweite wichtige Begriff ist „statistische Abschirmung“. Durch statistische Abschirmung wird statistische Abhängigkeit beseitigt. Beziehen wir das Klingeln von Benedikts Telefon in die Betrachtung ein. Die Wahrscheinlichkeit dafür, dass Benedikt den Telefonhörer abhebt, wird sicher dadurch gesteigert, dass sein Telefon klingelt. Gegeben das Klingeln des Telefons, ist es aber nicht mehr von Einfluss, ob Annabelle anruft oder jemand anders (jedenfalls vor der technisch avancierten Gegenwart mit ihren identifizierbaren Rufnummern von Anrufern). Durch Einbezug des abschirmenden Ereignisses, nämlich des Klingelns des Telefons, wird der Einfluss von Annabelles Anruf auf Benedikts Gang zum Telefon beseitigt. Das Klingeln schirmt Annabelles Anruf von Benedikts Abheben des Telefons statistisch ab. Für die Relation der gemeinsamen Verursachung oder die Identifikation der gemeinsamen Ursache sind drei Charakteristika von Belang, welche mittels sog. bedingter Wahrscheinlichkeiten angegeben werden. Diese bringen die Eintretenswahrscheinlichkeiten bestimmter Typen von Ereignissen unter der Voraussetzung anderer Sachverhalte zum Ausdruck. p(A/B) bezeichnet die Eintretenswahrscheinlichkeit von A unter der Bedingung, dass B vorliegt. (1) Statistische Abhängigkeit: Ereignisse, die durch gemeinsame Verursachung entstehen, treten miteinander korreliert auf. Das Eintreten eines der Ereignisse erhöht die Wahrscheinlichkeit

52

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

dafür, dass auch das andere eintritt: p(A/B) > p(A). Anders ausgedrückt: beide Ereignisse treten häufiger gemeinsam ein, als wenn zwischen ihnen keinerlei Zusammenhang bestünde: p(A ∧ B) > p(A) p(B).5 Angenommen, Annabelle und Benedikt hätten beide an einem Abendessen teilgenommen, bei dem verdorbener Fisch gereicht wurde. Dann ist die Wahrscheinlichkeit, dass sich beide eine gastrointestinale Verstimmung zuziehen, p(A ∧ B), größer, als wenn jeder allein zu Abend gegessen hätte. (2) Prima-facie-Verursachung: Die gemeinsame Ursache C zweier Ereignisse A und B erhöht die Eintretenswahrscheinlichkeit sowohl von A als auch von B. Man drückt dies durch die Bedingung aus, dass A und B eher bei Vorliegen von C als bei dessen Nicht-Vorliegen (¬C) eintreten: p(A/C) > p(A/¬C); p(B/C) > p(B/¬C). C ist dann eine Prima-facie-Ursache beider Ereignisse A und B. Der Verzehr einer verdorbenen Mahlzeit (Ereignis C) erhöht die Wahrscheinlichkeit einer Lebensmittelvergiftung sowohl für Annabelle als auch für Benedikt. Das gemeinsame Abendessen ist die Prima-facie-Ursache ihrer späteren gesundheitlichen Komplikationen. (3) Statistische Abschirmung: Bei Vorliegen der gemeinsamen Ursache C lässt das Hinzutreten von B die Wahrscheinlichkeit für das Auftreten von A unverändert: p(A/C) = p(A/C ∧ B). In diesem Fall schirmt C B von A ab. Gegeben die verdorbene Fischmahlzeit, C, ist die Wahrscheinlichkeit dafür, dass Annabelle Krankheitssymptome ausbildet, p(A/C), unabhängig davon, ob zusätzlich Benedikt unter Übelkeit und Erbrechen leidet. Wenn vorausgesetzt wird, dass die Speisen unbekömmlich waren, dann ist es für die Abschätzung von Annabelles Erkrankungsrisiko unerheblich, ob Benedikts Magen-Darm-Trakt den Angriff stoisch erträgt oder aufgeregt rebelliert. Diese Beziehung der statistischen Abschirmung weist eine charakteristische Asymmetrie auf. Einerseits beseitigt die Berücksichtigung von C als gemeinsamer Ursache die statistische Abhängigkeit zwischen A und B. Wie gerade erläutert, ist die Eintretenswahrscheinlichkeit p(A/C) – im Gegensatz zu p(A) – gerade nicht mehr durch das Eintreten von B beeinflusst. Die Berücksichtigung des verdorbenen Abendessens schirmt Annabelles Erkrankung von derjenigen Benedikts ab. Aber die Umkehrung gilt nicht. Annabelles Erkrankung schirmt nicht den Verzehr verdorbener Speisen von Benedikts Gesundheitsproblemen ab. Gegeben Benedikts Ma-

1.5 Kausalität und Anisotropie der Zeit

53

genverstimmung, hängt Annabelles Risiko, ebenfalls zu erkranken, entscheidend davon ab, ob die gemeinsam verzehrte Mahlzeit verdorben war oder nicht: p(A/B) ≠ p(A/B ∧ C) (Salmon 1984, 97–98). Insgesamt ist bei gemeinsamer Verursachung die Beziehung der statistischen Abschirmung in folgender Hinsicht asymmetrisch. Die gemeinsame Ursache schirmt jede der beiden Wirkungen von der jeweils anderen ab, aber keine der Wirkungen schirmt die gemeinsame Ursache von der jeweils anderen Wirkung ab. Nur gemeinsame Ursachen, aber keine ihrer Wirkungen, können andere Wirkungen abschirmen. Bei Vorliegen gemeinsamer Verursachung können danach Ursachen von Wirkungen unterschieden werden, ohne auf die Zeitfolge zurückgreifen zu müssen.

Gemeinsame Verursachung und gemeinsame Bewirkung Allerdings ist dies noch nicht die ganze Geschichte. Es wurde nämlich vorausgesetzt, dass gemeinsame Verursachung vorliegt. Wenn der Anisotropie der Zeit auf kausaler Grundlage Rechnung getragen werden soll, dann muss gemeinsame Verursachung, also eine Situation vom Typus (ii) in Fig. 11, von gemeinsamer Bewirkung unterschieden werden können, also einer Situation vom Typus (iii). Im ersten Fall ist die Verzweigung zur Zukunft hin offen, im zweiten zur Vergangenheit. Die Komplikation besteht darin, dass gemeinsame Wirkungen ebenfalls einen abschirmenden Einfluss ausüben, nicht allein gemeinsame Ursachen. Diese Besonderheit wird anhand eines anderen, ebenfalls morbid eingefärbten Falles augenfällig. Angenommen, Antonius und Bartholomäus litten unter einer Birkenpollenallergie. Da es eine Ansteckung bei diesem Krankheitsbild nicht gibt, ist direkte Verursachung ausgeschlossen. Ein Kuraufenthalt an der See ist Teil der Behandlung dieses Leidens, und Antonius und Bartholomäus mögen gemeinsam zur Kur auf der Insel Amrum weilen. Die Erkrankungen von Antonius und Bartholomäus haben also die gemeinsame Wirkung E, dass beide einen Kuraufenthalt an der Nordsee absolvieren. Diese gemeinsame Wirkung besitzt charakteristische Eigenschaften einer gemeinsamen Ursache. Sie qualifiziert sich erstens als Prima-facie-Ursache: Die Wahrscheinlichkeit, dass Antonius bzw. Bartholomäus an Birkenpollenallergie erkrankt sind, ist größer, wenn sie sich zusammen in einem einschlägigen Kurort befin-

54

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

den, als wenn dies nicht der Fall ist: p(A/E) > p(A/¬E), p(B/E) > p(B/¬E). Zweitens ist die Wahrscheinlichkeit, dass Antonius unter dieser Allergie leidet unter der Bedingung, dass Bartholomäus in gleicher Weise allergisch reagiert und sich beide gemeinsam in einem einschlägigen Kurort aufhalten, gleich der Wahrscheinlichkeit, dass Antonius eine Birkenpollenallergie hat und dass er gemeinsam mit Bartholomäus dort sein Leiden lindert. Gegeben nämlich, dass Antonius gemeinsam mit Bartholomäus auf Amrum auf Besserung hofft, ist es für die Abschätzung der Krankheitswahrscheinlichkeit des Antonius ohne Belang, ob Bartholomäus ebenfalls erkrankt ist oder zum medizinischen Personal gehört (und damit gesund ist). Folglich schirmt die gemeinsame Wirkung des Aufenthalts im Reinluftkurort den Einfluss der Erkrankung des Bartholomäus auf die Wahrscheinlichkeit der Erkrankung des Antonius ab. Es gilt: p(A/E) = p(A/E ∧ B), p(B/E) = p(B/E ∧ A). Die gemeinsame Wirkung schirmt eine Ursache von der anderen ab.6 Drittens besitzt keine der Ursachen diesen abschirmenden Einfluss. Gegeben, dass Bartholomäus an Birkenpollenallergie erkrankt ist, erhöht die Tatsache des gemeinsamen Aufenthalts im Pollenreingebiet die Wahrscheinlichkeit, dass auch Antonius unter dieser Krankheit leidet. p(A/B ∧ E) > p(A/B). Die Ursache B schirmt nicht den Einfluss von E auf A ab. In Analogie zur gemeinsamen Verursachung schirmt daher zwar eine gemeinsame Wirkung jede ihrer Ursachen von der jeweils anderen ab, aber keine der Ursachen schirmt die gemeinsame Wirkung von der anderen Ursache ab. Gemeinsame Wirkungen üben demnach den gleichen abschirmenden Einfluss aus wie gemeinsame Ursachen. Gleichwohl ist die Sachlage nicht gänzlich symmetrisch. Ein wichtiger Unterschied wird bei der Berücksichtigung der Bedingung der statistischen Abhängigkeit erkennbar. Diese Bedingung ist nämlich bei gemeinsamen Ursachen erfüllt, bei gemeinsamen Wirkungen hingegen verletzt. Die Erfüllung dieser Bedingung bei gemeinsamer Verursachung hatte ich bereits erläutert. Wenn Annabelle nach einem gemeinsamen Abendessen erkrankt, dann erhöht das die Wahrscheinlichkeit, dass auch Benedikt unter Gesundheitsproblemen leiden wird: p(B/A) > p(B). Umgekehrt müssen Ursachen, die voneinander durch gemeinsame Wirkungen abgeschirmt werden, nicht statistisch abhängig voneinander sein. Für die Wahrscheinlichkeit, dass Bartholomäus an Birkenpollenallergie erkrankt ist, ist es ohne Belang, ob auch Anto-

1.5 Kausalität und Anisotropie der Zeit

55

nius darunter leidet oder zum medizinischen Personal des Sanatoriums auf Amrum gehört: p(B) = p(B/A). Und ebenso: Hätte sich etwa Blanziflor dazu entschlossen, ihrer kranken Großmutter Wein und Kuchen als Erfrischung zu bringen, während Amias zu einem von Dornenhecken umwucherten Schloss unterwegs ist, um dort eine schlafende Prinzessin zu wecken, so könnte eine gemeinsame Wirkung dieser kausal unverbundenen Ereignisse darin bestehen, dass beide die gleiche Straßenbahn nach Stieghorst benutzen. Diese gemeinsame Wirkung schirmt die beiden Ursachen voneinander ab: Gegeben beider Anwesenheit, wird die Wahrscheinlichkeit, Blanziflor anzutreffen, nicht von der zusätzlichen Kenntnis beeinflusst, dass auch Amias präsent ist. Der wesentliche Punkt ist aber, dass diese Beeinflussung auch dann fehlte, wenn man nicht wüsste, dass beide im Zug sind. Die Erwartung, eine dieser Personen in der Bahn nach Stieghorst zu treffen, bleibt generell von dem Wissen unbeeinflusst, dass die andere diese Bahn genommen hat. Wiederum gilt: p(B) = p(B/A) und p(A) = p(A/B). Die Präsenz von Blanziflor und Amias im gleichen Zug ist eine gemeinsame Wirkung unkorrelierter Ursachen. Deshalb sind diese Ereignisse statistisch nicht voneinander abhängig. Die erste der drei genannten Bedingungen für gemeinsame Ursachen ist also für gemeinsame Wirkungen verletzt. Diese Verletzung der Abhängigkeitsklausel begründet demnach endlich doch eine Asymmetrie zwischen gemeinsamer Verursachung und gemeinsamer Bewirkung. Eine gemeinsame Ursache erzeugt typischerweise Wirkungen, deren Eintretenswahrscheinlichkeiten miteinander korreliert sind, während die Ursachen, die zu einer gemeinsamen Wirkung führen, statistisch unabhängig voneinander sein können.7 Die abschirmende Kraft gemeinsamer Wirkungen ist dann aber deshalb wenig überraschend, weil zwischen den Ursachen oft gar keine statistische Abhängigkeit vorliegt. Die Abschirmung einer Korrelation ist dann keine Aufsehen erregende Leistung, wenn gar keine Korrelation besteht (Carrier 2003, 67). Ausgedrückt in kausal neutraler Sprache, also ohne den Unterschied zwischen Ursache und Wirkung bereits vorauszusetzen, kann die Gabelungsasymmetrie damit wie folgt diesen Unterschied begründen: Bei einem Ereignis N sind unter den Ereignissen, deren Auftreten mit N korreliert ist, einige miteinander auf solche Weise korreliert, dass diese Korrelation durch N abgeschirmt wird. Dies sind die Wirkungen von N, und N ist ihre gemeinsame Ursache. In dieser Klasse von Ereignissen, deren Auftreten mit N korreliert ist, sind andere Ereignisse nicht miteinander korreliert. Das sind die

56

1. Zeitordnung als Kausalordnung: Die kausale Theorie der Zeit

Ursachen von N, und N ist ihre gemeinsame Wirkung (Papineau 1993, 239-240; Price 1993, 256-257).

Grenzen der kausalen Bestimmung der Ereignisfolge Allerdings leitet dieses Resultat unter einer schwerwiegenden Einschränkung. Die Gabelungsasymmetrie stützt sich auf die Voraussetzung, dass eine kausale Verzweigung vorliegt und entwickelt darauf aufbauend ein nicht-temporales Kriterium für die Unterscheidung zwischen solchen Bifurkationen, die zur Zukunft hin offen sind, und solchen, die zur Vergangenheit hin offen sind. Dies ist sicher keine geringe Errungenschaft, die jedoch erst durch die Möglichkeit vervollständigt würde, das Vorliegen von kausalen Verzweigungen sicherzustellen. Die Schwierigkeit ist, dass es anhand von statistischen Korrelationen allein nicht gelingt, zwischen kausalen Verzweigungen und linearen Kausalketten zu unterscheiden (Papineau 1993, 240). Dies wird bei einer erneuten Betrachtung der eingangs erörterten Kausalkette deutlich. Annabelle wählt Benedikts Telefonnummer (W), Benedikts Telefon klingelt (K), und dieser nimmt den Hörer ab (H). Wie zuvor erläutert, wird der Einfluss von W auf H durch K abgeschirmt: p(H/K) = p(H/K ∧ W). Wenn Benedikts Telefon klingelt, ist die Wahrscheinlichkeit dafür, dass er den Hörer abnimmt, unabhängig davon, ob Annabelle zuvor seine Nummer gewählt hat. Diese abschirmende Kraft des Klingelns K könnte als Stütze für die irrtümliche Vermutung gelten, dass es sich dabei um die gemeinsame Ursache des Wählens W und des Hörerabnehmens H handelt. Diese Vermutung lässt sich durch Rückgriff auf die übrigen Bedingungen für gemeinsame Verursachung prüfen. Zunächst qualifiziert sich K als Prima-facie-Ursache von W und H. Benedikts klingelndes Telefon erhöht die Wahrscheinlichkeit, dass dieser den Hörer abnimmt und dass Annabelle zuvor seine Nummer gewählt hat: p(H/K) > p(H/¬K), p(W/K) > p(W/¬K). Darüber hinaus ist die Abschirmbeziehung im erforderlichen Sinne asymmetrisch. Die vermeintliche Wirkung W schirmt nämlich nicht die vermeintliche gemeinsame Ursache K von der anderen Wirkung H ab. Wenn nämlich Annabelle Benedikts Nummer wählt (W), dann hängt die Wahrscheinlichkeit dafür, dass Benedikt den Hörer abnimmt (H) durchaus davon ab, ob sein Telefon tatsächlich klingelt (K) und

1.5 Kausalität und Anisotropie der Zeit

57

nicht etwa wegen eines technischen Defekts stumm bleibt: p(H/W ∧ K) > p(H/W). Dies ist gerade diejenige Asymmetrie, die man bei einer gemeinsamen Verursachung von H und W durch K erwarten würde. Endlich liegt auch statistische Abhängigkeit vor. Benedikts klingelndes Telefon erhöht nämlich die Wahrscheinlichkeit dafür, dass Anabelle zuvor seine Nummer gewählt hat und dass Benedikt den Hörer abnimmt: p(W/K) > p(W/¬K), p(H/K) > p(H/¬K). Durch dieses letzte Merkmal qualifiziert sich K endgültig als gemeinsame Ursache im Unterschied zu einer gemeinsamen Wirkung (Carrier 2003, 68-69). Ergebnis ist, dass die bislang erörterten Kriterien falsch positive Fälle zulassen. Sie identifizieren fälschlich ein Ereignis als gemeinsame Ursache, das tatsächlich Mittelglied einer Kausalkette ist. Die Folgen für die kausale Grundlegung der Anisotropie der Zeit liegen auf der Hand: Im Lichte dieser Kriterien ergibt sich dieses kausale Mittelglied irrigerweise als das zeitlich erste. Die Gabelungsasymmetrie taugt nur dann als Basis der Anisotropie der Zeit, wenn vorausgesetzt wird, dass eine kausale Verzweigung vorliegt. Es kann nicht auf der ausschließlichen Grundlage der beteiligten Wahrscheinlichkeitsbeziehungen und entsprechend ohne Einbezug der Reihenfolge der betreffenden Ereignisse sichergestellt werden, dass es sich um eine kausale Verzweigung handelt und nicht um eine kausale Verkettung.8 Falls andererseits eine kausale Verzweigung vorausgesetzt werden kann und falls probabilistische Verursachung vorliegt,9 lassen sich durch Betrachtung allein der bedingten Eintretenswahrscheinlichkeiten Bifurkationen, die zur Zukunft hin offen sind, von solchen, die zur Vergangenheit offen sind, unterscheiden. Und es gelingt, gemeinsame Ursachen zu identifizieren und von ihren Wirkungen abzugrenzen. Dies stellt sicher keinen kleinen Schritt in Richtung einer kausalen Grundlegung des Unterschieds zwischen „früher“ und „später“ dar. Auch wenn Schopenhauers Einwand gegen Kant letztlich nicht ausgeräumt werden konnte, so hat ihm die Entwicklung der kausalen Theorie der Zeit doch viel von seiner Kraft genommen.10

2. Sein und Werden: Reversibilität, Irreversibilität und die Richtung der Zeit Die Wirklichkeit des Wandels in der Welt scheint fraglos festzustehen. Die Dinge ändern sich ständig, vom Wetter über die Hutmode bis zu den Farben der Saison. Gleichwohl ist in der Geistesgeschichte wiederholt und mit ganz unterschiedlichen Argumenten die Ansicht verteidigt worden, dass der Wandel eine Illusion sei und dass die wahre Welt hinter den trügerischen Erscheinungen stets gleich und unverändert bleibe. Darüber hinaus ist die menschliche Erfahrung von Veränderung durch Gerichtetheit und Unumkehrbarkeit geprägt. Der Mensch selbst durchläuft in seinem Leben charakteristische Stufen der Reifung und des Alterns, deren Umkehr zwar nicht selten angestrebt, aber jenseits von Fitness-Studio, Schönheitsoperation und Kosmetikbehandlung kaum jemals erreicht wird. Die Schwierigkeit ist, diese Erfahrung der Einsinnigkeit des Wandels mit der Tatsache in Einklang zu bringen, dass alle fundamentalen physikalischen Prozesse zeitumkehrbar sind. Die Naturgesetze scheinen entsprechend nicht zwischen Richtungen der Zeit. Aber auf welche Weise ist dann die Gerichtetheit des Wandels im Naturlauf verankert? Ich skizziere zunächst den Gegensatz zwischen Parmenides und Heraklit aus der Frühzeit der Philosophie, zwischen einer statischen und einer dynamischen Natursicht, und gehe kurz auf einige der Zenonschen Paradoxien ein, die die bis heute fortwirkende Frucht jener vorsokratischen Auseinandersetzung bilden. Die Vorstellung des „statischen Blockuniversums“ bringt die Parmenideische Sicht in die Gegenwart. Der zweite Themenblock greift die Fragestellung der physikalischen Grundlage der Anisotropie der Zeit wieder auf, zielt aber besonders auf die Grundlage der Irreversibilität von Prozessen und der auf diese gestützten Einsinnigkeit des Zeitlaufs. Hier steht der so genannte Zweite Hauptsatz der Thermodynamik im Zentrum, und die Frage ist, wie bei der kausalen Theorie der Zeit, ob sich auf diesen der Unterschied zwischen „früheren“ und „späteren“ Ereignissen gründen lässt. Ergebnis ist, dass der „thermodynamische

2.1 Die Zeitlosigkeit der Welt

59

Zeitpfeil“ eine Grundlage der Gerichtetheit der Zeit bereitstellt und dass sich die Erfahrung von Veränderung und Unumkehrbarkeit in einen physikalischen Rahmen einfügen lässt. Der dritte Themenblock geht auf die Frage ein, ob es auch für den Unterschied zwischen Vergangenheit und Zukunft eine Basis im Naturlauf gibt. Dieser Unterschied geht über die Differenzierung zwischen „früher“ und „später“ hinaus, hinzugefügt wird nämlich die Auszeichnung eines „Jetzt“, also eines Zeitpunkts, der Vergangenheit und Zukunft voneinander trennt und sich von der Vergangenheit in die Zukunft verschiebt. Die Frage ist, ob dieser Verschiebung des „Jetzt“ ein Naturprozess entspricht. Ergebnis ist, dass ein solcher Fluss der Zeit wesentlich an die Perspektive eines Bewusstseins gebunden ist und daher kein objektives Gegenstück besitzt.

2.1 Die Zeitlosigkeit der Welt 2.1.1 Dynamik des Wandels versus Unveränderlichkeit des Seins Seit Thales von Milet (625–547 v. Chr.) suchte die antike Naturphilosophie nach dem Invarianten im Wechsel der Erscheinungen. Dabei herrschte die Vorstellung, dass die Wirklichkeit hinter den sinnlich wahrnehmbaren Phänomenen unveränderlich ist. Der Wandel ist nur oberflächlicher Schein, bloßes Blendwerk der Erfahrungswelt. Die Ordnung der Welt ist dagegen statisch, reines Sein und kein Werden. Gegenpol dieser statischen Weltsicht ist die Philosophie des Heraklit von Ephesos (ca. 540–480 v. Chr.), derzufolge allein der Wandel beständig ist. Alles ist in steter Umwälzung begriffen. Die Dinge sind nicht, sondern sie werden und vergehen im immerwährenden Wechsel des Weltenlaufs. Durch die Formulierung „πάντα ρέΐ“ oder „alles fließt“ haben spätere Kommentatoren diese Ansicht des Heraklit auf den Begriff gebracht. Tatsächlich benutzt Heraklit Metaphern des Fließens, um die Prozesshaftigkeit des Geschehens auszudrücken; Plutarch schreibt Heraklit später den Gedanken zu, dass es unmöglich sei, zweimal in denselben Fluss zu steigen (Capelle 1968, 132). Insgesamt gesehen setzt sich Heraklit mit seiner Auffassung, dass das Werden wirklich und das Sein ein Trug ist, deutlich von der statischen Urstofftradition ab.

60

2. Sein und Werden

Der Kosmos ist durch ein dynamisches Gegenspiel polarer Kräfte gekennzeichnet, die die Dinge unablässig durcheinanderwirbeln. Dagegen findet die statische Interpretation des Kosmos ihren tiefgreifendsten und weitestgehenden Ausdruck bei Parmenides von Elea (* ca. 520 v. Chr.). Parmenides stellt jegliche Veränderung in Abrede. Die Wirklichkeit ist unwandelbar und ungeteilt; sie bildet eine einzige und invariante Gesamtheit. Grundlage dieser Position ist eine Urteilstheorie, derzufolge nur das Wirkliche bezeichnet und nur über das Wirkliche sinnvoll geurteilt werden kann. Alle Aussagen über das Nicht-Seiende sind sinnlos (Graeser 1981, 23).1 Da Parmenides weiterhin eine rationalistische Erkenntnistheorie verficht, kann es das Nicht-Seiende dann auch nicht geben. Parmenides identifiziert darüber hinaus Sein mit Raumerfüllung und entsprechend Nicht-Sein mit dem leeren Raum, mit der Folge, dass das Universum zur Gänze mit Materie angefüllt ist und keinen leeren Raum enthält, insbesondere auch keine leeren Zwischenräume zwischen den Körpern. Die Annahme der Verschiedenheit der Dinge setzt aber voraus, dass sie von Zwischenräumen getrennt sind, da sie sonst nicht unterschieden werden könnten. Ebenso verlangt Bewegung, dass sich Materie in einen leeren Raum hinein bewegt. Da dieser aber nicht existiert, ist Bewegung unmöglich. Die Vielfalt der Formen und der Wandel der Eigenschaften können daher nicht wirklich sein.

2.1.2 Die Zenonschen Paradoxien Die parmenideische Position stellt hohe Anforderungen an die Bereitschaft, philosophischen Schlussfolgerungen Vorrang vor dem Augenschein einzuräumen. Schließlich ist der Wandel in der Natur sinnfällig und mit Händen zu greifen. Gegen die sich in der Wahrnehmung aufdrängende Vielheit und Variation setzte Parmenides nur eine dürre sprachphilosophische Deduktion. Daher bestand durchaus Bedarf für die Versuche des Zenon von Elea (ca. 495–445 v. Chr.), einem Schüler des Parmenides, die Überzeugungskraft dieser Position durch den Aufweis der Absurdität der gegnerischen Ansichten zu erhöhen. Zenon ging es darum, die Annahmen von Vielheit und Veränderung als widersprüchlich aufzuweisen und daraus auf dem Wege eines indirekten Beweises auf die Richtigkeit der parmenideischen Folgerungen zu schließen.

2.1 Die Zeitlosigkeit der Welt

61

Zenons ursprüngliche Formulierung seiner Paradoxien ist nicht erhalten; diese sind nur in der Überlieferung durch Aristoteles und Simplicius bekannt. Nicht zuletzt wegen dieser Überlieferung aus mindestens zweiter Hand ist bei einigen Paradoxien auch die Lesart umstritten. Ich konzentriere mich auf die beiden bekanntesten Paradoxien, das Paradoxon von Achilles und der Schildkröte und vom fliegenden Pfeil. Beide zusammengenommen sollen den Schluss begründen, dass Vorstellungen von Raum und Zeit nicht kohärent zu bilden sind, wodurch sofort auch die Vorstellung von Bewegung disqualifiziert ist. Anschließend stelle ich die moderne Standardbehandlung beider Paradoxien vor und gehe im dritten Schritt auf die Nachfolgeproblematik ein, nämlich die Ausführbarkeit von so genannten „Superaufgaben“.

Zenons Paradoxien der Bewegung Das Paradoxon von Achilles und der Schildkröte hat in der Aristotelischen Formulierung die folgende Gestalt: „Das zweite [Argument] ist der so genannte Achilles: Dieses besteht darin, dass das Langsamste, das läuft, vom Schnellsten niemals eingeholt wird; denn notwendig kommt das Verfolgende zuerst dort an, woher das Fliehende aufgebrochen ist, so daß notwendig das Langsamere immer etwas voraus sein wird“ (Aristoteles, zit. nach Ferber 1981, 8). In der üblichen Ausschmückung wird in das Paradoxon eine Schildkröte als Wettkampfpartner eingefügt, so dass sich insgesamt ein Wettlauf zwischen Achilles, dem flinksten Krieger der Alten Welt, und einer arttypisch gemächlichen Schildkröte ergibt. Aus Gründen sportlicher Fairness wird dem geruhsamen Vertreter aus dem Tierreich ein gewisser Vorsprung zugebilligt. Zenon argumentierte nun, dass unter solchen Umständen Achilles die Schildkröte niemals einholen kann. Um sie nämlich zu erreichen, muss Achilles erst zu dem Punkt gelangen, den das Panzertier schon verlassen hat. Wenn also Achilles am Startpunkt der Schildkröte eintrifft, dann hat sich diese bereits voranbewegt, hastet Achilles weiter zu diesem zweiten Punkt, so befindet sich die Schildkröte bereits weiter voraus und so fort. Wie sehr sich Achilles auch beeilt, immer ist die Schildkröte schon ein wenig weiter vorgerückt. Folglich wird ihr Vorsprung zwar beständig kleiner, verschwindet aber niemals. Achilles kann die Schildkröte nicht erreichen (Ferber 1981, 8-10; Thiel 1995).

62

2. Sein und Werden

Das Paradoxon des fliegenden Pfeils ist wiederum von Aristoteles überliefert: „Das dritte ist [...], dass der sich bewegende Pfeil ruht. [...] Wenn nämlich immer, sagt [Zenon], alles ruht, solange es einen Raum einnimmt, der gleich groß ist wie er selbst, das Bewegte aber immer im Jetzt ist, dann ist der bewegte Pfeil unbewegt“ (Aristoteles, zit. nach Ferber 1981, 10). In der üblichen Rekonstruktion geht das Paradoxon von der Vorstellung der Zerlegung der Bewegung des Pfeils in eine Serie von Momentaufnahmen aus. Jede dieser Aufnahmen erfasst die Position des Pfeils in einem Augenblick, aber sie gibt nicht dessen Bewegung wieder. Erschiene etwa das Bild des Pfeils als Folge der Bewegung verzerrt, dann handelte es sich nicht um einen einzigen Augenblick, und die Aufnahme stellte keine Momentaufnahme dar. In jedem Augenblick ist der Pfeil daher bewegungslos. Zwischen den Augenblicken kann sich der Pfeil jedoch auch nicht bewegen, da jeder derartige Zeitraum gleichfalls aus Augenblicken bestünde, in deren jedem der Pfeil ebenfalls ruhte. Daher kann der Pfeil insgesamt keine Bewegung ausführen. Das Schildkrötenparadoxon weist begriffliche Schwierigkeiten auf, die mit einer kontinuierlichen, ins Unendliche fortgesetzten Teilung von Raum- und Zeitabschnitten verbunden sind. Hier könnten die paradoxen Konsequenzen entsprechend durch Annahme minimaler Raum- und Zeitintervalle vermieden werden. Erreicht nämlich die Schildkröte diesen Bereich minimaler Erstreckung, so kann sie dem nacheilenden Helden nicht mehr durch einen noch winzigeren, noch kürzere Zeit beanspruchenden Schritt entkommen. Sie muss einen größeren Schritt tun und benötigt dafür eine größere Zeitspanne, und in dieser wird sie vom flinken Krieger überholt. Entsprechend spricht das Schildkrötenparadoxon für eine diskontinuierliche, körnige Struktur von Raum und Zeit; diese besteht aus Elementen minimaler Erstreckung. Umgekehrt zeigt das Pfeilparadoxon, dass eine solche körnige Raum-Zeit unmöglich ist. Beim Pfeilparadoxon ergibt sich die widersinnige Konsequenz, dass der Pfeil in jedem einzelnen Augenblick ruht, in vielen Augenblicken jedoch eine Bewegung ausführt. Es kann also nicht sein, dass der Pfeil gleichsam von Punkt zu Punkt springt. Entsprechend kann die Zeit nicht aus getrennten Zeitelementen bestehen; sie kann nicht aus einer diskontinuierlichen Folge von Augenblicken gebildet sein. Daher ergibt sich die Absurdität, dass Raum und Zeit weder eine kontinuierliche noch eine diskontinuierliche Struktur besitzen können. Folglich ist die Vorstellung der Teilung von Raum- und

2.1 Die Zeitlosigkeit der Welt

63

Zeitabschnitten gar nicht sinnvoll umzusetzen. Einer in sich widerspruchsvollen Vorstellung kann jedoch nichts Wirkliches entsprechen. Daher gibt es keine Mehrzahl solcher Abschnitte; Raum und Zeit sind einheitliche Größen ohne Teile. Jede Bewegung setzt aber die Existenz von Raum- und Zeitteilen voraus; schließlich soll sich ein bewegter Körper zu unterschiedlichen Zeiten an unterschiedlichen Orten befinden. Folglich gibt es auch keine Bewegung (Salmon 1980, 32-35, 64; Ray 1991, 6-10).

Die Paradoxien der Bewegung und die Konvergenz unendlicher Reihen Der am stärksten verbreitete moderne Lösungsansatz für die Zenonschen Paradoxien der Bewegung greift auf den von Augustin Cauchy (1789–1857) angegebenen Begriff des Grenzwerts zurück, der erstmals die Widersprüche der älteren Formulierungen vermied. Von Bedeutung ist dabei insbesondere der Begriff der konvergenten unendlichen Reihe. Bei einer solchen Reihe werden unendlich viele, zunehmend kleinere Terme zu einem endlichen Grenzwert aufsummiert. Das Paradoxon von Achilles und der Schildkröte beinhaltet eine Summation unendlich vieler Teilstrecken und damit eine unendliche Reihe. Das Paradoxon legt den Schluss nahe, dass wegen der unendlichen Anzahl der Glieder diese Reihe über alle Grenzen wächst: Achilles holt die Schildkröte niemals ein. Dies trifft aber keineswegs zu. Vielmehr bildet die Summe der von Achilles zu durchlaufenden Teilstrecken eine konvergente Reihe mit einem endlichen Grenzwert. Richtig ist zwar, dass Achilles die Schildkröte nicht innerhalb der ständig abnehmenden Zeitintervalle einholt. Bei unendlicher Wiederholung der Prozedur konvergiert der Vorsprung der Schildkröte gleichwohl gegen Null. Aus diesem Grund wird die Schildkröte von Achilles tatsächlich nach endlicher Zeit erreicht. Angenommen, der Vorsprung der Schildkröte betrage genau eine beliebige Maßeinheit, und der leichtfüßige Grieche bewege sich doppelt so schnell wie das behäbige Reptil. Wenn Achilles den Messpunkt 1 erreicht, hat sich die Schildkröte um eine halbe Einheit weiterbewegt; ist Achilles dort angelangt, hat sich der Vorsprung der Schildkröte auf ein Viertel verringert usw. Um die Schildkröte

64

2. Sein und Werden

einzuholen, muss Achilles alle diese Strecken durchlaufen. Die von ihm zu durchmessende Entfernung s ist also die Summe aller dieser Vorsprünge der Schildkröte. Dies führt auf den Ausdruck: s = 1 + ½ + ¼ + 1/8 + 1/16 + ... Diese unendliche Reihe ist konvergent, und ihr Grenzwert ist 2. Obwohl Achilles eine unendliche Anzahl von Teilstrecken durchmessen muss, ist die von diesen gebildete Gesamtstrecke keineswegs unendlich groß. Unter der Voraussetzung doppelter Geschwindigkeit liegt der Treffpunkt vielmehr gerade beim doppelten Schildkrötenvorsprung. Diese Behandlung beruht auf dem Umstand, dass das Aufsummieren unendlich vieler positiver Teile dann zu einem endlichen Summenwert führt, wenn die Teile hinreichend schnell kleiner werden. Auch bei ständiger Fortführung der Teilungsprozedur wird die Schildkröte demnach nicht immer weiter voraneilen, sondern sich einem festen Punkt nähern, an dem sie schließlich von Achilles eingeholt wird. Das Durchlaufen einer unendlichen Zahl von Teilstrecken verlangt keineswegs zwangsläufig auch eine unendliche Zeitspanne. Für das Paradoxon des fliegenden Pfeils ist der präzise Begriff der Momentangeschwindigkeit als des Grenzwerts von Durchschnittsgeschwindigkeiten wesentlich. Die Momentangeschwindigkeit ist der Grenzwert einer Folge von Durchschnittsgeschwindigkeiten, wobei beständig abnehmende Strecken und Zeitintervalle in Betracht gezogen werden. Die Durchschnittsgeschwindigkeiten konvergieren für Δt → 0 gegen die Momentangeschwindigkeit. Diese Konzeption erlaubt die folgende Behandlung des Pfeilparadoxons. Zwar ist richtig, dass eine Bewegung durch eine Reihe von Momentaufnahmen nicht zu erfassen ist. Dies zeigt aber nur, dass das Mittel der Momentaufnahme für diesen Zweck ungeeignet ist. Die Bewegung ist vielmehr durch den Begriff der Momentangeschwindigkeit zu erfassen, und für dessen Bildung reicht die Betrachtung eines einzelnen Moments oder Zeitpunkts nicht hin. Da diesem Begriff die Vorstellung einer unendlichen Folge von Durchschnittsgeschwindigkeiten zugrunde liegt, kann man sich nicht auf einen einzigen Augenblick beschränken. Um die Momentangeschwindigkeit für einen solchen Augenblick zu bestimmen, muss man Durchschnittsgeschwindigkeiten auch zu anderen Zeiten ermitteln. Ohne Einbezug der räumlichen und zeitlichen Nachbarschaft lässt sich der Begriff der Momentangeschwindigkeit nicht sinnvoll bilden und Ruhe entsprechend nicht von Bewegung unterscheiden. Diese Analyse lässt erkennen, dass und warum die

2.1 Die Zeitlosigkeit der Welt

65

Beschränkung auf isolierte Zeitpunkte die Erfassung von Bewegung verfehlen muss. Bewegung ist kein rein punktuelles Phänomen; die Betrachtung einzelner Zeitpunkte stellt ein unzulängliches Beschreibungsmittel dar (Salmon 1980, 36-39; Ray 1991, 11-13).

Superaufgaben Diese Behandlung der Zenonschen Paradoxien wird zwar weitgehend als angemessen, aber nicht überall als vollständig eingestuft. Ein verbreiteter Einwand ist, dass diese Behandlung eine zentrale Schwierigkeit ungelöst lässt. So übersieht die Analyse des eiligen Achilles durch konvergente Reihen, dass es nicht einfach um abstrakt aufgefasste Brüche, sondern um das Zurücklegen tatsächlicher Strecken geht. Das Durchmessen jeder solchen Teilstrecke stellt eine Aufgabe für Achilles dar, und was diese Aufgaben zu einer Herausforderung werden lässt, die einem antiken Helden angemessen ist, ist ihre unendliche Zahl. Wenn man Achilles zumutet, die Schildkröte in endlicher Zeit einzuholen, dann verlangt man von ihm, eine unendliche Zahl von Aufgaben in einer endlichen Zeitspanne zu bewältigen. Eine solche aus einer unendlichen Anzahl von Teilaufgaben bestehende Aufgabe wird als „Superaufgabe“ („Supertask“) bezeichnet. Das Folgeproblem zu den Zenonschen Paradoxien ist entsprechend, ob Superaufgaben zu bewältigen sind. Max Black argumentierte 1950, dass Superaufgaben nicht allein aufgrund möglicher Konditionsmängel, sondern aus logischen Gründen nicht zu bewältigen sind. Black entwarf dazu ein Gedankenexperiment mit zwei fiktiven Wurfmaschinen Hal und Pal, die jeweils einen Ball in des anderen Wurfschale befördern und diesen Ball damit insgesamt beständig zwischen sich hin und her transportieren. Die Ballübergabe soll dabei wegen der ständig zunehmenden Übung immer weniger Zeit beanspruchen; konkret soll sich die Zeit für aufeinanderfolgende Ballübergaben jeweils halbieren. Während also Hal eine Minute benötigt, um den Ball in Pals Wurfschale zu befördern, kostet Pal der Rücktransport lediglich eine halbe Minute; Hals erneute Beförderung der Balls zu Pal verlangt eine Viertelminute, der Rücktransport eine Achtelminute usw. Die insgesamt erforderliche Zeit ergibt sich damit analog zur „Achillesreihe“ aus der Summe: 1 + ½ + ¼ + 1/8 + ... Diese Reihe konvergiert gegen 2, und entsprechend kommen beide Maschinen nach Ablauf

66

2. Sein und Werden

der zwei Minuten erschöpft zum Stillstand. Der Ball ist unendlich oft zwischen ihnen hin und hergewechselt. Sowohl Hal als auch Pal haben eine unendliche Zahl von Wurf- und Fangbewegungen ausgeführt. Die Frage ist, in welcher Wurfschale sich der Ball nach dem Ablauf dieser Zeit befindet. Zunächst kann sich der Ball nicht in Hals Wurfschale befinden, denn jedes Mal, wenn er dort lag, wurde er von Hal aus dieser herausgeworfen. Ebenso wenig kann sich der Ball aber auch in Pals Wurfschale befinden, da immer, wenn er dort lag, Pal ihn in Richtung Hal weiterbeförderte. Und da es sich um eine unendliche Folge von Aufgaben handelt, gibt es keine letzte Aufgabe, nach deren Bearbeitung die Prozedur ein natürliches Ende fände (Salmon 1980, 43-44; vgl. Ray 1991, 14). Der Schluss ist, dass der Endzustand aus logischen Gründen unbestimmt ist. Wenn tatsächlich eine unendliche Anzahl von Operationen ausgeführt wurde, dann kann sich der Ball in keiner der beiden Wurfschalen befinden. Folglich beinhalten Superaufgaben einen Widerspruch und sind daher aus logischen Gründen nicht ausführbar. Nach der vorgestellten Lösung des Schildkrötenparadoxons muss Achilles aber unendlich viele Teilstrecken in einer endlichen Zeit zurücklegen und entsprechend eine Superaufgabe meistern. Dass der Held daran zwangsläufig scheitert, bedeutet nicht, dass er die Schildkröte niemals einholt. Vielmehr ist es unangemessen, den Wettlauf durch ein Aufsummieren unendlich vieler durchlaufener Teilstrecken zu beschreiben. Die Behandlung im Rahmen der modernen Analysis ist inadäquat. Die weithin akzeptierte Entgegnung auf das von Blacks Wurfmaschine aufgeworfene Problem geht auf Paul Bernacerraf 1962 zurück und zielt auf die Unterscheidung zwischen konvergierenden und alternierenden Folgen. Beim Rennen des Achilles ist für das Durchlaufen jeder nachfolgenden Teilstrecke ein ständig sinkender Aufwand erforderlich; der Aufwand konvergiert gegen Null. Hingegen bleibt der Aufwand bei der Wurfmaschine unverändert; diese alterniert zwischen verschiedenen Zuständen. Tatsächlich lässt sich die Konstruktion der Wurfmaschine so anpassen, dass ebenfalls eine konvergente Zustandsfolge entsteht. Dazu nimmt man an, dass sich bei jedem Austausch die Wurfschalen von Hal und Pal beständig annähern und am Ende des Zeitraums miteinander zusammenfallen. Dadurch konvergiert der für die Bewältigung der Teilaufgaben erforderliche Aufwand wie im Falle des Wettrennens gegen Null. Unter diesen an die Wettlaufbedingungen angepassten Umständen ist aber keineswegs mehr unbestimmt, an welcher Stel-

2.1 Die Zeitlosigkeit der Welt

67

le sich der Ball nach Ablauf der zwei Minuten befindet: in der Mitte des ursprünglichen Abstands zwischen Hal und Pal und in beiden Wurfschalen (Grünbaum 1973, 633-637; Salmon 1980, 46-47; Ray 1991, 14–15). Konsequenz dieser Behandlung ist, dass die Zenonschen Paradoxien mit den Mitteln der modernen Mathematik lösbar sind. Daraus wiederum ergibt sich, dass die Paradoxien ihre philosophische Bedeutsamkeit verloren haben; aus ihnen folgt nichts philosophisch Relevantes für die Struktur von Raum, Zeit und Bewegung. Dagegen halten Minderheitsinterpretationen weiterhin an der philosophischen Tragweite der Paradoxien fest. Führend unter diesen ist die Ansicht, dass die Paradoxien prinzipielle Schranken der mathematischen Beschreibung von Raum, Zeit und Bewegung aufgewiesen haben. Diese Diskussion hält weiter an.

2.1.3 Die Reversibilität der Fundamentalprozesse und das statische Blockuniversum Selbst wenn die Argumente des Parmenides und seines Meisterschülers Zenon nicht tragen, die Grundideen, dass Veränderung nachrangig, Invarianz aber fundamental ist, und dass die Einsinnigkeit von Entwicklungen nichts als Trug und Illusion ist, haben in der Neuzeit, gestützt auf ganz andere Argumente, nicht wenige Anhänger und Verfechter gefunden. Die wichtigste Tatsachenstütze für eine Sichtweise dieser Art ist, dass alle grundlegenden Naturgesetze reversibel in dem Sinne sind, dass sie eine Zeitumkehr der von ihnen beschriebenen Prozesse zulassen. Bei reversiblen Prozessen verletzt es kein Naturgesetz, wenn sie rückwärts in der Zeit ablaufen. Reversible Prozesse werden durch reversible Gesetze beschrieben. Nach unserem besten Wissen ist alles fundamentale Naturgeschehen in diesem nomologischen Sinne reversibel.2 Die Gerichtetheit der Zeit ist nicht in den Naturgesetzen verankert. Die Gesetze der Mechanik bringen die Sachlage durchsichtig zum Ausdruck. Diese erfassen die Zeitumkehr einer Bewegung mit gleicher Leichtigkeit wie die Bewegung selbst. Wenn man einen Film über den Umlauf der Planeten im Sonnensystem rückwärts ablaufen lässt, dann kehren alle Planeten ihre Bewegungsrichtung um, aber jede Planetenbahn gehorcht weiterhin den Keplerschen Gesetzen. Bei der Zeitumkehr einer Bewegung werden die Rich-

68

2. Sein und Werden

tungen aller Geschwindigkeiten umgekehrt, während die Beschleunigungen und Kräfte unverändert bleiben. Entsprechend ist die Zeitumkehr eines beschleunigt verlaufenden freien Falls ein verzögert verlaufender senkrechter Wurf. Und wenn eine Billardkugel auf eine gleichartige, ruhende Kugel trifft, diese in Bewegung setzt und dabei selbst zum Stillstand kommt, dann werden bei Zeitumkehr nur die ruhende und die bewegte Kugel sowie die Stoßrichtung vertauscht. Alle diese Veränderungen stehen im Einklang mit den mechanischen Gesetzen (Reichenbach 1956, 30-31; Feynman 1965, 109-110). Gleichwohl erkennen wir in der Regel auf den ersten Blick, wenn ein Film rückwärts abgespielt wird. Wenn die grundlegenden Prozesse in der Natur zeitumkehrbar sind, dann scheint es verwunderlich, dass wir in unserer Alltagserfahrung in aller Regel ohne Schwierigkeiten zwischen regulär und rückwärts ablaufenden Vorgängen unterscheiden können. Dieser Anschein der Irreversibilität ergibt sich zunächst daraus, dass die regulären Vorgänge in unserer Erfahrung wesentlich häufiger vorkommen als die zeitinvertierten. Menschen gehen normalerweise vorwärts, nicht rückwärts, obwohl sie dies könnten. Uhrzeiger bewegen sich nicht gegen den Uhrzeigersinn, obwohl dies kein Naturgesetz verletzte. Eine andere Art von Prozessen ist dagegen dem Anschein nach tatsächlich irreversibel. Billardkugeln verlieren durch die Reibung auf der Unterlage an Geschwindigkeit; bei spontaner Beschleunigung wissen wir, dass es sich um eine Zeitumkehr handelt. Prozesse, die mit der Erzeugung von Wärme verbunden sind, entziehen sich anscheinend ebenfalls dieser Reversibilität. Solche Prozesse verdienen daher besondere Aufmerksamkeit (s.u. 2.2). Bei reversiblen Prozessen bleiben zwar die zeitlichen Ordnungsbeziehungen erhalten; die Mittelglieder eines Prozesses liegen auch bei zeitinvertiertem Ablauf zwischen den beiden Endpunkten. Daher lassen sich eine Vielzahl von Aussagen über den Naturlauf auch ohne den Unterschied zwischen „früher“ und „später“ treffen. Die Gründung der Minkowski-Raum-Zeit auf die Kausalstruktur ist unabhängig von der Anisotropie der Zeit (s.o. 1.4). Es beeinträchtigt Unternehmen dieser Art nicht, wenn der Unterschied zwischen „früher“ und „später“ durch eine bloß definitorische Auszeichnung hergestellt wird. Diese Sachlage kann aber auch so gedeutet werden, dass der Unterschied zwischen „früher“ und „später“ gerade nicht im Naturlauf verankert, sondern ein Artefakt des Menschen ist. In Wirk-

2.1 Die Zeitlosigkeit der Welt

69

lichkeit ist danach die Zeit isotrop wie der Raum: alle Richtungen sind gleichberechtigt, jede Veränderung ist umkehrbar. Nur die Beschränkungen der menschlichen Erkenntniskraft erzeugen die Illusion der Einsinnigkeit des Wandels. Die Auffassung von der Zeitlosigkeit der physikalischen Welt erhält eine Stütze durch die SRT. Bei einer anistropen Zeit, so das Argument, sollte eindeutig bestimmt sein, welches von zwei Ereignissen früher oder später stattfindet, oder ob beide gleichzeitig sind. Zwar ist die Zeitfolge zeitartiger Ereignisse invariant, die Zeitfolge raumartiger Ereignisse hingegen abhängig vom Bezugssystem (s.o. 1.3). Ebenso ist die Gleichzeitigkeit keine Äquivalenzrelation, mit der Folge, dass der Fall eintreten kann, dass e1 gleichzeitig mit e2, e2 gleichzeitig mit e3, e3 aber später als e1 eintritt (s.o. 1.4). In der SRT fehlen die universellen Zeitschnitte, die in jedem Einzelfall bezugssystemübergreifende Zeitbeziehungen zu begründen vermöchten. Wenn aber Zeitbeziehungen, so das Argument weiter, durch die Wahl des Bewegungszustands des Beobachters zu beeinflussen sind, dann kommen sie offenbar nicht den betrachteten Prozessen und Ereignisfolgen wesentlich zu (Penrose 1989, 296; Bartels 1996, 65-66; Esfeld 2002, 33-35). Umgekehrt legt die SRT auch positiv die Vorstellung einer isotropen Zeit nahe. Hermann Weyl (1885–1955) hat diese Idee der Zeitlosigkeit der Welt kraftvoll entwickelt. Die SRT macht keinen Unterschied zwischen „früher“ und „später“; Vorwärts- und Rückwärtslichtkegel sind völlig gleichberechtigt. Diese temporale Symmetrie ebenso wie der Primat raumzeitlicher Größen wie Weltlinien vor räumlichen Anordnungen in zeitlicher Veränderung (s.o. 1.2.2) legen das Urteil nahe, dass diese festliegende Weltlinienstruktur das eigentliche Gefüge der physikalischen Wirklichkeit bildet. Figur 3 eröffnet gleichsam den Blick „von außen“ auf die Raum-Zeit, und diesem Blick bieten sich Weltlinien in ihrer Erstreckung dar. Diese Weltlinien bilden die invarianten und folglich fundamentalen Bestimmungsstücke; einzelne Ereignisse sind stets nur ein beschränkter Ausschnitt einer Weltlinie. Auch die menschliche Erfahrungswirklichkeit stellt zu jedem Zeitpunkt ein solches Ereignis dar, so dass sich das Bewusstsein gleichsam seine Weltlinie entlang bewegt und deshalb verschiedene Inhalte nacheinander in den Gesichtskreis nimmt. Aber erst aus dieser Beschränkung der Perspektive entsteht die Illusion des Wandels; für den Blick von außen sind die Weltlinien als raumzeitliche Gebilde insgesamt und schlechthin gegeben. Erst durch unser „abgeblendetes Bewusstsein“ entsteht die gerich-

70

2. Sein und Werden

tete Zeit. Veränderung ist eine psychologische Illusion, die sich aus der Begrenzung der menschlichen Perspektive ergibt (Weyl 1924, 82-84). Weyls Schluss lautet: „Die objektive Welt ist schlechthin, sie geschieht nicht. Nur vor dem Blick des in der Weltlinie seines Leibes emporkriechenden Bewußtseins ‘lebt’ ein Ausschnitt dieser Welt ‘auf’ und zieht an ihm vorüber als räumliches, in zeitlicher Wandlung begriffenes Bild“ (Weyl 1924, 87). Weyl zieht unter Berufung auf Kant die Folgerung, „daß Raum und Zeit nur Formen unserer Anschauung sind, ohne Gültigkeit für das Objektive“ (ebd.). Auch Kurt Gödel (1906–1978) schloss sich, wenn auch gestützt auf Argumente aus der Allgemeinen Relativitätstheorie, der „Ansicht jener Philosophen [an], die, wie Parmenides, Kant und die modernen Idealisten, die Objektivität des Wechsels leugnen und diesen als eine Illusion oder als eine Erscheinung betrachten, die wir unserer besonderen Art der Wahrnehmung verdanken“ (Gödel 1949, 229). Für diese „modernen Idealisten“ spiegeln die Urteile über Zeitverhältnisse die Beschaffenheit des menschlichen Erkenntnisapparats wider, nicht aber die objektiven Beziehungen zwischen Ereignissen. Diese Position wird gelegentlich auch als „moderner Eleatismus“, als Annahme eines „statischen Blockuniversums“ oder der „Zeitlosigkeit der Welt“ bezeichnet. Sie beinhaltet aber, anders als der ursprüngliche Eleatismus, nicht die Absage an jedwede Veränderung. Schließlich liegen auch in einem durch die Weltlinien aufgespannten Blockuniversum zu unterschiedlichen Zeiten unterschiedliche Zustände vor. In diesem Sinne verändert sich auch in der zeitlosen Welt etwas (Esfeld 2002, 37). Es geht nicht eigentlich um „Zeitlosigkeit“, sondern um temporale Isotropie oder Zeitsymmetrie. Die These ist, erstens, dass dem Unterschied zwischen „früher“ und „später“ nichts Objektives entspricht und dass es sich stattdessen um Schöpfungen des menschlichen Geistes handelt, sowie, zweitens, dass die Wirklichkeit hinter den Erscheinungen durch Reversibilität und Invarianz charakterisiert ist. Anders gesagt ist, erstens, die zeitliche Abfolge von Ereignissen ein wesentlich psychologisches Phänomen, und das Fehlen von Irreversibilität zeigt, zweitens, die Randständigkeit von Veränderungen in der Welt. Da jeder Wandel rückgängig gemacht werden kann, kommt diesem lediglich nachrangige Bedeutung zu.

2.2 Irreversibilität und statistische Mechanik

71

2.2 Irreversibilität und statistische Mechanik Allerdings bildet diese starke Akzentuierung von Reversibilität und Isotropie einen markanten Gegensatz zu dem früheren Schluss, dass die kausale Theorie der Zeit einer physikalischen Grundlegung temporaler Anisotropie schon recht nahe gekommen sei (s.o. 1.5.2). Ein solcher Gegensatz bietet Anlass zu einer vertieften Erörterung des Problems, und hierfür empfiehlt es sich, eine neue Perspektive einzunehmen. Tatsächlich findet man in der Erfahrung eine Vielzahl anscheinend irreversibler Prozesse, die schlecht zu der Behauptung durchgehender Umkehrbarkeit von Veränderungen passen. Wenn man Milch in eine Kaffeetasse gießt, dann durchmischen sich beide Flüssigkeiten, während der umgekehrte Vorgang, die spontane Entmischung von Kaffee und Milch, niemals beobachtet worden ist. Die gleiche Einsinnigkeit stellt man beim Ausgleich von Druckunterschieden fest. Der heftige Ausstrom von Luft aus einem Loch im Fahrradreifen oder die Winde zwischen Hoch- und Tiefdruckgebieten sind Bestandteil der Erfahrungswelt, während der umgekehrte Vorgang der spontanen Ausbildung von Druckunterschieden, wie das ganz selbstständige Aufpumpen eines Fahrradreifens, noch niemals registriert worden ist. Die gleiche Gerichtetheit findet sich auch beim Angleichen verschiedener Temperaturen. Bei einem Stab, dessen Enden unterschiedliche Temperaturen besitzen, verschwindet diese Differenz mit der Zeit; eine spontane Entstehung von Temperaturdifferenzen konnte dagegen nie festgestellt werden. Endlich zerspringen fallende Vasen am Boden in tausend Stücke und setzen sich nicht spontan im Flug zusammen. Insgesamt gibt es also in der Natur eine Klasse von Vorgängen, die allem Anschein nach in nur einer Richtung ablaufen. Bei diesen mit einer Vorzugsrichtung ausgestatteten Prozessen handelt es sich insbesondere um den Ausgleich von Konzentrations- und Temperaturunterschieden. Physikalische Systeme, die anfangs solche Unterschiede aufweisen, bewegen sich ohne weiteren Eingriff auf den Zustand der homogenen Verteilung oder des thermischen Gleichgewichts zu. Die zeitliche Umkehrung tritt nicht auf, es handelt sich aller Erfahrung nach um irreversible Prozesse. Vorgänge dieser Art werden durch den so genannten Zweiten Hauptsatz der Thermodynamik beschrieben.

72

2. Sein und Werden

2.2.1 Der Zweite Hauptsatz der Thermodynamik Der Zweite Hauptsatz wurde zunächst nur auf die Umwandlung von Wärme in mechanische Arbeit bezogen und gewann erst später breitere naturphilosophische Bedeutung. Umwandlungen dieser Art finden in Wärmekraftmaschinen statt und unterliegen Begrenzungen, die aus der Einsinnigkeit des Wärmeflusses von warmen zu kalten Körpern stammen. Diese drücken sich in einer prinzipiellen, von allen praktischen Schwierigkeiten unabhängigen Beschränkung des Wirkungsgrads aus. Bei einer Wärmekraftmaschine wie einer Dampfmaschine oder einem Dieselmotor dehnt sich ein heißes Gas in einem Zylinder aus und setzt dadurch einen Kolben in Bewegung (wie in einem frühen Entwurf einer solchen Maschine erkennbar). Dabei kühlt sich das Gas ab, so dass insgesamt Temperaturunterschiede in mechanische Arbeit umgesetzt werden. Sadi Carnot (1796–1832) hatte 1821 gezeigt, dass der Wirkungsgrad solcher Maschinen durch die Temperaturdifferenz des Arbeitsmediums begrenzt ist. William Thomson (1824–1907), der später geadelte Lord Kelvin, versuchte 1852, diese Begrenzung durch die Annahme zu erklären, Wärme besitze eine Tendenz zur beständigen Ausbreitung oder Dissipation. Wärme kann deshalb nicht vollständig in Bewegung umgewandelt werden, weil diese Umwandlung stets von der nutzlosen Zerstreuung eines gewissen Anteils der eingesetzten Wärme begleitet ist. Zum Beispiel geht bei der Bewegung eines Kolbens durch Expansion des Gases Energie auch durch die Seitenwände des Zylinders verloren. Die Folge ist, dass sich Temperaturunterschiede fortwährend einebnen, so dass es schließlich keine Temperaturdifferenzen mehr gibt, die noch mechanische Wirkungen erzeugen könnten. Durch die Energieumwandlung sinkt der Anteil weiterhin umwandelbarer Energie beständig ab. Insgesamt findet ein anhaltender Übergang von nutzbarer in unwiederbringlich verlorene Energie statt, und am Ende dieses Prozesses steht das thermische Gleichgewicht. Bereits 1850 hatte Rudolf Clausius (1822–1883) einen ähnlichen Gedanken verfolgt und nach einem Maß für die Irreversibilität von Prozessen gesucht. Zu diesem Zweck führte er 1854 den Begriff der Entropie ein, abgeleitet vom griechischen „entrepein“ – umkehren, welcher die Unterscheidung zwischen weiterhin umwandelbarer und folglich wertvoller Energie auf der einen Seite und für Energieumwandlungen nicht mehr verwendbarer und insofern wertloser Energie auf der anderen Seite ausdrücken sollte. Physikalisch

2.2 Irreversibilität und statistische Mechanik

73

wird die Entropie S durch das Verhältnis der Wärmemenge ΔQ, die in das System eintritt oder dieses verlässt, und seine Temperatur T definiert: Für die Entropieänderung gilt: ΔS = ΔQ/T. Der Zweite Hauptsatz besagt dann, dass bei abgeschlossenen Systemen die Entropie niemals abnimmt, also entweder zunimmt oder im Grenzfall unverändert bleibt: dS/dt ≥ 0. Der Grenzfall gleich bleibender Entropie wird bei reversiblen Prozessen erreicht. Treten jedoch Wärmeverluste oder Reibungsvorgänge auf, so wird Entropie erzeugt und der entsprechende Prozess ist irreversibel. Der Zusammenhang zwischen Wärmedissipation und Entropiezunahme wird bei Betrachtung eines Wärmestroms von einem heißen auf einen kalten Körper deutlich. Die zugehörigen Änderungen der Entropie sind durch den Quotienten aus der übertragenen Wärmemenge und den jeweiligen Temperaturen bestimmt. Die vom heißen Körper abgegebene Wärmemenge möge mit der vom kalten Körper aufgenommenen Wärmemenge übereinstimmen. Wegen der höheren Temperatur ist gleichwohl die beim heißen Körper auftretende Entropieabnahme geringer als die entsprechende Entropiezunahme des kalten Körpers. Insgesamt ist durch den Wärmestrom also Entropie erzeugt worden. Deshalb haben thermische Ausgleichsprozesse eine Entropieerhöhung zur Folge und sind unumkehrbar oder irreversibel. Der Zweite Hauptsatz gilt in Strenge nur für abgeschlossene Systeme. Es ist durchaus möglich, durch äußere Eingriffe die Entropie eines Systems zu vermindern, wenn man dafür an anderer Stelle mit einer Entropiezunahme bezahlt. Zum Beispiel erzeugt ein Kühlschrank eine Temperaturdifferenz zwischen Innenraum und Umgebung und senkt entsprechend die Entropie ab, wofür man jedoch beim Antriebsaggregat einen Entropiezuwachs in Kauf nehmen muss. Der Zweite Hauptsatz schließt also entropievermindernde Vorgänge in abgeschlossenen Systemen aus und führt entsprechend eine naturgesetzliche oder nomologische Anisotropie in das Naturgeschehen ein. Alle Vorgänge, die mit einer Änderung der Entropie verbunden sind, laufen nur in eine Richtung ab und sind irreversibel. Der zweite Hauptsatz erlaubt folglich eine allgemeine Auszeichnung der Zeitrichtung: Wenn ein abgeschlossenes System zu verschiedenen Zeiten unterschiedliche Entropiewerte besitzt, dann ist der Zeitpunkt mit dem höheren Entropiewert der spätere. Unterschiedliche Entropiewerte sind unabhängig von der Zeitfolge ermittelbar. Bei der kausalen Theorie hatte die Schwierigkeit

74

2. Sein und Werden

gerade darin bestanden, dass man Wirkungen ohne Rückgriff auf die Zeitfolge schwer von Ursachen unterscheiden kann (s.o. 1.1, 1.5.1). Dies ist bei der Entropie anders; die entropiegestützte Unterscheidung früherer und späterer Zustände ist daher ohne Lücke und Zirkel möglich. Daher scheint eine sachhaltige Grundlegung der Anisotropie der Zeit greifbar nahe: „später“ und „früher“ können durch ein Naturgesetz voneinander unterschieden werden. Für Clausius bringt der Zweite Hauptsatz zum Ausdruck, dass die Entropie der Welt einem Maximum zustrebt. Die Entwicklung des Universums ist damit durch Verringerung von Temperaturunterschieden und die Zunahme von thermischen Gleichgewichtszuständen geprägt. Aus diesem Szenarium hatte bereits Hermann von Helmholtz 1854 den Schluss gezogen, dass das Universum schließlich in einen Endzustand mit überall gleicher Temperatur übergehen müsse, in dem keine Bewegung mehr erzeugt wird. „Dann ist jede Möglichkeit einer weiteren Veränderung erschöpft; dann muss vollständiger Stillstand aller Naturprozesse von jeder nur möglichen Art eintreten. [...] Kurz das Weltall wird von da an zu ewiger Ruhe verurtheilt sein“ (Helmholtz 1854, 67). Allerdings bezieht sich diese Ruhe nur auf thermisch erzeugte Bewegungen; hingegen sollten sich die leblosen Planeten weiterhin um ihre erkalteten Zentralgestirne drehen. Clausius bezeichnete diesen finalen Ruhezustand als „Wärmetod“ und betrachtete den Zweiten Hauptsatz als Widerlegung der Vorstellung von Entwicklungszyklen im Universum. Die auf den Zweiten Hauptsatz gegründete temporale Asymmetrie änderte die Einstellung zum Wandel in der Natur. Seit der Antike herrschte vielfach die Vorstellung vor, im Naturlauf „gehe nichts verloren“. Der Zweite Hauptsatz zeigte demgegenüber, dass durchaus etwas verloren geht. Durch die anhaltende Energiezerstreuung nimmt der Anteil nutzbarer Energie beständig ab. Die traditionelle Vorstellung eines Kreislaufs von Werden und Vergehen wurde durch die Annahme einer gerichteten Entwicklung ersetzt. Die Zukunft ist von der Vergangenheit dadurch verschieden, dass die Welt entropisch gleichsam immer tiefer in die roten Zahlen gerät. Am Schluss wird ihr Schicksal durch den Konkursrichter des Wärmetods besiegelt.

2.2 Irreversibilität und statistische Mechanik

75

2.2.2 Boltzmanns mechanische Begründung des Zweiten Hauptsatzes Allerdings hat sich durch den Einbezug thermischer Phänomene die erwähnte begriffliche Spannung eher noch vergrößert. Nach der kinetischen Wärmetheorie ist Wärme nichts anderes als molekulare Bewegung. So kann die Temperatur eines Gases durch die mittlere kinetische Energie der betreffenden Moleküle ausgedrückt werden. Dann aber sollten die mikroskopischen Prozesse, die thermischen Phänomenen zugrunde liegen, von den zeitumkehrbaren Gesetzen der Mechanik oder Quantenmechanik beschrieben werden. Dagegen steht mit dem Zweiten Hauptsatz ein temporal anisotropes Naturgesetz, das irreversible Prozesse beschreibt. Es kann aber nicht sein, dass die Makroprozesse andersartige Charakteristika des Zeitverhaltens zeigen als die Mikroprozesse, aus denen sie gebildet sind. Wenn die kinetische Wärmetheorie zutrifft, kann der Zweite Hauptsatz nicht richtig sein.

Ludwig Boltzmann

Zu den bahnbrechenden Leistungen Ludwig Boltzmanns (1844–1906) gehört die Einbettung des Zweiten Hauptsatzes in die Mechanik und die kinetische Wärmetheorie, die allerdings dessen Uminterpretation verlangte. Boltzmanns Werk ist von epochemachender Bedeutung und bis zum heutigen Tag Teil der einschlägigen naturphilosophischen Diskussion. Allerdings gelang Boltzmann dieser Durchbruch erst nach einem fehlgehenden ersten Schritt. Ich schildere kurz Boltzmanns ersten Versuch einer Rückführung des

76

2. Sein und Werden

Zweiten Hauptsatzes auf die Mechanik, stelle dann die zentralen Einwände vor und entwickle anschließend Boltzmanns fortgeschrittene Interpretation. Der Zweite Hauptsatz beschreibt die Entwicklung eines physikalischen Systems hin zu einem Gleichgewichtszustand, in dem Konzentrations- oder Temperaturunterschiede ausgeglichen sind. Für diesen Zustand des thermischen Gleichgewichts hatte James C. Maxwell (1831–1879) im Jahre 1867 auf der Grundlage der klassischen Mechanik und unter Zuhilfenahme einer Reihe von Gleichverteilungsannahmen eine stationäre Geschwindigkeitsverteilung für die Moleküle eines Gases hergeleitet. Dabei besitzen zwar die einzelnen Gasmoleküle ganz verschiedene Geschwindigkeiten oder kinetische Energien und ändern diese überdies durch Stöße fortwährend, aber der Mittelwert und die Anteile von Molekülen, die bestimmte über- oder unterdurchschnittliche Geschwindigkeiten besitzen, bleibt gleich.

Figur 3: Die Maxwellsche Geschwindigkeitsverteilung für Moleküle in der Luft bei unterschiedlichen Temperaturen (Gerthsen, Kneser & Vogel 1974, 230; © Springer, Abdruck mit freundlicher Genehmigung)

Für die Behandlung des Zweiten Hauptsatzes in diesem Rahmen zielte Boltzmann auf die zeitliche Veränderung der Werte der mechanischen Größen der Moleküle (also ihrer kinetischen Energien oder Impulse). Ihm gelang 1872 der Nachweis, dass sich die Annahme des thermischen Gleichgewichts auf der molekularen Ebene als Übergang zur Maxwellschen Geschwindigkeitsverteilung darstellt. Man geht also von einer bestimmten molekularen Geschwindigkeitsverteilung aus und leitet ab, dass sich diese durch molekulare Kollisionen im Gas in eine Maxwellsche Verteilung umwandelt.

2.2 Irreversibilität und statistische Mechanik

77

Grundlage dieser Ableitung war der sog. „Boltzmannsche Stoßzahlansatz“, der die Zahl der Zusammenstöße von Molekülen in einem Volumenelement abschätzt. Boltzmanns Grundgedanke bestand darin, dass die Häufigkeit der Stöße von Molekülen in einem bestimmten Geschwindigkeitsintervall umso größer ist, je mehr Moleküle dieser Geschwindigkeiten in dem betreffenden Volumenelement pro Zeiteinheit vorhanden sind. Die Kollision hat zur Folge, dass sich die Geschwindigkeit des betreffenden Moleküls ändert, dieses wird also aus dem betrachteten Geschwindigkeitsintervall herausgestoßen. Umgekehrt werden durch Kollisionen von Molekülen mit anderen Geschwindigkeitswerten auch Moleküle in das betrachtete Geschwindigkeitsintervall hineingestoßen. Deren Häufigkeit ist wiederum proportional zu der Zahl von Molekülen in jenem anderen Geschwindigkeitsintervall. Der Stoßzahlansatz beschreibt daher die Änderungen der Molekülgeschwindigkeiten im Gas durch eine Bilanzgleichung für Zweierstöße zwischen Molekülen. Er sieht im Groben vor, dass die Änderung der Molekülzahl in einem gegebenen Geschwindigkeitsintervall gleich ist der Differenz zwischen dem, was durch Stöße aus anderen Intervallen in dieses hineingestreut wird, und dem, was durch Stöße aus dem betrachteten Intervall herausfällt. Mit diesem Ansatz gelang Boltzmann der Nachweis, dass sich Geschwindigkeitsverteilungen, die von der Maxwellschen Verteilung abweichen, durch die Stoßprozesse zwischen den beteiligten Molekülen auf die Maxwellsche Verteilung zu bewegen und diese schließlich annehmen. Der molekulare Zustand eines Gases nähert sich damit einem Zustand an, der dem thermischen Gleichgewicht entspricht. Resultat ist also, dass die Anwendung der mechanischen Gesetze auf die Molekülbewegungen den einsinnigen Entropieanstieg zu liefern vermag und damit den Zweiten Hauptsatz begründet (Kuhn 1978, 39-42; Hoyer 1980, 50-54; Uffink 2004, sec. 2).

Umkehr- und Wiederkehreinwand Allerdings enthält diese Argumentation eine logische Lücke, auf die Josef Loschmidt (1821–1895) 1876 mit dem sog. Umkehreinwand aufmerksam machte. Loschmidt wies darauf hin, dass Boltzmanns Ableitung von mechanischen Stoßprozessen ausgeht, die als solche reversibel sind. Boltzmanns Resultat beinhaltet jedoch eine irre-

78

2. Sein und Werden

versible Änderung der Geschwindigkeitsverteilung und damit der Geschwindigkeiten der Moleküle. Diese Geschwindigkeiten ändern sich einsinnig auf solche Weise, dass am Ende die Maxwellsche Verteilung angenommen wird. Dies, so Loschmidt, kann jedoch nicht sein. Geschwindigkeiten sind umkehrbar; entsprechend muss für jede Geschwindigkeit deren zeitliche Umkehrung und damit die Bewegung in die entgegengesetzte Richtung in gleicher Weise möglich sein. Diese Umkehrbarkeit der Molekülgeschwindigkeiten schließt es jedoch aus, auf der Grundlage der Mechanik eine gerichtete Entwicklung der Verteilung dieser Geschwindigkeit abzuleiten. In die gleiche Richtung zielt ein allerdings erst 1890 von Poincaré erhobener Einwand, der 1896 von Ernst Zermelo (1871–1953) gegen Boltzmann gewendet wurde. Poincaré hatte bewiesen, dass jedes durch die Gesetze der Mechanik beschriebene System auf lange Sicht beliebig nahe an seinen Ausgangszustand zurückkehrt. Nach diesem Wiederkehreinwand nimmt also jedes mechanische System jeden seiner Zustände nach einer gewissen Zeit erneut an (oder kommt ihm beliebig nahe), was offenbar mit einer einsinnigen Zeitentwicklung unverträglich ist. Während der Umkehreinwand die Möglichkeit der Rückkehr in den Ausgangszustand aufzeigt, zielt der Wiederkehreinwand weiter gehend darauf ab, dass der Ausgangszustand früher oder später auf jeden Fall wieder angenommen wird. Beide Einwände laufen darauf hinaus, dass auf der exklusiven Grundlage reversibler Fundamentalprozesse keine irreversiblen Geschehensverläufe abgeleitet werden können.

Der Zweite Hauptsatz als probabilistisches Gesetz Boltzmann reagierte auf den Umkehreinwand im Jahre 1877 mit einer Anpassung von Grundlage und Deutung des Zweiten Hauptsatzes. Zwar hatte schon Maxwell bei der Ableitung der Geschwindigkeitsverteilung Wahrscheinlichkeiten ins Spiel gebracht, was auch bei Boltzmann Berücksichtigung gefunden hatte, aber erst die Umorientierung des Arguments unter dem Druck der Kritik lässt Boltzmann den Zweiten Hauptsatz als probabilistisches Gesetz auffassen. Es sind die Systemzustände selbst, also die Entropiewerte eines Gases, sowie ihre Zeitentwicklung, die jetzt zum Gegenstand von Wahrscheinlichkeitsbetrachtungen werden. Dadurch vollzieht Boltzmann den Übergang von der kinetischen Wärmetheorie zur

2.2 Irreversibilität und statistische Mechanik

79

statistischen Mechanik. Kernpunkt dieser Wendung ist Boltzmanns Permutationsargument. Der Zustand eines Gases kann durch die Orte und Impulse der zugehörigen Moleküle angegeben werden. Jedes Molekül ist also durch drei Ortskoordinaten und drei Impulswerte zu jedem Zeitpunkt vollständig charakterisiert. Die Moleküle eines Gases können entsprechend durch eine Punktwolke in diesem sechsdimensionalen Orts-Impuls-Raum repräsentiert werden.3 Damit Wahrscheinlichkeitsüberlegungen anwendbar werden, muss die Anzahl von Molekülen mit bestimmten Eigenschaften der Betrachtung zugänglich gemacht werden, und dies verlangt Intervalle endlicher Ausdehnung. Ginge man von präzisen Orts-Impuls-Werten aus, so würden diese meistens von keinem und gelegentlich von einem Molekül tatsächlich angenommen. Damit lässt sich keine Statistik treiben. Entsprechend führt Boltzmann eine Grobkörnung in den Orts-Impuls-Raum ein und teilt diesen in fiktive Zellen endlicher, gleicher Ausdehnung. Jeder dieser Zellen entspricht also ein kleiner Bereich von Orts- und Impulswerten. Auf dieser Grundlage kann man den Zellen auch ein Intervall der kinetischen Energie zuordnen. Der Mikrozustand des Gases ist dadurch bestimmt, dass für jedes einzelne Molekül festgelegt ist, in welcher der Zellen es sich befindet. Der Makrozustand des Gases ist aber nur davon abhängig, wie viele Moleküle in den einzelnen Zellen enthalten sind. Für den Makrozustand ist nur die Zustandsverteilung von Belang; es hat keinerlei fassbare Auswirkungen, wenn zwei Moleküle ihre Koordinaten und Impulswerte miteinander vertauschen. Die Maxwellsche Geschwindigkeitsverteilung ist eine Zustandsverteilung. Sie gibt den Anteil von Molekülen mit den zugehörigen Geschwindigkeitskomponenten an und lässt unbestimmt, welche Moleküle welche Geschwindigkeiten besitzen. Jede solche Zustandsverteilung lässt sich durch eine Mehrzahl von Mikrozuständen realisieren. Jeder dieser Mikrozustände unterscheidet sich von einem anderen dadurch, welche Moleküle im Einzelnen in den betreffenden Energieintervallen angesiedelt sind. Dies wird anhand eines radikal vereinfachten Beispiels deutlich. Ein Gas möge aus drei Molekülen bestehen und eine Energie von drei Einheiten besitzen. Der zugehörige Orts-Impuls-Raum werde dann in vier Zellen mit den Energiebereichen 0, 1, 2, 3 unterteilt. Diese drei Energieeinheiten können auf mehrfache Weise auf die Zellen verteilt werden.

80

2. Sein und Werden

Im Einzelnen sind drei Zustandsverteilungen zu unterscheiden. Im ersten Fall ist die gesamte Energie auf ein einziges Molekül konzentriert. Dieser Fall kann durch drei Mikrozustände realisiert sein: 003, 030, 300. Im zweiten Fall besitzt ein Molekül zwei Energieeinheiten, eines besitzt eine Einheit und eines keine. Hierfür ergeben sich sechs Realisierungsoptionen: 012, 120, 201, 021, 210, 102. Im dritten Fall ist die Energie gleichmäßig auf alle Moleküle verteilt, was durch nur einen Mikrozustand umgesetzt werden kann: 111. Dieses Permutationsargument lässt sich auch in allgemeiner, also realistischerer Form durchführen und führt auf das Ergebnis, dass sich die Anzahl der mikroskopischen Realisierungsmöglichkeiten für die Zustandsverteilungen stark unterscheidet. Nimmt man weiterhin molekulare Unordnung an, geht also davon aus, dass alle Mikrozustände mit gleicher Wahrscheinlichkeit eintreten, dann kommt den Zustandsverteilungen oder Makrozuständen eine je nach Anzahl der Realisierungsoptionen unterschiedliche Eintretenswahrscheinlichkeit zu. Angenommen, es liegt ein unwahrscheinlicher Zustand vor. Wenn sich dieser Zustand durch die anhaltenden molekularen Kollisionen ändert, dann sind die meisten verfügbaren Mikrozustände solche, die Makrozuständen höherer Wahrscheinlichkeit zugeordnet sind. Der Grund ist, dass es eine größere Zahl von Mikrozuständen der letztgenannten Art gibt. Ein unwahrscheinlicher Makrozustand wird sich daher wahrscheinlich auf einen wahrscheinlicheren Makrozustand hin bewegen. Boltzmann drückt die Eintretenswahrscheinlichkeit W eines Zustands über die Zahl der Permutationsmöglichkeiten aus und deutet sie als Maß der Entropie: S = k logW (mit der BoltzmannKonstanten k).4 Diese berühmteste Gleichung Boltzmanns (die heute sein Grab auf dem Wiener Zentralfriedhof schmückt) ist dann nicht allein dadurch gerechtfertigt, dass sich dann der Anstieg der Entropie als das Fortschreiten von unwahrscheinlichen zu wahrscheinlichen Zuständen ergibt, sondern auch dadurch, dass dann der Zustand maximaler Entropie derjenige ist, in der die Maxwellsche Geschwindigkeitsverteilung vorliegt, also der Zustand des thermischen Gleichgewichts. Der Zweite Hauptsatz wird dadurch zu einem probabilistischen Naturgesetz, das wahrscheinliche Entwicklungen vorzeichnet, aber Ausnahmen zulässt. Dabei hat sich die Identifikation unwahrscheinlicher Zustände mit geordneten Zuständen durchgesetzt. Bei einem geordneten Zustand ist etwa die Energie auf alle Molekü-

2.2 Irreversibilität und statistische Mechanik

81

le gleichmäßig verteilt (entsprechend dem Zustand „111“ im Beispiel) oder auf wenige Moleküle konzentriert (entsprechend dem Zustand „003“ im Beispiel). In dieser Interpretation ist die Aussage des Zweiten Hauptsatzes, dass ein stärker geordneter Zustand im Mittel in einen weniger geordneten übergeht. Dadurch wird nicht ausgeschlossen, dass im Einzelfall ein geordneter Zustand spontan aus einem ungeordneten entsteht. Der probabilistische Zweite Hauptsatz lässt es zu, dass sich in einem Glas Orangensaft von Zimmertemperatur ohne äußere Eingriffe ein Eiswürfel bildet (unter Temperaturzunahme des übrigen Safts). Allerdings ist die Eintretenswahrscheinlichkeit solcher Ausnahmen extrem gering; mit ihnen ist erst nach Zeiträumen zu rechnen, gegen die das Alter des Universums vernachlässigt werden kann. In diesem Sinne wies Boltzmann Loschmidt-Umkehr und Poincaré-Wiederkehr mit dem Argument zurück, diese stellten lediglich abstrakte Möglichkeiten dar, seien jedoch faktisch ohne Belang (Reichenbach 1956, 49-55, 108-117; Grünbaum 1973, 236-244; Kuhn 1978, 38–54; Hoyer 1980, 50-57).

Wärmetod, Evolution und Zweiter Hauptsatz Zwei weiter gehende Konsequenzen der von Boltzmann vertretenen probabilistischen Deutung des Zweiten Hauptsatzes verdienen Beachtung. Die erste ist kosmologischer Natur und betrifft die Erwartung des finalen Wärmetods des Universums als Folge fortwährender Ausgleichsprozesse unter dem Diktat des Zweiten Hauptsatzes (s.o. 2.2.1). Unter dem Eindruck der probabilistischen Abschwächung dieses Satzes wurde es im späten 19. Jahrhundert vermehrt für möglich gehalten, dass gelegentlich spontane Entropieverminderungen auftreten, unter deren Wirkung das Universum letztlich dem Schicksal des Wärmetods entgehen könne. Boltzmann selbst ging davon aus, dass sich das Universum insgesamt im Zustand des thermischen Gleichgewichts befindet und dass daher der Wärmetod in diesem Sinne bereits eingetreten ist. Jedoch treten aufgrund des statistischen Charakters der einschlägigen Größen fortwährend Zufallsschwankungen auf, und Boltzmann vermutete, dass der in der kosmischen Nachbarschaft der Erde vorliegende vergleichsweise niedrige Entropiewert auf eine solche lokale, zufällige Fluktuation zurückging. Wegen dieser Möglichkeit lokaler

82

2. Sein und Werden

Schwankungen können auch im Zustand des universalen Wärmetods Bereiche erhöhter Ordnung in Erscheinung treten. Der Wärmetod verliert seine schicksalhafte Finalität. Auf einer noch grundlegenderen Ebene wurde von Poincaré gegen die Stichhaltigkeit der Annahme des Wärmetods argumentiert. Poincaré griff dafür auf sein erwähntes „Wiederkehrtheorem“ zurück, demzufolge jedes begrenzte mechanische System seinen Anfangszustand näherungsweise wieder annimmt – wenn auch möglicherweise erst nach sehr langer Zeit. Ein anhaltender Wärmetod ist danach offenbar ausgeschlossen; irgendwann muss sich das Universum endlich dem gegenwärtigen Zustand erneut nähern. Der Wärmetod kann daher nur vorübergehend sein; es muss sich um einen Scheintod handeln, dem irgendwann die Wiedererweckung folgt. Poincarés Wiederkehrtheorem beinhaltete daher der Sache nach die Zurückweisung einer einsinnigen und irreversiblen Entwicklung des Universums, wie sie durch die ursprüngliche Fassung des Zweiten Hauptsatzes nahegelegt worden war. Entsprechend fand um die Wende zum 20. Jahrhundert die Position einer „zyklischen Geschichte des Kosmos“ erneut Verbreitung. Zu deren wichtigsten Vertretern zählten Herbert Spencer und Svante Arrhenius. Spencer fasste das Universum als einen unablässig ablaufenden Mechanismus auf, der sich in einer niemals endenden Reihe von Zyklen „von Nebel zu Nebel“ entwickelt. Literarischen Ausdruck fand diese Vorstellung der „ewigen Wiederkehr der Gleichen“ insbesondere bei Friedrich Nietzsche. Im Zarathustra wendet sich Nietzsche mit dieser Vorstellung gegen den Glauben an einen übergeordneten Sinn des Lebens und ein Ziel der Geschichte. Das Universum befindet sich in kreisförmiger Bewegung; es hat sich bereits unendlich viele Male wiederholt und wird sein Spiel in alle Ewigkeit weitertreiben. Der Geschichte wohnt nicht von selbst der Fortschritt inne, der Mensch ist es, der mit seinem schaffenden Willen Neues herbeiführt und Götter und Sinn erzeugt (Čapek 1961, 126-127). Die durch die gegenwärtige Kosmologie nahegelegte Entwicklung des Universums sieht eine anhaltende Expansion unter ständiger Beschleunigung vor bis schließlich ein maximal ungeordneter Zustand erreicht ist. Dieser Zustand repräsentiert entsprechend die moderne Fassung des Wärmetods. Lange Jahrzehnte war dagegen die alternative Option einer zyklischen Oszillation des Universums in der Diskussion gewesen, derzufolge auf die Expansion des Universums seine Kontraktion gefolgt wäre, so dass es in ferner Zukunft gleichsam eine Verjüngung und einen neuen Anfang erlebt

2.2 Irreversibilität und statistische Mechanik

83

hätte. Durch die Entdeckung der Beschleunigung der kosmischen Expansionsbewegung Ende des 20. Jahrhunderts scheint diese Option allerdings aus dem Spiel. Der zweite Gesichtspunkt betrifft die Beziehung zwischen dem probabilistisch interpretierten Zweiten Hauptsatz und der biologischen Evolution. Diese beinhaltet nämlich den Aufbau geordneter Strukturen. Lebewesen stellen gerade keine ungeordnete Ansammlung beliebiger Komponenten dar. Man kann bei ihnen nicht einfach irgendwelche Substanzen vertauschen oder deren Konzentrationen ändern. Folglich sind die molekularen Realisierungsoptionen für ein funktionierendes Lebewesen geringer als für eine willkürliche Ansammlung der gleichen Stoffe in einem Tümpel der berühmten „Ursuppe“. Die Entstehung von Leben und die Entwicklung der Arten senkt daher die Entropie ab. Dieser Befund ist gelegentlich als Widerspruch zwischen der Evolutionstheorie und dem Zweiten Hauptsatz gedeutet worden. Danach können Darwin und Boltzmann nicht beide recht haben. Tatsächlich besteht jedoch durchaus Einklang. Es ist nur zu berücksichtigen, dass Lebewesen keine abgeschlossenen Systeme sind. Die spontane Entstehung von Ordnung wird durch den probabilistischen Zweiten Hauptsatz lediglich in abgeschlossenen Systemen zu einem unwahrscheinlichen Ereignis. Hingegen sind lokale Entropieabsenkungen mit dem Zweiten Hauptsatz dann verträglich, wenn diese auf einem äußeren Eingriff in das System beruhen und wenn für diesen Eingriff an anderer Stelle mit vermehrter Unordnung bezahlt wird (s.o. 2.2.1). Lebewesen führen (wie Kühlschränke) einen beständigen Kampf gegen den Zweiten Hauptsatz und erhalten ihren Ordnungszustand durch Steigerung der Entropie ihrer Umgebung. So nehmen Lebewesen Nahrung in Form von komplex strukturierten und damit geordneten Makromolekülen auf und geben die gewonnene Energie zum Teil in Form von Wärme (also mit hoher Entropie) an die Umgebung ab. Dabei werden die Makromoleküle in kleine Moleküle verringerten Ordnungsgrads wie Kohlendioxid zerlegt. Dies hat eine Entropiezunahme in der Umgebung zur Folge, so dass die entropischen Kosten beglichen werden. Der Nachschub an niedriger Entropie stammt also letztlich aus den Pflanzen, die diesen ihrerseits der Photosynthese verdanken. Die Photosynthese beinhaltet eine enorme Entropieabsenkung und beruht ihrerseits auf der Lichteinstrahlung durch die Sonne. Die Sonne versorgt uns mit Energie niedriger Entropie: vergleichs-

84

2. Sein und Werden

weise wenige, hochenergetische Photonen (die entsprechend einen großen Temperaturunterschied zur Umgebung repräsentieren), gerichtet eingestrahlt, werden in diffuse Wärmeabstrahlung umgewandelt, also in eine vergleichsweise hohe Zahl niederenergetischer, ungerichteter Photonen. Dieser Prozess beinhaltet also eine Abnahme von Temperaturdifferenzen und von Gerichtetheit, und beides läuft auf eine Entropiezunahme hinaus. Der Ordnungszustand der Umgebung nimmt also ab, und dadurch wird die thermodynamische Rechnung der Stabilität von Lebewesen bezahlt. Deshalb stehen die Entstehung und Existenz von Lebewesen mit dem Zweiten Hauptsatz im Einklang (Eddington 1935, 464-465; Penrose 1989, 312-313).

2.2.3 Der Maxwellsche Dämon Ich stelle zunächst die Fruchtbarkeit der Boltzmannschen Interpretation der Entropie als Maß für die Unordnung eines Systems anhand der auf seiner Grundlage zustande gebrachten Lösung eines berühmten Paradoxons dar, nämlich des Maxwellschen Dämons. Damit wird ein 1871 von Maxwell beschriebenes Gedankenexperiment bezeichnet, das eine scheinbare Verletzung des Zweiten Hauptsatzes beinhaltet. Dazu stellt man sich zwei Kammern vor, die beide mit Gas gefüllt und durch eine Schiebetür voneinander getrennt sind. Das Gas in beiden Kammern besitzt die gleiche Temperatur; es liegt also thermisches Gleichgewicht vor. In diesem Zustand besitzen die Moleküle die Maxwellsche Geschwindigkeitsverteilung, derzufolge bei einer gegebenen Temperatur einige Moleküle langsamer und andere schneller sind als die der Temperatur entsprechende mittlere Geschwindigkeit (s.o. 2.2.2). Maxwell stellt sich an der Verbindungstür zwischen beiden Kammern ein Wesen vor, „dessen Sinne so geschärft sind, dass es jedem Molekül auf seiner Bahn folgen kann“ (Maxwell, zit. nach Bennett 1988, 48). Dieser Dämon öffnet die Verbindungstür genau in dem Augenblick, in dem sich ein schnelles Molekül aus der, sagen wir, linken Kammer auf die Öffnung zubewegt; ebenso öffnet er die Tür, wenn sich ein langsames Molekül aus der rechten Kammer der Öffnung nähert. Durch geeignetes Öffnen der Verbindungstür kann der Dämon erreichen, dass in der rechten Kammer die schnellen Moleküle, in der linken dagegen die langsamen Moleküle

2.2 Irreversibilität und statistische Mechanik

85

mit größerer Häufigkeit vertreten sind. Dies wiederum ist gleichbedeutend damit, dass ein Temperaturunterschied zwischen beiden Kammern auftritt. Zudem kann der für die Betätigung des Schließmechanismus erforderliche Energieaufwand im Grundsatz beliebig klein gehalten werden. Vor allen Dingen handelt es sich aber um einen mechanischen Prozess, der bei reibungsfreier Umsetzung im Prinzip reversibel ist, also die Entropie nicht erhöht.

Figur 4: Der Maxwellsche Dämon (vgl. Bennett 1988, 50)

Durch diese dämonische Konstruktion wird aus dem anfänglichen thermischen Gleichgewicht eine Temperaturdifferenz erzeugt. Dieser Prozess ist mit einer Entropieabsenkung verbunden und läuft daher dem Zweiten Hauptsatz zuwider. Wenn also thermische Phänomene tatsächlich mechanischer Natur sind, dann kann der Zweite Hauptsatz nicht korrekt sein. Maxwell selbst hielt dabei durchaus an der Gültigkeit des Zweiten Hauptsatzes fest; es ging ihm nur um den Aufweis einer Schwierigkeit bei der Verbindung von Mechanik und Thermodynamik. Nun ist das Wirken eines Dämons immer ein vergleichsweise komplexes Unterfangen. Der Dämon muss über geeignete Sinnesorgane verfügen, er muss die von diesen bereitgestellten Werte angemessen verarbeiten und die Ergebnisse schließlich in die Betätigung eines Schiebers umsetzen. Jeder dieser Schritte ist in seiner Funktionsweise nicht klar durchschaubar und hinsichtlich seiner möglichen entropischen Folgen nicht klar abschätzbar. Die 1929 von Leo Szilard erdachte Variante des Maxwellschen Dämons ist dagegen mechanisch und thermodynamisch umfassend behandelbar und hat die einschlägige Diskussion in ein neues Stadium geführt. Diese Szilard-Maschine besteht aus einem Zylinder, der an beiden Enden durch reibungsfrei gelagerte, bewegliche Kolben verschlossen wird; in der Mitte des Zylinders ist eine bewegliche

86

2. Sein und Werden

Trennwand angebracht. In der Maschine befinde sich der Einfachheit halber nur ein einziges Molekül, das durch Einfahren der Trennwand in jeweils einer Hälfte des Zylinders eingefangen werden kann. Zusätzlich sei ein Beobachtungsgerät angeschlossen, mit dem feststellbar ist, in welcher der beiden Zylinderhälften sich das Molekül befindet.

Figur 5: Die Szilard-Maschine (Bennett 1988, 53; © Jerome Kohl).

Diese Maschine ist dem Anschein nach geeignet, Arbeit aus dem thermischen Gleichgewicht zu erzeugen, was eine Verletzung des Zweiten Hauptsatzes beinhaltet. Der entsprechende Kreisprozess hat die folgende Gestalt. Zunächst wird die Trennwand eingeführt; der dafür erforderliche Energieaufwand kann durch reibungsfreie Lagerung vernachlässigbar klein gemacht werden. In jedem Fall handelt es sich aber um einen mechanischen und damit im Prinzip reversiblen Prozess, der folglich keine Entropieerhöhung mit sich bringt. Anschließend wird beobachtet, ob sich das Molekül in der linken oder der rechten Hälfte befindet. Daraufhin wird der Kolben der leeren Hälfte bis zur Trennwand eingeschoben; wegen des fehlenden Gasdrucks ist dafür nur der vernachlässigbar kleine Reibungswiderstand zu überwinden. Wiederum handelt es sich um einen mechanischen Prozess ohne entropische Wirkungen. Nach dem Entfernen der Trennwand kann das Molekül mit dem eingeschobenen Kolben kollidieren; es übt folglich einen Druck auf die Innenseite des Kolbens aus. Durch die Wirkung dieses Drucks wird

2.2 Irreversibilität und statistische Mechanik

87

der Kolben in seine Ausgangsstellung zurückgeschoben. Durch die Energieübertragung auf den Kolben vermindert sich zwar die Geschwindigkeit des Moleküls; jedoch wird dieser Energieverlust durch den Wärmestrom aus der Umgebung des Zylinders wieder ausgeglichen, so dass die mittlere Geschwindigkeit tatsächlich erhalten bleibt. Bei hinreichend langsamer Ausführung treten deshalb keine Abweichungen vom thermischen Gleichgewicht auf. Auf diese Weise erreicht der Kolben wieder den Ausgangszustand, so dass insgesamt ein Kreisprozess ausgeführt worden ist, in dessen Verlauf thermische Energie der Umgebung in mechanische Arbeit des Kolbens umgewandelt worden ist. Dieser Kreisprozess setzt die thermische Energie eines einzigen Wärmereservoirs in mechanische Energie um und benötigt folglich keinen Temperaturunterschied. Vielmehr kann man die durch die Bewegung des Kolbens bereitgestellte mechanische Energie zum Betreiben eines Kühlschranks benutzen und entsprechend ohne Entropieerhöhung eine Temperaturdifferenz aus dem thermischen Gleichgewicht erzeugen. Zwar ist die Szilard-Maschine kein abgeschlossenes System; ihr Betrieb erfordert Energiezufuhr von außen. Wesentlich ist jedoch, dass diese äußeren Eingriffe die Entropie nicht zwangsläufig erhöhen. Die Szilard-Maschine ist gleichsam entropisch abgeschlossen. Daher führt ihr Betrieb insgesamt zu einer Entropieabsenkung und verletzt folglich den Zweiten Hauptsatz – es sei denn, es ließe sich im Ablauf des Prozesses ein entropiesteigernder Schritt identifizieren. Tatsächlich war Szilard der Auffassung, dass der Prozess der Beobachtung diesen entropiesteigernden Schritt darstelle. Beim Maxwellschen Dämon ebenso wie bei der Szilard-Maschine müssen Geschwindigkeit und Ort einzelner Moleküle ermittelt werden. Szilard postulierte, dass diese Beobachtung von irreversibler Natur sein müsse und dass dabei die Entropie um mindestens den Betrag ansteige, um den sie durch das dämonische Wirken oder den Betrieb der Szilard-Maschine abgesenkt wird. Dieser Ansatz wurde in der Folge von Leon Brillouin unter Heranziehen der Quantentheorie der Strahlung weiterverfolgt. Danach erfordert die Beobachtung von Molekülen die Streuung mindestens eines Photons an diesen. Die genauere Analyse dieses Streuungsprozesses zeigt, dass er mit einer Entropieerhöhung verbunden ist. Danach schien plausibel, dass diese Erhöhung die Entropieabsenkung durch die Szilard-Maschine mindestens kompensiert (Bennett 1988, 52-54; Zeh 2001, 72-74).

88

2. Sein und Werden

Inzwischen hat sich jedoch die Unhaltbarkeit dieser Argumentation gezeigt. Um die Position des Moleküls in der Szilard-Maschine zu bestimmen, ist nämlich eine buchstäbliche Beobachtung gar nicht erforderlich. Vielmehr kann man mit einer rein mechanischen, den „Druck“ in beiden Hälften ermittelnden Konstruktion bestimmen, in welcher Hälfte des Zylinders sich das Molekül aufhält. Diese mechanischen Prozesse werden aber als reibungsfrei und damit als reversibel unterstellt; sie sind folglich nicht mit Entropieerzeugung verknüpft. Es trifft demnach nicht zu, dass Beobachtungen zwangsläufig auf irreversible Prozesse zurückgreifen müssen. Nach der gegenwärtig dominierenden Auffassung ist es stattdessen der Akt des Registrierens oder Speicherns, der eine Erhöhung der Entropie beinhaltet und dessen thermodynamische Kosten durch das Löschen des betreffenden Speichers bezahlt werden müssen. Um nämlich aufgrund der Beobachtung eines Moleküls die geeigneten Maßnahmen einleiten zu können, muss registriert werden, ob sich das Molekül in der linken oder rechten Hälfte des Zylinders befindet. Das Register wird entsprechend vom Zustand „0“ bzw. „unbestimmt“ in den Zustand „L“ oder „R“ versetzt und anschließend die geeignete Kolbenbewegung eingeleitet. An dieser Stelle kommt die Interpretation der Entropie als Maß der Unordnung des betreffenden Systems zum Tragen. Vor dem Registrieren steht dem Register nur ein einziger Zustand zur Verfügung – nämlich „0“ –, nach dem Registrieren hingegen zwei – nämlich „L“ oder „R“. Durch das Registrieren erhöht sich also die Anzahl der Realisierungsmöglichkeiten des Registerzustands von eins auf zwei. Folglich geht das Register von einem geordneteren in einen weniger geordneten Zustand über. Das Registrieren senkt den Ordnungszustand ab, und dies entspricht einer Entropieerzeugung. Generell gesprochen befindet sich das Register anfangs in einem Zustand von „lauter Nullen“, nach Durchlaufen mehrerer Zyklen hingegen in einer von mehreren „L“ und „R“ gebildeten Zustandsverteilung. Für erstere gibt es nur eine einzige Realisierungsmöglichkeit, für letztere hingegen eine große Zahl. Der gleiche Anteil von „L“- und „R“-Werten kann sich durch eine unterschiedliche Verteilung entsprechender Einzelwerte ergeben. Die Registrierung erhöht daher die Zahl der Realisierungsoptionen und folglich die Entropie. Um die Maschine reversibel zu betreiben, muss der Ordnungszustand des Registers nach Durchlaufen eines Zyklus durch einen äußeren Eingriff wieder erhöht werden. Dies geschieht durch Löschen des Speichers, so dass an

2.2 Irreversibilität und statistische Mechanik

89

dieser Stelle die entropischen Kosten beglichen werden (Bennett 1988, 54-55; Zeh 2001, 74). Die verbreitete Erwartung ist, dass diese Argumentation auch auf die ursprüngliche Fassung des Maxwellschen Dämons Anwendung findet. Jedenfalls illustriert diese Erörterung die Fruchtbarkeit von Boltzmanns Interpretation der Entropie als Ausdruck von Unordnung.

2.2.4 Der Zweite Hauptsatz als Anthropomorphismus In seiner probabilistischen Deutung ergibt sich der Zweite Hauptsatz aus einer statistischen Betrachtung, die darauf fußt, dass der Orts-Impuls-Raum oder Energieraum in Zellen endlicher Größe eingeteilt wird. Eine solche Grobkörnung hat aber nichts mit der Wirklichkeit molekularer Kollisionen zu tun. Boltzmann suchte den Einfluss der anerkanntermaßen fiktiven Zellenteilung durch Grenzwertbildung, also durch den letztendlichen Übergang zu Zellen verschwindender Ausdehnung zu neutralisieren. Dies stellt jedoch keine sinnvolle Strategie dar, da in diesem Grenzfall das Permutationsargument und die zugehörige statistische Argumentation gerade nicht mehr tragfähig sind (s.o.). Die Grobkörnung bleibt Voraussetzung einer molekularen Interpretation der Entropie. Auf Josiah Willard Gibbs (1839–1903) geht die Behauptung zurück, die Einsinnigkeit des Entropieanstiegs sei eine Folge des gewählten statistischen Ansatzes und damit letztlich bloß ein Artefakt und Anthropomorphismus. Zur Stützung dieser These trug Gibbs 1901 das sog. Tintengleichnis vor. Wenn man einen Tropfen Tinte in ein Glas Wasser gibt, so erscheint das Wasser nach einiger Zeit gleichmäßig hellblau. Diese Durchmischung zeigt prima facie einen verringerten Ordnungszustand und entsprechend eine Entropiezunahme an. Hingegen verdeutlicht die Betrachtung auf der molekularen Ebene, dass in Wirklichkeit gar keine Homogenisierung eingetreten ist. Vielmehr hat sich die Tinte nur auf sehr viele Filamente oder dünne Fäden verteilt. Nur für unsere unzulänglichen Sinne liegt eine gleichmäßige Verteilung vor, während in Wahrheit alles genauso inhomogen und geordnet ist wie am Anfang. Bereiche maximaler Tintenkonzentration wechseln mit Bereichen verschwindender Konzentration. Gibbs schloss, dass die

90

2. Sein und Werden

Entropiezunahme eine bloße Illusion ist, der in der physikalischen Wirklichkeit nichts entspricht. Gibbs Argument bringt – ebenso wie Umkehr- und Wiederkehreinwand – eine konsequent molekulare Betrachtungsweise gegen Boltzmanns Grobkörnung zum Tragen. Das Permutationsargument setzt die Bildung von Zellen endlicher Größe voraus; für einen durch präzise molekulare Parameter charakterisierten Zustand gibt es keine unterschiedlichen molekularen Realisierungsoptionen. Boltzmanns Grobkörnung entspricht jedoch in der Sache nichts; ihre Einführung ist vielmehr der vergröbernden Betrachtung des Tintenglases aus der Entfernung zu vergleichen. In beiden Fällen werden faktisch bestehende Unterschiede vernachlässigt. Gibbs Vorwurf lautet also, dass der Entropieanstieg auf fiktiven Zellenteilungen des zugehörigen abstrakten Raums fußt, die letztlich bloßer Ausdruck der Unkenntnis der tatsächlich realisierten molekularen Zustände sind. Weil der Mensch zu diesen Zuständen keinen Zugang findet, beschränkt sich die Physik auf die statistische Beschreibung. Die Einsinnigkeit der Zeitentwicklung der Entropie ist eine Täuschung, die auf den Beschränkungen der Beobachtung beruht. Es versteht sich, dass die Stichhaltigkeit dieses Einwands jedweder Gründung der Anisotropie der Zeit auf den Zweiten Hauptsatz die Basis entziehen würde. Adolf Grünbaum (* 1923) hat jedoch 1973 gezeigt, dass der grobkörnige Entropieanstieg durchaus eine sachliche Grundlage besitzt. Danach ist zwar richtig, dass der Entropieanstieg nur bei Voraussetzung einer fiktiven Zellenteilung ableitbar ist. Dies beeinträchtigt – im Gegensatz zu Gibbs’ Behauptung – den Sachgehalt dieses Anstiegs jedoch deshalb nicht, weil die physikalisch relevanten Ergebnisse von der jeweils gewählten Zellenteilung unabhängig sind. Zwar werden einige einschlägige Eigenschaften von der Wahl der Zellenteilung beeinflusst, andere aber nicht, und diese von Partitionierung unabhängigen Resultate liefern eine hinreichende Grundlage für die Faktizität des grobkörnigen Entropieanstiegs. Ein einfaches Beispiel macht deutlich, dass der Entropiewert zunächst in der Tat von der gewählten Partition des Energieraums abhängig ist. Man betrachte den molekularen Zustand eines Systems aus n Teilchen, wobei der Energieraum in vier Zellen aufgeteilt sei (Viertelpartitionierung). Im Zustand 1 mögen sich in der ersten und dritten Zelle jeweils n/2 Teilchen befinden.

91

2.2 Irreversibilität und statistische Mechanik n/2

0

n/2

0

Zustand 1, Viertelpartitionierung

n/4

n/4

n/4

n/4

Zustand 2, Viertelpartitionierung

Figur 6a: Entropie und Grobkörnung

Ein von Zustand 1 verschiedener molekularer Zustand 2 bestehe in der Gleichverteilung der n Teilchen auf die vier Zellen. In jeder Zelle befinden sich entsprechend n/4 Teilchen. Eine andersartige Realisierung von Zustand 1 muss abwechselnd besetzte und unbesetzte Zellen enthalten; der Permutation von Mikrozuständen sind also Grenzen gesetzt. Hingegen führen bei Zustand 2 alle Permutation zu gleichen Makrozuständen. Auch ohne explizite Berechnung leuchtet also ein, dass der Ordnungsgrad von Zustand 1 höher ist als der Ordnungsgrad von Zustand 2. Bei Wahl einer Viertelpartionierung ist die Entropie von Zustand 1 also niedriger als die Entropie von Zustand 2. Man betrachte nun dieselben molekularen Zustände 1 und 2 bei einer Halbierungspartitionierung des Energieraums. Es werden also jeweils zwei Zellen zu einer zusammengefasst. n/2

n/2

Zustand 1, Halbierungspartitionierung

n/2

n/2

Zustand 2, Halbierungspartitionierung

Figur 6b: Entropie und Grobkörnung

Unter diesen Umständen befindet sich in jeder der beiden Zellen übereinstimmend jeweils die Hälfte der Teilchen. Folglich ist der Ordnungsgrad beider Zustände gleich. Bei Wahl der Halbierungspartitionierung stimmt die Entropie von Zustand 1 mit der Entropie von Zustand 2 überein. Resultat ist, dass Urteile über die Beziehung zwischen den grobkörnigen Entropien molekularer Zustände in der Tat von der Wahl der Partitionierung abhängen können. Bei einem Übergang von Zustand 1 zu Zustand 2 bleibt die grobkörnige Entropie bei Halbierungspartitionierung unverändert, während sie bei Viertelpartitionierung ansteigt. Insgesamt hängt sowohl das Auftreten als auch die Richtung einer Entropieänderung bei einem gegebenen molekularen Zustandsübergang von der Zellenteilung ab (Grünbaum 1973, 648-659).

92

2. Sein und Werden

Dieses Ergebnis verstärkt zunächst den Verdacht, dass Aussagen über die Zeitentwicklung der Entropie ein Artefakt der grobkörnigen Beschreibung sind. Gleichwohl trifft dieser Verdacht letztlich nicht zu. Es zeigt sich nämlich, dass der Mittelwert der Änderung der grobkörnigen Entropie in großen (aber endlichen) Ensembles abgeschlossener, gleichartiger Systeme von der gewählten Zellenteilung nicht beeinflusst wird. Man betrachtet ein Ensemble von Systemen, die in ihren Makro-Eigenschaften wie Druck und Temperatur übereinstimmen, auch wenn diese Eigenschaften auf der molekularen Ebene jeweils unterschiedlich realisiert sind. Aus der statistischen Fassung des Zweiten Hauptsatzes lässt sich dann folgern, dass für alle gewählten Partitionierungen die Zeitentwicklung der Mehrheit dieser molekularen Verteilungen übereinstimmt und dass in dieser Mehrheit die Entropie im Mittel ansteigt oder konstant bleibt. Zwar kann für einen gegebenen molekularen Zustand die Richtung der Änderung der grobkörnigen Entropie durchaus von der Zellenteilung abhängen. Jedoch ist sie für die (bei unterschiedlichen Partitionierungen jeweils unterschiedlich gebildete) Mehrheit des Ensembles von Systemen gleicher Makro-Eigenschaften von der Zellenteilung unabhängig. Folglich sind Aussagen über die Zunahme der Entropie bei Ensembles makroskopisch gleichartiger, aber molekular unterschiedlicher Systeme invariant gegen einen Wechsel der Partitionierung. Deshalb besitzen auch Verallgemeinerungen über grobkörnige Größen – trotz der fehlenden Sachhaltigkeit der Zellenteilung – Objektivität und Wirklichkeitsbezug. Gibbs’ Anthropomorphismus-These ist nicht stichhaltig.

2.2.5 Irreversibilität bei Nicht-Gleichgewichtssystemen Wenn damit die Faktizität des Entropieanstiegs sicher gestellt ist, dann sind die Bedingungen genauer zu umreißen, unter denen tatsächlich eine zeitliche Asymmetrie auftritt und als Grundlage der Anisotropie der Zeit angesehen werden kann. Dafür ist eine Betrachtung des typischen Zeitverlaufs der Entropie bei einem abgeschlossenen System im thermischen Gleichgewicht hilfreich. Die Entropiekurve schwankt zufällig um den Mittelwert; ihr zeitlicher Verlauf ist symmetrisch. Wenn sich das System in einem Zustand niedriger Entropie befindet, dann ist die Entropie wahrscheinlich zu einem späteren Zeitpunkt größer – und dieser Sach-

2.2 Irreversibilität und statistische Mechanik

93

verhalt wird durch Boltzmanns Ableitung des Zweiten Hauptsatzes wiedergegeben. Zugleich gilt aber auch, dass diesem Zustand niedriger Entropie ein Zustand höherer Entropie voranging. Der Zweite Hauptsatz besagt für das thermische Gleichgewicht, dass die Entropie wahrscheinlich im Mittel konstant bleibt. Der Zustand niedriger Entropie ist dann aus einer zufälligen Fluktuation entstanden, so dass nicht der Schluss gezogen werden kann, vorangehende Zustände besäßen eine noch niedrigere Entropie. Im thermischen Gleichgewicht besteht demnach offenbar keinerlei zeitliche Asymmetrie des Entropieverlaufs (Grünbaum 1973, 241-242; Penrose 1989, 308–309).

Figur 7: Typischer Entropieverlauf im thermischen Gleichgewicht

Daraus folgt zunächst, dass der Zweite Hauptsatz allein nicht geeignet ist, zwischen früheren und späteren Zuständen zu unterscheiden. Der Zweite Hauptsatz stellt entsprechend keine naturgesetzliche oder nomologische Grundlage für die Anisotropie der Zeit oder die Einsinnigkeit des Zeitlaufs bereit. Irreversibilität bekommt man erst dann in den Blick, wenn zusätzlich besondere Anfangs- und Randbedingungen hinzugezogen werden. Der Zweite Hauptsatz erlaubt nur dann eine Auszeichnung gerichteter Prozesse, wenn man sich auf Nicht-Gleichgewichtssysteme bezieht.

Reichenbachs Bezug auf Zweigsysteme Diese Option wird durch den Bezug auf „Zweigsysteme“ (branch systems) konkretisiert, die von Hans Reichenbach 1956 eingeführt und von Grünbaum 1963 weiter ausgearbeitet worden ist. Irreversible Vorgänge nehmen ihren Ausgang von vergleichsweise geordneten Zuständen, in denen ein System etwa heterogene Komponen-

94

2. Sein und Werden

ten enthält. Solche Systeme bewegen sich spontan auf einen stärker durchmischten, homogenen Zustand zu. Bei einem derartigen Ausgleich von Unterschieden ist der Schluss berechtigt, dass der Zustand höherer Entropie im Mittel später angenommen wird als der Zustand niedrigerer Entropie. Der vergleichsweise geordnete Zustand, von dem dabei die Rede ist, ist jedoch in aller Regel kein Produkt einer Zufallsfluktuation im thermischen Gleichgewicht, sondern aus einem äußeren Eingriff hervorgegangen. Generell gesprochen gehen die Abweichungen vom Gleichgewichtszustand, die wir in der Erfahrung finden, in ihrer Überzahl auf die Entstehung oder Erzeugung von Nicht-Gleichgewichtssystemen zurück. Die betreffenden Systeme waren nicht dauerhaft abgeschlossen, sondern verdanken ihren niedrigen Entropiewert einer vermehrten Entropieerzeugung an anderer Stelle. Wenn man etwa einen Eiswürfel in ein Glas lauwarmen Orangensaft gibt, dann entsteht ein aus der Umgebung ausgekoppeltes Subsystem abgesenkter Entropie. Die Flüssigkeit befindet sich nicht mehr im thermischen Gleichgewicht und enthält getrennte Komponenten. Durch das Schmelzen des Eises vergrößert sich die Entropie dieses Subsystems bis schließlich wieder eine gleichmäßige Durchmischung und eine einheitliche, mit der Umgebung übereinstimmende Temperatur vorliegt. Die anfangs verringerte Entropie ist Folge einer Intervention, die mit einem Entropieanstieg bei dem verwendeten Kühlsystem verbunden ist. Geordnete, niederentropische Subsysteme entstehen auch ohne menschliches Eingreifen. Reichenbachs Beispiel ist ein von Schnee umgebener Stein im Sonnenlicht. Aufgrund seiner dunklen Färbung heizt sich der Stein stärker auf als die helle, das einfallende Licht besser reflektierende Umgebung; es bildet sich also ein Temperaturunterschied aus. Entsprechend entsteht ein Subsystem aus Stein und Schnee mit erhöhter Ordnung und entsprechend niedriger Entropie. In der Nacht fehlt die Sonneneinstrahlung, so dass sich die Temperaturen wieder angleichen. Folglich steigt auch die Entropie des Subsystems wieder an. Wiederum geht der erhöhte Ordnungszustand auf einen äußeren Eingriff zurück, der Entropie erzeugt. Gerichtete Sonnenstrahlung hoher Energie (mit großer Temperaturdifferenz zur Umgebung) wird in thermische Strahlung umgesetzt (die eine geringere Temperaturdifferenz zur Umgebung aufweist) und in alle Richtungen abgestrahlt wird. Generell gesprochen handelt es sich bei Reichenbachschen Zweigsystemen um physikalische Systeme, die sich in einem Zu-

2.2 Irreversibilität und statistische Mechanik

95

stand vergleichsweise niedriger Entropie von ihrer Umgebung abkoppeln oder „abzweigen“. Diese „Abzweigung“ ergibt sich als Folge einer Wechselwirkung oder eines äußeren Eingriffs. Zweigsysteme bleiben dann für einige Zeit relativ abgeschlossen und zeigen währenddessen durchgehend einen einsinnigen Entropieanstieg. Schließlich verschmelzen sie wieder mit ihrer Umgebung und nehmen deren Entropiewert an. Zweigsysteme finden sich zahlreich in der Erfahrung. Bei einem abgegrenzten System vergleichsweise niedriger Entropie handelt es sich mit überwältigender Wahrscheinlichkeit nicht um ein permanent abgeschlossenes System in einer Zufallsfluktuation, sondern um ein Zweigsystem. Der springende Punkt ist, dass die Entropie von Zweigsystemen nicht den zeitsymmetrischen Verlauf von Gleichgewichtssystemen zeigt. Bei diesen folgte dem niedrigen Entropiewert nicht nur ein höherer Wert, ihm ginge auch ein solcher voran. Das Zweigsystem existierte jedoch nicht als vergleichsweise abgeschlossenes und identifizierbares System vor dem Auftreten der Abzweigung. Bevor der Eiswürfel in den Orangensaft gegeben wurde, gab es das betreffende Zweigsystem nicht. Aus diesem Grund besitzen Zweigsysteme nicht den früheren Zustand hoher Entropie und zeigen daher nicht den zeitsymmetrischen Entropieverlauf dauernd abgeschlossener Systeme. Vielmehr gilt: Wenn ein Zweigsystem einen niedrigen Entropiewert aufweist, dann wird dieser ansteigen; wenn es einen hohen Entropiewert besitzt (was nach der Annahme des Gleichgewichtszustands der Fall ist), dann wird dieser nicht absinken. Dadurch wird eine Asymmetrie im Zeitverlauf der Entropie begründet, die nach Ansicht von Reichenbach und Grünbaum eine physikalische Grundlage für die Anisotropie der Zeit bereitstellt.5

2.2.6 Die philosophische Tragweite faktischer (nicht-nomologischer) Irreversibilität Diese Asymmetrie im Zeitverhalten von Zweigsystemen ist ein objektives Faktum, beruht andererseits nicht auf irreversiblen Naturgesetzen. Der Zweite Hauptsatz eignet sich nur bei Rückgriff auf besondere Anfangs- und Randbedingungen, nämlich bei Bezug auf Nicht-Gleichgewichtssysteme, für die Auszeichnung einsinniger Abläufe. Die Frage ist, ob eine derartige Bestimmung von „früher“

96

2. Sein und Werden

und „später“ eine philosophisch adäquate Grundlage der Anistropie der Zeit bereitstellt. In der philosophischen Diskussion werden zwei Typen von Irreversibilität unterschieden. Bei nomologischer Irreversibilität wird die zeitliche Umkehrung eines Prozesses durch ein Naturgesetz ausgeschlossen. Dies ist der Gegenbegriff zu dem zuvor eingeführten Begriff der Reversibilität, welcher reversible Prozesse anhand der Bedingung bestimmt, dass ihre Umkehrung von den einschlägigen Naturgesetzen zugelassen wird (s.o. 2.1.3). Hingegen treten bei faktischer Irreversibilität die für eine Umkehrung erforderlichen Anfangs- und Randbedingungen tatsächlich nicht ein, obwohl ihr Auftreten keinem Naturgesetz widerspräche (Mehlberg 1961, 109, 121; Grünbaum 1973, 210-211). Die durch Zweigsysteme begründete Anisotropie der Zeit ist lediglich faktischer, nicht nomologischer Natur. Es widerspricht der probabilistischen Fassung des Zweiten Hauptsatzes nicht, dass die Entropie von Zweigsystemen weiter sinkt; dies tritt lediglich höchst selten in Erscheinung. Eine derartige Grundlegung der Anisotropie der Zeit ist entsprechend an das Vorliegen kontingenter Umstände gebunden und beruht nicht auf der nomologischen Beschaffenheit des Naturlaufs. Die Frage, ob faktische Irreversibilität als Grundlage der Anisotropie der Zeit akzeptiert werden kann, ist Gegenstand kontroverser Erörterung. Einesteils wird auf nomologischer Irreversibilität bestanden. So argumentiert Henry Mehlberg, dass eine physikalische Grundlage der Anisotropie der Zeit ebenso weit verbreitet sein muss wie diese Anisotropie selbst. Man kann die Zeit nicht als durchgehend oder universell gerichtet einstufen, wenn nur unter besonderen Bedingungen irreversible Prozesse auftreten. Faktische Irreversibilität ist daher philosophisch ohne Bedeutung. Dieser Schluss wird durch Bezug auf die analoge Argumentation für die Isotropie des Raums gestützt. Auf der Erde stellt die Vertikale eine ausgezeichnete Raumrichtung dar; dort sind nicht alle Richtungen gleichberechtigt. Daraus zieht aber niemand den Schluss, dass der Raum anisotrop sei. Eine lokale Vorzugsrichtung steht nicht im Gegensatz zur fundamentalen Isotropie des Raums. Vielmehr wird in diesem Zusammenhang einhellig davon ausgegangen, dass der Raum isotrop sei, weil die Naturgesetze keine Raumrichtung auszeichnen. Entsprechend kann der Rückgriff auf besondere Umstände, also das Auftreten von Irreversibilität unter Nicht-Gleichgewichtsbedingungen, die Anisotropie der Zeit nicht begründen. Resultat ist, dass der Unterschied zwischen „früher“ und „später“ keine physi-

2.2 Irreversibilität und statistische Mechanik

97

kalische Bedeutung hat. Es handelt sich um eine anthropomorphe und indexikalische Unterscheidung ähnlich den räumlichen Unterscheidungen „hier und dort“, „darüber und darunter“ (Mehlberg 1961, 121, 137). Demgegenüber hält Grünbaum faktische Irreversibilität für hinreichend zur Begründung von Anisotropie. Für Grünbaum ist entscheidend, dass bei irreversiblen Prozessen die Umkehrung faktisch nicht auftritt; die Gründe sind ohne Belang. Eine Asymmetrie sei nicht deshalb weniger asymmetrisch, weil sie von kontingenten Umständen abhängt statt allein von Naturgesetzen. Wenn man den Stummfilm einer Abendgesellschaft verfolgt, in dem sich zerkaute Fleischstücke zu appetitlich gebratenen Steaks zusammensetzen, dann ist unmittelbar deutlich, dass der Film rückwärts abgespielt wird. Wenn sich eine in tausend Stücke zersprungene Kaffeetasse spontan mit allen komplexen Details des Dekors wieder zusammensetzt, dann kann es sich nur um einen zeitinvertierten Prozess handeln. Die menschlichen Hoffnungen auf irdische Unsterblichkeit würden in gleicher Weise enttäuscht, wenn Altern und Tod auf überall vorliegenden Umständen wie wenn sie auf Naturgesetzen beruhten (Grünbaum 1973, 210-212, 258-260, 272-277; vgl. Sklar 1992, 149-150). Zudem erkennt Grünbaum nicht an, dass Zweigsysteme ein bloß „lokales“ Phänomen sind. Vielmehr ist davon auszugehen, dass es überall im Universum Zweigsysteme gibt, dass also die für ihr Auftreten erforderlichen Randbedingungen universell realisiert sind. Der gleichsam miteinander parallele Entropieanstieg von Zweigsystemen ist ein universelles Faktum. Dagegen spielt bei der Analyse und Erklärung von Begriffen wie „oben“ und „unten“ die Richtung der Gravitation eine wesentliche Rolle. Diese Begriffe bezeichnen variable, lokal wechselnde Faktoren. Daher stellt die örtliche Präsenz eines Gravitationsfelds keine Grundlage einer objektiven Unterscheidung von „oben“ und „unten“ oder „darüber“ und „darunter“ dar. Aber das Verhalten von Zweigsystemen ist weder lokal noch variabel in dem für Raumrichtungen relevanten Sinn (Grünbaum 1973, 272; Sklar 1992, 149). In dieser Kontroverse zwischen Mehlberg und Grünbaum drücken sich divergente philosophische Intuitionen aus. Mehlberg hält den Rückgriff auf kontingente Umstände im Zusammenhang einer naturphilosophischen Argumentation (wie der Begründung der Anisotropie der Zeit) für unzulässig. Dabei ist ohne Belang, ob diese Umstände häufig oder selten vorliegen. Erst nomologische Ir-

98

2. Sein und Werden

reversibilität berechtigte zu naturphilosophischen Schlüssen, also der Ansicht, es gebe einen physikalisch greifbaren Unterschied zwischen früheren und späteren Zuständen. Da eine solche nomologische Irreversibilität nicht aufweisbar ist, muss die Zeit als intrinsisch isotrop gelten. Für Grünbaum ist dagegen entscheidend, dass ein Prozess faktisch nur in eine Richtung abläuft und dass er überall im Universum realisiert ist. Für Grünbaum reicht entsprechend faktische Irreversibilität als Grundlage intrinsischer Anisotropie hin. Durch Zweigsysteme wird daher die Anisotropie der Zeit auf einen Naturprozess gegründet. Trotz der Reversibilität aller fundamentalen Vorgänge in der Natur zeichnet der Zweite Hauptsatz unter Nicht-Gleichgewichtsbedingungen ein einsinniges Zeitverhalten aus. Bei Bezug auf spezifische Umstände und Ensembles lässt sich demnach der Kern der früheren Gründung der Anisotropie auf den Zweiten Hauptsatz bewahren: Weist ein typisches Zweigsystem unterschiedliche Entropiewerte auf, so ist der Zustand mit dem höheren Entropiewert der spätere (s.o. 2.2.1).

2.2.7 Physikalische Grundlagen des Zeitpfeils Arthur S. Eddington hat 1927 den Begriff des „Zeitpfeils“ (arrow of time) geprägt und damit die gerichtete Zeit charakterisiert. Der Zeitpfeil ist fraglos Teil unserer Wahrnehmungswelt; die bislang diskutierte Frage ist, ob es eine physikalische Grundlage dieses zunächst psychologischen Zeitpfeils gibt. Die faktische Irreversibilität im Verhalten von Zweigsystemen stellt eine Möglichkeit einer solchen physikalischen Grundlegung bereit; sie wird oft auch als der „thermodynamische Zeitpfeil“ bezeichnet. Der thermodynamische Zeitpfeil gründet sich letztlich darauf, dass sich die Moleküle ungeordnet oder zufällig bewegen und sich im Mittel nach Maßgabe der Realisierungsoptionen auf die möglichen Zustände verteilen (s.o. 2.2.2). Daneben tritt der sog. Strahlungszeitpfeil (radiative arrow, electrodynamic arrow). Damit hat es folgende Bewandtnis. Wirft man einen Stein in einen Teich, so entsteht eine konzentrische und kohärente, auswärts gerichtete Wasserwelle. Zwar treten dabei aufgrund der inneren Reibung des Wassers eine Energiezerstreuung und damit ein Entropieanstieg ein, aber man kann sich den Prozess auch reibungsfrei vorstellen und von der Entropie völlig absehen.

2.2 Irreversibilität und statistische Mechanik

99

Auch dann würde sich die Zeitumkehrung dieses Prozesses in der Erfahrung nicht finden, nämlich eine kohärent einwärts laufende Welle, die im Mittelpunkt zusammenströmt. Der Grund für diese Einsinnigkeit besteht darin, dass der zeitinvertierte Prozess eine „Konspiration der Anfangsbedingungen“ erforderte. Die Umkehrung wäre durchaus mit den Naturgesetzen verträglich (wenn man von der tatsächlich stets vorhandenen Entropieerzeugung absieht), ihr Auftreten verlangte jedoch, dass am Rande des Teiches geeignete Volumenelemente des Wassers auf solche Weise oszillierten, dass eine kohärente einwärts laufende Welle entsteht. Diese für die Umkehrung erforderlichen koordinierten Anfangs- und Randbedingungen treten von selbst niemals auf. Der Strahlungszeitpfeil stützt sich daher wie sein thermodynamisches Gegenstück auf faktische, nicht-nomologische Irreversibilität. Beide beruhen darauf, dass die hochgradig geordneten Zustände, die für eine Zeitumkehr erforderlich wären, nicht spontan entstehen, sondern allenfalls durch einen aktiven Eingriff erzeugt werden. Der Quantenzeitpfeil tritt bei Messungen quantenphysikalischer Zustände auf. Grundlage ist der so genannte „Kollaps der Wellenfunktion“. Messprozesse in der Quantenmechanik werden als Kopplung zwischen einem Quantensystem und einer Messapparatur beschrieben. Die Schrödinger-Gleichung, die zeitumkehrbare Grundgleichung der Quantenmechanik, liefert für diesen Fall ein Spektrum von möglichen Messwerten und deren Eintretenswahrscheinlichkeiten. Schickt man etwa ein Photon durch einen Polarisator, so erhält man aus der Schrödinger-Gleichung die Wahrscheinlichkeiten dafür, dass das Photon einen Analysator mit unterschiedlichen Winkeldifferenzen zum Polarisator passiert. Die Schrödinger-Gleichung führt also zu einer Wahrscheinlichkeitsverteilung, nicht zu der Vorhersage spezifischer Beobachtungen. Im traditionellen Aufbau der Quantenmechanik wird der SchrödingerGleichung das sog. Projektionspostulat hinzugefügt, das besagt, dass einer der möglichen Messwerte tatsächlich angenommen wird. Dieses unabhängige Postulat beschreibt den irreversiblen Kollaps der Wellenfunktion. Das Spektrum der Möglichkeiten kollabiert in einen Messwert. Bei Wiederholung gleichartiger Experimente stimmen die beobachteten relativen Häufigkeiten mit den von der Schrödinger-Gleichung antizipierten Wahrscheinlichkeiten überein. Nach dieser traditionellen Behandlung ist der Quantenzeitpfeil von ganz eigener Art. Allerdings leidet diese Behandlung darunter,

100

2. Sein und Werden

dass der Kollaps ein unverstandener Prozess ist und durch keinen bekannten physikalischen Mechanismus umgesetzt wird. Daher werden seit Jahrzehnten alternative Deutungen der Quantenmechanik verfolgt, die diesen Kollaps vermeiden. Der vielversprechendste Ansatz dieser Art ist die auf Dieter Zeh und Wojciech H. Zurek zurückgehende „Dekohärenz-Interpretation“, in deren Licht sich ein Messwert als Folge der Einbindung von Quantensystem und Messapparat in eine weitere Umgebung einstellt. Ich kann diesen Gedanken hier nicht ausführen, von Belang in unserem Zusammenhang ist allein, dass im Licht dieser Interpretation die Irreversibilität beim Quantenmessprozess von thermodynamischer Art ist, also keine eigenständige Deutung verlangt. Der kosmologische Zeitpfeil schließlich ergibt sich aus der Expansion des Universums. Edmund Hubble entdeckte 1929, dass sich das Universum nicht in einem statischen Ruhezustand befindet, sondern einer Expansion unterliegt. Den Anfang dieser Expansion bildet der „Urknall“ vor knapp 14 Milliarden Jahren, bei dem das Universum in einem winzigen Raum zusammengedrängt war. Aus diesem überdichten, explosiven Gemisch haben sich die Strukturen aus Galaxien und Sternensystemen herausgebildet. Nach diesem globalen Maß temporaler Asymmetrie ist also derjenige von zwei Zeitpunkten der spätere, bei dem die betreffenden kosmischen Strukturen stärker ausgedehnt sind. Diese Expansion beinhaltet eine Entropiezunahme. Das Universum befand sich also zu Beginn in einem Zustand niedriger Entropie und durchlief anschließend einen Entropiezuwachs. Damit kann das Universum insgesamt als eine Art von Zweigsystem aufgefasst werden (obwohl kein übergreifendes System bekannt ist, aus dem es sich ausgekoppelt hat), das sich aus Zuständen niedriger Entropie zu solchen höherer Entropie entwickelt. Danach läuft die Entropiezunahme als lokales Maß der Anisotropie parallel zur Expansion des Universums; kosmologischer und thermodynamischer Zeitpfeil sind letztlich identisch (Penrose 1989, 315-337; Sklar 1992, 142-145; vgl. Eddington 1935, 469-470). In der Tat spricht viel für die These, dass der thermodynamische Zeitpfeil und entsprechend die Parallelität der Zeitentwicklung von Zweigsystemen, auf die kosmische Expansion und insbesondere den Umstand zurückzuführen ist, dass sich das Universum beim Urknall in einem Nicht-Gleichgewichtszustand befand. Nur aus diesem Grund findet man vergleichsweise geordnete Zustände wie heiße Sterne in einem kalten Weltall oder Orangensaft von Eis ge-

2.2 Irreversibilität und statistische Mechanik

101

trennt eher bei den initialen als den finalen Stadien von Prozessen. Auch der Strahlungszeitpfeil gliedert sich in dieses Bild ein. Die erhöhte Konzentration von Strahlung in einer Strahlungsquelle entspricht einer Abweichung vom Gleichgewicht und damit einem vergleichsweise geordneten Zustand. Faktisch überwiegen solche geordneten Zustände am Anfang von Prozessen (statt an deren Ende). Diese Asymmetrie beruht dann darauf, dass unser Universum fernab vom thermodynamischen Gleichgewicht gebildet wurde (Price 1993, 258; vgl. Savitt 1996, 359). Allerdings verstehen wir nicht, warum beim Urknall ein Zustand niedriger Entropie herrschte. Tatsächlich ist ein solcher Anfangszustand extrem unwahrscheinlich (Penrose 1989, 332; Sklar 1992, 143; Carroll 2008, 28). Eine der gegenwärtig diskutierten Erklärungen stützt sich auf das Szenarium eines „Multiversums“, bei dem immer wieder neue Universen entstehen, deren Anfangsbedingungen statistisch verteilt sind und in der Überzahl der Fälle hohe Entropie besitzen. Das Multiversum insgesamt ist zeitsymmetrisch, d.h., in der Hälfte der Universen zeigt der Zeitpfeil in die der unseren entgegengesetzte Richtung (Carroll 2008, 34). Der gleiche Denkansatz soll auch das Problem der Feinabstimmung fundamentaler physikalischer Konstanten lösen: schon sehr kleine Abweichungen von den realisierten Werten für das Verhältnis der Massen von Elektronen und Protonen, die Feinstrukturkonstante, die Intensitäten der Grundkräfte und deren Verhältnisse würden die Entstehung von Leben unmöglich machen. Eine naturalistische Lösung dieses Abstimmungsproblems wird ebenfalls durch Rückgriff auf das Szenarium des Multiversums gesucht, demzufolge in vielen anderen Universen die betreffenden Werte keineswegs in dieser Weise zueinanderpassen und entsprechend kein Leben existiert. Dieser Denkansatz ist zwar empirisch ohne Stütze, stellt aber gegenwärtig die einzige naturalistische Erklärung für das Auftreten extrem unwahrscheinlicher kosmischer Anfangs- und Randbedingungen bereit. Vorbild ist die Erklärung der Eignung der physikalischen Bedingungen auf der Erde für die Entstehung von Leben. Die gemäßigten Temperaturen, die Stabilisierung der Erdachse durch den Mond, die Existenz flüssigen Wassers, das Erdmagnetfeld und die Ozonschicht mit ihrer Abschirmung der Erdoberfläche von der tödlichen Strahlung des Weltraums bieten ausgezeichnete Rahmenbedingungen für die Entstehung von Leben. Diese Feinabstimmung wird dadurch verständlich, dass es eine Unzahl anderer Planeten gibt, bei denen diese fehlt. Angesichts der hohen Zahl von

102

2. Sein und Werden

Fehlversuchen ist es nicht verwunderlich, dass ein Versuch erfolgreich ist. Dadurch erhält der Verweis auf den Zufall Plausibilität und Überzeugungskraft. Ebenso wie uns die Erde durch Zufall eine kosmische Heimstatt bietet, sind in unserem Universum durch Zufall die Fundamentalgrößen auf die Entstehung von Leben abgestimmt und hat unser Universum durch Zufall mit einem Zustand niedriger Entropie begonnen, was den kosmischen und thermodynamischen Zeitpfeil begründet. Durch diesen Bezug auf einen kosmischen Anfangszustand niedriger Entropie erhält endlich auch der kausale Zeitpfeil seinen Stellenwert. Ich hatte mehrfach auf die begriffliche Spannung zwischen der Reversibilität der grundlegenden Naturgesetze, der Tragweite der kausalen Theorie der Zeit bei der Auszeichnung der Zeitrichtung und der thermodynamischen Irreversibilität hingewiesen. Hier ist der Ort, an dem sich alles glatt zusammenfügt. Auch die Nutzung der Gabelungsasymmetrie für eine Unterscheidung zwischen Ursachen und Wirkungen sowie für die Gründung der Anisotropie der Zeit auf diese Unterscheidung stützt sich nämlich darauf, dass sich das Universum in einem Nicht-Gleichgewichtszustand befindet. Zur Rekapitulation: Wenn man Ursachen und Wirkungen ohne Bezug auf die Zeitfolge unterscheiden kann, dann ist eine kausale Bestimmung der Zeitfolge durch die Bedingung möglich, dass Ursachen ihren Wirkungen zeitlich vorangehen. Die Gabelungsasymmetrie zieht den Umstand heran, dass bei probabilistischer gemeinsamer Verursachung zwischen makroskopischen Ereignissen (also ohne Einfluss von Quanteneffekten) die Wirkungen eines Ereignisses miteinander korreliert sind und dass diese Korrelation durch die Ursache statistisch abgeschirmt wird. Umgekehrt sind die Ursachen, die dieses Ereignis als gemeinsame Wirkung haben, nicht miteinander korreliert. Dies erlaubt die statistische, nichttemporale Unterscheidung zwischen Ursachen und Wirkungen (s.o. 1.5.2). Reichenbach folgend argumentiert Huw Price, dass die zeitasymmetrischen Eigenschaften der Gabelungsasymmetrie letztlich darauf zurückgehen, dass geordnete makroskopische Strukturen häufiger am Anfang eines Kausalprozesses stehen als an dessen Ende, was seinerseits darauf beruht, dass sich das Universum in einem thermodynamischen Nicht-Gleichgewichtszustand befindet. Reichenbach bezeichnet das Maß der Unordnung makroskopischer Objektkonstellationen als „Makroentropie“. Dabei geht es nicht um molekulare Unordnung, sondern um die stärker augen-

2.3 Nomologische Irreversibilität

103

scheinliche Ungeordnetheit der Anordnung von Objekten mittlerer Größe. Gemeinsame Ursachen sind vergleichsweise geordnete Zustände und besitzen eine vergleichsweise niedrige Makroentropie. Gemeinsame Verursachung tritt häufiger auf als gemeinsame Bewirkung, weil sich unser Universum weit vom thermodynamischen Gleichgewicht befindet. Herrschte thermodynamisches Gleichgewicht, so ergäben sich sowohl gemeinsame Ursachen als auch gemeinsame Wirkungen als Folge zufälliger Abweichungen vom Gleichgewichtszustand und träten mit gleicher Häufigkeit und gleicher Korreliertheit in Erscheinung. Im Gleichgewicht verliert auch der kausale Zeitpfeil seine Gerichtetheit (Price 1993, 258259; vgl. Reichenbach 1956, 162-167; Sklar 1992, 150). Damit laufen alle diese Bestimmungen im thermodynamischen Zeitpfeil zusammen. Der Weg der Zeit verläuft von der Ordnung zur Unordnung. Und dies beruht letztlich auf dem Umstand, dass das Universum als Ganzes diesen Weg beschreitet. Es ist die so bestimmte faktische Irreversibilität, die die Grundlage der Anisotropie der Zeit bildet.

2.3 Nomologische Irreversibilität: Der Zeitpfeil der schwachen Wechselwirkung Bislang wurde wiederholt die Reversibilität naturgesetzlich bestimmter Prozesse hervorgehoben. Zu jedem Naturprozess ist auch die Zeitumkehrung von den Naturgesetzen zugelassen. Die Welt ist nomologisch reversibel, allein die Verteilung von Anfangsund Randbedingungen führt eine Asymmetrie in den Zeitlauf ein. Tatsächlich trifft dies jedoch nicht ausnahmslos zu: der Zerfall von Mesonen leistet sich in dieser Hinsicht eine Extravaganz. Mesonen sind eine Familie von Elementarteilchen, die aus zwei Quarks gebildet werden, einem Quark und einem Antiquark. Mesonen sind nach ihren Massenwerten zwischen den elementaren Leptonen (wie Elektron und Myon) und den Baryonen (wie Neutron und Proton), die aus drei Quarks bestehen, angesiedelt. Der relevante Befund ist, dass sich die Eintretenswahrscheinlichkeiten bestimmter Zerfallsprozesse von Mesonen von den Eintretenswahrscheinlichkeiten der Bildung solcher Mesonen (also der Zeitumkehrung des Zerfalls) aus naturgesetzlichen Gründen unterscheiden. Es handelt sich also um Fälle nomologischer Irreversibilität. Dies ist die Lage:

104

2. Sein und Werden

Ein Theorem der Quantenfeldtheorie ist das sog. CPT-Theorem, das sich aus fundamentalen Prinzipien ableiten lässt. Es besagt, dass alle Prozesse unter einer kombinierten C-, P- und T-Konjugation invariant sind. Wenn ein bestimmter Prozess in der Natur realisiert ist, dann tritt der CPT-konjugierte Prozess in gleicher Weise auf. Es handelt sich um eine grundlegende Symmetrie des Naturgeschehens, derzufolge die Anwendung bestimmter Operationen auf Naturprozesse bestimmte Eigenschaften dieser Prozesse unverändert lässt. Ladungskonjugation oder C-Konjugation beinhaltet die Ersetzung eines Teilchens durch sein Antiteilchen. Die Bezeichnung „C“ leitet sich aus dem Wort „charge“ ab; dem Wortsinn nach handelt es sich um eine Ladungsvertauschung. Tatsächlich läuft eine C-Konjugation aber auf die Umkehrung sämtlicher Quantenzahlen hinaus. Nicht alle Naturprozesse sind invariant gegen Ladungskonjugation. Zum Beispiel kommen allein „linkshändige“ Neutrinos in der Natur vor, die relativ zur Bewegungsrichtung gegen den Uhrzeigersinn rotieren (wie bei Daumen und gekrümmter Handfläche der linken Hand). Die Ladungskonjugation überführt ein linkshändiges Neutrino in ein linkshändiges Antineutrino. Tatsächlich sind aber alle Antineutrinos rechtshändig. Paritätsumkehr oder P-Konjugation beinhaltet eine Punktspiegelung, also eine Umkehrung sämtlicher Raumachsen. Dabei wird das Objekt gespiegelt und um 1800 gedreht; dadurch werden „links“ und „rechts“ und zugleich „oben“ und „unten“ vertauscht. Auch die Paritätsumkehr ist nicht stets möglich. Die Verletzung der Paritätserhaltung wurde 1957 in einem berühmten Experiment von der Physikerin Chien-Shiung Wu festgestellt. Bei Neutrinos läuft eine Paritätsumkehr auf die Überführung eines linkshändigen Neutrinos in ein rechtshändiges Neutrino hinaus. Tatsächlich gibt es aber keine rechtshändigen Neutrinos. Die Verletzung der Symmetrie von Ladungskonjugation und Paritätsumkehr drückt sich also darin aus, dass es zu einem existierenden Naturprozess nicht stets ein C- oder P-konjugiertes Gegenstück gibt. Beide Arten von Symmetriebrüchen treten bei Prozessen auf, die von der so genannten schwachen Wechselwirkung bestimmt sind. Dabei handelt es sich um eine Naturkraft, die neben die sog. starke Wechselwirkung tritt, die Quarks und Nukleonen aneinanderbindet, und in Verbindung mit der elektromagnetischen Wechselwirkung steht (und mit dieser zur „elektroschwachen“ Kraft zusammengefasst wird). Die schwache Wechselwirkung regiert die Kraft zwischen Quarks und Leptonen. Auch bei den ge-

2.3 Nomologische Irreversibilität

105

nannten Symmetriebrüchen führt die kombinierte Anwendung von C- und P-Konjugation auf Invarianten. Die CP-Konjugation überführt etwa linkshändige Neutrinos in rechtshändige Antineutrinos, so dass die CP-Symmetrie auch bei Prozessen der schwachen Wechselwirkung gewahrt scheint (Quinn & Witherell 1998). Die dritte einschlägige Operation ist die T-Konjugation oder Zeitumkehr, bei deren Anwendung ein Prozess in umgekehrter Richtung abläuft, von seinem Ende zurück an den Anfang. CPTInvarianz heißt damit insgesamt: Wenn man bei einem Prozess die Teilchen durch die zugehörigen Antiteilchen ersetzt, eine Punktspiegelung durchführt und den Prozess rückwärts ablaufen lässt, dann muss dieser dreifach konjugierte Prozess die gleichen Eigenschaften besitzen wie das Original. Insbesondere muss er die gleichen Reaktionsraten aufweisen. Die CPT-Invarianz ist nicht allein theoretisch gestützt, sondern konnte in den vergangenen Jahren auch empirisch untermauert werden (Collins 2006, 65). Aus dem CPT-Theorem ergibt sich die folgende Konsequenz: Wenn bei einem Prozess die CP- Symmetrie verletzt ist, dann muss dies durch eine Verletzung der T-Symmetrie oder T-Invarianz kompensiert werden. Tatsächlich schienen jedoch alle physikalischen Prozesse die CP-Symmetrie zu respektieren, was eine weitere Stütze für die nomologische Reversibilität bildete, also die naturgesetzliche Zulässigkeit der Zeitumkehrung sämtlicher Naturprozesse. Zur Überraschung der Fachwelt wurde 1964 in einem von James Christenson, James Chronin, Val Fitch und anderen durchgeführten Experiment eine Verletzung der CP-Symmetrie festgestellt. Gegenstand des Experiments war der Zerfall neutraler K-Mesonen oder Kaonen. Aus der CP-Symmetrie folgt, dass ein bestimmter Zerfallsmodus von langlebigen neutralen Kaonen in Pi-Mesonen oder Pionen ausgeschlossen ist. Konkret verletzt die Reaktion K0 L → π+ + π- die CP-Symmetrie. Tatsächlich findet sie sich jedoch experimentell – wenn auch nur in winzigen Raten. Die Folge ist, dass diese Reaktion auch die T-Invarianz verletzen muss, also nicht zeitumkehrbar ist. Danach tritt unter identischen Umständen die Bildung von Kaonen aus zwei Pionen mit einer anderen Reaktionsrate als der Zerfall auf (Quinn & Witherell 1998, 92; Franklin 2003). Makoto Kobayashi und Toshihide Masakawa zeigten 1974, dass die CP-Verletzung eine Folge des heute so genannten Standardmodells der Elementarteilchen und damit tatsächlich nomologischer Natur ist (wofür sie mit dem Physiknobelpreis für 2008 ausgezeichnet wurden).

106

2. Sein und Werden

Beim Kaonen-Zerfall ist die Verletzung der T-Symmetrie nicht direkt prüfbar; beobachtbar ist allein die Verletzung der CP-Symmetrie. In einem anderen, 1998 erfolgreich abgeschlossenen Experiment tritt hingegen das Fehlen der Zeitumkehrbarkeit unmittelbar in Erscheinung. Dabei werden neutrale Kaonen in ihre Antiteilchen umgewandelt und umgekehrt aus ihnen erzeugt. Die Befunde zeigten, dass unter genau gleichen Umständen die Entstehung eines Kaons aus einem Antikaon um 0.66 % häufiger auftritt als der zeitinvertierte Prozess. Weiterhin sind 2004 klare Hinweise auf einen CP-Symmetriebruch auch beim Zerfall von neutralen B-Mesonen beobachtet worden (Collins 2006, 64). CP-Symmetriebrüche bei Mesonen sind nomologisch irreversible Prozesse. Die schwache Wechselwirkung zeichnet also einen Zeitpfeil aus, und dieser Zeitpfeil der schwachen Wechselwirkung beruht als Einziger auf einer ausschließlich naturgesetzlichen Grundlage (benötigt also keinen zusätzlichen Rückgriff auf kontingente Sachumstände). Was diesem Phänomen den Anschein des Bizarren verleiht, ist die gewaltige Diskrepanz zwischen seiner möglichen wissenschaftlichen und philosophischen Bedeutsamkeit und seiner Randständigkeit im Naturlauf. Die Gerichtetheit der Zeit durchzieht alles Naturgeschehen, aber seine mögliche Grundlage, der Bruch der nomologischen Reversibilität bei der schwachen Wechselwirkung, offenbart sich als sehr kleiner Effekt in einem abgelegenen Sachbereich. Tatsächlich scheiden viele Autoren die CP-Asymmetrie der schwachen Wechselwirkung wegen der Randständigkeit der einschlägigen Prozesse und deren Irrelevanz für die Physik der Lebenswelt als Basis der Anisotropie der Zeit aus. Es gilt weithin als wenig plausibel, dass ein so weit verbreitetes und herausragendes Charakteristikum wie die Anisotropie des Zeitlaufs auf einem so entlegenen, seltenen und winzigen Quanteneffekt beruhen sollte (Sachs 1987, 188-194; Dowe 1992, 189-190).

2.4 Wandel oder Werden: Die Zeitlichkeit der Welt Resultat ist, dass die Gerichtetheit der Zeit auf physikalische Zusammenhänge zu gründen ist: zwischen „früher“ und „später“ kann auf der Basis von Naturprozessen unterschieden werden. Grundlage dafür ist der thermodynamische Zeitpfeil, der faktische

2.4 Wandel oder Werden: Die Zeitlichkeit der Welt

107

Irreversibilität zum Tragen bringt, und der Zeitpfeil der schwachen Wechselwirkung, der dieser Anisotropie eine nomologische Komponente verleihen könnte (s.o. 2.2.7, 2.3). Zugleich lassen sich die menschlichen Erfahrungen von Einsinnigkeit in diesen Rahmen einfügen. Ein breit verfolgter Ansatz betrachtet auch das menschliche Gedächtnis als ein Reichenbachsches Zweigsystem. Danach beruht das Speichern von Erinnerungen darauf, dass im Gehirn molekulare Ordnungszustände gebildet werden, die auf ihrem niedrigen Entropiewert eine Zeit lang verharren, sich aber am Ende wieder in die Umgebung und deren Ordnungsgrad eingliedern – was wir als Vergessen empfinden (Grünbaum 1973, 289-290; Zeh 2001, 12). Indem neurophysiologische Prozesse auf thermodynamischer Grundlage stehen, fügt sich die menschliche Erfahrung der gerichteten Zeit in den physikalischen Zeitlauf ein. Es ist dann letztlich der thermodynamische Zeitpfeil, der erklärt, warum wir Erinnerungen an die Vergangenheit haben, nicht aber an die Zukunft. Die „Zeit des Bewusstseins“ schließt sich an die „Zeit der Welt“ an.

2.4.1 Die Relativität des „Jetzt“ und der Unterschied von Vergangenheit und Zukunft Zu klären bleibt, wie weit dieser physikalische Rahmen für die Einbindung der menschlichen Zeiterfahrung wirklich reicht. Hierfür gewinnt eine Unterscheidung Bedeutung, die sich an Untersuchungen von John McTaggart (1866–1925) aus dem Jahre 1908 anschließt. Diese Unterscheidung trennt zwischen der Anisotropie der Zeit und dem Fluss der Zeit oder zwischen dem Wandel und dem Werden. McTaggart knüpfte an seine Untersuchung ein weiter reichendes Argument von der Unwirklichkeit der Zeit, das aber umstritten und von zweifelhafter Tragweite ist. Ich konzentriere mich auf die genannte Unterscheidung, die sich aus McTaggarts Behandlung entwickelt hat. Die Anistropie oder Asymmetrie der Zeit beinhaltet, dass Ereignisse eine einsinnige Zeitfolge bilden, so dass deren objektive Anordnung nach „früher“ und „später“ möglich ist. Daneben tritt die Unterscheidung zwischen Vergangenheit und Zukunft, die durch die Gegenwart oder das „Jetzt“ getrennt werden. Das Jetzt verschiebt sich durch die Zeit und markiert durch seine Bewegung den Fluss der Zeit. Durch die Wanderung des Jetzt werden fort-

108

2. Sein und Werden

während zukünftige Ereignisse gegenwärtig und schließlich vergangen (Grünbaum 1971, 475-476; Grünbaum 1973, 314-316). Dass die Unterscheidung zwischen „früher“ und „später“ auf physikalische Sachverhalte zu gründen ist, bedeutet noch nicht, dass dies auch für die Unterscheidung zwischen Vergangenheit und Zukunft gilt. Vielmehr geht die Auszeichnung eines solchen Scheidepunkts über die Bestimmung der Zeitfolge hinaus. Ob ein Ereignis früher oder später als ein anderes stattgefunden hat, ist unabhängig davon, ob beide in der Vergangenheit liegen oder ob sich eines davon jetzt ereignet. Hingegen sind Ereignisse vergangen, die jetzt nicht mehr sind; gegenwärtig sind diejenigen Ereignisse, die jetzt sind; zukünftig sind diejenigen Ereignisse, die jetzt noch nicht sind. Die Frage ist, ob sich für diesen Gegenwartspunkt ein physikalisches Gegenstück findet. Das verbreitete Urteil lautet, dass dieses Jetzt und damit die Vorstellung vom Fluss der Zeit von ausschließlich psychologischer Tragweite sind und keine Grundlage im Naturlauf besitzen. Die Konzeption des Blockuniversums enthält in der zuvor vorgestellten Fassung eine Absage auch an objektive Zeitfolgen (s.o. 2.1.3). In einer häufiger vertretenen abgeschwächten Form dieser Konzeption wird zwar die Wirklichkeit von Veränderung anerkannt, aber ein physikalisch ausgezeichnetes Jetzt verworfen. Es gibt keine Sachgrundlage für den Unterschied von Vergangenheit und Zukunft. So macht die Relativität der Gleichzeitigkeit Urteile darüber, was jetzt an anderen Orten geschieht, vom Ort und Bewegungszustand des Beobachters abhängig (s.o. 1.3–4). Salvador Dalís „weiche Uhren“, zuerst in dem Bild „Die Beständigkeit der Erinnerung“ (1931) verwendet, sind zu einem Markenzeichen des Künstlers geworden und bezeichnen, explizit im Anschluss an die Relativitätstheorie, die „zerrinnende Zeit“. Durch die Relativität der Gleichzeitigkeit zerfließt das vormals starre temporale Gerüst des Universums; das ehemalig universelle, kosmisch übergreifende „Jetzt“ zerfasert in divergierende individuelle Standpunkte. Die Konzeption des Blockuniversums hebt die Beobachterabhängigkeit der Grenze zwischen Vergangenheit und Zukunft hervor und schließt auf die „Zeitlosigkeit der Existenz“: es gibt kein objektiv bestimmtes Jetzt (Esfeld 2002, 34). Auch in dieser abgeschwächten Version verliert entsprechend die Vorstellung einer offenen Zukunft und einer objektiven Entwicklung des Universums ihren Sinn. Der Physiker Dieter Zeh hat diese Sicht zeitlicher Veränderung mit einem ausgebreitet auf einem

2.4 Wandel oder Werden: Die Zeitlichkeit der Welt

109

Tisch liegenden Film verglichen. Würde der Film abgespielt, entfaltete sich eine Geschichte, gäbe es einen Gegenwartspunkt, entstünde der Eindruck eines Zeitflusses. Auf dem Tisch ausgebreitet ist dagegen keines der Einzelbilder als „jetzt“ aktuell ausgezeichnet; alle sind gleichermaßen präsent und gleichermaßen außer Betracht. Die Bilder unterscheiden sich, aber das Geschehen liegt gleichwohl im Zustand der Zeitlosigkeit vor (Zeh 2001, 6). Durch diese mangelnde Bestimmtheit von Gegenwart, Vergangenheit und Zukunft verliert auch die Vorstellung des menschlichen Eingreifens ihren Sinn. Diese traditionell mit der Konzeption des Blockuniversums verbundene Vorstellung hat der Physiker Roger Penrose mit Nachdruck artikuliert: „Wenn überhaupt irgend etwas feststeht, dann muß tatsächlich die Raum-Zeit insgesamt feststehen! Es kann keine ‚ungewisse’ Zukunft geben. Die Gesamtheit der Raum-Zeit muß festgelegt sein, ohne den geringsten Spielraum für Unbestimmtheit. ... Überdies gibt es überhaupt keinen Zeitfluß, sondern nur die ‚Raum-Zeit’ – und keinerlei Spielraum für eine Zukunft, in deren Bereich unaufhaltsam eine determinierte Vergangenheit eindringt“ (Penrose 1989, 297; vgl. aber Esfeld 2002, 35-36).

2.4.2 Der Fluss der Zeit und der Unterschied von Wandel und Werden Nach dieser Lesart der These von der Zeitlosigkeit der Existenz gibt es zwar Veränderung innerhalb des Universums, es gibt Wandel, aber es gibt keine Entwicklung des Universums, es gibt kein „Werden“. Die Vorstellung vom Werden enthält die Auszeichnung der Gegenwart und die Zentralität des Unterschieds von Vergangenheit und Zukunft. Die Natur schreitet schöpferisch voran und erschafft qualitativ Neues. Die Verteidiger des Werdens halten an der Vorstellung einer offenen Zukunft fest, die schrittweise in den Bereich des menschlichen Handelns gerät und durch menschliches Wirken zu starrer Geschichte gerinnt. Im Jetzt werden Ereignisse wirklich (Čapek 1961, 334-340). Zur Verteidigung dieser Sicht werden zunächst Einschränkungen der Relativität des Jetzt geltend gemacht. Die Relativität der Gleichzeitigkeit hat danach nur geringe Auswirkungen auf die Anordnung von Ereignissen. Alle zeitartig zueinandergelegenen Ereignisse, alle Ereignisse auf einer Weltlinie, alle Ereignisse, die

110

2. Sein und Werden

kausal miteinander verbunden sind, stehen in einer für alle Beobachter gleichen Abfolge. Richtig ist, dass die Zeitfolge raumartig gelegener Ereignisse vom Bewegungszustand des Beobachters abhängig sein kann (s.o. 1.3) und dass entsprechend generell durchaus ein Spielraum für die Auszeichnung des Jetzt besteht. Aber das bedeutet lediglich, dass das Jetzt nicht als gleichsam kosmischer Augenblick aufgefasst werden kann, sondern auf einen Beobachter bezogen und damit als „Hier und Jetzt“ aufgefasst werden muss. Der wesentliche Punkt ist dann, dass das Jetzt eines Beobachters seine Weltlinie auf eine bezugssystemübergreifende Weise in Zukunft und Vergangenheit teilt. Das heißt, in keinem Bezugssystem erscheint dieses Jetzt gleichzeitig mit einem anderen Ereignis aus der Zukunft oder Vergangenheit dieses Beobachters. Entsprechend ergibt sich eine eindeutige Teilung zwischen dem, was einem Beobachter oder Akteur in der Erfahrung gegeben oder für seine Handlungen aufgegeben ist (Čapek 1966, 518-519). Vertreter der zeitlosen Sicht erkennen dieses Argument zwar an, sprechen ihm jedoch die Tragweite ab. Wenn man nämlich die Abhängigkeit vom Beobachter und dessen Bezugssystem akzeptiert, dann zersplittert das vorgebliche Werden des Universums in eine Vielzahl subjektiver Perspektiven (Bartels 1996, 65-66; Esfeld 2002, 34). Viele Wissenschaftsphilosophen, darunter Reichenbach und Eddington, aber auch Wissenschaftler wie der Astronom Herman Bondi, vertreten die Ansicht, dass es die umfassende Geltung deterministischer Gesetze ist, welche der Auszeichnung des Jetzt die physikalische Grundlage entzieht. Im Gegensatz dazu, so die Behauptung, ist in einem indeterministischen Universum das Jetzt dadurch gekennzeichnet, dass dort Möglichkeit in Wirklichkeit übergeht. Vergangene Ereignisse existieren wirklich; zukünftige Ereignisse sind bloß möglich. Im Jetzt kollabiert das verzweigte Astwerk der Potenzialitäten in den einzigen, dürren Strang des Faktischen (Grünbaum 1971, 489-492; Grünbaum 1973, 319-321). Dagegen macht Grünbaum geltend, dass das Jetzt auch in einem indeterministischen Universum ohne Sachgrundlage ist. Einem Argument von Hugo Bergmann aus den 1920er Jahren folgend weist Grünbaum darauf hin, dass dieser Übertritt des Möglichen ins Wirkliche zu jedem beliebigen Zeitpunkt stattfindet. Jedwedes Jetzt zieht eine Grenze zwischen seiner eigenen Vergangenheit und Zukunft. Die Umwandlung von Potenzialität in Faktizität hat sich seit jeher ereignet und wird sich weiterhin bis ans Ende aller Tage

2.4 Wandel oder Werden: Die Zeitlichkeit der Welt

111

ereignen. Zur Zeit Napoleons hat sich Mögliches genauso in Wirkliches verwandelt wie zur Zeit Einsteins oder wie gerade jetzt. In dieser Lesart qualifiziert sich daher jeder beliebige Zeitpunkt als Jetzt; es taugt entsprechend nicht zur Auszeichnung besonderer Zeitpunkte als gegenwärtig.6 Die Gegenposition lautet, dass die Verschiebung des „Jetzt“ nicht seine Willkür begründet. Die Grenze zwischen Vergangenheit und Zukunft kann ganz offenkundigerweise nicht festgezurrt werden. Das Jetzt ist ein flüchtiger Zeitpunkt; kein Jetzt ist privilegiert, und alle ziehen schnell vorbei. Gleichwohl trennt jeder dieser Gegenwartspunkte die relativ zu diesem offene Zukunft von der relativ zu diesem abgeschlossenen Vergangenheit. Seine Flüchtigkeit macht das „Hier und Jetzt“ weder uneindeutig noch willkürlich (Čapek 1966, 520). Wie bereits angedeutet, ist es gerade die von Verteidigern des Werdens zugegebene Beschränkung auf das „Hier und Jetzt“, auf einzelne Beobachter und deren Erfahrungen oder Handlungsoptionen, die die Subjektivierung und damit die Psychologisierung von Jetzt und Zeitfluss begründet. Werden ist dann eben kein objektives Entstehen. Das „Jetzt“ hat vielmehr mit bewusstem Gewahrwerden zu tun, und der Fluss der Zeit besagt nichts weiter, als dass einem „erlebenden Ich“ verschiedene Inhalte zu unterschiedlichen Zeitpunkten ins Bewusstsein treten. Das Jetzt ist keine Eigenschaft der physikalischen Zeit, sondern eines erlebenden Wesens. „Werden“ ist damit epistemologisch bestimmt, als Folge des Eintretens ins Bewusstsein, nicht ontologisch, als Folge des Eintretens in die Wirklichkeit (Grünbaum 1973, 217-218, 226, 321-325). „Jetzt“ ist ein indexikalischer Begriff wie „hier“; beider Gegenstandsbezug hängt von der Lokalisierung des jeweiligen Sprechers in Raum und Zeit ab. Die Verwendung solcher Begriffe ist wesentlich durch subjektive Faktoren bestimmt und gibt nur begrenzt Aufschluss über Sachverhalte (Sklar 1992, 71). Zeh hat diesen Zusammenhang durch eine treffende Analogie zum Verhältnis von Farben und Licht weiter geklärt: „Der Begriff des Jetzt scheint ebenso wenig mit dem Zeitbegriff selbst zu tun zu haben wie die Farbe mit dem Licht. ... Sowohl Jetzt als auch Farbe sind bloß Aspekte dessen, wie wir Zeit oder Licht wahrnehmen. ... Jedoch kann weder ihre [der Farben] subjektive Erscheinung (wie ‚blau’) noch die subjektive Erscheinung des Jetzt aus physikalischen oder physiologischen Ansätzen hergeleitet werden“ (Zeh 2001, 11-12; vgl. Grünbaum 1971, 471).

112

2. Sein und Werden

Der Schluss ist also, dass der Fluss der Zeit an die menschliche Erlebniswelt gebunden bleibt und nicht mit physikalischer Tragweite ausgestattet werden kann. Aber wenn man nicht auf Objektivität besteht und die Einschränkung auf eine Weltlinie hinnimmt, dann ergibt auch der Unterschied zwischen der offenen Zukunft und der abgeschlossenen Vergangenheit einen guten Sinn. Wichtiger noch und die zentrale Botschaft dieses Kapitels ist jedoch, dass sich für die Anisotropie der Zeit und die Einsinnigkeit ihres Verlaufs physikalische Gegenstücke finden. Der Zeitpfeil ist Teil des Naturgeschehens.

3. Geometrie und Wirklichkeit: Erkenntnisprobleme beim Ausmessen von Raum und Zeit Im Jahre 1870 veröffentlichte der amerikanische Homöopath Cyrus Teed ein Buch mit dem Titel Die Erleuchtung von Koresch, in dem er ein neues Weltsystem darstellte, das ihm im Traum von einer schönen Frau offenbart worden sei. Danach sei die Erde eine Hohlkugel, auf deren Innenfläche die Menschheit und alle Wesen ihren diversen Geschäften nachgehen. Näher zum Mittelpunkt der Hohlkugel befänden sich die Sonne, die Planeten, die Sterne und alle anderen Himmelskörper. Der Rhythmus von Tag und Nacht entstehe daraus, dass die Sonne eine leuchtende und eine dunkle Seite besitze und durch ihre Drehung den Wechsel der Lichtverhältnisse hervorbringe. Die gegenüber liegenden Seiten der Erdhohlkugel blieben deshalb vor unseren Augen verborgen, weil die Atmosphäre im Innern der Erdkugel zu dicht sei (Sexl 1983, 454). Natürlich scheint uns diese Lehre absurd, und unzutreffend ist sie allemal. Aber sie wirft Fragen von größerer Subtilität auf, als man auf den ersten Blick vermutet. Dazu zählt insbesondere die Frage, wie man sich denn Aufschluss über die Gestalt der Erdoberfläche verschafft. Deren Bestimmung gelingt nicht ohne weiteres, und es bedarf fortgeschrittener Überlegungen, um die Gründe für die Unzulänglichkeit der Hohlwelttheorie zu identifizieren. Nun wird ein solches Anliegen vielleicht nicht überall der Mühe wert erscheinen, aber dahinter wird ein Vorhaben weit größeren Maßstabs sichtbar. Was nämlich der Erde recht ist, ist dem Weltall billig. Erkenntnisprobleme bei der Ermittlung der Gestalt der Erde veranschaulichen Erkenntnisprobleme beim Ausmessen der räumlichen Struktur des Universums. Thema dieses Kapitels ist also die Beziehung von Geometrie und Wirklichkeit oder der Spielraum, den die Messergebnisse bei der Ermittlung der Raumstruktur lassen. Tatsächlich stellte diese Frage der sog. „Konventionalität der physikalischen Geometrie“ eines der meistdiskutierten Themen der Raum-Zeit-Philosophie des 20. Jahrhunderts dar. Ich stelle im ersten Schritt die erkenntnistheoretische Problematik dar, die sich bei dem Versuch stellt, den Raum gleichsam auszu-

114

3. Geometrie und Wirklichkeit

messen. Den Rahmen bildet ein Newtonsches Universum; von der Relativitätstheorie wird also zunächst nicht die Rede sein. Bei einer solchen Vermessung der Welt ist es offenbar unerlässlich, geeignete Maßstäbe zu verwenden, also solche, die ihre Länge bei Transport beibehalten. Um aber über diese Invarianz der Maßstäbe verlässlich urteilen zu können, benötigt man weitere Maßstäbe, deren Adäquatheit aber ihrerseits sichergestellt sein muss und so weiter. Hier zeichnet sich ein infiniter Regress ab, der die Grundlage der genannten Konventionalitätsthese ist. Im zweiten Schritt gebe ich einen Überblick über Einsteins Allgemeine Relativitätstheorie (ART), die eine neue Sichtweise der Raum-Zeit mit sich bringt und insbesondere die Kraft der Schwere mit der Geometrie der Welt verknüpft. Dadurch entsteht eine von der Newtonschen Raum-Zeit wesentlich verschiedene physikalische Sicht. Im dritten Schritt führe ich die ersten beiden zusammen und stelle die erkenntnistheoretische Lage im Rahmen der ART vor. Gegenstand sind die physikalischen Möglichkeiten und die erkenntnistheoretischen Beschränkungen der Bestimmung der allgemein-relativistischen Raum-Zeit-Struktur. Die Konventionalitätsthese wandelt sich dabei zwar nach Inhalt und Anspruch, verliert aber nicht jede Berechtigung.

3.1 Die empirische Ermittlung der physikalischen Geometrie 3.1.1 Nicht-Euklidische Geometrien Die Euklidische Geometrie war über Jahrhunderte hinweg die einzige bekannte geometrische Theorie und galt als unbezweifelbar und gewiss. Ihre Sonderstellung stammte daraus, dass sich ihre Aussagen auf Figuren der Erfahrungswelt beziehen, während sich die Geltung dieser Aussagen doch nicht auf Erfahrung stützen muss. So wird durch Konstruktion bewiesen, dass die Winkelsumme im Dreieck stets 180° beträgt; findet sich eine Abweichung in der Wirklichkeit, so wird nicht etwa dieser Lehrsatz in Zweifel gezogen, sondern der Grund in der Unzulänglichkeit der Messung gesucht. Die Unbezweifelbarkeit der Euklidischen Geometrie beruhte auf der anschaulichen Einsichtigkeit und begrifflichen Selbstverständlichkeit der fünf Postulate, auf die Euklid (ca. 365–300 v. Chr.)

3.1 Die empirische Ermittlung der physikalischen Geometrie

115

seine Lehrsätze stützte. Dazu zählten Forderungen der Art, dass zwischen je zwei Punkten eine Gerade gezogen und dass eine Strecke beständig verlängert werden kann und dann eine Gerade ergibt. Bei solchen Postulaten bleibt für Bedenken anscheinend wenig Raum. Etwas anders stand es allerdings um Euklids fünftes Postulat, das sog. „Parallelenpostulat“. Darin verlangte Euklid, dass es zu einer gegebenen Geraden und durch einen Punkt, der nicht auf der Geraden liegt, genau eine Parallele gebe. Vielen Mathematikern erschien das Parallelenpostulat weniger elementar oder evident als die übrigen vier, und daher setzten schon früh Versuche ein, es aus den übrigen Postulaten und Definitionen abzuleiten und damit zu beweisen. Alle diese Versuche scheiterten, und in den 1820er Jahren zeigten János Bolyai (1802–1860) und Nikolai Iwanowitsch Lobatschewski (1792–1856) unabhängig voneinander, dass man das Parallelenpostulat aufgeben und ohne Widerspruch annehmen kann, zu einer gegebenen Geraden ließe sich mehr als eine Parallele durch einen gegebenen Punkt ziehen. Das Parallelenpostulat lässt sich also auf der Grundlage der übrigen Euklidischen Annahmen gar nicht beweisen; es ist von diesen unabhängig. Diese Einsicht markiert die Geburtsstunde der Nicht-Euklidischen Geometrie. Auf dieser Grundlage (und eigene Vorüberlegungen aufnehmend) entwickelte Carl Friedrich Gauß (1777–1855) kurz darauf einen ersten systematischen Ansatz zur nicht-Euklidischen Geometrie. Um 1850 zeigte Bernhard Riemann (1826–1866), dass man bei einer geringfügigen Modifikation des Begriffs der Geraden (auf die ich gleich eingehe) auch die Nicht-Existenz von Parallelen widerspruchsfrei behaupten kann. Danach schneiden alle Geraden durch einen Punkt eine gegebene Gerade. Nicht-Euklidische Geometrien sind entsprechend dadurch charakterisiert, dass Euklids Parallelenpostulat durch alternative Annahmen ersetzt wird, welche entweder mehr als eine (und dann gleich unendlich viele) oder keine Parallele vorsehen. Der erste Fall führt auf eine sog. hyperbolische Geometrie, der zweite auf eine sog. elliptische Geometrie. Riemann bewies darüber hinaus, dass alle Varianten (einschließlich der Euklidischen) Spezialfälle einer verallgemeinerten geometrischen Theorie sind. Die umfassende Theorie solcher nicht-Euklidischer Geometrien wird als Riemannsche Geometrie bezeichnet, wobei allerdings seit den 1920er Jahren noch weiter gehende Verallgemeinerungen formuliert wurden.

116

3. Geometrie und Wirklichkeit

Geometrie auf der Kugeloberfläche Nicht-Euklidische Verhältnisse gelten oft als der Anschauung schwer zugänglich, aber das gilt durchaus nicht generell. Zweidimensionale nicht-Euklidische Geometrien stellen die geometrischen Verhältnisse auf gekrümmten Oberflächen dar, die ja in unserer hügeligen Erfahrungswelt verbreiteter sind als die idealen Ebenen von Schultafeln. Ein Beispiel einer elliptischen, parallelenfreien Geometrie ist die Geometrie auf der Kugeloberfläche. Legt man für den Begriff der Geraden das übliche Verständnis verschwindender Linienkrümmung zugrunde, dann treten solche Linien entweder in die Oberfläche ein oder heben von ihr ab. Mit einem solchen Begriff der Geraden ist daher keine Geometrie auf der Kugeloberfläche zu betreiben. Eine Euklidische Gerade ist jedoch auch dadurch charakterisiert, dass sie die kürzeste Verbindung zwischen zwei Punkten darstellt, und diese Charakterisierung ist gut auf gekrümmte Oberflächen zu übertragen. Als „Gerade“ wird dann also die kürzeste Verbindung auf der Kugeloberfläche bezeichnet. Mit dieser Festlegung ergeben sich Geraden als sog. Großkreise oder Geodäten, die aus der Schnittlinie der Kugeloberfläche mit einer Ebene durch den Kugelmittelpunkt entstehen. Die Längenkreise auf der Erde sind Großkreise, die Breitenkreise sind es nicht (mit Ausnahme des Äquators). Man sieht dies ein, wenn man sich zwei Punkte denkt, die sich auf einem Breitenkreis gegenüberliegen. Die kürzeste Verbindung führt dann nicht entlang des Breitenkreises, sondern über den Pol – also entlang eines Längenkreises (s.u. Figur 2). Die Geometrie auf der Kugeloberfläche hat im Zeitalter der Interkontinentalflüge an Anschaulichkeit gewonnen. Insbesondere ist es dadurch gleichsam lebensweltlich vertraut, dass Breitenkreise keine Großkreise sind. Aus diesem Grund verläuft nämlich der interkontinentale Flugverkehr nicht entlang der Breitenkreise. Vancouver liegt südlicher als Frankfurt, aber der Flug von Frankfurt nach Vancouver führt hoch in den Norden über die Eiswüsten Zentralgrönlands. Man startet von Frankfurt in Richtung Nordwesten, fliegt stets geradeaus und nähert sich Vancouver aus Nordosten. Das Flugzeug nimmt dabei die kürzestmögliche Route; es folgt einer Geodäten. Die Repräsentation von Geraden durch Großkreise verlangt eine Verschiebung im Begriff der Geraden, ohne die sich der Euklidische Denkansatz nicht auf gekrümmte Oberflächen übertragen ließe. Dabei geht es nicht darum, dass gekrümmte Linien nun als

3.1 Die empirische Ermittlung der physikalischen Geometrie

117

Geraden gelten sollen; die Bedingung verschwindender Krümmung ist in den Postulaten Euklids gar nicht ausdrücklich enthalten. Vielmehr besteht die begriffliche Anpassung darin, dass Großkreise geschlossene Kurven sind, während Geraden nach Euklid (wie erwähnt) unbegrenzt fortgesetzt werden können. Die begriffliche Bestimmung von Geraden durch Großkreise beinhaltet, dass es auf der Kugeloberfläche keine Parallelen gibt. Alle Großkreise schneiden sich nämlich. Zum Beispiel treffen sich alle Längenkreise an den Polen. Generell gibt es zu einer gegebenen Geraden (einem Großkreis) durch einen Punkt, der nicht auf dieser Geraden liegt, keine Gerade (keinen Großkreis), der die gegebene Gerade (den gegebenen Großkreis) nicht schneidet. Jede Gerade schneidet alle übrigen.

Figur 1: Äquatoriales Dreieck auf der Kugeloberfläche (Carnap 1966, 134; © Nymphenburger Verlagshandlung)

Ein zweites Charakteristikum einer Geometrie ist die Winkelsumme im Dreieck. Die Winkelsumme eines ebenen Dreiecks beträgt 180°; auf der Kugeloberfläche ist sie dagegen veränderlich, aber in jedem Fall größer als 180°. Eine Figur, deren Grundseite vom Äquator und dessen Schenkel von zwei Längenkreisen gebildet werden, besteht aus drei Großkreisen und ist entsprechend ein Dreieck. Da die Längenkreise auf dem Äquator senkrecht stehen, bilden diese beiden einen Winkel von 180°, wozu der variable Winkel am Pol hinzu tritt. Im Einzelnen ist die Winkelsumme von der Stärke der Krümmung der Kugeloberfläche und von der Größe des Dreiecks abhängig. Bei abnehmender Größe fällt die Krümmung immer weniger ins Gewicht, und die Winkelsumme nähert sich dem Euklidischen Wert.

118

3. Geometrie und Wirklichkeit

Figur 2: Verhältnis von Kreisumfang und Durchmesser auf gekrümmten Oberflächen (Carnap 1966, 138; © Nymphenburger Verlagshandlung)

Ein drittes Kennzeichen einer Geometrie besteht im Verhältnis von Umfang und Durchmesser eines Kreises. In der Euklidischen Ebene ergibt sich hierfür bekanntlich der Wert π. Auf der Kugeloberfläche ist das Verhältnis hingegen kleiner als π. Dies ist anschaulich klar, wenn man sich auf der Erdoberfläche zwei gegenüber liegende Punkte A und B denkt und durch diese einen Kreis mit dem Nordpol N als Mittelpunkt zieht. Die Verbindung zwischen A und B entlang der Kugeloberfläche, also der nicht-Euklidische Kreisdurchmesser, ist dann gleichsam verbogen und aus diesem Grund länger als der direkte Euklidische Durchstich. Folglich ist das Verhältnis von Umfang und Durchmesser kleiner als der Euklidische Wert (Salmon 1980, 7-10). Die von Bolyai und Lobatschewski angegebene Geometrie ist dagegen eine hyperbolische Geometrie. Sie lässt sich durch die geometrischen Beziehungen auf einer sattelförmigen Oberfläche veranschaulichen. Unter solchen Bedingungen ist die Winkelsumme im Dreieck kleiner als 180° und das Verhältnis von Kreisumfang und –durchmesser größer als der Euklidische Wert π.

Gauß’ Theorie gekrümmter Oberflächen Gauß’ Theorie gekrümmter Oberflächen bildet die begriffliche Keimzelle der Riemannschen Geometrie, welche ihrerseits das mathematische Gerüst der ART darstellt. Entsprechend kann man sich der Begrifflichkeit dieser Theorien mittels der Gaußschen Flächentheorie auf anschauliche Weise nähern. Gauß dachte sich eine Fläche in einen dreidimensionalen Euklidischen Raum eingebettet und beschrieb die Fläche mit Hilfe eines dreidimensionalen Car-

3.1 Die empirische Ermittlung der physikalischen Geometrie

119

tesischen, also rechtwinkligen Koordinatensystems. Das Ziel war, diese Einbettung nur als hilfsweises Verfahren zu benutzen und am Schluss die Flächengeometrie durch Größen darzustellen, die auf der Fläche selbst zugänglich sind. Gauß führte zunächst ein internes, also an der Fläche anliegendes, aber ansonsten weitgehend beliebiges Koordinatensystem ein. Dazu benützt er zwei geeignete Kurvenscharen, die die eindeutige Kennzeichnung von Punkten der Fläche erlauben und bei denen sich die geometrischen Zwischen-Beziehungen von Kurven in den algebraischen Zwischen-Beziehungen der betreffenden Koordinaten widerspiegeln. Die Willkür dieses Koordinatensystems schließt die Angabe metrischer Beziehungen wie Längen zunächst aus. Diese Angabe stützt sich auf die Einbettung der Fläche in den umgebenden Raum und den Rückgriff auf ein Cartesisches Koordinatensystem. In einem solchen System lässt sich der Abstand Δs aus den jeweiligen Koordinatendifferenzen Δx, Δy, Δz auf der Basis der dreidimensionalen Form des Pythagoreischen Lehrsatzes ableiten: Δs2 = Δx2 + Δy2 + Δz2.

Figur 3: Kurvenlänge und Entfernung

Wegen der Krümmung der Fläche ist der Satz des Pythagoras allerdings nur auf kleine Bereiche der Fläche anwendbar. Der Abstand Δs soll eigentlich die Länge einer gekrümmten Kurve ausdrücken. Der Satz des Pythagoras gibt aber die Länge der geraden Verbindung zwischen den entsprechenden Endpunkten wieder. Je stärker die Krümmung und je länger die Strecke, desto größer wird die Abweichung zwischen der Kurvenlänge und der direkten (dreidimensional geraden) Entfernung. Folglich kann man die verzer-

120

3. Geometrie und Wirklichkeit

renden Auswirkungen der Krümmung verkleinern und schließlich vernachlässigen, wenn man die Koordinatendifferenzen sehr klein werden lässt. Der zweite Schritt der Gaußschen Behandlung besteht darin, die Cartesischen Koordinatendifferenzen (oder Koordinatendifferentiale beim Übergang ins Infinitesimale) als Funktionen der internen Koordinaten auszudrücken. Auf diese Weise werden die Cartesischen Koordinatendifferenzen im einbettenden Euklidischen Raum auf Intervalle des krummlinigen Koordinatensystems abgebildet, das an der Oberfläche anliegt. Wegen der Verzerrung durch die Flächenkrümmung muss die Abbildung jeweils lokal, also stückweise für kleine Umgebungen angegeben werden. Gauß’ wichtige Entdeckung bestand darin, dass eine einzige Funktion, deren Werte jeweils ortsabhängig sind, zu diesem Zweck hinreicht. Diese Funktion ist der metrische Tensor. Dieser drückt eine Abbildung der flächeninternen Koordinaten auf die einbettenden Cartesischen Koordinaten aus und gestattet damit die Berechnung der Abstände aus diesen internen Koordinaten. Wenn demnach der metrische Tensor gegeben ist, können Abstände aus den internen Koordinaten allein berechnet werden (Sklar 1974, 27-34). Darüber hinaus führte Gauß ein Maß für die Flächenkrümmung ein. Zunächst lässt sich an einen kleinen Bereich der Fläche in einer bestimmten Richtung näherungsweise ein Kreisbogen anpassen, dessen Krümmung man durch den Radius des entsprechenden Vollkreises ausdrücken kann. Da die Krümmung mit der Richtung des eingepassten Kreisbogens variieren kann, griff Gauß auf zwei Bögen zurück, nämlich diejenigen minimaler und maximaler Krümmung. Die Krümmung der Fläche an einem Punkt wird durch das Produkt der Krümmungsradien dieser beiden Kreisbögen ausgedrückt. Damit einer stärkeren Krümmung ein größerer Zahlenwert entspricht, wird der Kehrwert dieses Produkts als Maß der Flächenkrümmung definiert. Bei einer Ebene sind alle Krümmungsradien unendlich groß, und daher ist die Flächenkrümmung Null. Elliptische und hyperbolische Geometrie lassen sich anhand des Vorzeichens der Flächenkrümmung unterscheiden. Im ersten Fall (wie bei der Kugel) sind beide Kreisbögen in die gleiche Richtung gekrümmt, in zweiten (wie beim Sattel) in verschiedene Richtungen. Diese Flächenkrümmung ist ebenfalls aus dem metrischen Tensor und den internen Koordinaten bestimmbar somit in der Fläche selbst und ohne Rückgriff auf die äußere Einbettung ermittelbar.

3.1 Die empirische Ermittlung der physikalischen Geometrie

121

Die Verallgemeinerung zur Riemannschen Geometrie Riemanns übergreifende Theorie nicht-Euklidischer Geometrien verallgemeinert die Gaußsche Flächentheorie auf n-dimensionale differenzierbare Mannigfaltigkeiten, also Räume beliebiger Dimensionen. Der Abstandsbegriff wird über die n-dimensionale Fassung des Pythagoreischen Lehrsatzes eingeführt und über den metrischen Tensor mit einem internen Koordinatensystem verknüpft.

Bernhard Riemann

Riemanns begrifflicher Fortschritt besteht darin, dass er auf die Gaußsche Einbettung in einen höherdimensionalen Raum verzichten konnte. Riemann zog stattdessen Euklidische Tangentenräume heran, dachte sich also an den Punkten der Mannigfaltigkeit jeweils flache, nicht-gekrümmte Unterräume von gleicher Dimension wie die Mannigfaltigkeit selbst angebracht. In diesen infinitesimalen Tangentenräumen gilt die Euklidische Geometrie, und der Satz des Pythagoras ist anwendbar. Im zweidimensionalen Fall einer gekrümmten Fläche wird an jeden Punkt eine Ebene glatt angepasst. Wegen der Krümmung der Fläche sind diese Tangentenebenen an verschiedenen Punkten gegeneinander geneigt. Gleichwohl kann jede Tangentenebene aufgrund ihrer Euklidischen Struktur als Grundlage einer örtlich beschränkten Längenbestimmung über den Pythagoreischen Lehrsatz dienen. Die Krümmung legt dann fest, wie sich diese infinitesimal flachen Räume zusammenschließen.

122

3. Geometrie und Wirklichkeit

In der Riemannschen Geometrie spielt ebenso wie in der Gaußschen Flächentheorie der metrische Tensor oder die Metrik eine zentrale Rolle. Erstens kann die Metrik anhand von Eigenschaften ermittelt werden, die in der Mannigfaltigkeit zugänglich sind (wie der Winkelsumme von Dreiecken oder dem Verhältnis von Kreisumfang und –radius). Zweitens legt die Metrik alle relevanten geometrischen Eigenschaften der betreffenden Mannigfaltigkeit eindeutig fest. Insbesondere gestattet sie die Festlegung von Längen, die in der ART als Verallgemeinerung der „Raum-Zeit-Intervalle“ der SRT (s.o. 1.2.2) auftauchen, sowie der örtlich variablen Krümmung. Diese wird durch den Riemannschen Krümmungstensor angegeben, welcher die Krümmung an jedem Punkt der Mannigfaltigkeit und in jeder Richtung spezifiziert.

Geodäten in Riemannschen Mannigfaltigkeiten Den Begriff der Geodäten führte 1917 Tullio Levi-Civita (1873– 1941) in die Riemannsche Geometrie ein. Geodäten wurden zuvor bereits als die kürzesten Verbindungen zwischen zwei Punkten charakterisiert; aber es ist nützlich, zunächst mit einer anderen Definition zu beginnen. Danach sind Geodäten die geradestmöglichen Kurven in einer Mannigfaltigkeit, und sie werden durch Parallelverschiebung von Tangentenvektoren erzeugt. Großkreise sind tatsächlich auch Geodäten in diesem Sinn: sie besitzen die auf der Kugel maximal mögliche Länge und umschreiben daher den Vollkreis mit der geringsten Linienkrümmung. Levi-Civita identifizierte Geodäten anhand dieser Eigenschaft der minimalen Krümmung, die ihrerseits durch geeignete Definition der Parallelverschiebung bestimmt wird. In gekrümmten Mannigfaltigkeiten ist das herkömmliche Verständnis der Parallelverschiebung als richtungsfester Verschiebung wenig sinnvoll, was anhand des zweidimensionalen Falls anschaulich wird. Man geht an einem Punkt etwa einer Kugeloberfläche in die zugehörige Tangentenebene über und bildet entsprechend die Tangente in einer bestimmten Richtung, also einen Tangentenvektor. Verschiebt man diesen Vektor entlang einer Kurve auf der Kugeloberfläche derart, dass seine Richtung im dreidimensionalen Raum ungeändert bleibt, dann liegt der Vektor am Ende des Transportwegs nicht mehr in der Tangentenebene dieses Endpunkts und ist entsprechend kein

3.1 Die empirische Ermittlung der physikalischen Geometrie

123

Tangentenvektor mehr. Parallelverschiebung sollte aber auf solche Weise definiert werden, dass Tangentenvektoren in Tangentenvektoren überführt werden. Nach Levi-Civitas Verallgemeinerung der Parallelverschiebung auf Mannigfaltigkeiten mit nicht-verschwindender Krümmung soll ein Vektor so parallel wie möglich verschoben werden. Dies soll besagen, dass sich ein Tangentenvektor während der Parallelverschiebung entlang einer Kurve jeweils in der Tangentenebene des betreffenden Punktes befindet. Eine solche Verschiebung hat Richtungsänderungen bezogen auf den einbettenden Raum zur Folge; aber diese Änderungen werden durch die Krümmung der Mannigfaltigkeit erzwungen. Bei einer Geodäten sind die Tangentenvektoren in diesem Sinn parallel zueinander; die Linienkrümmung von Geodäten ist daher minimal. Es lässt sich dann zeigen, dass solche geradestmöglichen Kurven auch die Kurven extremaler Länge sind und dass Geodäten entsprechend die kürzesten (oder längsten) Verbindungen zwischen zwei Punkten bilden. Allgemein ist eine Raum-Zeit damit durch ihre metrischen und geodätischen Eigenschaften charakterisiert, also durch die jeweiligen Abstandsbeziehungen und geradestmöglichen Linien. Dabei legt die Metrik die geodätische Struktur eindeutig fest, aber nicht umgekehrt. Sind die Längenverhältnisse gegeben, so sind auch die geradestmöglichen Linien bestimmt; umgekehrt belässt die Auszeichnung der Geodäten einen Spielraum für die vorliegenden Entfernungsbeziehungen.

3.1.2 Das Ausmessen der Raum-Zeit Die physikalische Tragweite dieser zunächst rein mathematischen Betrachtungen stammt daraus, dass man auch Raum und Zeit als Mannigfaltigkeiten auffassen kann, deren Elemente Ereignisse sind. Die Formulierung nicht-Euklidischer Geometrien wirft dann die für die Raum-Zeit-Lehre völlig neue Fragestellung auf, welches System aus dieser Mehrzahl mathematisch konstruierbarer Geometrien die Struktur des wirklichen Raums wiedergibt. Solange nur die Euklidische Geometrie bekannt war, stellte sich die Frage einer Auswahl offenkundig nicht. Gauß war der erste gewesen, der die Entscheidung über die Geometrie des Raums als offen und als Angelegenheit der Erfahrung betrachtete; Riemann folgte ihm darin (Riemann 1854,

124

3. Geometrie und Wirklichkeit

1-2). Die Formulierung nicht-Euklidischer Geometrien eröffnet also ein Spektrum alternativer Optionen für die Geometrie der Welt. Die Überlegungen Riemanns begründeten die heute breit rezipierte und vielfach ausgearbeitete Unterscheidung zwischen mathematischer und physikalischer Geometrie. Die mathematische Geometrie spezifiziert und untersucht die Vielzahl abstrakt möglicher, also ohne Widerspruch angebbarer Raumstrukturen. Diese Untersuchungen werden jedoch allein vom Prinzip der Widerspruchsfreiheit bestimmt; es geht um logische Möglichkeiten und Folgerungsbeziehungen, ohne dass ein Geltungsanspruch in der Sache erhoben würde. Die physikalische Geometrie befasst sich dagegen auch mit dem Verhalten physikalischer Körper. Es geht dann um Lagebeziehungen wirklicher Dinge, und Aussagen darüber können nur anhand von Tatsachen getroffen werden. Die physikalische Geometrie ist daher Teil der Erfahrungswissenschaft. Durch diese Aufteilung verliert die Geometrie ihre vormalige Sonderstellung als apriorische Theorie tatsächlicher Zusammenhänge (Einstein 1921, 119-121). Vor diesem Hintergrund sollte sich die physikalische Geometrie durch Ausmessen des Raums (oder der Raum-Zeit) ermitteln lassen. Hierbei kommen insbesondere die von Gauß und Riemann angegebenen Resultate zum Tragen, dass man auch innerhalb einer Mannigfaltigkeit deren geometrische Struktur ermitteln kann. Edwin Abbot entwarf 1884 ein „Flachland“, in dem zweidimensionale Lebewesen ein physisch wenig tiefgründiges Leben führen (Abbot 1884). Abbots literarische Absicht bestand darin, eine Fabel gesellschaftlicher Verhältnisse zu erzählen und die mangelnde Offenheit für neue, ungewohnte Ideen zu beklagen. Die geometrische Gestalt von Flachland spielt keine Rolle; für diese wird ganz selbstverständlich die Euklidische Ebene angenommen. Jedenfalls könnten Flachlands bodenständige Bewohner durch Ausmessen von Dreiecken und Kreisen im Grundsatz ermitteln, ob dies denn zutrifft oder ob sie stattdessen auf der Oberfläche einer Kugel ihre komplexen Sozialbeziehungen entfalten. Dieses Rezept sollte sich analog auch auf uns räumliche Lebewesen übertragen lassen. Allerdings enthält dieses Projekt epistemische Fallstricke, die jetzt zur Sprache kommen sollen. Die zugrunde liegende Problematik besitzt zunächst keinen Zusammenhang mit der ART. Historisch ging es um erkenntnistheoretisch motivierte Versuche, die physikalische Geometrie zu ermitteln. Durch die ART ergab sich ein Umbruch insofern, als den anfangs eher abstrakten Alternativen auf einmal physikalische Tragweite zuwuchs. Vor der Annahme

3.1 Die empirische Ermittlung der physikalischen Geometrie

125

der ART ging alle Welt davon aus, dass die physikalische Geometrie Euklidisch ist. Erörtert wurde lediglich die Frage, auf welcher Grundlage diese Behauptung ruhte. Mit der ART war hingegen die Annahme einer Riemannschen Raum-Zeit verbunden, so dass sich tatsächlich Spielräume für die Geometrie der Welt eröffneten und die Frage ihrer Ermittlung eine unvermutete Praxisrelevanz erhielt. Ich stelle aus dem traditionellen Diskussionsspektrum Helmholtz’ empiristische Position vor und halte dieser eine Auswahl konventionalistischer Einwände entgegen. Einige dieser Einwände lassen bereits eine Prägung durch die ART erkennen, die in der Folge kurz dargestellt wird. Im dritten Schritt erörtere ich die Frage der epistemischen Grundlagen und Begrenzungen der Ermittlung der physikalischen Geometrie mit Bezug auf allgemein-relativistische Raum-Zeiten.

Helmholtz’ geometrischer Empirismus

Hermann von Helmholtz

Hermann von Helmholtz (1821–1894) griff um 1870 die Herausforderung auf, diejenigen Sachverhalte zu identifizieren, die die physikalische Geometrie charakterisieren und deren Ermittlung ermöglichen. Diese Erfahrungsbasis bildete für Helmholtz die freie Beweglichkeit von Körpern im Raum. Helmholtz galt es als Beobachtungstatsache, dass Körper ohne Formänderung verschoben werden können und dass entsprechend die räumliche Gestalt oder Anordnung unabhängig von Ort und Richtung ist und bei Transport erhalten bleibt. Danach können insbesondere Maßstäbe unter Erhaltung ihrer Länge im Raum bewegt werden, was die Voraussetzung für das Ausmessen des Raums bildet. Wenn sich ein Maßstab während

126

3. Geometrie und Wirklichkeit

der Verschiebung ändert, sind die Resultate kaum verlässlich. Deformationsfreie Beweglichkeit ist nur in Geometrien konstanter Krümmung realisiert. Wenn man etwa ein Dreieck auf der variabel gekrümmten Oberfläche eines Hühnereis verschiebt, so wird seine Gestalt zwangsläufig verformt. Die Seiten passen sich der veränderten Krümmung der Oberfläche an. In Riemannschen Mannigfaltigkeiten besteht freie Beweglichkeit stets in infinitesimalen Bereichen, wenn die Auswirkungen einer möglicherweise veränderlichen Krümmung nicht mehr spürbar sind. Aber Helmholtz ging hier bewusst einen Schritt weiter und behauptete die freie Beweglichkeit auch für Körper endlicher Ausdehnung. Diese deformationsfreie Verschiebbarkeit ist eine Tatsache der Erfahrung; sie zeichnet aus der Vielfalt Riemannscher Mannigfaltigkeiten die Geometrien konstanter Krümmung als Kandidaten der physikalischen Geometrie aus. Weiter sah Helmholtz in astronomischen Messungen Indizien für eine von Null ununterscheidbare Krümmung, so dass die physikalische Geometrie letztlich von der gewohnten Euklidischen Beschaffenheit ist. Aber sie ist dies nicht mehr notwendigerweise, sondern als Folge kontingenter Sachumstände (Helmholtz 1868; Helmholtz 1870; Torretti 1978, 155-166; Carrier 1994b).

3.1.3 Die empirische Unterbestimmtheit der physikalischen Geometrie Nach Helmholtz ist die freie Beweglichkeit ausgedehnter Körper eine Beobachtungstatsache. Allerdings zeigte sich, dass diese Tatsache doch schütterer ist, als es zunächst den Anschein hat. Geometrische Messergebnisse lassen oft Spielraum für unterschiedliche Deutungen, dessen Entdeckung im ersten Drittel des 20. Jahrhunderts zur These der Konventionalität der physikalischen Geometrie führte. Die Grundform dieser These geht auf Poincaré zurück, der sie 1902 in La science et l’hypothèse entwarf. Poincaré argumentierte, dass beim Erschließen der Geometrie des Raums aus den Beziehungen zwischen Körpern stets eine Verknüpfung zwischen geometrischen und physikalischen Begriffen erforderlich ist. Fände man etwa bei der Winkelsumme eines aus Lichtstrahlen gebildeten Dreiecks eine Abweichung vom Euklidischen Wert, dann ließe sich einwenden, dass die Lichtstrahlen keine Geraden darstellten und vom

3.1 Die empirische Ermittlung der physikalischen Geometrie

127

kürzesten Wege abwichen. Angenommen weiter, das Nachmessen mit festen Maßstäben ergäbe, dass die Lichtstrahlen tatsächlich den kürzesten Weg nähmen, dann ließe sich immer noch erwidern, die Länge der Maßstäbe hinge vom Ort ab und verändere sich entsprechend während des Transports. Bei der Längenmessung spiegelte dann eine generelle Verzerrung der Maßstäbe nur vor, Lichtstrahlen pflanzten sich entlang des kürzesten Weges fort. Die Störung der Messgeräte verschleierte die Krümmung des Lichtwegs. Dreiecke mit wirklich geraden Begrenzungen besäßen dagegen unfehlbar eine Winkelsumme von zwei rechten. Entsprechend kann man nach Poincaré zwar empirische Hinweise auf das Vorliegen nicht-Euklidischer Verhältnisse erhalten, diese aber durch die Annahme von Störungen im Messprozess neutralisieren. Die gemessenen Längen geben dann nicht die tatsächlichen Abstände wieder, da die Maßstäbe einer Verzerrung unterliegen (wie sie etwa durch ein Kraftfeld zustande kommen könnte). Eine Entscheidung zwischen alternativen Geometrien ist daher für Poincaré nicht auf der Grundlage der Erfahrung allein zu treffen; vielmehr müssen pragmatische Ansprüche wie die Einfachheit der Geometrie hinzutreten (Poincaré 1902, 65-81; Salmon 1980, 15-16). Charakteristisch für diese frühen Stadien der Diskussion sind dabei zwei Voraussetzungen. Erstens gelten die unterstellten Deformationen von Maßstäben und Lichtstahlen als fiktiv und von ganz unbestimmter Beschaffenheit. Es handelt sich um ein bloßes Gedankenspiel – wie ja auch keinerlei Befunde für das Vorliegen nicht-Euklidischer Verhältnisse sprachen. Zweitens wurde davon ausgegangen, eine gleichartige Verzerrung sämtlicher Maßstäbe bliebe ohne empirische Folgen. Beide Voraussetzungen stellten sich als unzutreffend heraus. Tatsächlich zieht eine generelle Änderung von Maßstäben weitere Kreise als Poincaré annahm. Schon Helmholtz hatte bemerkt, dass die Starrheit von Maßstäben und die Geradheit physikalisch realisierter Linien nicht durch unmittelbaren Augenschein feststehen. Bei einer gleichartigen Deformation aller Maßstäbe, so merkte Helmholtz an, erhält man ein andersartiges, aber empirisch äquivalentes System der physikalischen Geometrie (Helmholtz 1868, 32-33; Helmholtz 1870, 24-25). Aber anders als Poincaré zog Helmholtz daraus keine konventionalistischen Konsequenzen. Seiner Auffassung nach kann die Unterbestimmtheit der physikalischen Geometrie dadurch beseitigt werden, dass man

128

3. Geometrie und Wirklichkeit

Körperbewegungen in die Betrachtung einbezieht, also die Gesetze der Mechanik. Nach dem Trägheitsgesetz bewegt sich ein kräftefreier Körper mit konstanter Geschwindigkeit entlang einer geraden Linie. Wenn man eine Trägheitsbewegung mit deformierten Maßstäben beschreibt, dann legt der betreffende Körper im Allgemeinen nicht mehr gleiche Entfernungen in gleichen Zeiten zurück. Die Geschwindigkeit kräftefrei bewegter Körper ergibt sich dann als veränderlich, und dies zeigt, dass die Längen- oder Zeitmessungen fehlerhaft waren. Nach Helmholtz kann man daher durch Einbezug der Mechanik Verzerrungen von Maßstäben identifizieren und entsprechend ein System der physikalischen Geometrie durch Erfahrung eindeutig auszeichnen (Helmholtz 1870, 29-30; Carrier 1994b, 282). Eine konventionalistische Position ist daher nicht allein auf die Betrachtung von starren Stäben und Lichtstrahlen zu stützen, sondern muss die Gesetze der Mechanik einbeziehen. Tatsächlich gab Rudolf Carnap (1891–1970) in seiner Dissertation 1922 eine Umformulierung der Mechanik an, die Abweichungen von den gewöhnlichen Standards für Starrheit und Geradheit einbezieht (Carnap 1922, 47-54). Danach ist insbesondere das Trägheitsgesetz keine einfache Naturtatsache; es steht nicht fest, dass kräftefrei bewegte Körper gleiche Entfernungen in gleichen Zeiten durchmessen. In alternativer Lesart hängen die Geschwindigkeiten kräftefreier Körper in bestimmter Weise vom Ort ab, solche Körper besitzen also an verschiedenen Orten wechselnde Geschwindigkeiten (Reichenbach 1928, 138). Danach kann Helmholtz’ Rückgriff auf die Mechanik den konventionellen Spielraum geometrischer Systeme nicht beseitigen, weil die Bewegungsgesetze nicht weniger anpassbar sind als die geometrischen Standards. Die Konventionalitätsthese der physikalischen Geometrie hat ihre kanonische Formulierung 1928 durch Hans Reichenbach (1891– 1953) erfahren und in dieser Form die philosophische Debatte über die Raum-Zeit-Lehre maßgeblich geprägt. Ich beschränke die Darstellung von Reichenbachs Position auf das Problem des Raums; tatsächlich misst Reichenbach aber der Konventionalität von Zeitdauern und Gleichzeitigkeitsbeziehungen ebenso großes Gewicht bei.

3.1 Die empirische Ermittlung der physikalischen Geometrie

129

Hans Reichenbach

Fokus von Reichenbachs Argumentation ist die Identifikation starrer Maßstäbe, wie sie für eine verlässliche Ermittlung der Geometrie unabdingbar sind. Wer mit einem Gummiband den Raum ausmisst, kann nicht auf aussagekräftige Befunde hoffen. Starr sind insbesondere solche Maßstäbe, die ihre Länge bei Transport beibehalten und entsprechend gleiche Abstände an unterschiedlichen Orten wiedergeben. Die Herausforderung ist, empirisch sicherzustellen, dass die verwendeten Maßstäbe tatsächlich starr sind. Das Problem tritt beim Vergleich entfernter Längen zutage. Dafür kann man entweder einen Maßstab transportieren oder entfernte Strecken anvisieren und sich entsprechend auf optische Methoden stützen. Wenn man auf Transport setzt, kann man nicht ausschließen, dass sich die Länge während der Verschiebung ändert. Falls diese Änderungen für Maßstäbe verschiedener chemischer Zusammensetzung unterschiedlich ausfallen, sind sie unschwer nachzuweisen. Ein Beispiel für einen solchen Effekt sind Temperaturänderungen, die die Länge von Maßstäben in einem jeweils vom verwendeten Material abhängigen Ausmaß verzerren. Anders hingegen bei Maßstabsdeformationen durch „universelle Kräfte“. Solche Kräfte sollen dadurch gekennzeichnet sein, dass sie auf verschiedene Materialien mit gleicher Intensität wirken. Es ist unmöglich, die Wirkung universeller Kräfte durch bloßen Augenschein festzustellen. Nur benachbarte Längen können unmittelbar miteinander verglichen werden. Wenn demnach zwei lokal gleichlange Maßstäbe auf verschiedenen Wegen transportiert und anschließend wieder als lokal gleichlang gefunden werden, so ist nicht ausgeschlossen, dass während des Transports beide Maßstäbe ihre Länge in gleicher Weise geändert haben.

130

3. Geometrie und Wirklichkeit

Figur 4: Differentielle und universelle Deformation

Der Rückgriff auf optische Methoden hilft nicht weiter. Solche Methoden beruhen nämlich auf Annahmen über die Lichtausbreitung; sie setzen voraus, dass Lichtstrahlen Geraden repräsentieren. Dies ist jedoch keineswegs selbstverständlich. Die Ausbreitung von Licht wird z.B. durch den Brechungsindex des betreffenden Mediums beeinflusst. So besitzt die Atmosphäre der Venus aufgrund ihrer extrem hohen Dichte einen deutlich erhöhten Brechungsindex, was eine Ablenkung von Lichtstrahlen zur Folge hat und letztlich dazu führt, dass der Horizont aufwärts gekrümmt erscheint. Der Vergleich entfernter Längen auf der Venus mit optischen Methoden würde diese krummlinige Ausbreitung in Betracht zu ziehen und zu korrigieren haben. Man könnte daher einen Einfluss universeller Kräfte auch auf die Lichtausbreitung annehmen, so dass Lichtstrahlen in Abhängigkeit vom Ort und ohne den Einfluss eines Mediums deformiert wären. Ein direkter empirischer Nachweis einer solchen Abweichung vom geraden Wege ist ohne verlässliche Maßstäbe nicht zu bewerkstelligen. Die Folge könnte sein, dass verschieden lange Maßstäbe beim optischen Anvisieren gleichlang erscheinen. Beim optischen Vergleich entfernter Längen sind daher die gleichen Verzerrungen denkbar wie beim Transport von Maßstäben. Der vorläufige Schluss ist, dass das Ausmessen des Raums einen infiniten Regress beinhaltet. Die Auszeichnung starrer Körper und gerader Linien verlangt einen Bezug auf Vergleichskörper oder –bewegungen. Um sicherzustellen, dass die Vergleichskörper starr und die Vergleichsbewegungen geradlinig sind, ist ein erneutes Heranziehen von Vergleichskörpern und –bewegungen erforderlich. Dieser fortwährende Rückgriff auf Referenzobjekte findet kein natürliches Ende. Daher kann die Auszeichnung starrer Körper und gerader Linien nicht auf Erfahrung allein gegründet werden. Für

3.1 Die empirische Ermittlung der physikalischen Geometrie

131

die Geometrie der Welt bleibt ein Spielraum, der durch Konventionen über Starrheit und Geradheit zu füllen ist. Analoge Überlegungen finden auf den räumlichen und zeitlichen Transport von Zeitmaßstäben, also Uhren, Anwendung. Dadurch will Reichenbach eine Konventionalität von Zeitdauern und Beziehungen entfernter Gleichzeitigkeit begründen. Ich kann auf diese Übertragung der Argumentation von Längen- auf Zeitmessungen hier nicht weiter eingehen.

3.1.4 Hohlwelttheorie und geometrischer Konventionalismus Die Konventionalitätsthese soll zunächst durch ein konkretes Beispiel für einen alternativen geometrischen Entwurf veranschaulicht werden. Im 19. und 20. Jahrhundert wurde die eingangs erwähnte Hohlwelttheorie als Gegenmodell zum heliozentrischen System vertreten und entsprechend mit einem Wirklichkeitsanspruch ausgestattet. Ich will sie hier im Diskussionskontext des geometrischen Konventionalismus erörtern und als Illustration der These betrachten, dass sich die geometrische Beschaffenheit der Erde – geschweige denn des Universums – nicht durch einfaches Ausmessen eindeutig ermitteln lässt. Die Hohlwelttheorie wird also – entgegen den Absichten ihrer Urheber – als ein Beispiel für den Interpretationsspielraum geometrischer Messergebnisse betrachtet. Dadurch werden die Gründe deutlicher, die für die Auswahl der physikalischen Geometrie maßgeblich sind. Das von Johannes Lang verfasste Buch Das neue Weltbild (1933) enthält die hier maßgebliche Weiterentwicklung der Hohlweltkosmologie. Danach ist das Charakteristikum der Hohlwelt eine vom Üblichen abweichende Metrik: alle Längen sind ortsabhängig und verkürzen sich in gleicher Weise, je mehr man sich dem Mittelpunkt M der Hohlwelt nähert. Dieser Mittelpunkt ist also ausgezeichnet; der Raum ist inhomogen und anisotrop. Entsprechend ändern sich alle Maßstäbe bei Transport, da diese Änderung aber sämtliche Längen gleichermaßen betrifft, entzieht sie sich der unmittelbaren Beobachtung. Der direkte Vergleich deutet auf invariante Abstände hin, aber dieser Eindruck entsteht nur daraus, dass Messgröße und Messstandard der gleichen Änderung unterworfen sind. Die üblichen Abstände mit der Erde als Vollkugel lassen sich durch eine mathematische Transformation, in die der Erdradius

132

3. Geometrie und Wirklichkeit

eingeht, in die Abstände der Hohlwelt überführen. Dabei ergibt sich dann etwa, dass der Mond nur rund einen Kilometer groß und rund 120 km vom Mittelpunkt der Hohlwelt entfernt ist. Der Flug zum Mond ist gleichwohl schwer zu bewerkstelligen, da eben auch die Mondrakete und die Menschen in ihr schrumpfen. Die Größe der Mondfahrer auf dem Mond beläuft sich auf bescheidene 3,4 cm (Sexl 1983, 456). Auch Geschwindigkeiten werden umso kleiner, je mehr man sich dem Zentrum nähert. Das gilt für alle Geschwindigkeiten in gleichem Maße und erstreckt sich insbesondere auch auf die Lichtgeschwindigkeit. Diese abweichenden metrischen Verhältnisse haben auch zur Folge, dass kräftefreie Bewegungen von Körpern und die Bahnen von Lichtstrahlen gekrümmt verlaufen.

Figur 5: Wahrnehmung des Sternenhimmels (Sexl 1983, 455; Abdruck mit freundlicher Genehmigung des Seeberger Verlags)

Figur 6: Wahrnehmung des Horizonts (Sexl 1983, 458; Abdruck mit freundlicher Genehmigung des Seeberger Verlags)

Die Krummlinigkeit von Geodäten hat auch zur Folge, dass wir das Sternenzelt als Hohlkugel wahrnehmen: Lichtstrahlen, die aus der Umgebung des Mittelpunkts die Oberfläche erreichen, lassen

3.1 Die empirische Ermittlung der physikalischen Geometrie

133

die betreffenden Objekte auf einer Kugel angeordnet erscheinen (Figur 5). Aus dem gleichen Grund erblicken wir auf der Erde einen Horizont statt die andere Seite der Erde. Licht, das von jenseits der Horizontlinie ausgeht, erreicht nicht mehr das über der Erdoberfläche befindliche Auge des Beobachters B (Figur 6). Ähnliche Überlegungen verdeutlichen, dass ein Beobachter mit einem gewissen Abstand zur Erdoberfläche (also ein Astronaut in der Umlaufbahn) diese als Vollkugel wahrnimmt. Es ist also die Geometrie der Hohlwelt (und nicht etwa der Dunst in der Weltmitte wie ursprünglich angenommen), die uns den Durchblick verwehrt. Auch die Entstehung von Tag und Nacht ist auf die Krummlinigkeit der Lichtausbreitung zurückzuführen und bedarf nicht der Annahme einer nur halbseitig leuchtenden Sonne. Vielmehr erreicht das Licht der exzentrisch platzierten Sonne nur einen Teil der Erdoberfläche, welcher sich bei Rotation der Erde und der Sonne beständig ändert (Figur 7). Entsprechend ändern sich die Beleuchtungsverhältnisse im Tages- und Jahresrhythmus (Lang 1998).

Figur 7: Beleuchtung von Vollerde und Hohlerde durch die Sonne S (Lang 1998; © Werner Lang, Abdruck mit freundlicher Genehmigung)

Figur 8: Zwei Atomlagen mit unterschiedlicher Größe der Atome: Krümmung (Lang 1998; © Werner Lang, Abdruck mit freundlicher Genehmigung)

Die metrischen Verhältnisse führen zu gekrümmten Maßstäben. Bei einem Maßstab parallel zur Oberfläche sind die auf der Zentrumsseite befindlichen Atome gegenüber den bodenseitig gelegenen Atomen verkleinert. Zentrumsseitig ist der Stab folglich kürzer als bodenseitig und nimmt eine gekrümmte Gestalt an (Figur 8). Die Anzahl der Atome verändert sich nicht, so dass viele Erklärungen, etwa aus dem Bereich der Atom- und Kernphysik, unver-

134

3. Geometrie und Wirklichkeit

ändert in die Hohlwelt übernommen werden können. In andere Naturgesetze, etwa die Gleichungen der Newtonschen Mechanik, muss die erwähnte Koordinatentransformation eingefügt werden, um sie fit für die Hohlwelt zu machen. Das Gravitationsgesetz oder das Coulombsche Kraftgesetz zwischen elektrischen Ladungen nehmen dann eine zunächst ungewohnte Form an, da die Intensität der Kräfte vom Ort abhängig wird. Bei konsequenter Anwendung dieser Transformation lässt sich aber empirische Äquivalenz zwischen Vollkugel und Hohlkugel erreichen. Wenn diese beiden geometrischen Ansätze in der Erfahrung nicht zu unterscheiden sind, aus welchen Gründen ist dann einer vorzuziehen? Es versteht sich, dass unter solchen Umständen nur nicht-empirische Leistungen ins Gewicht fallen können. Lang sieht den Gewinn in der Kohärenz des Weltbilds. Die Hohlweltkosmologie besitze über ihre empirische Adäquatheit hinaus den Vorzug einer „wunderbaren Harmonie und Einheitlichkeit“, in der sich der Gleichklang von Mikro- und Makrokosmos erweise: „Der Mensch entsteht aus dem Ei, diesem Abbild des Kosmos. Die Zellen, aus denen er besteht, sind ein Abbild des Kosmos. Alles Leben entsteht im Inneren einer Hohlkugel“ (Lang, in: Sexl 1983, 455). Kritiker sehen dagegen den zentralen Defekt der Hohlwelttheorie in ihrem gleichsam konspirativen Denkansatz: Wenn man einen Versuchsaufbau in die Höhe hebt, ändern sich die geometrischen Verhältnisse wie Längen und Geschwindigkeiten bis hinab zu den Abmessungen der Atome – ohne dass sich dies in irgendeiner Weise in den Versuchsergebnissen niederschlüge. Hierin drückt sich eine verwunderliche Kompensation von Einflüssen aus, die in der Hohlwelttheorie ohne Erklärung bleibt und ihre methodologische Defizienz begründet (Sexl 1983, 458-459). Dieser Argumentationstypus wird sich auch in der Diskussion über die allgemein-relativistische Konventionalität der physikalischen Geometrie wiederfinden (s.u. 3.3.2).

3.1.5 Reichenbachs universelle Kräfte und die Gravitation Die bisherigen Erörterungen sind von allgemein erkenntnistheoretischer Natur und laufen (in den Begriffen Reichenbachs) darauf hinaus, dass Maßstabsdeformationen durch universelle Kräfte (die auf Körper verschiedenen Materials gleich wirken) nicht direkt empirisch nachweisbar sind. Wie die Hohlwelt vor Augen führt,

3.1 Die empirische Ermittlung der physikalischen Geometrie

135

sind unterschiedliche geometrische Ansätze mit den gleichen Daten verträglich. Reichenbachs Schluss ist, dass über Geradheit und Starrheit nicht durch Erfahrung allein zu befinden ist, sondern dass konventionelle Elemente hinzutreten. Reichenbachs Vorschlag für eine solche Konvention lautet, dass bei starren Körpern der mögliche Einfluss materialspezifischer Deformationen berücksichtigt und durch Korrektur beseitigt wird (was etwa bedeutet, Maßstabsverzerrungen durch Temperaturänderungen herauszurechnen) und dass universelle Kräfte „gleich Null“ gesetzt werden. Danach ist also der Einfluss differentieller Kräfte zu korrigieren, ein Einfluss universeller Kräfte hingegen definitorisch auszuschließen (Reichenbach 1928, 32). Die Hohlwelttheorie sieht gerade eine universelle Maßstabsdeformation vor. Die Länge von Maßstäben jedweden Materials soll auf jeweils übereinstimmende Weise vom Ort abhängen. Reichenbachs definitorische Absage an solche Deformationen besagt, dass Maßstäbe, die lokal gleich lang gefunden wurden, nach Ausführen differentieller Korrekturen auch an allen anderen Orten als gleichlang gelten sollen. Durch Reichenbachs Nullsetzungspostulat scheidet entsprechend die Hohlwelt aus. Auf den ersten Blick klingt Reichenbachs Vorschlag wie die Empfehlung, prinzipiell unbeobachtbare Verzerrungen außer Betracht zu lassen. Dies trifft jedoch nicht zu. Durch die ART werden diese erkenntnistheoretischen Überlegungen enger mit der Physik verknüpft und auch inhaltlich verändert. Insbesondere sind universelle Kräfte unter Umständen durchaus beobachtbar. Die bisherige Darstellung mag den Eindruck hervorgerufen haben, als liefe der Spielraum für universelle Kräfte auf die herkömmliche erkenntnistheoretische Behauptung der „Relativität der Größenverhältnisse“ hinaus. Danach sollte die Vergrößerung oder Verkleinerung sämtlicher Längen im Universum um den gleichen Faktor ohne beobachtbare Auswirkungen bleiben. Tatsächlich ist die Konventionalitätsthese vielfach in diesem Sinne missverstanden worden. Die Behauptung der Größenrelativität ist jedoch unzutreffend und hat auch wenig mit der Konventionalitätsthese zu tun. Zum Beispiel verletzte eine räumliche Variation von Abstandsverhältnissen die Gesetze der Körperbewegungen und müsste durch kompensatorische Anpassungen der Mechanik empirisch ununterscheidbar gemacht werden (s.o. 3.1.3). Das gilt auch für die Hohlwelt, die mit den herkömmlichen Bewegungsgesetzen nicht in Einklang steht. Zwar ist eine solche Anpassung möglich, sie ist aber

136

3. Geometrie und Wirklichkeit

eben auch erforderlich; unterschiedliche Fassungen der physikalischen Geometrie sind entsprechend nicht von vornherein empirisch äquivalent. Bei zeitlichen Änderungen aller Längen („Über-NachtVerdopplungen“) würden sich alle gemessenen Geschwindigkeiten ändern (also im Beispiel: halbieren), was bei der invarianten Lichtgeschwindigkeit besonders augenfällig wäre. Wiederum benötigte man kompensatorische Anpassungen anderer Größen, insbesondere von Zeitdauern, um empirische Äquivalenz herzustellen. Darüber hinaus verändert sich unter solchen Umständen das Verhältnis von Oberfläche und Volumen, was sich unter anderem in Veränderungen beim thermischen Verhalten der Körper niederschlüge. Die traditionelle Vorstellung der Relativität der Größenverhältnisse ist also falsch (Carrier 1994a, 146). Aber die Konventionalitätsthese hat mit dieser Vorstellung nichts zu tun. Vielmehr sind universelle Kräfte unter Umständen durchaus beobachtbar. Dies ist dann der Fall, wenn das universelle Kraftfeld Inhomogenitäten aufweist. Wenn die Intensität einer solchen Kraft von Ort zu Ort variiert, dann kann auch eine universelle Kraft relative Maßstabsdeformationen erzeugen.

Figur 9: Reichenbachs Kraftdetektor (Reichenbach 1928, 36; © Vieweg, Abdruck mit freundlicher Genehmigung)

Reichenbachs Detektor für den empirischen Nachweis einer universellen Kraft besteht aus einem Drahtring, der entlang des Durchmessers von einem Drahtstift durchzogen wird. Bei Kräftefreiheit (und nach Ausführen differentieller Korrekturen) kommt der Drahtstift genau auf dem Kreis zu liegen. Wirkt die universelle Kraft im zentralen Bereich des Geräts stärker oder schwächer als in den Randbereichen, dann passt das Ende des Drahtstifts nicht mehr genau auf den Ring. Die universelle Kraft führt in diesem Fall zu messbaren Verzerrungen. Veränderliche universelle Kräfte

3.2 Die Grundzüge der allgemeinen Relativitätstheorie

137

entziehen sich nicht der Beobachtung (Reichenbach 1928, 36-38). Weiterhin verlieren im Kontext der ART universelle Kräfte ihren explizit fiktiven Status als Instrumente erkenntnistheoretischer Untersuchung und gewinnen physikalische Relevanz. Die Schwerkraft ist ein ernsthafter Kandidat für eine solche universelle Kraft. Die Gravitation wirkt auf alle Materialien in gleicher Weise, was sich etwa darin zeigt, dass Körper unterschiedlicher chemischer Zusammensetzung gleich schnell fallen. Damit sind wir unversehens in einem völlig anderen Szenarium, in welchem die zunächst wirklichkeitsfremd scheinenden Betrachtungen zur Hohlwelt physikalische Signifikanz für unsere vertraute Welt bekommen. Die Gravitation spielt die Rolle einer universellen Kraft und weist damit eine überraschende Ähnlichkeit zu den maßstabsdeformierenden Einflüssen in der Hohlwelt auf. Wegen ihrer ortsabhängigen Intensität entzieht sich die Schwere nicht dem empirischen Nachweis. Dies wirft die Frage auf, welchen Sinn man unter solchen Umständen mit Reichenbachs Empfehlung verbinden soll, universelle Kräfte gleich Null zu setzen. Wenn solche Kräfte empirisch fassbare Auswirkungen haben können, und wenn zudem die Gravitation eine solche universelle Kraft ist, dann sollte man doch fordern, dass die Physik ihnen Rechnung zu tragen habe, statt sie durch Definition zu beseitigen. Hier kommt die ART ins Spiel, die in ihren wichtigsten Teilen 1916 von Albert Einstein formuliert wurde. Das für deren naturphilosophischen Ansatz zentrale Charakteristikum besteht in der sog. Geometrisierung der Gravitation, wonach Wirkungen der Gravitation nicht auf eine Kraft zurückzuführen sind und die Schwerkraft als universelle Kraft in diesem Sinn gleich Null gesetzt wird (s.u. 3.3.1). Stattdessen manifestiert sich die Schwere in der physikalischen Geometrie, und diese Geometrie wird ihrerseits örtlich und zeitlich veränderlich. Die Raum-Zeit besitzt eine nichtEuklidische Struktur, in der die Gravitation ihren Ausdruck findet.

3.2 Die Grundzüge der allgemeinen Relativitätstheorie 3.2.1 Einsteins „drei Prinzipien“ Ich stelle zunächst die begrifflichen Grundzüge der ART in einer Weise vor, die sich an Einsteins eigenen Gedankengang anlehnt.

138

3. Geometrie und Wirklichkeit

Für Einstein stellte sich das Problem, dass Newtons Gravitationstheorie eine unendlich schnelle Ausbreitungsgeschwindigkeit der Schwerkraft vorsah und deshalb nicht zur SRT passte. Einstein schwebte anfangs eine Verallgemeinerung der Relativitätstheorie auf beschleunigte Bewegungen vor (was sich als undurchführbar erwies), und eine solche Verallgemeinerung sollte auch eine Einpassung der Gravitationstheorie in den relativistischen Begriffsrahmen ermöglichen. Einstein stützte seine Formulierung der Theorie auf drei Prinzipien, nämlich das Machsche Prinzip, das Äquivalenzprinzip und das Prinzip der allgemeinen Kovarianz.

Das Machsche Prinzip Das von Einstein so genannte „Machsche Prinzip“ bringt die Zurückweisung des „absoluten Raums“ zum Ausdruck. Die zugrunde liegende Problematik kommt noch zur Sprache (s.u. 4.1.1), im Kern geht es darum, dass der absolute Raum im Newtonschen Verständnis ein ausgezeichnetes, ruhendes Bezugssystem darstellt. Newton hatte in „wahren Bewegungen“ oder Bewegungen gegen den absoluten Raum die Ursache für das Auftreten von Trägheitskräften gesehen. Trägheitskräfte treten in nicht-inertial bewegten, also beschleunigten oder rotierenden Bezugssystemen auf und sind in diesen selbst (unabhängig von äußeren Bezugskörpern) nachweisbar. Der zugrunde liegende Sachverhalt ist der folgende. In raumzeitlicher Darstellung werden geradlinig-gleichförmige Bewegungen als gerade Weltlinien dargestellt; Trägheitsbewegungen sind RaumZeit-Geraden (s.o. 1.2.2). Beschleunigungen oder Richtungsänderungen führen zu einer Krümmung der betreffenden Weltlinie, die ihrerseits durch das Auftreten von Trägheitskräften angezeigt wird. Zum Beispiel spüren die Insassen eines Autos beim plötzlichen Abbremsen eine nach vorn gerichtete Kraft. Sie selbst bewegen sich noch mit größerer Geschwindigkeit voran als das bereits gebremste Auto und empfinden diese Differenz als Kraftwirkung. Newton hatte durch eine raffinierte Argumentation zu zeigen versucht, dass das Auftreten solcher Trägheitskräfte nichts mit Beziehungen zwischen dem betreffenden Körper und anderen Körpern zu tun hat (s.u. 4.1.1) und dass es stattdessen die „wahre Bewegung“ dieses Körpers anzeigt, seine Bewegung also gegen ein gänzlich unbewegliches Gebilde, den „absoluten Raum“. Einstein

3.2 Die Grundzüge der allgemeinen Relativitätstheorie

139

hielt nichts von diesem Gedanken. Sein zentrales Motiv war die bei Newton angenommene Einseitigkeit der Kausalwirkung. Einerseits lässt der absolute Raum Trägheitskäfte entstehen und übt entsprechend Wirkungen aus, andererseits gibt es keine Rückwirkungen der Körper auf ihn. Nichts vermag den absoluten Raum auch nur um ein Winziges von der Stelle zu rücken. Einen solchen einseitigen Kausaleinfluss hielt Einstein für widersinnig und wollte ihn durch die Vorstellung ersetzen, dass die Trägheitseigenschaften bewegter Körper generell durch ein physikalisches Feld bestimmt sind, ähnlich dem elektromagnetischen Feld. In einem solchen Denkansatz kann der Raum zwar weiterhin physikalische Wirkungen entfalten, die Körper müssen jedoch auch auf ihn Einfluss nehmen können. Für den vorliegenden Fall bedeutet dies: Die metrischen und geodätischen Eigenschaften des Raumes oder der Raum-Zeit sollten zur Gänze durch die relativen Lagen und Bewegungen von Körpern (oder anderen Energieformen) festgelegt sein. Aus Gründen, die später deutlich werden, nannte Einstein diese Forderung „Machsches Prinzip“. „Machsches Prinzip: Das G-Feld [metrische Feld] ist restlos durch die Massen der Körper bestimmt“ (Einstein 1918, 241-242). Nach diesem Prinzip ist das Auftreten von Trägheitskräften zur Gänze durch Relativbewegungen festgelegt, nicht aber durch Bewegungen der Körper gegen den Raum. Obgleich das Machsche Prinzip Einsteins Weg zur ART bahnte, ist es in der voll entwickelten Theorie tatsächlich nicht erfüllt (s.u. 4.1.4, 4.2.2).

Das Äquivalenzprinzip Einsteins zweite Voraussetzung ist das Äquivalenzprinzip. In der Erfahrung findet sich, dass die träge Masse (die die Beschleunigung angibt, die ein Körper durch eine gegebene Kraft erfährt und die insofern den Widerstand gegen Beschleunigungen ausdrückt) mit der schweren Masse (die die Intensität des von dem Körper erzeugten Gravitationsfelds angibt) numerisch übereinstimmt. Dies äußert sich etwa darin, dass in einem Schwerefeld alle Körper mit gleicher Beschleunigung fallen. Zwar ist bei einer Verdopplung der Masse auch die Kraftwirkung doppelt so groß, zugleich verdoppelt sich aber auch der Widerstand gegen die Beschleunigung, so dass sich letztlich ein übereinstimmender Wert für die Erdbeschleunigung ergibt. Diese Gleichheit ist bereits Teil der Newtonschen

140

3. Geometrie und Wirklichkeit

Gravitationstheorie, bleibt dort jedoch unerklärt. Einstein gibt eine Erklärung, die diese numerische Gleichheit als Ausdruck einer Gleichheit der Naturen auffasst: „Die bisherige Mechanik hat diesen wichtigen Satz zwar registriert, aber nicht interpretiert. Eine befriedigende Interpretation kann nur so zustande kommen, dass man einsieht: Dieselbe Qualität des Körpers äußert sich je nach Umständen als ‘Trägheit’ oder als ‘Schwere’“ (Einstein 1917a, 54; vgl. Einstein 1922, 58-59). Danach stellen schwere und träge Masse lediglich unterschiedliche Manifestationen einer einzigen Grundgröße dar. Diese Gleichheit von schwerer und träger Masse ist der Inhalt des so genannten schwachen Äquivalenzprinzips. Nach dem schwachen Äquivalenzprinzip lässt sich eine gleichförmige Beschleunigung ohne Gravitationsfeld nicht von geradlinig-gleichförmiger Bewegung in einem gleichförmigen Gravitationsfeld unterscheiden. In einem Raumschiff, das sich in einem feldfreien Raum gleichförmig beschleunigt bewegt, fallen alle Körper mit gleicher Beschleunigung (nämlich derjenigen des Raumschiffs) und folgen parallelen Bahnen – gerade wie in einem homogenen Gravitationsfeld. Folglich kann man durch Übergang in ein gleichförmig beschleunigtes Bezugssystem die Wirkungen eines homogenen Gravitationsfelds erzeugen. Umgekehrt laufen in einem Raumschiff, das sich mit unveränderter Geschwindigkeit durch den von allen Schwereeinflüssen freien Raum bewegt, alle Bewegungen in gleicher Weise ab wie in einem frei fallenden Aufzug nahe der Erdoberfläche – wenn diese Übereinstimmung auch recht bald ein dramatisches Ende findet. Die Körper sind in beiden Fällen schwerelos, und ihre Bewegungen zeigen keine Vorzugsrichtung. Wenn man für den Augenblick die Frage der Feldquellen beiseite lässt, dann ist eine geradlinig-gleichförmige Bewegung ohne Gravitationsfeld mechanisch äquivalent mit dem freien Fall in einem homogenen Gravitationsfeld und folglich mit gleichförmig beschleunigter Bewegung. Daher kann man die Wirkungen eines solchen Gravitationsfelds durch Übergang in ein frei fallendes Bezugssystem zum Verschwinden bringen. Der Schluss ist, dass gleichförmige Beschleunigungen und homogene Gravitationsfelder für alle mechanischen Prozesse empirisch äquivalent sind. Die Annahme, dass diese Ununterscheidbarkeit nicht allein für mechanische Prozesse, sondern für sämtliche physikalischen Vorgänge (und damit insbesondere auch für die Lichtausbreitung) gilt, wird als starkes Äquivalenzprinzip bezeichnet. Während das schwache Prinzip bereits in der Newtonschen

3.2 Die Grundzüge der allgemeinen Relativitätstheorie

141

Mechanik enthalten ist, handelt es sich beim starken Prinzip um ein weiter gehendes Postulat, das spezifisch für die ART ist. Die Verknüpfung von Machschem Prinzip und Äquivalenzprinzip führt auf ein Charakteristikum der ART. Inertialsysteme sind geradlinig-gleichförmig bewegte Bezugssysteme, also Bezugssysteme in Trägheitsbewegung. Trägheitskräfte treten in NichtInertialsystemen auf, etwa einem abgebremsten Auto. Nach dem Äquivalenzprinzip ist ein Inertialsystem im homogenen Gravitationsfeld mit einem gleichförmig beschleunigten, also nicht-inertial bewegten Bezugssystem im feldfreien Raum gleichwertig, und ebenso ein Inertialsystem im feldfreien Raum mit einem gleichförmig beschleunigten, nämlich frei fallenden Bezugssystem im Gravitationsfeld. Das Äquivalenzprinzip zeigt folglich, dass die Grenze zwischen Inertialsystemen und Nicht-Inertialsystemen durch Berücksichtigung von Gravitationsfeldern verschoben werden kann. Entsprechend verdeutlicht das Äquivalenzprinzip, dass ein Zusammenhang zwischen Nicht-Inertialsystemen und der Gravitation besteht. Auch Trägheitskräfte stehen in einem Zusammenhang mit Nicht-Inertialsystemen, was nahelegt, dass auch das Auftreten von Trägheitskräften mit der Gravitation verknüpft ist. Diese Verknüpfung eröffnet die Möglichkeit, Trägheitskräfte, die als Wirkung von Bewegungen gegen den Raum aufgefasst wurden, nach Art der Gravitation als Wirkung anderer Körper zu begreifen. Der erkenntnistheoretische Vorzug ist, dass es sich bei der Gravitation um ein physikalisches Feld handelt, dem die Entrücktheit und Unzugänglichkeit des absoluten Raums fehlt. Dadurch wird nahegelegt, dass das Äquivalenzprinzip einen Weg zur Umsetzung des Machschen Prinzips eröffnet: Durch Einbezug der Gravitation besteht Aussicht, den absoluten Raum zu vermeiden. Die Ausgestaltung der ART wird diesen Gesichtspunkt deutlicher hervortreten lassen. Das Äquivalenzprinzip ist bislang nur auf homogene Gravitationsfelder angewendet worden. Seine Erweiterung auf inhomogene Felder (mit räumlich oder zeitlich wechselnder Feldintensität) verlangt eine bloß lokale Anwendung auf räumlich oder zeitlich benachbarte Ereignisse. Ein Beispiel eines inhomogenen Gravitationsfelds ist das kugelsymmetrische Feld der Erde. In diesem ist die Schwerebeschleunigung auf den Erdmittelpunkt gerichtet und weist daher an verschiedenen Punkten im Allgemeinen in verschiedene Richtungen. Zwei Körper, die an verschiedenen Punkten frei fallen, folgen daher keineswegs parallelen Bahnen wie einem einheitlichen beschleunigten Bezugssystem. Folglich ist das Schwere-

142

3. Geometrie und Wirklichkeit

feld der Erde nicht durch Übergang in ein einziges beschleunigtes Bezugssystem im feldfreien Raum nachzubilden. Die globale Äquivalenz zwischen beschleunigten Bezugssystemen und Gravitationsfeldern ist daher auf gleichförmige Beschleunigungen und homogene Gravitationsfelder eingegrenzt (Einstein 1917a, 57). Beschränkt man sich aber auf kleine Bereiche des irdischen Schwerefeldes, so kann man durchaus ein Bezugssystem derart wählen, dass das Schwerefeld verschwindet. In seiner lokalen Fassung besagt das starke Äquivalenzprinzip daher, dass an jedem Raum-Zeit-Punkt (also an jedem Ereignis) in beliebigen Gravitationsfeldern ein Bezugssystem derart gewählt werden kann, dass in einer kleinen Umgebung um den Punkt keine Wirkungen des Schwerefelds auftreten. Dieses System ist das „lokal frei fallende Bezugssystem“ oder das „geodätische Bezugssystem“. Nach diesem lokalen starken Äquivalenzprinzip kann ein in einem Gravitationsfeld frei fallender Beobachter durch Untersuchungen in seiner nächsten Umgebung dieses Feld nicht nachweisen. Alle Prozesse laufen für ihn wie in einem Inertialsystem im feldfreien Raum ab. Der Einfluss der Gravitation drückt sich dann darin aus, wie sich verschiedene dieser lokal frei fallenden Systeme zusammenfügen. In einem kugelsymmetrischen Feld (wie demjenigen der Erde) geschieht dies auf andere Weise als in einem homogenen Feld. Im ersten Fall bewegen sich benachbarte frei fallende Teilchen aufeinander zu, im zweiten folgen sie parallelen Bahnen.

Prinzip der allgemeinen Kovarianz Der dritte Einsteinsche Grundsatz ist das Prinzip der allgemeinen Kovarianz. Einsteins Ziel war es, die Theorie so zu formulieren, dass ihre Ausdrücke in beliebigen Bezugssystemen anwendbar sind, nicht allein in Inertialsystemen. Die zulässigen Transformationen zwischen Bezugssystemen sollten nur durch die beiden Bedingungen der umkehrbaren Eindeutigkeit und der Stetigkeit (bzw. Differenzierbarkeit) eingeschränkt sein. Die Bedeutsamkeit dieses Gesichtspunkts wird deutlich, wenn man sich vor Augen führt, dass die Gesetze der Newtonschen Mechanik (wie auch die SRT) zunächst nur in Inertialsystemen gültig sind und an nicht-inertiale Bezugssysteme durch Einführung zusätzlicher Größen (wie Zentrifugalkräfte oder Corioliskräfte) ange-

3.2 Die Grundzüge der allgemeinen Relativitätstheorie

143

passt werden müssen. Diese Auszeichnung einer besonderen Klasse von Bezugssystemen wollte Einstein in der ART vermeiden. Die Theorie sollte also eine solche Gestalt erhalten, dass ihre Gesetze in unveränderter Form in allen Bezugssystemen gültig bleiben. Dies wird gerade durch die allgemeine Kovarianz erreicht. Zulässig sind danach nur solche Größen, die ein bestimmtes Transformationsverhalten aufweisen. Kovariante Größen transformieren sich bei einem Übergang zwischen (weitgehend) beliebigen Bezugssystemen in gleicher Weise, so dass auch Gleichheitsbeziehungen zwischen ihnen, und damit die zugehörigen Gesetze, ungeändert in allen diesen Bezugssystemen gelten (Friedman 1983, 46-56). Einstein ging es dabei darum, den Begriff der allgemeinen Kovarianz (der der Differentialgeometrie entstammte) mit neuartiger physikalischer Signifikanz zu versehen. Die Beseitigung der mathematischen Privilegierung einer bestimmten Klasse von Bezugssystemen wurde von Einstein anfangs als gleichbedeutend mit der Abschaffung der physikalischen Auszeichnung irgendeiner Bewegungsform betrachtet. Einstein glaubte 1916, dass das Prinzip der allgemeinen Kovarianz als Ausdruck und Konkretisierung eines „allgemeinen Relativitätsprinzips“ gelten könne, demzufolge alle Bewegungsformen physikalisch gleichberechtigt sind: „Wir werden dem Relativitätsprinzip in weitestem Sinne dadurch gerecht, daß wir den Gesetzen eine solche Form geben, daß sie bezüglich jedes derartigen (vierdimensionalen) Koordinatensystems gelten, d.h. daß die sie ausdrückenden Gleichungen bezüglich beliebiger Transformationen kovariant sind“ (Einstein 1922, 63). Nach dieser Ansicht findet die physikalische Gleichberechtigung aller Bewegungsformen seinen Ausdruck in der mathematischen Gleichberechtigung beliebiger Bezugssysteme. Allerdings hat das Prinzip der allgemeinen Kovarianz nichts mit der Relativität der Bewegung zu tun. Wie Erich Kretschmann 1917 zeigte, beinhaltet die mathematische Tatsache der ungeänderten Form der Gleichungen in beliebigen Koordinatensystemen nicht auch die physikalische Ununterscheidbarkeit oder Äquivalenz aller Bezugssysteme. Allgemeine Kovarianz bringt zum Ausdruck, dass sich die Größen der Theorie und ihre Beziehungen auf eine koordinatensystemübergreifende Weise und damit in koordinatenunabhängiger Form darstellen lassen; sie schließt aber nicht aus, dass bei der Umsetzung der übergreifenden Darstellungen in konkrete Bezugssysteme doch wieder spezifische Merkmale besonderer Bewegungsformen in Erscheinung treten.

144

3. Geometrie und Wirklichkeit

Tatsächlich lässt sich beinahe jede Bewegungstheorie allgemein kovariant formulieren. Insbesondere kann man allgemein kovariante Formulierungen der SRT und der Newtonschen Mechanik angeben. Dabei konkretisiert sich dann gerade die einheitliche Formulierung in verschiedenen Bezugssystemen auf unterschiedliche Weise. Insbesondere treten in Nicht-Inertialsystemen unverändert Trägheitskräfte in Erscheinung, so dass sich an der Sonderstellung der Inertialsysteme nichts geändert hat. Allgemeine Kovarianz ist eine mathematische Eigenschaft der Formulierung einer Theorie, die nicht die physikalische Äquivalenz von Bezugssystemen garantiert. Neu in der ART ist allein, dass eine allgemein kovariante Formulierung unvermeidlich ist. Der Grund ist, dass die Raum-ZeitKrümmung keine globalen Inertialsysteme mehr zulässt (Friedman 1983, 54-56, 207-209, 212-213).

3.2.2 Lichtstrahlen, Uhren, Maßstäbe und Bewegung im Gravitationsfeld Einsteins Prinzipien geben anschaulich Aufschluss über einige wichtige Effekte im Gravitationsfeld. Von besonderer Bedeutung ist hier zunächst das Äquivalenzprinzip, demzufolge ein Gravitationsfeld lokal einem beschleunigten Bezugssystem gleichwertig ist. Wirkungen eines solchen Felds können daher durch Analyse des Sachverhalts im lokal äquivalenten beschleunigten Bezugssystem im feldfreien Raum ermittelt werden. Man betrachte etwa einen Lichtstrahl, der seitlich in einen beschleunigten Kasten einfällt und diesen durchquert. Im beschleunigten Bezugssystem des Kastens durchläuft der Lichtstrahl eine gekrümmte, gegen den Boden gerichtete Bahn. Nach dem starken Äquivalenzprinzip wird aber die gleiche Bahn auch im Gravitationsfeld beschrieben, so dass Licht im Gravitationsfeld in Richtung des Bereichs höherer Feldstärke abgelenkt wird. Eine ähnliche Überlegung zeigt, dass ein Gravitationsfeld den Gang von Uhren verlangsamt. Vom hinteren Ende eines beschleunigten Kasten werde Licht ausgesendet. Wenn das Licht das vordere Ende des Kastens erreicht, bewegt sich dieser mit größerer Geschwindigkeit als bei der Aussendung. Bei einer Relativbewegung zwischen Sender und Empfänger tritt eine Doppler-Verschiebung auf. Da sich der Empfänger von der Quelle entfernt, äußert sich

3.2 Die Grundzüge der allgemeinen Relativitätstheorie

145

diese als Rotverschiebung. Bei Rückübertragung auf das Gravitationsfeld ist die Konsequenz, dass ein gegen die Richtung der Schwerebeschleunigung (also gleichsam aufwärts) bewegter Lichtstrahl ebenfalls eine Rotverschiebung erfährt. Fasst man jeden Wellenberg des Lichtstrahls als Zeitsignal auf, so werden (wegen dieser Dopplerabsenkung der Frequenz) bei einem Betrachter am vorderen Ende des Kastens die Wellenberge mit vergrößertem Zeitabstand ankommen. Wenn eine Uhr am hinteren Ende Zeitsignale aussendet, so besitzen diese beim Empfang am vorderen Ende einen größeren Zeitabstand als diejenigen einer am vorderen Ende mitbewegten Uhr. Für einen vorn platzierten Beobachter geht daher die hintere Uhr verlangsamt. In der Rückübertragung bedeutet dies, dass eine Uhr im stärkeren Gravitationsfeld gegenüber einer Uhr im schwächeren Gravitationsfeld zurückbleibt. Dies ist die Uhrenverlangsamung im Gravitationsfeld.

Maßstabslänge im Gravitationsfeld Um das Verhalten von Maßstäben im Gravitationsfeld zu ermitteln, geht man wiederum in das lokal äquivalente beschleunigte Bezugssystem, etwa eine rotierende Scheibe. Vom Standpunkt eines äußeren, nicht mitrotierten Beobachters aus erfahren Maßstäbe entlang der Peripherie eine Lorentz-Kontraktion, während dies bei radial orientierten Maßstäben nicht der Fall ist. Folglich ist das so gemessene Verhältnis von Umfang und Durchmesser eines Kreises auf der Scheibe von π verschieden, was eine Abweichung von der Euklidischen Geometrie anzeigt. Um diesem Befund Rechnung zu tragen, bieten sich zwei Optionen an: (1) Die tangential ausgerichteten Maßstäbe werden als kontrahiert betrachtet und ihre Länge wird durch die Lorentz-Transformation korrigiert. Dadurch wird die gewöhnliche Euklidische Geometrie wieder hergestellt. (2) Es wird angenommen, dass alle Maßstäbe ihre Länge unabhängig von ihrer Orientierung beibehalten. Dann ist keine Korrektur erforderlich, und das gemessene Verhältnis von Umfang und Durchmesser wird als Anzeichen für das Vorliegen einer nichtEuklidischen Geometrie betrachtet.

146

3. Geometrie und Wirklichkeit

Die Verallgemeinerung dieser Behandlung führt auf den folgenden Schluss: Wenn man die Invarianz von Maßstäben bei Transport voraussetzt, dann ergibt sich in beschleunigten Bezugssystemen eine nicht-Euklidische Geometrie. Das Äquivalenzprinzip erlaubt dann die Rücktransformation auf ein Inertialsystem im Gravitationsfeld. Im Beispiel kann man die Scheibe als nicht-rotierend auffassen und annehmen, auf dieser herrsche ein inhomogenes Gravitationsfeld. Folglich ist im Gravitationsfeld die Geometrie von nicht-Euklidischer Natur. Voraussetzung ist aber, dass man auf eine Korrektur der erhaltenen Längenverhältnisse verzichtet. Für einen solchen Verzicht spricht, dass die Lorentz-Kontraktion alle Maßstäbe in gleicher Weise betrifft, ebenso wie das Gravitationsfeld auf alle Materialien gleich wirkt. Damit wird die Verbindung zu Reichenbachs Begrifflichkeit deutlich. Die Gravitation ist eine materialunspezifische und insofern universelle Kraft, und der Verzicht auf eine Korrektur läuft darauf hinaus, ihren Einfluss nicht als Störung oder Verzerrung von Maßstäben zu betrachten. Genau dies meint Reichenbach mit der Empfehlung, universelle Kräfte „gleich Null“ zu setzen. Wenn man dieser Vorgabe folgt, dann ergibt sich, dass im Gravitationsfeld eine nicht-Euklidische Geometrie vorliegt. Ein Gravitationsfeld drückt sich entsprechend in der Struktur der physikalischen Geometrie aus. Der Einschluss der Gravitation in die Raum-Zeit-Struktur liefert den tieferen Grund für den Verzicht auf die Korrektur ihres Einflusses. Ziel ist das Ausmessen der Raum-Zeit, und wenn die Gravitation Teil der Raum-Zeit ist, dann ist ihr Einfluss keine korrekturbedürftige Störung.

Bewegung im Gravitationsfeld Der Einbezug der Gravitation in die physikalische Geometrie hat Auswirkungen auf die Beschreibung von Teilchenbewegungen. Insbesondere ergibt sich nämlich als verallgemeinertes Trägheitsgesetz, dass Teilchen, die allein unter dem Einfluss der (Newtonschen) Trägheit und der Gravitation stehen, sich so geradlinig und gleichförmig bewegen wie dies unter den gegebenen Verhältnissen nur möglich ist. Ihre Weltlinien sind also Raum-Zeit-Geodäten, und diese geodätische Bewegung stellt die Verallgemeinerung der Newtonschen Trägheitsbewegung dar. Die Geodätenstruktur ist eindeutig, da als Folge

3.2 Die Grundzüge der allgemeinen Relativitätstheorie

147

des Äquivalenzprinzips sämtliche Teilchen an einem gegebenen Ort im Gravitationsfeld die gleiche Bewegung ausführen. Das gilt zum Beispiel für Bewegungen im elektromagnetischen Feld nicht, da diese nicht allein von den Eigenschaften des Feldes, sondern auch von Teilcheneigenschaften abhängen (wie der Ladung) und entsprechend für verschiedene Teilchen verschieden ausfallen. Ohne diese Eindeutigkeit könnte man Weltlinien im Gravitationsfeld nicht als Indikator der Raum-Zeit-Struktur gelten lassen. Frei fallende Teilchen bewegen sich also entlang von Geodäten. Durch den Übergang in das zugehörige lokal frei fallende oder geodätische Bezugssystem wird der Einfluss der Schwere zum Verschwinden gebracht (wenn auch mit Einschränkungen, s.u. 3.2.4). Aus dieser Möglichkeit, die Gravitation durch bloßen Wechsel des Bezugssystems wegzutransformieren, zog Einstein den Schluss, dass weder die Newtonsche Trägheit noch die Gravitation separat, sondern allein ihre Verknüpfung physikalisch von Bedeutung ist. Je nach Wahl des Bezugssystems erscheint die gleiche Größe, gleichsam die Einsteinsche Trägheit, als Newtonsche Trägheit oder als Newtonsche Schwere. Für Einstein brachte diese Verknüpfung die Wesensgleichheit von Gravitation und Trägheit zum Ausdruck – und diese ist die angestrebte tiefere Erklärung des Äquivalenzprinzips (s.o. 3.2.1) wie auch die Grundlage für die Auffassung von Bewegungen im Gravitationsfeld als verallgemeinerte Trägheitsbewegungen.

3.2.3 Die Geometrisierung der Gravitation In diesem Denkansatz spielt die Gravitation eine einzigartige Rolle im Vergleich zu allen anderen Wechselwirkungen. Während diese Teilchen vom geraden Wege abbringen und Maßstäbe deformieren, ist die Gravitation von Einfluss darauf, welches die geradestmöglichen Bewegungen und die festen Intervalle sind. Aus diesem Grund wird ihr Einfluss auf Bewegungen und Stäbe nicht korrigiert: Wenn man die Raum-Zeit ausmessen will, ergibt es kaum Sinn, die Wirkung der Raum-Zeit auf den Messprozess zu korrigieren. Diese Integration der Gravitation in die Raum-Zeit-Struktur wird als Geometrisierung der Gravitation bezeichnet. Sie beinhaltet zugleich, dass Raum und Zeit kein festgefügtes Behältnis für die wechselnden Ereignisse der Erscheinungswelt bilden, sondern (wie die Gravitation) dem Einfluss von Materie und Energie unterworfen sind. In

148

3. Geometrie und Wirklichkeit

Abhängigkeit von der Verteilung von Massen und Feldern ändern sich die raumzeitlichen Maßverhältnisse und die Geodätenstruktur. Dieser Einfluss von Materie auf die Raum-Zeit wird durch Einsteins Feldgleichungen der Gravitation beschrieben, die die Verteilung von Materie und Energie als den Quellen des Gravitationsfelds mit der physikalischen Geometrie in Beziehung setzen. Konkret verknüpfen die Feldgleichungen den sog. Energie-Impuls-Tensor, der alle Quellen des Gravitationsfelds mit Ausnahme des Gravitationsfelds selbst (das in der ART zu seinen eigenen Quellen zählt) enthält, mit der Metrik und der Krümmung. Die Feldgleichungen stellen das Einsteinsche Gegenstück zu Newtons Gravitationsgesetz dar. Physikalisch neuartig ist der eben angedeutete Aspekt, dass das Gravitationsfeld selbst eine Quelle des Gravitationsfelds ist. Im Gegensatz zur Newtonschen Gravitationskraft ist Einsteins geometrisierte Gravitation selbst schwer. Diese Eigentümlichkeit führt zur Nicht-Linearität der Feldgleichungen und findet ihren empirischen Ausdruck unter anderem in sog. Gravitationswellen und dem im Vergleich zur Newtonschen Theorie schnelleren Voranschreiten des Merkurperihels. Durch die Gravitation entsteht in der ART eine Abweichung von der sog. Minkowski-Raum-Zeit, die in der SRT vorliegt. In der Minkowski-Raum-Zeit hat das Raum-Zeit-Intervall (in einer Raum-Achse) die Form s2 = c2 t2 – x2 (s.o. 1.2.2); dies entspricht der sog. Minkowski-Metrik. Die Minkowski-Raum-Zeit ist flach, während die ART-Raum-Zeiten Krümmungen unterschiedlicher Größe aufweisen und damit örtlich und zeitlich variable und in der Form kompliziertere Metriken besitzen. Einsteins Feldgleichungen übertreffen ihr Newtonsches Gegenstück beträchtlich an logischer Kraft. Insbesondere beinhalten sie die lokale Energie- und Impulserhaltung sowie die Bewegungsgleichung. In der Newtonschen Gravitationstheorie müssen das Gravitationsgesetz und die Bewegungsgleichung im Gravitationsfeld jeweils separat angegeben werden; in der ART reichen hingegen die Feldgleichungen hin. Aus diesen folgt, dass „Testteilchen“, also Massenpunkte, ausdehnungslose und nicht-rotierende Teilchen, im Gravitationsfeld zeitartigen Geodäten folgen, wie es die Bewegungsgleichung ausdrückt (Misner, Thorne & Wheeler 1973, 475-480; Carrier 1994a, 137-138). Ebenso ergeben sich aus den Feldgleichungen die auf der Grundlage des Äquivalenzprinzips abgeleiteten Effekte wie die Ablenkung von Lichtstrahlen oder die Verlangsamung von Uhren im Gravitationsfeld (s.o. 3.2.2).

3.2 Die Grundzüge der allgemeinen Relativitätstheorie

149

Einsteins Idee einer Geometrisierung der Gravitation und die mit ihr verbundene Vorstellung einer variablen physikalischen Geometrie war von revolutionärer Neuartigkeit. Niemand zuvor hatte Ähnliches ins Auge gefasst. Zwar waren schon vor Einstein nichtEuklidische Strukturen der physikalischen Geometrie in Betracht gezogen worden, etwa von Helmholtz (s.o. 3.1.2), aber niemand hatte die Möglichkeit einer raumzeitlich veränderlichen Geometrie oder die Vorstellung der Geometrisierung einer physikalischen Wechselwirkung in Erwägung gezogen. Einsteins Einbezug einer solchen Wechselwirkung in die Raum-Zeit-Struktur war eine Idee von bestechender Originalität und verblüffender physikalischer Tragweite. Bezogen auf Bahnbewegungen besagt Geometrisierung, dass sich frei fallende Körper (oder eigentlich Testteilchen) entlang von Geodäten bewegen (s.o. 3.2.2). Zwar folgen etwa Planeten bei ihrem freien Fall um die Sonne dem Augenschein nach keineswegs der geradestmöglichen Bahn. Es geht jedoch erstens in der ART nicht um räumlich gerade Linien, sondern um Bewegungen und damit um Weltlinien. Zweitens bewirkt die Sonne eine Abweichung der Geometrie von der flachen Minkowski-Raum-Zeit. Die Ellipsenbahn der Planeten um die Sonne stellt eine geodätische Bewegung in einer gekrümmten Raum-Zeit dar. In dieser Sichtweise unterliegen die Planeten also keiner Kraft, die sie von der geradestmöglichen Bahn ablenkt; die Planeten führen eine Trägheitsbewegung aus.

Figur 10: Lichtablenkung im Gravitationsfeld (Quien, Wehrse & Kindl 1995, 58; © Quien, Wehrse & Kindl)

Was frei fallenden Teilchen recht ist, ist Lichtstrahlen billig. Auch die Ausbreitung von Licht folgt dem geradestmöglichen Weg, den die

150

3. Geometrie und Wirklichkeit

jeweilige Raum-Zeit-Struktur erlaubt, und wird entsprechend durch ein Gravitationsfeld beeinflusst. Diese Lichtablenkung im Schwerefeld der Sonne bildete eine der frühen empirischen Tests der ART. Der Effekt schlägt sich in einer Verschiebung scheinbarer Sternpositionen bei einer Sonnenfinsternis nieder. Durch die Abdeckung werden nahe bei der Sonne befindliche Sterne sichtbar, die dann relativ zu anderen, weiter von der Sonne entfernten Sternen verschoben erscheinen. Eddington veröffentlichte 1919 Daten, denen zufolge Einstein diesen Effekt auch quantitativ richtig vorhergesagt hatte, und leitete damit den Triumph der ART ein (auch wenn die wissenschaftshistorische Analyse inzwischen gezeigt hat, dass Eddingtons Beobachtungen eigentlich keine schlüssige Bestätigung des Effekts zuließen). Die verallgemeinerte Trägheit oder die Bewegungen von Teilchen und Lichtstrahlen im Gravitationsfeld bringen entsprechend die geodätische Struktur zum Ausdruck, wie sie für die jeweils vorliegende Raum-Zeit charakteristisch ist. Alle Abweichungen von derartigen Trägheitsbewegungen gehen auf äußere Kräfte zurück – genau wie in der Newtonschen Mechanik alle Abweichungen von der raumzeitlich geraden Bahnbewegung äußeren Kräften zugeschrieben werden. Nach einer bekannten Legende war es der Fall eines Apfels, der Newton zu der Idee der universellen und wechselseitigen Gravitation inspirierte: Apfel und Erde ziehen einander mit der gleichen Kraft an; da die Masse des Apfels jedoch erheblich kleiner ist als die Masse der Erde, ist die Beschleunigungswirkung auf diese entsprechend geringer. Vor dem Hintergrund der geometrisierten Gravitation ergibt sich für den fallenden Apfel hingegen ein anderes Bild. Da der Apfel frei fällt, bewegt er sich kräftefrei. Er wird nicht von der Erde angezogen, sondern folgt der für ihn geradestmöglichen Weltlinie. Es ist vielmehr der Apfelbaum, der sich unter dem Einfluss von Kräften bewegt. Seine Weltlinie biegt sich durch die Wirkung der Kohäsion von der Geodäten weg (die durch die Bewegung seines vormaligen Bestandteils repräsentiert wird). Die Kohäsion fixiert den Baum auf der Erdoberfläche und hindert ihn daran, seiner Trägheitsbewegung zu folgen. Der Baum wird also durch Kräfte davon abgehalten, sich dem Apfel anzuschließen; nicht der Apfel wird vom Baum weggezogen (Synge 1960, 132-133). Allerdings ist die Gravitation nicht zur Gänze aus diesem Bild verschwunden. Dass die Geodäte gerade die betreffende Gestalt besitzt, hängt ihrerseits von der Materieverteilung und damit von der Gravitation ab. Die Geometrisierung der Gravitation führt daher zu einem geänderten naturphilosophischen Verständnis der Schwere.

3.2 Die Grundzüge der allgemeinen Relativitätstheorie

151

Figur 11: „Wheelers Apfel“ (Misner, Thorne & Wheeler 1973, 4; © Freeman)

Das Bild der geometrisierten Gravitation lässt sich anhand eines auf John Archibald Wheeler (1911–2008) zurückgehenden Bildes auch auf andere Weise an einem Apfel demonstrieren. Das Szenarium von Wheelers Apfel bezieht sich auf die Wege einer Ameisengesellschaft auf der gekrümmten Oberfläche eines Apfels. Dabei sind zwei Aspekte wesentlich: (1) Lokale Flachheit: Die Bewegungen der Ameisen verlaufen so gerade wie nur möglich. Keine Ameise führt einen überflüssigen Schlenker aus; alle gehen schnurstracks geradeaus. Die Ameisen folgen Geodäten, die in kleinen Bereichen geraden Linien nahekommen. (2) Globale Krümmung: In größeren Bereichen macht sich die Krümmung der Apfeloberfläche bemerkbar. Zwei Ameisen laufen am Punkt P in etwas verschiedene Richtungen los und gehen unbeirrt geradeaus. Ihre Bahnen entfernen sich zunächst voneinander, laufen an unterschiedlichen Seiten des Apfelstils vorbei und nähern sich schließlich wieder einander an. In der Newtonschen Theorie werden diese Bahnbewegungen gleichsam durch eine fernwirkende Kraft des Apfelstils auf die Ameisen erklärt. Nach Einstein gehen die Ameisen dagegen nur die geradestmöglichen Wege. Die Beschaffenheit der Oberfläche am jeweiligen Ort der Ameise bestimmt ihren Gang. Kein Einfluss von fernen Objekten, keine Ablenkung von außen tritt auf. Die örtlich vorhandene Geometrie legt die Bewegung fest. Umgekehrt beruht die Raum-Zeit-Krümmung auf der Materie- und Energieverteilung.

152

3. Geometrie und Wirklichkeit

Der springende Punkt der Geometrisierung ist also: Die Raum-Zeit sagt der Materie, wie sie sich zu bewegen hat, und die Materie sagt der Raum-Zeit, wie sie sich zu krümmen hat (Misner, Thorne & Wheeler 1973, 3-5).

Einstein und die Feldgleichungen der Gravitation Einsteins methodologische Orientierung erfuhr durch die Erfahrungen mit der Formulierung der ART eine tiefgreifende Änderung. Die ART sollte die in der SRT enthaltene Gleichberechtigung von Bezugssystemen erweitern und insbesondere Bewegungen im Gravitationsfeld einschließen. Die zentralen Elemente der ART ergaben sich dabei fast zwangsläufig aus der konsequenten Verfolgung des selbst durchaus naheliegenden Programms der Verallgemeinerung der SRT. Diese Erfahrung der Alternativlosigkeit der mathematischen Konstruktion einer Theorie prägte Einstein tiefgreifend und führte zu einer Abwendung von der operationalistischen Ausrichtung seiner jungen Jahre und zu Zweifeln an der heuristischen Kraft von Beobachtungen.

Albert Einstein

Für Einstein sind es nicht komplizierte und entlegene Erfahrungsbefunde, wie sie in hochentwickelten Experimenten zutage treten, sondern allgemeine Tatsachen und plausible mathematische Zwangsbedingungen (wie seine drei Prinzipien (s.o. 3.2.1)), die die

3.2 Die Grundzüge der allgemeinen Relativitätstheorie

153

Gestalt der Theorie fixieren. Rückblickend erklärt Einstein: „Noch etwas anderes habe ich aus der Gravitationstheorie gelernt: Eine noch so umfangreiche Sammlung empirischer Fakten kann nicht zur Aufstellung so verwickelter Gleichungen führen. ... Gleichungen von solcher Kompliziertheit wie die Gleichungen des Gravitationsfeldes können nur dadurch gefunden werden, daß eine logisch einfache mathematische Bedingung gefunden wird, welche die Gleichungen völlig oder nahezu determiniert. Hat man aber jene hinreichend starken formalen Bedingungen, so braucht man nur wenig Tatsachenwissen für die Aufstellung der Theorie“ (Einstein 1949, 33; vgl. Howard 2004). Bei der Formulierung der ART gewinnt Einstein den Eindruck der Unausweichlichkeit. Die zentrale Kreativitätsleistung besteht für ihn darin, den angemessenen mathematischen Begriffsapparat zu identifizieren. Ist diese Grundlage richtig gewählt, so führt die Bedingung, die Gleichungen der Theorie sollten möglichst einfach sein, zum korrekten Ergebnis. „Das eigentlich schöpferische Prinzip liegt aber in der Mathematik. In einem gewissen Sinne halte ich es also für wahr, daß dem reinen Denken das Erfassen des Wirklichen möglich sei, wie es die Alten geträumt haben“ (Einstein 1930, 117). Der Gegensatz zwischen dem erfahrungs- und praxisorientierten Einstein der frühen Zeit und dem zu einem begrenzten Apriorismus neigenden Einstein der späteren Jahre springt ins Auge. Bei der Formulierung der SRT war es das Spektrum der messbaren Größen gewesen, das die Struktur der Theorie geprägt hatte (s.o. 1.2.1). Nach seiner Kehrtwende rückte Einstein die traditionell mit dem Platonismus verknüpfte erkenntnistheoretische Festlegung auf die konstruktive Rolle der Mathematik für die Naturerkenntnis ins Zentrum. Zwar entscheiden die Tatsachen nachträglich über die Brauchbarkeit der durch den mathematischen Entwurf gewonnenen Theorie, aber für den kreativen, den Fortschritt vorantreibenden Physiker sind Tatsachen im Kern ohne Belang. Einsteins methodologische Umorierentierung schlägt sich ganz konsequent in einer gewandelten Auffassung von der Rolle von Messinstrumenten nieder. Im Operationalismus der Frühzeit begrenzte die Messbarkeit von Größen ihre Eignung für die theoretische Beschreibung. In der späteren Zeit rückt Einstein dagegen die Möglichkeit der theoretischen Behandlung des Messprozesses ins Zentrum. Charakteristisch ist die Lichtuhr, die eine Analyse der Zeitmessung mit den begrifflichen Mitteln der SRT erlaubt (s.o.

154

3. Geometrie und Wirklichkeit

1.2.2). In diesem Ansatz gehen die Messinstrumente nicht mehr der Theorie voran und umgrenzen deren legitimen begrifflichen Spielraum. Vielmehr legt die Theorie fest, welche Größen auf welche Weise gemessen werden können. Bei der Lichtuhr wird die Funktionsweise des Messgeräts mit den begrifflichen Mitteln gerade derjenigen Theorie erfasst, die auch den Resultaten Rechnung trägt. Die SRT erklärt nicht allein die Erfahrungsbefunde, sondern auch die Mittel zu deren Feststellung (Carrier 1994a, 21-23).

3.2.4 Grenzen der Geometrisierung Allerdings ist die Geometrisierung der Gravitation Einschränkungen unterworfen, die der naturphilosophischen Leitvorstellung, die Schwere sei keine selbstständige Kraftwirkung, sondern fugenlos in die Raum-Zeit integriert, Grenzen auferlegen. Hier sind insbesondere der Krümmungsvorbehalt und die fehlende Bindung an Feldquellen von Belang. Der Krümmungsvorbehalt setzt an Geltungsbeschränkungen des lokalen Äquivalenzprinzips an. Das lokale Prinzip findet im Besonderen auf inhomogene Gravitationsfelder Anwendung und besagt, dass ein in einem beliebigen Gravitationsfeld frei fallender Beobachter mit Untersuchungen in seiner nächsten Umgebung das Feld nicht nachweisen kann. Alles Geschehen läuft für ihn wie in einem Inertialsystem im feldfreien Raum ab (s.o. 3.2.1). Allerdings trifft das lokale Äquivalenzprinzip nicht generell zu. In voller Allgemeinheit gilt das Äquivalenzprinzip nicht lokal, also in kleinen Umgebungen, sondern nur infinitesimal, also für ausdehnungslose Testteilchen und deren (eindimensional aufgefasste) Bahnbewegungen. Auswirkungen der Raum-Zeit-Krümmung sind nämlich auch im lokal frei fallenden Bezugssystem nachweisbar, insbesondere anhand von sog. Gezeitenkräften. Diese entstehen aus Inhomogenitäten des Gravitationsfelds und erzeugen eine Deformation von Körpern. Wenn z.B. eine verformbare Kugel im inhomogenen Gravitationsfeld der Erde frei fällt, dann wirkt die Gravitationskraft am unteren Ende der Kugel wegen deren größerer Nähe zum Erdzentrum stärker als am oberen, so dass sich die Kugel in Fallrichtung verlängert und insgesamt eine elliptische Form annimmt. Diese Kräfte sind gerade auch für das Auftreten der Gezeiten auf der Erde verantwortlich (und daraus stammt ihre Bezeich-

3.2 Die Grundzüge der allgemeinen Relativitätstheorie

155

nung). Danach werden nämlich die irdischen Wassermassen auf der dem Mond zugewandten Seite der Erde von diesem stärker als der Erdmittelpunkt angezogen, während sie auf der mondabgewandten Seite der Erde schwächer als die Erde insgesamt angezogen werden. Deshalb ist das Wasser an beiden Seiten relativ zum Erdzentrum beschleunigt, was sich in den beiden Flutbergen manifestiert. Die Gestalt der Erde nähert sich dadurch gerade der elliptischen Form an. Gezeitenkräfte erlauben eine von der Größe des betrachteten Raum-Zeit-Bereichs unabhängige Ermittlung der Krümmung. Bei einer Verkleinerung dieses Bereichs sinkt zwar die absolute Intensität der beteiligten Kräfte, jedoch bleibt ihr Verhältnis konstant. Deshalb ändert sich die Gestalt eines durch Gezeitenkräfte deformierten Körpers bei Verkleinerung nicht (Synge 1960, 115; Ohanian 1977, 903-906; Friedman 1983, 199-202). Diese Gestalt gibt demnach Aufschluss über das Ausmaß der Inhomogenität des Gravitationsfelds und eröffnet einen lokalen Zugang zur RaumZeit-Krümmung. Anhand von Gezeitenkräften lässt sich mit lokal verfügbaren Mitteln zwischen einem beschleunigten Bezugssystem und einem inhomogenen Gravitationsfeld unterscheiden. Im Gravitationsfeld sind schwebende Wassertropfen möglicherweise zu Ellipsoiden deformiert, im feldfreien Raum dagegen nicht. Das Äquivalenzprinzip kann also nicht als umfassende physikalische Ununterscheidbarkeitsbehauptung gelten. Nur wenn man das Äquivalenzprinzip auf Testteilchen bezieht, gilt es ohne Einschränkung und in beliebigen Gravitationsfeldern. Wegen der Punktförmigkeit von Testteilchen greifen Gezeitenkräfte an ihnen nicht an. In geometrischer Betrachtungsweise entspricht dies einem punktweisen Übergang in den infinitesimalen Tangentenraum (unter Ausschluss einer kleinen Umgebung) (s.o. 3.1.1). Als Ununterscheidbarkeitssatz ist das starke Äquivalenzprinzip entsprechend auf hochidealisierte Umstände beschränkt (Friedman 1983, 199202; Norton 1985, 204, 235, 239, 245; Ray 1987, 67-73). Zweitens erlaubte die Bindung eines Gravitationsfelds an Feldquellen, also an Ursachen des Feldes, die Unterscheidung zwischen Bewegungen im Gravitationsfeld und in beschleunigten Bezugssystemen. In diesem Sinne hatte Max von Laue bereits 1911, also noch vor der Fertigstellung der Theorie, gegen Einsteins Geometrisierungsprojekt eingewendet, dass ein beschleunigtes Bezugssystem im feldfreien Raum ein Gravitationsfeld höchstens simulieren, nicht aber mit diesem äquivalent sein könne, da keine Massen vorhanden

156

3. Geometrie und Wirklichkeit

sein müssen, die dieses Feld erzeugen. Einsteins Erwiderung lautet, die ART verlange „die Einführung des Feldes als eines selbständigen nicht weiter reduzierbaren Grundbegriffs. Die Allgemeine Relativitätstheorie kann [...] nur als Feldtheorie gedacht werden. Sie hätte sich nicht entwickeln können, wenn man an der Auffassung festgehalten hätte, daß die Realität aus materiellen Punkten bestehe, die unter dem Einfluß von zwischen ihnen wirkenden Kräften sich bewegen. Wenn man Newton die Gleichheit der trägen und der schweren Masse aus dem Äquivalenzprinzip zu erklären versucht hätte, hätte er notwendig mit folgendem Einwand entgegnen müssen: Es ist zwar richtig, daß relativ zu einem beschleunigten Koordinatensystem die Körper solche Beschleunigung erfahren wie in der Nähe der Oberfläche eines gravitierenden Himmelskörpers relativ zu diesem; aber wo sind die Massen, welche im ersten Falle diese Beschleunigungen erzeugen? Zweifellos hat die Relativitätstheorie die Selbständigkeit des Feldbegriffs zur Voraussetzung“ (Einstein 1922, 138-139). Einsteins Vorstellung ist demnach, dass die geometrisierte Gravitation nicht auf Quellen zurückführbar sein muss. Die Geometrisierung beinhaltet die Absage an die Auffassung, die Gravitation vermittle eine Wechselwirkung zwischen Körpern. Kennzeichen der Gravitation ist vielmehr eine universelle (materialunspezifische) Ablenkung von der Newtonschen Trägheitsbewegung, welches ihre Ursache auch immer sein mag. Die ART behandelt die Gravitation als eine eigenständige Größe, die von ihren materiellen Quellen unabhängig ist (Norton 1985, 214). Es ist aber fraglich, ob Einsteins Erwiderung von Laues Einwand gegen die Äquivalenz von beschleunigten Bezugssystemen und Inertialsystemen im Gravitationsfeld wirklich entkräftet. Der Einwand besagt, dass wenn sich ein beschleunigtes Bezugssystem in einer erkennbar materieund strahlungsfreien Region bewegt, das Fehlen von Feldquellen den Schluss erlaubt, dass ein beschleunigtes Bezugssystem vorliegt und nicht ein Inertialsystem im Gravitationsfeld. Danach sollten sich also beide Sachverhalte anhand ihrer jeweiligen Ursachen unterscheiden lassen. Beide Einschränkungen des Äquivalenzprinzips führen zu Grenzen der Geometrisierung der Gravitation. Es ist dann eben nicht so, dass Trägheitskraft und Schwerkraft generell durch einen bloßen Wechsel des Bezugssystems und damit der Betrachtungsweise ineinander überführt werden könnten. Das Auftreten von Gezeitenkräften und die Anerkennung der Verpflichtung auf eine

3.2 Die Grundzüge der allgemeinen Relativitätstheorie

157

kausale Erklärung der betreffenden Bewegungen beseitigen unter Umständen die Gleichwertigkeit von Bewegungszuständen und Gravitationsfeldern. Anders als bei der Äquivalenz unterschiedlicher Inertialsysteme in der SRT liegt letztlich keine umfassende physikalische Gleichwertigkeit von beschleunigten Bezugssystemen und Gravitationsfeldern vor. Hierin drücken sich die Grenzen des begrifflichen Ansatzes der ART aus. Angesichts dieser Begrenzungen schlug John L. Synge (1897– 1995) vor, nicht die universellen Abweichungen von Newtonschen Trägheitsbewegungen als Ausdruck der Gravitation zu betrachten, sondern die Raum-Zeit-Krümmung. Die Krümmung ist unabhängig vom Bezugssystem und findet insbesondere in Gezeitenkräften ihren Ausdruck (Synge 1960, IX, 109). Für die so bestimmte Gravitation sind durchaus Feldquellen angebbar. Einsteins Feldgleichungen verknüpfen unter anderem die Quellen des Gravitationsfelds mit der Krümmung, so dass sich für die solcherart aufgefasste Schwere eine durchgehende Anbindung an Ursachen aufrechterhalten lässt (Carrier 1994a, 141). Synges Vorschlag hat wenig Anklang gefunden, vor allem deswegen, weil er „eine von Einsteins schönsten Einsichten unkenntlich werden lässt, dass es nämlich keinen wesentlichen Unterschied zwischen Trägheit und Schwere gibt“ (Norton 1985, 244). In der Tat folgen zwar bei Synge Testteilchen weiterhin geodätischen Bahnen, aber die Gravitation wird wieder eindeutig zu einer physikalischen Kraftwirkung. Synges Deutung reagiert also auf die Grenzen der Geometrisierung mit einer begrenzten Absage an die Geometrisierung. Seit einem halben Jahrhundert steht die Integration der Gravitation in die Gesamtheit der physikalischen Wechselwirkungen auf der wissenschaftlichen Tagesordnung. Die Entwicklung drängt auf eine Quantentheorie der Gravitation, deren Beschaffenheit allerdings bislang nicht erkennbar ist. Diese künftige Theorie wird aber aller Erwartung nach die Gravitation nach dem Muster der übrigen physikalischen Wechselwirkungen behandeln, nämlich als quantisierte Kraft in einer Minkowski-Raum-Zeit. Dies stützt Synges Ansatz und könnte dazu führen, dass die Sonderstellung der Gravitation, die ihr durch Einsteins Geometrisierung zuwuchs, am Ende wieder beseitigt wird.

158

3. Geometrie und Wirklichkeit

3.3 Die erkenntnistheoretische Stellung der physikalischen Geometrie Nach diesem knappen Umriss des physikalischen Inhalts der ART und ihrer naturphilosophischen Folgen zurück zu den erkenntnistheoretischen Aspekten des Projekts, die Raum-Zeit auszumessen.

3.3.1 Universelle Kräfte in der allgemeinen Relativitätstheorie Das konventionalistische Verständnis der physikalischen Geometrie beinhaltet im ersten Schritt das Herausarbeiten eines Spielraums für die Raum-Zeit-Struktur im Licht der geometrischen Messungen und im zweiten Schritt die Eingrenzung der Geometrie durch pragmatisch begründete Anforderungen. Für diesen zweiten Schritt stellt Reichenbachs Postulat, universelle Kräfte seien gleich Null zu setzen, die kanonische Formulierung dar (s. 3.1.5). Vor dem Hintergrund des entwickelten Verständnisses der ART wird jetzt deutlich, dass dieses Nullsetzen universeller Kräfte zwei unterschiedliche Verfahren anspricht. Erstens geht es um die Beseitigung der Auswirkung von Gravitationseffekten durch Übergang ins lokal frei fallende Bezugssystem. „Nullsetzen“ meint also „zum Verschwinden bringen“, und Reichenbachs Empfehlung beinhaltet eine Privilegierung lokal frei fallender Bezugssysteme (wie sie für die ART charakteristisch ist). Zweitens lassen sich aber nicht sämtliche Effekte eines Gravitationsfelds auf diese Weise beseitigen. Inhomogene Gravitationsfelder manifestieren sich in Gezeitenkräften, die sich in Deformationen von Körpern ausdrücken und entsprechend nicht einfach durch Missachtung aufzuheben sind. In diesem Zusammenhang drückt das „Nullsetzen der Kräfte“ stattdessen die Rückführung auf die physikalische Geometrie aus. Es ist keine Kraftwirkung, sondern die veränderliche Struktur des RaumZeit-Gefüges, die Maßstäbe im Gravitationsfeld verformt. Reichenbachs Nullsetzungspostulat läuft damit auf die Forderung nach Geometrisierung der Gravitation hinaus. Das Anliegen ist, klar zu machen, in welchem Sinne sich die von Einstein gewählte Zugangsweise von alternativen theoretischen Ansätzen unterscheidet und vor diesen ausgezeichnet ist. Nach Reichenbach ist der Vorzug des Nullsetzungspostulats bloß pragmatischer Natur. Das Gesamtsystem aus Physik und physikalischer Geometrie,

3.3 Die erkenntnistheoretische Stellung der physikalischen Geometrie

159

das sich auf dieser Grundlage ergibt, ist einfacher und bequemer als eine Universalkrafttheorie vom Typus der Newtonschen Gravitationstheorie. Zwar ist die Newtonsche Theorie selbst der ART auch empirisch unterlegen, aber die Interpretation der geometrischen Befunde in den Begriffen einer flachen Hintergrundgeometrie und geeigneten Maßstabsdeformationen universellen Zuschnitts führt zu einem der Einsteinschen Theorie empirisch äquivalenten Ansatz und ist daher höchstens umständlich, aber nicht falsch. Die geometrisierte Gravitation ist vor einer Theorie mit einer universellen Kraft nur durch ihre „deskriptive Einfachheit“ privilegiert – und dies macht den konventionalistischen Zug dieser Philosophie der Geometrie aus (Reichenbach 1928, 23-34).

Universelle Kräfte und Trägheitsbewegungen Reichenbachs Behandlung leidet unter der gesonderten Betrachtung von räumlicher und zeitlicher Geometrie. Universelle Kräfte sind primär räumliche Kräfte, so dass dieser Ansatz der raumzeitlichen Zugangsweise der ART nicht gerecht wird. Zwar ist sich Reichenbach über diesen Umstand durchaus im Klaren, aber die konkrete Behandlung lässt ihn dann doch weitgehend außer Betracht. Ein stärker integrierter, raumzeitlich angelegter Ansatz nimmt auf Teilchenbewegungen und Lichtstrahlen statt auf die Länge von Maßstäben Bezug. Es geht entsprechend zunächst darum, die Raum-Zeit der ART durch besser geeignete Verfahren zu ermitteln, um anschließend den eventuellen Spielraum für konventionelle Festlegungen zu identifizieren. In einem geistvollen Ansatz haben 1972 Jürgen Ehlers, Felix Pirani and Alfred Schild dieses modernisierte Projekt eines Ausmessens der Raum-Zeit verfolgt. Dabei stellen sie sich in die Helmholtzsche Tradition und suchen diejenigen grundlegenden Sachverhalte zu identifizieren, anhand derer die Beschaffenheit der physikalischen Geometrie ermittelt werden kann. Es sollen also die Tatsachen identifiziert werden, die der Geometrie zugrunde liegen. Dabei sind die folgenden Schritte wesentlich. Zunächst werden Ereignisse in einem lokalen Bezugssystem geordnet. Dazu werden Lichtsignale ausgesandt und nach Reflexion an dem betreffenden Ereignis wieder empfangen. Die zugehörigen Zeiten ergeben ein lokales System von „Radarkoordinaten“, deren mehrere

160

3. Geometrie und Wirklichkeit

sich koordinieren und zu einem „Atlas“ zusammenfügen lassen. Im zweiten Schritt wird die Lichtausbreitung zur Identifikation der Lichtkegelstruktur benutzt, welche ihrerseits die Klasse der empirisch zulässigen Metriken stark einschränkt. Der dritte Schritt zieht frei fallende Testteilchen in Betracht und ermittelt mit ihrer Hilfe die Geodäten der betreffenden Raum-Zeit. Die Identifikation der Geodäten stützt sich auf ihre Eindeutigkeit: Richtung und Geschwindigkeit an einem gegebenen Bahnpunkt legen die gesamte Bahnbewegung fest. Diese Eigenschaft beruht in der Sache auf dem schwachen Äquivalenzprinzip (s.o. 3.2.1), im induktiven Aufbau handelt es sich jedoch um eine Beobachtungstatsache, dass beliebige Teilchen unter dem Einfluss der Schwere eine gleiche Anfangsbewegung stets auf gleiche Weise fortsetzen. Im vierten Schritt werden die Lichtkegelstruktur und die geodätische Struktur unter Beachtung der Beobachtungstatsache zusammengefügt, dass die Bahnbewegungen frei fallender Teilchen stets innerhalb des betreffenden Lichtkegels verbleiben, diesem aber beliebig nahe kommen können. In diesem Rahmen kann also die Raum-Zeit, wie sie nach Maßgabe der ART in bestimmten Bereichen vorherrscht, in einer Art von induktivem Aufstieg und entsprechend ohne Voraussetzung theoretischer Grundsätze empirisch ermittelt werden. Die relevanten grundlegenden Tatsachen sind die Invarianz der Lichtgeschwindigkeit (auf der die feste Lichtkegelstruktur beruht), die Tatsache, dass frei fallende Teilchen stets hinter Lichtsignalen zurückbleiben, sowie die Auszeichnung frei fallender Teilchen als kräftefrei (Ehlers, Pirani & Schild 1972, 63-68; Ehlers 1973, 85-87; Ehlers 1988: 146-158; Carrier 1994a, 179-182; Carrier 1994b, 280-281). Tatsächlich lässt sich in einem solcherart raumzeitlichen Zugang der konventionelle Spielraum deutlicher identifizieren. Dieser ergibt sich daraus, dass es durchaus keine einfache Beobachtungstatsache ist, dass Teilchen im freien Fall keiner Kraftwirkung unterliegen und entsprechend eine geodätische Bewegung ausführen. In der Standardversion der ART ist die Bewegungsgleichung für Teilchen im Gravitationsfeld eine Geodätengleichung. Es ist nun ohne weiteres möglich, in diese Gleichung eine universelle Kraft einzufügen, indem man eine abweichende Geodätenstruktur vorgibt. Diese neue Geodätenstruktur ergibt zusammen mit der neu eingeführten Kraft die vormalige Geodätenstruktur, die man unter der Voraussetzung, frei fallende Teilchen führten geodätische Bewegungen aus, nach der skizzierten Vorgehensweise aus den

3.3 Die erkenntnistheoretische Stellung der physikalischen Geometrie

161

Beobachtungen erhält. Die Newtonsche Gravitationstheorie wäre eine Theorie dieser Art, da der freie Fall in deren Sicht eine Abweichung von der geradlinig-gleichförmigen Trägheitsbewegung markiert. Bahnbewegungen im Gravitationsfeld werden dann als beschleunigt betrachtet; sie weichen von den Raum-Zeit-Geraden, den Geodäten der Newtonschen Raum-Zeit ab. Bewegungen frei fallender Teilchen könnten also entweder als direkter Ausdruck von Raum-Zeit-Geodäten gelten oder als Anzeichen einer anderen, frei gewählten Geodätenstruktur, deren Abweichungen von der ersten eine geeignet angepasste universelle Kraft Rechnung trägt (Glymour 1980, 366; Friedman 1983, 298; Carrier 1994a, 151-153). Mit diesem Ansatz gelingt es, den Begriff der universellen Kraft und den mit ihm verbundenen Spielraum in die Behandlungsweise der ART einzuführen. Dieser Spielraum besteht in der Freiheit, eine geodätische Bewegung als eine beschleunigte Bewegung unter der Wirkung einer universellen Kraft zu betrachten und umgekehrt. Was eine kräftefreie Bewegung ist, kann nicht durch ausschließlichen Rückgriff auf Erfahrung bestimmt werden. Der Freiraum bei der Identifikation der Trägheitsbewegung tritt also neben den Freiraum bei der Ermittlung des starren Körpers als ein zweiter Anwendungsfall der These der Konventionalität der physikalischen Geometrie.

3.3.2 Die Feldinterpretation der physikalischen Geometrie und die Konventionalitätsthese Gegen diese konventionalistische Sicht gewann ab etwa 1965 ein alternativer Denkansatz an Gewicht, der die Raum-Zeit-Größen als definit oder bestimmt auffasste und deren Konventionalität abwies. Diese These der definiten Geometrie besagt, dass die Raum-Zeit der ART mit einer genau bestimmten Metrik und Geodätenstruktur ausgestattet ist, die wiederum in eindeutiger Weise (nämlich über die Einsteinschen Feldgleichungen) mit der Masse-Energie-Verteilung zusammenhängen. Es gibt keinen Freiraum für signifikante geometrische Konventionen (Friedman 1983, 26). Die empiristische und konventionalistische Interpretation geht von einem theoriefreien Ausmessen der Raum-Zeit aus. Zuerst werden die Fakten festgestellt, dann wird auf dieser Grundlage die Theorie formuliert. Dabei zeigt sich dann, dass die erreichbaren

162

3. Geometrie und Wirklichkeit

Tatsachen die Theorie nicht eindeutig festzulegen vermögen. Die Adäquatheit der Messverfahren ist nämlich durch Logik und Erfahrung allein nicht zu garantieren. Man erkennt nicht durch bloßen Augenschein, ob frei fallende Teilchen die geradestmöglichen Weltlinien repräsentieren. Hier bleibt ein Spielraum, der durch Entscheidungen aufzufüllen ist. In engem Zusammenhang mit diesem Primat der Erfahrung steht eine verifikationistische Auffassung der Wissenschaftssprache: erst durch Verknüpfung von Symbolen mit Erfahrungen entstehen Begriffe von wissenschaftlicher Tragweite. Überdies ist die Erfahrung auch die einzig legitime Quelle von Geltung. Folglich sind empirisch äquivalente Theorien in gleichem Maße gültig, auch wenn sie sich in pragmatischer Hinsicht (wie ihrer Einfachheit) unterscheiden. Endlich ist für diesen Zugang eine instrumentalistische Orientierung charakteristisch. Danach besteht der Zweck von Theorien allein in der denkökonomischen Zusammenfassung von Erfahrungen und nicht in der Entschlüsselung der Wirklichkeit hinter den Erscheinungen. Der empiristisch-konventionalistische Ansatz: (1) Erfahrungsdominierte Zugangsweise: Theoriefreies Ausmessen der Raum-Zeit. (2) Verifikationstheorie der Bedeutung: Bedeutungszuweisung durch Verknüpfung einzelner Begriffe mit Erfahrungselementen. (3) Geltung: Übereinstimmung mit der Erfahrung als einziger Geltungsgrund für Theorien. (4) Epistemische Orientierung: Instrumentalistische Sicht von Theorien als Zusammenfassungen von Erfahrungen. Die Vertreter der Definitheitsthese lassen sich dagegen nicht auf das Szenarium eines theoriefreien Ausmessens der Raum-Zeit ein. Es geht nicht um den grundständigen Aufbau geometrischer Theorien, sondern um die Interpretation entwickelter Theorien. Die Definitheitsthese zielt dann darauf ab, die physikalische Geometrie analog zu anderen wissenschaftlichen Theorien aufzufassen. Dieser Ansatz geht auf Weyl zurück und wird von Hilary Putnam näher artikuliert. Nach dieser Feldinterpretation der physikalischen Geometrie sind geometrische Größen wie die Metrik oder die Geodätenstruktur wie physikalische Felder in der Art elektromagnetischer Felder zu interpretieren. Die geometrischen Felder sind Größen aus

3.3 Die erkenntnistheoretische Stellung der physikalischen Geometrie

163

eigenem Recht und begrifflich unabhängig von den zugehörigen Messverfahren, also von ihren materiellen Quellen oder ihren empirischen Indikatoren. Körper treten mit der Raum-Zeit-Struktur in Wechselwirkung und beeinflussen auf diese Weise die Werte, die die geometrischen Größen annehmen. Umgekehrt legen diese geometrischen Größen die Weltlinien von Körpern und die Längenintervalle fest. Bahnbewegungen oder das Verhalten starrer Körper gehören zu den empirischen Indikatoren der Raum-Zeit-Struktur, bilden aber nicht deren exklusive Grundlage. Vielmehr schlägt sich die physikalische Geometrie – wie die anderen physikalischen Felder – in einer Vielzahl von Phänomenen nieder. Diese Phänomene beinhalten eine Wechselwirkung zwischen dem geometrischen Feld und anderen physikalischen Prozessen (Weyl 1923, 219-226; Putnam 1963; Putnam 1975; Carrier 1994b, 289). In dieser Feldinterpretation wird die physikalische Geometrie als theoretischer Zustand gedeutet, nicht als Beobachtungsgröße. Geometrische Beziehungen werden durch die einschlägige Theorie spezifiziert und sind auf mehrfache, aber indirekte, theorienvermittelte Weise empirisch zugänglich. Diese Sicht ist typischerweise mit einer realistischen Interpretation der physikalischen Geometrie verbunden. Die Raum-Zeit-Struktur stellt nicht einfach eine Zusammenfassung der Beziehungen zwischen Maßstäben und Weltlinien dar. Sie existiert unabhängig von ihren empirischen Indikatoren, ebenso wie das elektromagnetische Feld unabhängig von schwingenden Ladungen existiert. Diese Feldinterpretation beinhaltet eine vierfache Verschiebung im Vergleich zum empiristisch-konventionalistischen Ansatz. Erstens verfährt Raum-Zeit-Philosophie durch Interpretation von Raum-Zeit-Theorien, nicht durch Rekonstruktion von Raum-ZeitMessungen unter Absehen von diesen Theorien. Zweitens wird in Sachen Wissenschaftssemantik der Verifikationismus zugunsten der Kontexttheorie der Bedeutung aufgegeben und die Bedeutung wissenschaftlicher Begriffe auf ihre Einbettung in den Zusammenhang einschlägiger Naturgesetze zurückgeführt. Bedeutung erwächst aus dem theoretischen Kontext und nicht aus der stückweisen Verknüpfung von Wort und Gegenstand. Drittens wird auf der methodologischen Ebene angenommen, dass auch nicht-empirische Vorzüge zur Geltung einer Theorie beitragen. Eine größere Vereinheitlichungsleistung oder die Bewahrung kausaler Erklärbarkeit markieren einen Erkenntnisfortschritt. Endlich verpflichtet sich die Feldinterpretation auf den wissenschaftlichen Realismus.

164

3. Geometrie und Wirklichkeit

Die physikalische Geometrie ist keine knappe Zusammenfassung einschlägiger Messergebnisse; vielmehr existieren metrische und geodätische Felder unabhängig von menschlichen Erkenntnisanstrengungen. Die Feldinterpretation der Geometrie: (1) Theoriendominierte Zugangsweise: Raum-Zeit-Philosophie als Interpretation des Gesamtsystems relevanter physikalischer Theorien. (2) Kontexttheorie der Bedeutung: Festlegung von Begriffsbedeutungen durch den zugehörigen Gesetzeszusammenhang. (3) Geltung: Nicht-empirische Vorzüge tragen zur Gültigkeit einer Theorie bei. (4) Epistemische Orientierung: Wissenschaftlicher Realismus: Erfolgreiche Theorien entschlüsseln die Beschaffenheit der Natur.

Die kausale Erklärung der Raum-Zeit-Struktur Die unterschiedliche philosophische Orientierung beider Zugangsweisen zeigt sich insbesondere bei der gegensätzlichen Einschätzung der Tragweite nicht-empirischer Vorzüge. Einer der Angelpunkte der Kontroverse ist etwa die Frage, ob kausale Erklärbarkeit ein nicht-empirischer Vorzug ist, der die überlegene Geltung einer Theorie zu begründen vermöchte. Die empiristischkonventionalistische Deutung setzt ausschließlich an den Strukturen der Raum-Zeit und ihrer empirischen Ermittlung an, lässt aber die Erklärung dieser Strukturen durch Ursachen außer Betracht. Es werden Maßstabsdeformationen und Beschleunigungen durch universelle Kräfte eingeführt, aber keine Ursachen dieser Kräfte angegeben. Die Definitheitsthese hält es hingegen für einen Erkenntnisvorzug, nicht allein für einen pragmatischen Gewinn, wenn sich die geometrischen Verhältnisse aus Feldquellen nach Feldgleichungen ergeben. Die frühen Vertreter der Konventionalitätsthese schenkten dem Problem der Kausalerklärung keinerlei Beachtung; die späteren Vertreter wiesen die Forderung nach Bewahrung der Kausalität hingegen mit dem Argument ab, es werde von keiner Naturtatsache

3.3 Die erkenntnistheoretische Stellung der physikalischen Geometrie

165

erzwungen, dass Kräfte Ursachen haben und nicht aus dem Blauen entspringen. Die Fähigkeit zur Kausalerklärung sei ohne Einfluss auf die objektive Gültigkeit der betreffenden Theorie (Grünbaum 1973, 72). In der Wissenschaft ist hingegen in anderen Zusammenhängen der kausalen Erklärbarkeit ein größerer Stellenwert beigemessen worden. Ein Beispiel ist Newtons Argument zugunsten der heliozentrischen Struktur des Planetensystems. Auf der Ebene der Planetenbewegungen besitzt die Copernicanische Theorie einen empirisch äquivalenten Herausforderer, nämlich das geoheliozentrische System des Tycho Brahe, bei dem die Planeten um die Sonne kreisen, diese aber um die Erde. Die Positionen der Planeten, aber auch qualitative Züge der Planetenbewegungen wie die Venusphasen lassen sich im Rahmen beider Theorieansätze übereinstimmend erhalten. Zieht man jedoch zusätzlich die wirkenden Kräfte und deren Ursachen in Betracht, dann erkennt man, dass (vor dem Hintergrund der Newtonschen Bewegungsgesetze und des Gravitationsgesetzes) allein das heliozentrische Modell eine kausale Erklärung der Planetenbewegungen bereitstellt. Dieser Vorzug bildet eine objektive Auszeichnung dieses Modells vor der Tychonischen Alternative (Newton 1726, 396-397). Lässt man die kausale Erklärbarkeit auch dann als Erkenntnisvorzug gelten, wenn sie sich nicht in empirischen Leistungsverbesserungen ausdrückt, dann müssen die konventionellen Alternativen, die mit quellenlosen Kräften operieren, nicht allein als pragmatisch nachteilig, sondern auch als epistemisch defizient gelten. Diese Alternativen beschreiben die Beziehungen von Maßstäben und Teilchenbewegungen auf jeweils andersartige Weise und drücken entsprechend die geometrische Datenbasis jeweils unterschiedlich aus. Eine aussagekräftige Konventionalitätsbehauptung müsste jedoch nicht allein die unterschiedliche Formulierung der Beobachtungen zum Gegenstand haben, sondern auch deren alternative kausale Erklärbarkeit.

Die Konventionalität der physikalischen Geometrie Die Feldinterpretation der physikalischen Geometrie ist gleichbedeutend mit der Diskreditierung der herkömmlichen Konventionalitätsthese. Die theoriendominierte Zugangsweise bringt die kausale

166

3. Geometrie und Wirklichkeit

Erklärbarkeit der Raum-Zeit-Struktur als epistemischen Anspruch und Auszeichnungsmerkmal einer Theorie ins Spiel. Quellenlose Kräfte, die willkürlich eingeführt und deren Auswirkungen anschließend wieder kompensiert werden, können als Bestandteile der Wirklichkeit nicht überzeugen. Diese Annahme von Einflüssen und der nachfolgenden spurenlosen Beseitigung ihrer Wirkungen ist kennzeichnend für sog. „konspirative Theorien“ vom Typus der Hohlweltkosmologie (s.o. 3.1.4), aber auch der Lorentzschen Elektrodynamik, die zunächst Auswirkungen der Bewegung eines Beobachters auf die Lichtgeschwindigkeit annimmt und diese durch die Einführung der Lorentz-Kontraktion wieder neutralisiert (s.o. 1.2.2). Solchen Denkansätzen wohnt eine Beliebigkeit inne, die sie eher als Produkt der Phantasie ihrer Urheber erscheinen lassen denn als Ausdruck eines Naturmechanismus. Erkennt man also die epistemische Tragweite von Beurteilungsmaßstäben jenseits der empirischen Adäquatheit an, dann sind die alternativen Geometrien des traditionellen Konventionalismus ungültig und nicht allein unvorteilhaft. Die Entwicklung der Wissenschaftsphilosophie ist über die herkömmliche Konventionalitätsthese hinweggegangen. Allerdings ist dies nicht gleichbedeutend mit der Annahme der Definitheitsthese. Die Feldinterpretation erzwingt zunächst lediglich eine neue Formulierung der Frage nach der Konventionalität der physikalischen Geometrie. In der ART wird eine Erklärung der geometrischen Beziehungen durch die Einsteinschen Feldgleichungen gegeben, die die Raum-Zeit-Struktur mit den Quellen des Gravitationsfelds verknüpft. Eine adaptierte Fassung der Konventionalitätsthese müsste besagen, dass die alternativen Raum-ZeitStrukturen jeweils auch durch alternative Versionen der Feldgleichungen erklärt werden können. Tatsächlich gibt es eine von Walter Thirring aus den 1950er Jahren stammende und von Stanley Deser in den 1970er Jahren wesentlich verbesserte alternative Formulierung der Einsteinschen Feldgleichungen, die mit dem Anspruch verbunden wird, genau dies zu leisten. Die Thirring-Deser-Fassung der Einsteinschen Feldgleichungen stellt die Gravitation als universelles Kraftfeld in einem flachen Raum dar, der mit einer festen Minkowski-Metrik ausgestattet ist. In Umkehrung der Einsteinschen Vorgehensweise gibt man die Raum-Zeit-Struktur vor und passt das Verhalten von Maßstäben und Uhren sowie die Bewegungen freier Teilchen durch Einführung universeller Kräfte daran an. Die Gravitation verzerrt dann Maßstäbe und beeinflusst nicht die Geometrie. Die Thirring-

3.3 Die erkenntnistheoretische Stellung der physikalischen Geometrie

167

Deser-Fassung enthält entsprechend eine degeometrisierte Version der Einsteinschen Feldgleichungen unter Bewahrung der Kausalität. Beide Ansätze sind empirisch äquivalent, wenn auch nicht in jeder Hinsicht gleichwertig. In empirischer Hinsicht ergeben sich Abweichungen bei der Topologie, da man mit einer flachen Hintergrundgeometrie kein geschlossenes Universum wiedergeben kann. Damit ist aber die These von der Konventionalität der physikalischen Geometrie auch in der genannten Verschärfung (also der Bewahrung der kausalen Erklärbarkeit) nicht ohne Stütze. Überdies passt sich die Thirring-Deser-Version der Feldgleichungen durch die Absage an die Geometrisierung der Gravitation besser in die erwartete Quantentheorie der Gravitation ein als die Standardfassung (s.o. 3.2.4) und genießt in dieser Hinsicht sogar einen methodologischen Vorzug (Carrier 1994a, 242-253). Der Schluss ist jedenfalls, dass eine Festlegung auf die Feldinterpretation der Geometrie die Konventionalitätsthese nicht von vornherein beiseite stellt. Allerdings hat sich in jedem Fall ihre Form deutlich gewandelt. In ihrer an die neuere wissenschaftsphilosophische Entwicklung angepassten Gestalt ist sie zum einen stärker als die traditionelle These, da sie sich nicht auf die Feststellung der physikalischen Geometrie beschränkt, sondern die Erklärung ihrer Ursachen einbezieht. Zum anderen ist die adaptierte Konventionalitätsthese schwächer als ihr Urbild, da sie nicht mehr auf universelle erkenntnistheoretische Beschränkungen Bezug nimmt, sondern auf kontingente physikalische Alternativen. Die adaptierte These ist lediglich ein Beispiel für die generelle Ansicht von der Unterbestimmtheit von Theorien durch die Erfahrung, mit der Folge, dass Raum-Zeit-Theorien keine spezifische Form von Konventionalität enthalten. Raum-Zeit-Theorien sind dann – im Gegensatz zum ursprünglichen empiristisch-konventionalistischen Anspruch – nicht stärker konventionell als andere Theorien der Physik.

4. Raum-Zeit und Materie: Die Naturphilosophie von Raum und Zeit Nachdem im dritten Kapitel die erkenntnistheoretischen Verwicklungen bei der Ermittlung der physikalischen Geometrie im Vordergrund standen, sollen nun die naturphilosophischen Konsequenzen der Raum-Zeit-Theorien zur Sprache kommen. „Naturphilosophie“ wird dabei als das Auseinanderlegen der allgemeinen Charakteristika desjenigen Naturbilds verstanden, das sich unter der Voraussetzung der betreffenden wissenschaftlichen Theorien ergibt. Naturphilosophie zeichnet die Natur so, wie sie sich darstellt, wenn die betreffenden Theorien zur Gänze zuträfen (s.o. Einleitung). Die vor allem relevanten Theorien zur Beschaffenheit der Raum-Zeit sind die klassische Mechanik und die ART. Die Geschichte des neuzeitlichen Denkens über Raum und Zeit wird von der Frage durchzogen, ob Raum und Zeit eine selbstständige Existenz neben den Körpern zukommt – wie es die so genannte absolute oder substanzialistische Position vorsieht – oder ob Raum und Zeit bloßer Inbegriff von räumlichen und zeitlichen Beziehungen zwischen Körpern sind und keine eigenständigen Größen – wie es die relationale Sicht annimmt. Keiner dieser Denkansätze ergibt sich einfachhin aus den einschlägigen Theorien. Vielmehr gehen in ihre Ausgestaltung und Begründung neben physikalischen Prinzipien auch erkenntnistheoretische Grundsätze ein sowie Vorstellungen davon, was als adäquates physikalisches Gegenstück der philosophisch bestimmten Größen „Raum“, „Zeit“ und „Materie“ gelten kann. Naturphilosophie, die sich als philosophische Durchdringung wissenschaftlicher Theorien versteht, verlangt stets die angemessene Übertragung von philosophischen Fragen in das Denkgebäude wissenschaftlicher Theorien. Ich skizziere im ersten Abschnitt die klassische, also vorrelativistische Debatte zur Frage der Natur von Raum und Zeit und gehe anschließend auf die durch die ART geschaffene Situation ein.

4.1 Raum und Zeit in der klassischen Physik

169

4.1 Raum und Zeit in der klassischen Physik Im Rahmen der klassischen Physik wurde die absolute Interpretation wesentlich von Isaac Newton (1643–1727) geprägt; sie besagt, dass Raum und Zeit ihrer Natur nach unabhängig von den Körpern und Ereignissen in ihnen bestehen. Raum und Zeit bilden gleichsam ein Behältnis, in dem die Ereignisse ihre Stelle haben. Dieser fest stehende Rahmen umschließt insbesondere ein ausgezeichnetes, wahrhaft in Ruhe befindliches Bezugssystem, den absoluten Raum (s.o. 3.2.1), in dem allein Bewegungen wirklichkeitsgetreu beschrieben werden. Die absolute Position sieht demnach vor, dass es räumliche und zeitliche Strukturen gibt, die nicht auf Beziehungen zwischen Körpern oder Ereignissen zurückführbar sind. Diese Strukturen sind intrinsisch; sie wohnen Raum und Zeit ihrer Natur nach inne. Diese Position kann zu einem Substanzialismus verschärft werden, demzufolge die Punkte des Raumes und der Zeit zu diesen intrinsischen Strukturen zählen. Danach bilden die Punkte also das „Substrat“ von Raum und Zeit. Die relationale Gegenposition wurde vor allem von Gottfried Wilhelm Leibniz (1646–1716) und Ernst Mach (1838–1916) vertreten. Danach sind Raum und Zeit nur Beziehungen zwischen Körpern und Ereignissen und entsprechend nicht von diesen abgelöst. Räumliche und zeitliche Relationen zwischen Ereignissen hängen nicht ab von einer grundlegenderen Struktur von Raum- und Zeitpunkten. Diese Punkte ergeben sich gerade umgekehrt erst durch Relationen zwischen Ereignissen. Ebenso sind alle Bewegungen als Relativbewegungen von Körpern aufzufassen. Keine Bewegung kann allein durch ihren Bezug auf Raum-Zeit-Größen charakterisiert werden, nicht also etwa dadurch, dass sie unterschiedliche Raumpunkte überstreicht. In absoluter Sicht zeigen räumliche und zeitliche Beziehungen zwischen Ereignissen deren Raum- und Zeitverhältnisse an, für die relationale Position werden diese Verhältnisse durch die Beziehungen zwischen Ereignissen überhaupt erst gebildet. Die zentrale Begründung für den Relationalismus ist erkenntnistheoretischer Natur und nimmt ihren Ausgang von der Behauptung, dass nur Beziehungen zwischen Körpern oder Ereignissen, nicht aber Beziehungen der Körper zum Raum oder zur Zeit der Erfahrung zugänglich sind. Entsprechend ist auch alle wahrnehmbare Bewegung relative Bewegung. Diese Behauptungen werden von der absoluten Position bestritten.

170

4. Raum-Zeit und Materie

4.1.1 Newtons absolute Position: intrinsische Strukturen von Raum und Zeit Newton gab der absoluten Position in seinen 1687 zuerst erschienenen Mathematischen Prinzipien der Naturlehre ihre maßgebliche Gestalt. Diese Position gewann durch die gewaltigen Erklärungserfolge der Newtonschen Mechanik, in deren Rahmen sie formuliert wurde, große Anziehungskraft, wurde jedoch darüber hinaus durch neuartige Argumente Newtons auch in der Sache gestützt.

Isaac Newton

Newtons berühmt gewordene Formulierung der absoluten Position lautet: „Die absolute, wahre und mathematische Zeit verfliesst an sich und vermöge ihrer Natur gleichförmig, und ohne Beziehung auf irgend einen äussern Gegenstand. … Der absolute Raum bleibt vermöge seiner Natur und ohne Beziehung auf irgend einen äussern Gegenstand, stets gleich und unbeweglich. … Die absolute Bewegung ist die Uebertragung des Körpers von einem absoluten Orte nach einem andern absoluten Orte. ... Wahre Ruhe hingegen ist das Verharren des Körpers in demselben Theile jenes unbewegten Raumes. ... Es ist möglich, dass keine gleichförmige Bewegung existire, durch welche die Zeit genau gemessen werden kann, alle Bewegungen können beschleunigt oder verzögert werden; allein der Verlauf der absoluten Zeit kann nicht geändert werden. ... Wie die Reihenfolge der Zeittheile, ist auch die der Raumtheile unveränderlich. ... Weil aber diese Theile des [absoluten] Raumes weder gesehen, noch vermittelst unserer Sinne von einander unterschie-

4.1 Raum und Zeit in der klassischen Physik

171

den werden können, nehmen wir statt ihrer wahrnehmbare Masse an. Aus der Lage und Entfernung der Dinge von einem Körper, welchen wir als unbeweglich betrachten, erklären wir nämlich alle Orte. ... Es kann ... der Fall sein, dass kein wirklich ruhender Körper existirt, auf welchen man die Orte und Bewegungen beziehen könnte“ (Newton 1726, 25-27). Newtons Behauptung ist also, dass Raum und Zeit intrinsische Strukturen besitzen, zu denen die Gleichförmigkeit der Zeit, also die Reihenfolge und Gleichheit von Zeitintervallen, Orte im Raum, die Anordnung von Raumintervallen, sowie Ruhe und folglich absolute Bewegung zählt. Wahre Unbeweglichkeit ist das definierende Merkmal des absoluten Raums. Alle diese Strukturen besitzen einen von Messverfahren unabhängigen Sinn – und sind zum Teil auch empirisch unzugänglich. Ihre Ermittlung wird unter Umständen von der Newtonschen Mechanik selbst vereitelt. Zum Beispiel scheitert die Identifikation von Raumpunkten am klassischen Relativitätsprinzip, das die Gleichberechtigung aller Inertialsysteme ausdrückt (s.o. 1.2.1). Die Gesetze der Mechanik gelten unverändert in allen geradlinig-gleichförmig bewegten Bezugssystemen, so dass sich kein solches Inertialsystemen als ruhend auszeichnen lässt. Bei ruhigem Flug gibt es keine im Flugzeug selbst zugänglichen Hinweise darauf, dass sich dieses mit hoher Geschwindigkeit bewegt. Man kann nur die Relativbewegung gegen andere Körper beobachten, aber durch nichts ist sichergestellt, dass diese Bezugskörper ihrerseits ruhen. Ohne die Auszeichnung wahrhaft ruhender Bezugssysteme könnte jedoch das beabsichtigte Zeigen auf einen festen Punkt eine Linie beschreiben.

Newtons Eimerversuch Newton war sich dieser Schwierigkeiten bei der Ermittlung der von ihm angenommenen intrinsischen Strukturen bewusst, führte aber die philosophische Debatte gerade dadurch weiter, dass er empirische Indizien für solche Strukturen aufzeigte. Inertialsysteme können empirisch von nicht-inertialen Bezugssystemen anhand von Trägheitskräften unterschieden werden (s.o. 1.2.1, 3.2.1). Wenn also eine Trägheitskraft an einem Körper angreift, dann führt dieser eine beschleunigte oder rotierende Bewegung aus – und dies besagt, dass er sicher überhaupt eine Bewegung

172

4. Raum-Zeit und Materie

ausführt, sich also nicht in Ruhe befindet. Trägheitskräfte zeigen wirkliche Bewegung empirisch an. Tatsächlich benutzt Newton in seinem berühmten Eimerversuch das Auftreten von Trägheitskräften als Erfahrungshinweis auf eine wahre Rotationsbewegung – und damit auf eine wirkliche Bewegung. Bei der Rotation treten Trägheitskräfte in Form von Zentrifugalkräften auf, die den Körper vom Rotationszentrum fortzuführen scheinen. Newton will zeigen, dass die im Experiment beobachtete Rotationsbewegung nicht als Relativbewegung aufgefasst werden kann, sondern als absolute Rotation gedeutet werden muss.

Figur 1: Newtons Eimerversuch

Füllt man einen Eimer mit Wasser und hängt ihn an einem verdrillten Seil auf, so befinden sich Wasser und Eimer zunächst in relativer Ruhe, und der flache Wasserspiegel zeigt, dass keine Zentrifugalkräfte auftreten (Stadium 1). Setzt anschließend das verdrillte Seil den Eimer in Drehung, so bleibt der Wasserspiegel anfangs flach. Das Wasser rotiert also relativ zum Eimer, aber Zentrifugalkräfte fehlen weiterhin (Stadium 2). Versetzt dann die Reibung das Wasser mit der Zeit in Rotation, so macht sich das Auftreten von Zentrifugalkräften durch eine konkave Formung des Wasserspiegels bemerkbar. Man beobachtet hier demnach Zentrifugalkräfte bei relativer Ruhe zwischen Eimer und Wasser (Stadium 3). Hält man endlich die Drehung des Eimers plötzlich an, so rotieren Eimer und Wasser gegeneinander unter Beibehaltung der konkaven Gestalt des Wasserspiegels. Hier also geht relative Rotation mit der Wirkung von Zentrifugalkräften einher (Stadium 4).

4.1 Raum und Zeit in der klassischen Physik

173

Das Ergebnis des Eimerversuchs in schematischer Form: Stadium 1: Relative Ruhe – keine Zentrifugalkräfte Stadium 2: Relativbewegung – keine Zentrifugalkräfte Stadium 3: Relative Ruhe – Zentrifugalkräfte Stadium 4: Relativbewegung – Zentrifugalkräfte Sämtliche möglichen Kombinationen von relativem Bewegungszustand zwischen Wasser und Eimer und dem Auftreten von Trägheitskräften sind im Experiment realisiert. Folglich kann deren Auftreten nicht als Folge der betrachteten Relativbewegungen gelten. Die Alternative ist, Zentrifugalkräfte als Ausdruck wirklicher Rotationsbewegungen zu deuten, und entsprechend als Ausdruck einer Rotation gegen den wahrhaft unbewegten absoluten Raum. Zwar haben geradlinig-gleichförmige Bewegungen gegen den absoluten Raum keine feststellbaren Wirkungen, aber Rotationsbewegungen eben doch. Wenn aber Bewegungen gegen den absoluten Raum empirisch nachweisbar sind, dann muss der absolute Raum existieren (Newton 1726, 29-30). In die gleiche Richtung weist Newtons Doppelkugelexperiment. Newton denkt sich zwei durch ein Seil miteinander verbundene Kugeln, die um den gemeinsamen Schwerpunkt rotieren. Die Größe der hierbei auftretenden Zentrifugalkraft FZ kann gemessen werden, etwa indem man eine Federwaage in das Seil einfügt, das die Kugeln verbindet. Da auch die Masse m der Kugeln und deren Abstand r zum Rotationszentrum messbar sind, erhält man aus dem Ausdruck für die Zentrifugalkraft (FZ = mv2/r) den Betrag der Rotationsgeschwindigkeit v der Kugeln. Das Verfahren ist nicht an einen Vergleich der Bewegung mit anderen Bezugskörpern gebunden und würde nach Newton auch im ansonsten leeren Weltraum funktionieren (Newton 1726, 31). Newtons Schlussfolgerung ist, dass wirkliche oder absolute Bewegung auch empirisch von bloß relativer Bewegung unterschieden werden kann: einige wirkliche Bewegungen haben Trägheitskräfte als Wirkungen. Eine zweite Option zur Identifikation wahrer Bewegungen geht von deren Ursachen aus: wenn eine Kraft, etwa die Gravitation, an einem Körper angreift und nicht durch eine andere Kraft kompensiert wird, dann erzeugt sie eine Bewegung des Körpers. Es ist der Rückgriff auf Kräfte als Wirkungen und Ursachen von Bewegungen, der es unter Umständen erlaubt, wirklich bewegte Körper in der Erfahrung aufzuweisen. Newtons antirelationales

174

4. Raum-Zeit und Materie

Argument lautet entsprechend, dass durchaus nicht allein relative Bewegungen zwischen Körpern beobachtbar sind, sondern auch zumindest einige Bewegungen gegen den absoluten Raum. Newtons Annahme eines unbeweglichen, die Ereignisse unverändert umschließenden Raums fand Unterstützung in der Elektrodynamik des späten 19. Jahrhunderts. Die von Lorentz ab 1892 formulierte Elektronentheorie beinhaltete einen „stationären Äther“, der als unbeweglicher Träger elektromagnetischer Felder galt. Die Felder stellten Zustände des Äthers dar. Obwohl Lorentz’ Äther nicht allen Gesetzen der Newtonschen Mechanik gehorchte, wurde er von Lorentz mit dem absoluten Raum der Mechanik in eins gesetzt. Es ist das gemeinsame Merkmal der Unbeweglichkeit, das die Identifikation von Lorentz’ Äther mit Newtons absolutem Raum begründen sollte. In diesem Rahmen sollten absolute Geschwindigkeiten auch geradlinig-gleichförmiger Bewegungen messbar sein, was im Experiment von Michelson und Morley folgeträchtig scheiterte (s.o. 1.2.1). In Lorentz’ Äther verschmolzen Mechanik und Elektrodynamik; er bildete den substanzialisierten absoluten Raum.

4.1.2 Leibniz’ relationale Interpretation: der Raum als Anordnung von Körpern Newtons zeitgenössischer Widerpart in naturphilosophischen Fragen war Leibniz, der auch zu Raum und Zeit abweichende Ansichten vertrat. In Leibniz’ relationaler Sicht stellen sich Orte und Bewegungen allein als relative Orte und relative Bewegungen dar. Die Ursprünge der relationalen Theorie gehen auf René Descartes (1596–1650) zurück. In den Prinzipien der Philosophie vertrat Descartes die Ansicht, dass Ausdehnung das kennzeichnende Merkmal von Materie und Raum gleichermaßen bildet und dass sich entsprechend Materie und Raum nicht wesentlich unterscheiden. Der Raum stellt die Gesamtheit der Erstreckungen und Positionen der Körper relativ zu anderen Körpern dar. Folglich ist Bewegung durch Bezug auf andere Körper bestimmt, die zum Zweck der Bewegungsbeschreibung als unbewegt angenommen werden. Einen wahrhaft unbewegten Ort gibt es dagegen nicht (Descartes 1644, II.§13).

4.1 Raum und Zeit in der klassischen Physik

175

Gottfried Wilhelm Leibniz

Dieser Denkansatz wurde von Leibniz zu einer systematischen relationalen Theorie des Raums ausgebaut. Der Raum ist die Gesamtheit der relativen Lagen und Anordnungen der Körper. Es gibt keinen Raum als eigenständige Größe neben den Körpern. Raum und Zeit sind einem Stammbaum ähnlich: sie bringen nur Beziehungen zwischen Größen zum Ausdruck. Es gibt keine selbstständige Entität „Verwandtschaft“ neben den und jenseits der besonderen Beziehungen zwischen den betreffenden Personen. Im gleichen Sinne existiert auch der Raum nicht unabhängig von und zusätzlich zu den materiellen Objekten, deren Lagebeziehungen er wiedergibt. Auch Leibniz’ kausale Theorie der Zeitfolge ist tatsächlich Teil dieses umfassenden relationalen Ansatzes. Danach kann die Zeitfolge von Ereignissen nicht darauf zurückgeführt werden, dass sie zu verschiedenen Zeitpunkten stattfinden; vielmehr muss sich die Zeitfolge direkt in den Beziehungen zwischen den Ereignissen ausdrücken. Die von Leibniz dafür herangezogene Beziehung ist die Kausalität: spätere Ereignisse sind dadurch gekennzeichnet, dass sie die Wirkungen früherer Ereignisse sind (s.o. 1.1). Analog geht es Leibniz darum, den Raum auf die Anordnung von Körpern zurückzuführen. Insgesamt hält Leibniz „den Raum ebenso wie die Zeit für etwas rein Relatives …, nämlich für eine Ordnung des Nebeneinanderbestehens, so wie die Zeit für eine Ordnung der Aufeinanderfolge. Nämlich als Raum bezeichnet man eine mögliche Ordnung der Dinge, die gleichzeitig existieren, wobei man sie als gemeinsam

176

4. Raum-Zeit und Materie

existierend betrachtet, ohne dabei nach ihrer besonderen Art und Weise des Existierenden zu fragen“ (Leibniz III.4, in: Schüller 1991, 37-38). Leibniz steht dabei vor der Herausforderung, die „räumliche Anordnung“ anders als durch „räumliche Beziehungen“ auszudrücken, da ansonsten ein Zirkel droht. In der angeführten Passage gibt Leibniz zwei Merkmale an: die gleichzeitige Existenz und das Absehen von besonderen Existenzweisen. Der Begriff des Raums bezieht sich danach auf die mögliche Anordnung von Objekten, die zur selben Zeit existieren und bei denen alle besonderen Bestimmungen außer Betracht gelassen werden. Der Bewegungszustand oder die Wechselwirkung mit anderen Objekten wären etwa solche besonderen Bestimmungen. Danach sind diejenigen Beziehungen räumlicher Natur, die aus der allgemeinen Beschaffenheit der Körper stammen und nicht aus deren spezifischen Eigenschaften und Verhältnissen. Leibniz stützt seine Position auf zwei Prinzipien. Erstens das Prinzip des zureichenden Grundes, wonach „nichts geschieht, ohne daß es einen hinreichenden Grund gibt, warum es so und nicht anders ist“ (Leibniz III.2, in: Schüller 1991, 37). Zweitens das Prinzip der Identität des Ununterscheidbaren: „Zwei Dinge als ununterscheidbar anzunehmen, heißt unter zwei Namen dasselbe Ding anzunehmen“ (Leibniz IV.6, in: Schüller 1991, 52). Das zweite Prinzip ist für Leibniz eine Folge des ersten: Wenn zwei Zustände ununterscheidbar sind, dann gibt es für Gott keinen zureichenden Grund, eher den einen als den anderen herbeizuführen. Einklang mit dem Prinzip des zureichenden Grundes lässt sich daher nur durch die Annahme herstellen, dass die ununterscheidbaren Zustände tatsächlich gar nicht verschieden sind. Leibniz gründet den Relationalismus entsprechend auf das Argument, dass die Annahme von Raumpunkten, Zeitpunkten und absoluten Bewegungen eine Verletzung beider Prinzipien zur Folge hätte und daher ausgeschlossen ist. Wenn Raumpunkte selbstständige Größen wären, dann wären Zustände verschieden, in denen die relativen Lagen aller Körper gleich, die von ihnen besetzten Punkte aber unterschiedlich wären. Beispiele sind ein gedrehtes Universum, bei dem also etwa Ost und West vertauscht wären, oder ein Universum, das unter Beibehaltung aller relativen Lagen um eine bestimmte Strecke verschoben wäre. Solche vorgeblich verschiedenen Zustände sind jedoch durch nichts zu unterscheiden und müssen daher nach dem zweiten Prinzip als der gleiche Zustand gelten. Zudem würde es der göttlichen

4.1 Raum und Zeit in der klassischen Physik

177

Weisheit widerstreiten, dass Gott einen dieser Zustände eher als einen anderen geschaffen haben sollte. Daher verletzt die Annahme ihrer Unterschiedlichkeit auch das Prinzip des zureichenden Grundes (Leibniz III.5, IV.13, Schüller 1991, 38, 53). Für Bewegung folgt aus der Newtonschen Ansicht, dass das Universum insgesamt unter Beibehaltung aller relativen Lagen eine geradlinig-gleichförmige Bewegung ausführen könnte. Wiederum ergäben sich keine beobachtbaren Folgen, so dass wiederum beide Prinzipien verletzt wären (Leibniz V.52, Schüller 1991, 98).

Leibniz’ Relationalismus und der Logische Empirismus Leibniz machte die empirische Unterscheidbarkeit zur Vorbedingung theoretischer Verschiedenheit. Diese Position ist später vom Logischen Empirismus und insbesondere von Reichenbach als zukunftsweisend gepriesen worden. Danach hat Leibniz mit seiner Forderung nach empirischer Einlösbarkeit theoretischer Unterscheidungen zum methodologischen Fortschritt der Wissenschaften beigetragen und einen Grundgedanken der Relativitätstheorien formuliert, nämlich die Relativität der Bewegung. Reichenbach rückt Leibniz’ Verpflichtung auf Beobachtbarkeit in den Mittelpunkt. „Bewegung ist Ortsveränderung; aber es ist klar, daß sie nicht anders erkannt werden kann als durch Veränderung des Abstands gegen gewisse Körper, nicht des Abstands gegen ideale Raumpunkte. Hat es dann überhaupt einen Sinn, von Bewegung an sich oder Bewegung gegen den Raum zu sprechen, wenn erkennbar doch nur die Bewegung gegen Körper ist? ... [E]s drängt sich deutlich der Gedanke auf, daß es sinnlos ist, Unterschiede des objektiven Seins zu postulieren, wenn ihnen keine Unterschiede in den beobachtbaren Phänomenen entsprechen. Leibniz hat diesen Gedanken in seinem Prinzip der Identität des Ununterscheidbaren in den Vordergrund gerückt und daraus eine Relativitätstheorie der Bewegung entwickelt, deren Argumente noch heute die Grundlage der Relativitätstheorie bilden“ (Reichenbach 1928, 243). Reichenbach deutet die Identität des Ununterscheidbaren als einen Vorläufer der Verifikationstheorie der Bedeutung, für die alle überhaupt sinnvollen Aussagen im Grundsatz einer empirischen Geltungsprüfung zugänglich sein müssen. Auf einen solchen Denkansatz hat eben später auch Einstein seine operationale Analyse der

178

4. Raum-Zeit und Materie

Gleichzeitigkeit entfernter Ereignisse gegründet: bei allen sinnvollen Begriffen muss ein Verfahren für ihre Anwendung auf die Erfahrung angegeben werden können (s.o. 1.2.1). Leibniz’ Grundhaltung entspricht hier also der erkenntnistheoretischen Orientierung der Relativitätstheorie, und diese Haltung, so Reichenbach, ermöglichte Leibniz wesentlich tiefere Einsichten in die Natur von Raum und Zeit als Newton (Reichenbach 1924, 406). Zwar haben semantischer Operationalismus und Verifikationstheorie der Bedeutung seit den Tagen des Logischen Empirismus an Überzeugungskraft eingebüßt, aber Leibniz’ Argument behält trotz des Wandels des philosophischen Zeitgeistes eine gewisse Kraft. Ein Grund ist, dass sich Leibniz für seine Zurückweisung ununterscheidbarer und doch verschiedener Zustände nicht allein auf erkenntnistheoretische Festlegungen, sondern auch auf das klassische Relativitätsprinzip und damit auf Gesetzmäßigkeiten der Newtonschen Mechanik selbst stützt. Die Newtonsche Position verpflichtet sich auf die Unterschiedlichkeit von Zuständen (wie absolute geradlinig-gleichförmige Bewegungen verschiedener Geschwindigkeit oder verschiedene absolute Orte), die ihren eigenen Prinzipien zufolge nicht empirisch unterscheidbar sind. Die naturphilosophischen Festlegungen der absoluten Position übersteigen die physikalisch einlösbaren Ansprüche. Ein zweiter Grund ist, dass das Ununterscheidbarkeitsprinzip auch dem methodologischen Grundsatz begrifflicher Sparsamkeit entspricht (und damit unabhängig von der Verifikationstheorie ist). Danach steht es nicht im Einklang mit guter wissenschaftlicher Praxis, theoretische Größen anzunehmen, die in keinem Einzelfall empirisch zu realisieren sind. So sind im Lichte neuerer Theorien wissenschaftlicher Bestätigung wissenschaftliche Theorien mit unbeobachtbaren Größen empirisch schlechter bestätigt, als sie es ceteris paribus ohne solche Größen wären. Zum Beispiel verlangt das sog. „Bootstrap-Modell“ als Voraussetzung empirischer Bestätigung, dass sich für sämtliche Größen in einer Hypothese (unter Rückgriff auf andere Naturgesetze) auf der Grundlage der Daten eindeutige Werte ermitteln lassen (Glymour 1980, 114-123, 130-132). Leibniz’ zweites Prinzip behält daher auch nach dem Ableben seiner sprachphilosophischen Grundlage, die ihm in der ersten Hälfte des 20. Jahrhunderts eine besondere Anziehungskraft verlieh, eine gewisse Plausibilität.

4.1 Raum und Zeit in der klassischen Physik

179

4.1.3 Raum-Zeit und Kräfte: Die Behandlung der Rotation und die Leibniz-Clarke-Kontroverse Der klassische Ort, an dem Newtons absolute und Leibniz’ relationale Orientierung aufeinanderprallen, ist die Leibniz-Clarke-Kontroverse, ein Briefwechsel in den Jahren 1715/16, der mit Leibniz’ plötzlichem Tod endete. Samuel Clarke (1675–1729) war ein enger Vertrauter Newtons und verteidigte dessen Sichtweise; tatsächlich wurden einige Passagen von Clarkes Briefen nachweislich von Newton selbst verfasst. Die Leibniz-Clarke-Kontroverse ist keineswegs auf die Diskussion von Raum und Zeit beschränkt. Vielmehr ging es die Naturphilosophie in ihrer Breite, etwa die Existenz von Kräften im Allgemeinen und der Gravitation im Besonderen sowie ihre Stellung im Naturgefüge, oder um die Struktur der Materie, deren Menge im Universum und die Existenz des Vakuums. Einen weiteren Streitpunkt bildete die Rolle Gottes in der Natur. Insgesamt handelte es sich also um eine vielfältig verzweigte philosophische Debatte, von der hier jedoch allein der Raum-ZeitStrang kurz angesprochen werden kann. Clarke bestreitet Leibniz’ Prinzip der Identität des Ununterscheidbaren und betrachtet begriffliche oder theoretische Unterscheidbarkeit als hinreichend für Verschiedenheit. Zudem schwächt er das Prinzip des zureichenden Grundes dahingehend ab, dass es sich nicht um einen vernünftigen Grund handeln muss. Gottes „bloßer Wille“ reicht als Grund für eine Auswahl hin. Daraus folgt Leibniz’ Ununterscheidbarkeitsprinzip nicht mehr, da zwischen ununterscheidbaren Situationen eine vom bloßen Willen geleitete und entsprechend willkürliche Wahl möglich ist (Clarke III.2, in: Schüller 1991, 44-45). In physikalischer Hinsicht reproduziert Clarke Newtons Argument, dass absolute Bewegungen anhand ihrer Ursachen und Wirkungen in der Erfahrung aufweisbar sind (Clarke IV.13-14, in: Schüller 1991, 66-67). Insbesondere ist allein die Änderung wirklicher Bewegungen, nicht aber aller Relativbewegungen, mit Trägheitskräften verknüpft. Wenn sich aber wirkliche Bewegungen ändern können, dann muss es wirkliche Bewegungen geben. Danach stützt die Mechanik die Annahme von Strukturen des Raumes, die von den Körpern unabhängig sind (s.o.). Die wichtigste Begründung für den Relationalismus bildete immer der Bezug auf die Möglichkeit der empirischen Prüfung: Nur relative Lagen und relative Geschwindigkeiten sind empirisch er-

180

4. Raum-Zeit und Materie

mittelbar; alles, was diesen Rahmen übersteigt, ist ohne Signifikanz. Leibniz fällt es schwer, eine überzeugende Antwort auf Clarkes an Newton anschließendes Argument, auch absolute Bewegungen seien über ihre Ursachen und Wirkungen empirisch zugänglich, zu geben und reagiert mit der folgenden, in ihrer Tragweite schwer einzuschätzenden Passage: „Ich entdecke in [Newtons Darstellung von Eimerversuch und Doppelkugelexperiment] ... nichts, was die Wirklichkeit des Raumes an sich beweist oder beweisen kann. Ich bin allerdings auch der Meinung, daß es einen Unterschied zwischen einer absoluten wahren Bewegung eines Körpers und einer einfachen relativen Änderung seiner Lage bezüglich anderer Körper gibt. Nämlich immer wenn die unmittelbare Ursache für die Veränderung in dem Körper selbst liegt, ist der Körper wirklich in Bewegung, und dann wird sich infolgedessen die Lage der anderen Körper in bezug auf ihn ändern, obwohl die Ursache für diese Veränderung nicht in den anderen Körpern liegt“ (Leibniz V.53, in: Schüller 1991, 98-99; vgl. auch Leibniz’ Briefwechsel mit Huygens [Reichenbach 1928, 246-247]). In der Sache gesteht Leibniz damit Clarke und Newton die strittigen Punkte zu, nämlich erstens den Unterschied zwischen relativer und wahrer Bewegung und zweitens die empirische Aufweisbarkeit des Unterschieds anhand der wirkenden Ursachen.1 Allerdings zieht Leibniz aus diesem Zugeständnis keine Schlüsse für die Natur des Raums. Das wird von Clarke nachgeholt. Clarke weist darauf hin, dass Leibniz durch die Anerkennung des Unterschieds zwischen beiden Bewegungen in der Sache zugegeben hat, dass der Raum die relative Lage und Ordnung der Körper übersteigt (Clarke V.53, in: Schüller 1991, 137; Übersetzung fehlerhaft). Wirkliche Bewegungen werden dann eben nicht angemessen als Bewegungen relativ zu anderen Körpern beschrieben, sondern als Bewegungen gegen eine ruhende Entität, eben den absoluten Raum.

Leibniz’ und Huygens’ Behandlung der Rotation Zwar hatte Leibniz in skizzenhafter Form eine Reaktion auf Newtons Eimerversuch formuliert, brachte diese jedoch trotz des beträchtlichen Argumentationsdrucks nicht gegen Clarke vor. Leibniz’ Gegenentwurf stützt sich auf den folgenden Doppelschritt:

4.1 Raum und Zeit in der klassischen Physik

181

(1) Aus dem klassischen Relativitätsprinzip folgt, dass alle geradlinig-gleichförmigen Bewegungen gleichberechtigt sind. Es gibt hier keine Möglichkeit, eine von ihnen als Bewegung gegen den absoluten Raum auszuzeichnen. (2) Alle Rotationsbewegungen können aus infinitesimal geradlinigen Bewegungen zusammengesetzt werden. Die Rotationsbewegung verläuft in kleinen Abschnitten geradlinig-gleichförmig. Der Schluss ist, dass auch für Rotationsbewegungen das klassische Relativitätsprinzip gelten muss. Das heißt, es ist in jedem Fall unmöglich, absolute Bewegungen (also absolute Geschwindigkeiten) empirisch aufzuweisen (Leibniz 1885, II.6, 54-59; vgl. Earman 1989, 72). Allerdings scheitert diese Erwiderung daran, dass zwischen den geradlinig-gleichförmigen Abschnitten jeweils eine Richtungsänderung – und damit eine Beschleunigung – auftritt. Eine Rotation lässt sich nur dann aus Abschnitten geradliniger Bewegung zusammensetzen, wenn die Richtung dieser Abschnitte wechselt. Damit ist aber auf die zusammengesetzte Bewegung insgesamt das klassische Relativitätsprinzip nicht anwendbar. Rotation und geradliniggleichförmige Bewegung sind in der klassischen Mechanik keineswegs gleichberechtigt; ein Relativitätsprinzip für Rotationen gilt dort tatsächlich nicht (und auch nicht in der ART).

Figur 2: Huygens’ Rad

Auch Leibniz’ relationaler Gesinnungsgenosse Christiaan Huygens (1629–1695) formuliert eine (gleichfalls zu Lebzeiten unveröffentlicht gebliebene) Behandlung der Rotation. Für Huygens beweist Newtons Doppelkugelexperiment durchaus nicht, dass

182

4. Raum-Zeit und Materie

die Werte absoluter Geschwindigkeiten messbar sind. Das System der Kugeln kann nämlich über die Rotation hinaus noch eine geradlinig-gleichförmige Geschwindigkeit besitzen, die bei der Berechnung über die Zentrifugalkraft unberücksichtigt bleibt. Man erhält also nur die Rotationsgeschwindigkeit relativ zum Zentrum der Kreisbewegung, nicht aber relativ zum unterstellten absoluten Raum. In der Sache will Huygens Rotation nicht als Bewegung relativ zu anderen Körpern auffassen, sondern als Bewegung der Teile eines Körpers relativ zueinander. Bei einem rotierenden Rad bewegen sich die Teile an der Peripherie jeweils in unterschiedliche Richtungen und insofern relativ zueinander (vgl. Figur 2). Es ist diese Relativbewegung, die die relevanten Zentrifugalkräfte erzeugt. Das Auftreten solcher Kräfte zeigt daher für Huygens nur, „daß die Teile des Rades kraft eines Drucks auf die Peripherie zu einer zueinander relativen Bewegung in verschiedene Richtungen angetrieben wurden. Rotationsbewegung ist darum nur eine relative Bewegung der Teile, die in verschiedene Richtungen angetrieben werden, aber durch ein Band oder ihre Verbindung miteinander zusammengehalten werden“ (Huygens, in: Jammer 1969, 136). Die Relativbewegung setzt sich wegen der Verbindung der Radteile miteinander (also wegen der Kohäsion) nicht in wechselnde Abstände um. Huygens ist sich dabei darüber im Klaren, dass sich der ständige Wechsel der Geschwindigkeitsrichtung wegen des Zusammenhalts der Körper nicht in Änderungen der relativen Lagen ausdrückt. Damit wird aber der Sache nach der relationale Anspruch aufgegeben, sämtliche Bewegungen als Änderungen relativer Lagebeziehungen zu verstehen. In einem Bezugssystem, das mit dem Rad mitrotiert, verschwindet zwar die Relativbewegung der Radteile, die Zentrifugalkräfte aber bleiben bestehen. Deshalb können die Kräfte keine Folge dieser Relativbewegung sein (Jammer 1969, 136-137; Earman 1989, 69-71; Ray 1991, 111).

4.1.4 Machs Kritik an Newtons Argument und sein relationaler Gegenentwurf Im 19. Jahrhundert erhielt die relationale Position durch die Kritik von Ernst Mach (1838–1916) am Newtonschen absoluten Raum besondere Stoßkraft. Machs Argumente übten einen weit reichen-

4.1 Raum und Zeit in der klassischen Physik

183

den Einfluss aus und prägten insbesondere Einsteins Sicht von Raum und Zeit. Tatsächlich steht Machs relationaler Gegenentwurf zu Newton hinter der Konzeption der ART – auch wenn die fertige Theorie diese Konzeption kaum mehr umsetzt (s.u. 4.2.2).

Ernst Mach

Machs wissenschaftstheoretische Position rückt die strikte Bindung von Theorien an die Erfahrung und die „Denkökonomie“, also Einfachheit und begriffliche Sparsamkeit, ins Zentrum. Wissenschaft ist auf die Erfassung beobachtbarer Regularitäten und deren systematische und übersichtliche Anordnung beschränkt. Diese empiristische Orientierung bringt Mach insbesondere bei der Interpretation von Raum und Zeit zum Tragen und betont damit das traditionelle erkenntnistheoretische Motiv für den Relationalismus: Raum und Zeit sind allein anhand von Beziehungen zwischen Körpern und Ereignissen erkennbar; daher drücken Aussagen über raumzeitliche Verhältnisse stets nur Beziehungen zwischen Körpern und Ereignissen aus (Mach 1883, 217-227).

Rotation und Relationalismus Dieses erkenntnistheoretische Argument allein ist offenbar ungeeignet, Newtons Argument der dynamischen Sonderstellung der Rotation Rechnung zu tragen. Entsprechend wendet sich Mach im zweiten Schritt dem „vom Wassergefäß hergenommenen Argumente“ zu (Mach 1883, 222). Dieses Argument zeigt für Mach keineswegs, dass Zentrifugalkräfte nicht auf Relativbewegungen

184

4. Raum-Zeit und Materie

zurückführbar sind; es legt höchstens nahe, dass die Drehung des Wassers gegen den Eimer keine Zentrifugalkräfte erzeugt. Hingegen sind in Newtons Eimerversuch andere Relativbewegungen durchaus mit dem Auftreten von Trägheitskräften verbunden, nämlich die Drehung des Wassers gegen die Erde und die übrigen Himmelskörper. Zwar scheidet die Erde als Quelle solcher Kräfte aus, weil diese z.B. auch beim Umlauf der Erde um die Sonne auftreten und dann auf die Erde wirken und nicht etwa auf die Sonne, und weil als Folge der täglichen Erdrotation Trägheitskräfte auf der Erde beobachtet werden (zum Beispiel die Drehung der Ebene des Foucault-Pendels). Wäre die Erde das bevorzugte Bezugssystem für Trägheitskräfte, so dürften beschleunigte und rotierende Bewegungen der Erde selbst nicht von solchen Kräften begleitet sein. Es ist also nicht die Drehung gegen die Erde, die das Wasser gegen die Eimerwände treibt. Hingegen bleibt die Möglichkeit, dass die Drehung gegen die Fixsterne die Trägheitskräfte hervorruft. Um eine solche Deutung auszuschließen und tatsächlich die Existenz des absoluten Raums zu rechtfertigen, hätte Newton das „Wassergefäß festzuhalten, den Fixsternhimmel dagegen zu rotieren und das Fehlen der Fliehkräfte nun nachzuweisen“ (Mach 1883, 222). Aber vor einer derart herkuleischen Aufgabe muss selbst Sir Isaac kapitulieren. Nichts in Newtons Argument vermag auszuschließen, dass die Relativbewegung gegen die Fixsterne die Ursache der Zentrifugalkräfte ist. Die Erfahrung bleibt jedenfalls stumm zu der Frage, ob die Trägheitskräfte wirklich auch im leeren Raum aufträten – wie Newton beim Doppelkugelexperiment behauptet. Was bei Fehlen äußerer Körper geschähe, vermag niemand zu sagen, da uns das Weltsystem nur einmal gegeben ist. Tatsächlich ist nicht einmal außer Zweifel gestellt, dass die Relativbewegung zwischen Wasser und Eimerwänden wirklich ohne Einfluss ist. Ein solcher Einfluss könnte auch einfach nur zu klein sein und sich damit bislang dem Nachweis entziehen. „Niemand kann sagen, wie der Versuch quantitativ und qualitativ verlaufen würde, wenn die Gefäßwände immer dicker und massiger, zuletzt mehrere Meilen dick würden“ (Mach 1883, 226). Dass unter solchen Umständen tatsächlich die relative Rotation von Wasser und Eimer hinreicht, um Trägheitskräfte zu erzeugen, ist gerade eine Konsequenz der ART; sie ist unter der Bezeichnung „Lense-Thirring-Effekt“ bekannt geworden und galt als Einlösung von Machs programmatischen Ideen (s.u. 4.2.2.).

4.1 Raum und Zeit in der klassischen Physik

185

Mach schlägt also vor, das Fixsternsystem oder den Schwerpunkt des Universums als Bezugsgröße zu wählen, also den absoluten Raum durch dieses zu ersetzen. Ein solches Bezugssystem ist durch Körper realisiert. Allerdings verlangt die Umsetzung dieses Vorhabens eine Neufassung, nicht allein eine Umdeutung der mechanischen Prinzipien. Der Grund ist, dass die klassische Mechanik für relational ununterscheidbare Situationen verschiedene Beobachtungskonsequenzen vorhersagt.

Figur 3: Relative und absolute Rotation (Earman 1989, 83; © MIT Press, Abdruck mit freundlicher Genehmigung des Autors)

Figur 3 stellt jeweils zwei Konstellationen vor, die aus relationaler Sicht übereinstimmen. In beiden Varianten von Szenarium (1) rotiert die Erde relativ gegen die Fixsterne, in beiden Varianten von Szenarium (2) hingegen ruhen Erde und Fixsterne relativ zueinander. Trotz ihrer übereinstimmenden Relativbewegungen kann man in der klassischen Mechanik die beiden Varianten anhand der auftretenden Trägheitskräfte unterscheiden. Da in (1a) die Erde rotiert, in (1b) hingegen die Fixsterne, treten nur in (1a) Trägheitskräfte auf der Erde auf. Analog finden sich allein in (2b), nicht in (2a), Trägheitskräfte auf der Erde. Die Analyse der jeweils auftretenden Kräfte erlaubt also die Unterscheidung zwischen beiden in relationaler Hinsicht gleichen Varianten (Reichenbach 1928, 244-250). Da aber aus relationaler Perspektive diese Unterscheidung zwischen Konstellationen gleicher relativer Bewegungen erkenntnistheoretisch haltlos ist, stellt sich die Aufgabe, die klassische Mechanik auf solche Weise umzuschreiben, dass innerhalb der Szenarien (1) und (2) keine Unterscheidungen anhand der Trägheitskräfte möglich sind. Dies ist nur dadurch zu erreichen, dass auch im Fall (1b) Zentrifugalkräfte auf der Erde auftreten und dass auch im Fall (2b) Zentrifugalkräfte auf der Erde fehlen. Empirisch

186

4. Raum-Zeit und Materie

besteht ein solcher Freiraum durchaus. Für den Fall (1b) wäre die Machsche Rückführung auf Relativbewegungen nur dadurch auszuschließen, dass man Newtons Eimer festhielte, das Universum gegen ihn drehte und das Fehlen von Zentrifugalkräften auf das Wasser feststellte. Machs Entwurf seines alternativen Ansatzes bleibt skizzenhaft und seine Interpretation ist in der Retrospektive durch deren Aufnahme und Weiterführung durch Einstein geprägt. Es ist Einstein, der Machs Gedanken dahingehend präzisiert, dass Trägheitskräfte als physikalische Wechselwirkungen gedeutet werden sollen. Dies ist gerade das von Einstein so genannte Machsche Prinzip (Einstein 1918, 241-242) (s.o. 3.2.1). In diesem Verständnis strebte Mach die Einführung einer neuartigen, universellen und langreichweitigen, bei großen Abständen besonders wirksamen und daher ferne Massen bevorzugenden Wechselwirkung an, die Trägheitskräfte als Folge bloß relativer Bewegungen erzeugt. Durch einen derartigen kausalen Einfluss rotierender ferner Massen würden auch im Fall (1b) Zentrifugalkräfte auf der Erde hervorgerufen, so dass kein dynamischer Unterschied mehr zu Fall (1a) bestünde. Im Fall (2b) würde dieser Einfluss ferner Massen durch die zugleich auftretenden Zentrifugalkräfte üblicher Natur kompensiert, so dass insgesamt auch (2a) und (2b) empirisch ununterscheidbar wären. Dieser Denkansatz ermöglichte eine einheitliche und damit denkökonomische Beschreibung von Bewegungen, so dass man nicht länger geradlinig-gleichförmige Bewegungen wegen des klassischen Relativitätsprinzips als wesentlich relativ, hingegen beschleunigte Bewegungen wegen der mit ihr verbundenen Trägheitskräfte als absolut auffassen müsste. Vielmehr erklärte diese antizipierte Wechselwirkung das Auftreten von Trägheitskräften aus den Relativbewegungen und nähme Rotationsbewegungen ihre Sonderstellung (Mach 1883, 229, 236; Reichenbach 1928, 250-252). Eine Konsequenz der nach seinen Vorstellungen revidierten Mechanik sieht Mach darin, dass das heliozentrische und das geozentrische Planetensystem nicht allein kinematisch, sondern auch dynamisch gleichwertig wären. „Relativ sind die Bewegungen im Weltsystem [...] dieselben nach der ptolemäischen und nach der kopernikanischen Auffassung. Beide Auffassungen sind auch gleich richtig, nur ist letztere einfacher und praktischer“ (Mach 1883, 226). Allerdings stimmen nicht alle astronomischen Erscheinungen in beiden Systemen überein; beide sind entsprechend durchaus nicht empirisch voll äquivalent. Zum Beispiel ergeben sich jeweils unter-

4.1 Raum und Zeit in der klassischen Physik

187

schiedliche jahreszeitliche Helligkeitsschwankungen der Planeten und unterschiedliche Phasen für die inneren Planeten (Carrier 2001a, 96-97, 172). Vielmehr hätte Mach seine Äquivalenzthese auf das geoheliozentrische oder Tychonische Planetensystem als kinematisches Äquivalent zum Kopernikanischen Ansatz zu beziehen (ibid. 156-158). Machs sorglose Ausdrucksweise findet ihr Echo in der späteren Diskussion der ART (s.u. 4.2.1). Jedenfalls strebte Mach eine nur auf Relativbewegungen abstellende Himmelsmechanik an, in der dann selbst bei Berücksichtigung der Trägheitskräfte die Wahl zwischen einer heliozentrischen und einer geozentrischen Anordnung eine Sache bloß der Bequemlichkeit ist. Dabei ist sich Mach im Klaren darüber, dass die angestrebte Rückführung von Trägheitskräften auf Relativbewegungen nicht durch ein „Relativitätsprinzip für Rotationen“ zu bewerkstelligen ist. Die Behandlung von Rotationsbewegungen kann nicht nach dem Muster des klassischen Relativitätsprinzips durchgeführt werden, da sich solche Bewegungen gerade in Form von Trägheitskräften in der Erfahrung niederschlagen. Ein bloß erkenntnistheoretisches Argument zugunsten von Relativbewegungen greift daher zu kurz; man kann Rotationen nicht einfach vernachlässigen (wie konstante Geschwindigkeiten), sondern muss Wechselwirkungen einführen, die die Kräfte, die bei nicht-inertialen Bewegungen auftreten, als Ausdruck von Relativbewegungen erklären. Michael Friedman hat zwischen „Relativierung“ und „Machianisierung“ unterschieden. „Relativierung“ besagt, dass ein bestimmter Unterschied, etwa die verschiedenen Geschwindigkeiten geradlinig-gleichförmiger Bewegungen, ohne Bedeutung ist und unberücksichtigt bleiben kann. Bei nicht-inertialen Bewegungen kommt eine solche Relativierung aber nicht in Frage, da Beschleunigungen und Rotationen anhand von Trägheitskräften identifizierbar sind. Bei einer Machianisierung wird zunächst das Bestehen von Unterschieden anerkannt und im zweiten Schritt versucht, diesen Unterschieden unter Rückgriff auf zusätzliche Bezugskörper auf relational akzeptable Weise Rechnung zu tragen und sie damit in ihrer philosophischen Signifikanz zu neutralisieren. Machianisierung beinhaltet die Kompensation eines anerkannt bedeutsamen Unterschieds durch Einführung eines zusätzlichen Mechanismus, der auf relative Lagen und Bewegungen abstellt (Friedman 1983, 66-68).

188

4. Raum-Zeit und Materie

Das Machsche Prinzip und die Formulierung der ART Machs Denkansatz war tatsächlich von prägendem Einfluss auf Einsteins Zugang zur ART. Einstein begann die erste zusammenhängende Darstellung der Theorie mit einem Bezug auf Machs Argument: „Der klassischen Mechanik und nicht minder der Speziellen Relativitätstheorie haftet ein erkenntnistheoretischer Mangel an, der vielleicht zum ersten Mal von E. Mach klar hervorgehoben wurde“ (Einstein 1916, 82). Im Anschluss an Machs Kritik entwirft Einstein ein Gedankenexperiment, das Newtons Doppelkugelexperiment nachempfunden ist. Dieses hatte den Schluss stützen sollen, dass Rotation auch im leeren Raum und ohne Rückgriff auf Bezugskörper allein anhand der dabei auftretenden Trägheitskräfte feststellbar ist (s.o. 4.1.1). Einstein will im Gegensatz dazu zeigen, dass diese Möglichkeit nicht besteht. Einstein stellte sich zwei flüssige, also durch Trägheitskräfte deformierbare Körper vor, die sich im leeren Raum in solch großer Entfernung voneinander befinden, dass jeder wechselseitige Einfluss (etwa durch die Gravitation) vernachlässigt werden kann. Beobachter, die sich jeweils relativ zu einem der Körper in Ruhe befinden, mögen dann feststellen, dass der jeweils andere Körper um die Verbindungsachse beider Körper rotiert. Beide Beobachter nehmen demnach eine relative Rotation des jeweils anderen Körpers gegen den eigenen, als ruhend betrachteten Körper wahr. Hinsichtlich der relativen Bewegungen beider Körper ist die Situation symmetrisch; jeder der Körper rotiert relativ zum jeweils anderen. Gleichwohl erklärt Newton, es sei möglich, dass der eine Körper durch den Einfluss von Zentrifugalkräften deformiert sei, wenn er nämlich wahrhaft rotiert, der andere aber nicht. Trotz der Symmetrie der Situation könne die Wirkung asymmetrisch sein. Für Einstein verlangt jede akzeptable Erklärung dieser Asymmetrie den Rückgriff auf „eine beobachtbare Erfahrungstatsache“. Der Kausalsatz, also das Prinzip, dass gleiche Ursachen auf gleiche Wirkungen führen, besitzt nur dann überhaupt empirische Tragweite, wenn es sich bei den einschlägigen Ursachen und Wirkungen um Beobachtungstatsachen handelt. Der leere Raum ist aber nicht beobachtbar, und die Bewegung gegen diesen stellt keine erkenntnistheoretisch legitime Ursache dar. Der Raum ist „eine bloß fingierte Ursache“. Einstein schließt, dass das Newton nachempfundene Szenarium unrealistisch sein muss. Trägheitskräfte können höchstens dann eine Unterscheidung zwischen den Bewegungszuständen beider Körper

4.1 Raum und Zeit in der klassischen Physik

189

ermöglichen, wenn weitere Bezugskörper vorhanden sind und die Bewegung gegen diese die Trägheitskräfte erzeugt. Wenn also in dem betrachteten Szenarium Trägheitskräfte tatsächlich einseitig auftreten und entsprechend der eine Körper kugelförmig, der andere aber verformt ist, dann muss dieser Unterschied „ganz wesentlich durch ferne Massen mitbedingt“ sein (Einstein 1916, 82-83). Tatsächlich bleibt Einsteins Absage an den absoluten Raum stets Teil seiner Naturphilosophie, die er überdies regelmäßig mit Mach in Verbindung bringt. In diesem Sinne betrachtet Einstein die ART als Vollendung des Machschen Programms: „Es bestehen aber gegen diese gewohnte Auffassung [von den Trägheitskräften als Folge einer Bewegung gegen den Raum] ... schwerwiegende Bedenken. Erstens nämlich widerstreitet es dem wissenschaftlichen Verstande, ein Ding zu setzen (nämlich das zeiträumliche Kontinuum), was zwar wirkt, auf welches aber nicht gewirkt werden kann. Dies war der Grund, der E. Mach zu einem Versuch veranlasste, den Raum als wirkende Ursache aus dem System der Mechanik zu eliminieren. Nach ihm sollte ein isolierter Massenpunkt sich nicht gegen den Raum, sondern gegen das Mittel der übrigen Massen der Welt beschleunigungsfrei bewegen; dadurch würde die Kausalreihe des mechanischen Geschehens zu einer geschlossenen im Gegensatz zur Mechanik Galileis und Newtons. Um diesen Gedanken im Rahmen der modernen Nahewirkungslehre durchzuführen, musste die trägheitsbedingende Eigenschaft des raumzeitlichen Kontinuums allerdings als Feldeigenschaft des Raums analog dem elektromagnetischen Felde aufgefasst werden, wofür die Begriffe der klassischen Mechanik kein Ausdrucksmittel boten“ (Einstein 1922, 58). Zentraler heuristischer Leitgedanke für die Formulierung der ART war also, dass die erkenntnistheoretisch begründete Relativität der Bewegung angesichts der scheinbaren Unabhängigkeit der Trägheitskräfte von Relativbewegungen nur aufrechterhalten werden kann, wenn Trägheitskräfte eine Wirkung ferner Massen sind, wenn also das Machsche Prinzip gilt. Allerdings wird sich zeigen, dass die Verbindung zwischen Mach und der ART keineswegs derart eng ist (s.u. 4.2.1-2).

190

4. Raum-Zeit und Materie

4.2 Die Struktur der Raum-Zeit in der allgemeinen Relativitätstheorie Nachdem zuvor die Beschaffenheit der Raum-Zeit vor dem Hintergrund der klassischen Physik erörtert wurde, geht es jetzt um die gleichen Zusammenhänge im Rahmen der ART. Dabei soll deutlich werden, dass die ART keine umfassende Relativierung von Bewegung stützt, sondern wichtige Züge von Newtons absoluter Position beibehält. Ich gehe zunächst auf diejenigen Hinsichten ein, in denen die ART absolute Eigenschaften der Raum-Zeit bewahrt und skizziere anschließend die Tragweite und Gültigkeit des Machschen Prinzips in der ART. Daraufhin erörtere ich das sog. LochArgument, das in den vergangenen Jahrzehnten ein neues Licht auf die Debatte über den Relationalismus geworfen hat. Abschließend diskutiere ich den sog. Strukturenrealismus, der durch das LochArgument nahegelegt wird und eine einheitliche realistische Interpretation von ART und Quantentheorie verspricht.

4.2.1 Absolute Eigenschaften der Raum-Zeit Die ART vermag offenbar nur dann Aufschluss über die Beschaffenheit von Raum und Zeit zu geben, wenn Klarheit darüber besteht, welche Größen der Theorie Eigenschaften der Raum-Zeit charakterisieren sollen. Daran kann sich die Untersuchung anschließen, ob und in welchem Sinne diese Eigenschaften „absolut“, also von der Verteilung der Materie losgelöst sind. Von Belang für diese Frage sind die geodätische Struktur, die Metrik und die Mannigfaltigkeit. Die geodätische Struktur der Raum-Zeit legt fest, welches die geradestmöglichen oder geodätischen Bewegungen sind; sie wird physikalisch durch die Bahnbewegungen kräftefrei bewegter Teilchen und Lichtstrahlen dargestellt. Eine gegebene geodätische Struktur erlaubt daher die Unterscheidung zwischen Trägheitsbewegungen und Bewegungen unter dem Einfluss von Kräften (s.o. 3.1.1, 3.2.2-4). Die Metrik gibt den vierdimensionalen Abstand zwischen Punkten bzw. die Länge von Kurven wieder und bestimmt entsprechend die Länge raumzeitlicher Intervalle. Ihre Sonderstellung ergibt sich aus ihrer Invarianz, daraus also, dass unterschiedlich bewegte Beobachter die gleiche Metrik ermitteln,

4.2 Die Struktur der Raum-Zeit in der allgemeinen Relativitätstheorie

191

sowie aus ihrer Tragweite, daraus also, dass die Metrik fast alle Eigenschaften der Raum-Zeit festlegt, insbesondere die geodätische Struktur und die Riemannsche Krümmung (s.o. 1.2.2, 3.1.1). Auf der Ebene der Mannigfaltigkeit geht es um die Eigenschaften der Elemente oder Punkte der Raum-Zeit. Raum-Zeiten werden als vierdimensionale Mannigfaltigkeiten beschrieben. Mannigfaltigkeiten sind durch Nachbarschaftsbeziehungen definiert; zu jedem Punkt gibt es eine Umgebung, also eine Menge von Punkten in dessen Nachbarschaft. Weitere Eigenschaften einer Mannigfaltigkeit sind ihre Dimensionalität sowie die (durch die Annahme der Differenzierbarkeit ausgedrückte) Vorstellung, die Punkte der RaumZeit bildeten ein Kontinuum. Ich gehe hier zunächst nur auf die geodätische und metrische Struktur der Raum-Zeit ein und komme in 4.2.3 auf die Beschaffenheit der Raum-Zeit-Mannigfaltigkeit zu sprechen.

Absolute Eigenschaften Die geodätischen und metrischen Eigenschaften der Raum-Zeit lassen sich in dreierlei Hinsicht als „absolut“ einstufen. Die betreffenden Hinsichten werden dabei durch die jeweiligen Gegenbegriffe genauer bestimmt (Friedman 1983, 62-64; Bartels 1996, 27-29). (1) Absolut vs. relational: Eine Raum-Zeit-Eigenschaft ist absolut1, wenn sie nicht durch die Beziehungen zwischen Körpern oder tatsächlichen (im Gegensatz zu bloß möglichen) Ereignissen ausgedrückt werden kann. Absolute Strukturen sind danach von Körpern und Ereignissen verschieden und bilden eine Art Behältnis für diese. (2) Absolut vs. relativ: Eine Raum-Zeit-Eigenschaft ist absolut2, wenn sie nicht vom jeweils herangezogenen Bezugssystem abhängt. Absolute Größen bleiben bei einem Wechsel des Bezugssystems invariant. (3) Absolut vs. dynamisch: Eine Raum-Zeit-Eigenschaft ist absolut3, wenn sie unabhängig von den Prozessen in der betreffenden Raum-Zeit ist. Ein absolutes Objekt wird durch die in der Theorie beschriebenen Prozesse nicht verändert. Umgekehrt hängen dynamische Größen oder Eigenschaften von der wechselnden Erfüllung eines Raum-Zeit-Bereichs mit Materie oder Energie ab.

192

4. Raum-Zeit und Materie

In der klassischen Mechanik sind die Raum-Zeit-Strukturen absolut in jeder der drei genannten Hinsichten. Die Metrik (hier also räumliche Längen und Zeitintervalle) sowie die geodätische Struktur (hier also die Beschaffenheit von Trägheitsbewegungen) sind nicht auf relative Lagen und Bewegungen zurückführbar. Diesen Nachweis hatte Newton gerade mit dem Eimerversuch zu führen gesucht, und angesichts der unzulänglichen Alternativansätze Leibniz’ und Huygens’ und der bloß programmatischen Vorgabe Machs hat dieses Argument Bestand. Metrik und Geodätenstruktur sind danach absolut1. Weiterhin sind in der Newtonschen Mechanik Trägheitsbewegungen und Abweichungen von diesen, also Beschleunigungen, auch absolut2. Bei einem Wechsel zwischen Inertialsystemen bleiben die Beschleunigungen und Trägheitskräfte unverändert. Als Folge des klassischen Relativitätsprinzips sind hingegen Geschwindigkeitswerte nicht absolut2. Deren Abhängigkeit vom gewählten Bezugssystem besagt, dass insbesondere der Zustand der Ruhe und damit der absolute Raum nicht absolut2 ist. Überdies sind Metrik und Geodätenstruktur in der Newtonschen Mechanik auch absolut3; sie werden nicht durch materielle Prozesse beeinflusst, nehmen also in allen Anwendungsfällen der Theorie die gleiche Form an. Die räumliche Metrik ist immer Euklidisch, und die Geodäten sind stets Geraden. In der SRT ändert sich an diesem Bild nichts Wesentliches; lediglich wird die getrennte räumliche und zeitliche Betrachtung durch eine integrierte raumzeitliche Sicht ersetzt. Diese drückt sich darin aus, dass räumliche und zeitliche Abstände separat nicht mehr absolut2 sind, sondern mit der Wahl des Bezugssystems variieren. Die zugehörigen Effekte sind die Lorentz-Kontraktion und die Zeitdilatation. Allein die raumzeitliche Länge von Weltlinien, also die Intervall-Länge oder Eigenzeit, ist invariant und damit absolut2 (s.o. 1.2.2). Weiterhin sind Abweichungen von der Trägheitsbewegung, also Beschleunigungen und Rotationen, genauso wenig auf relative Lagen und Bewegungen zurückzuführen wie in der klassischen Mechanik; Metrik und Geodätenstruktur sind also absolut1. Und die Minkowski-Metrik liegt unabhängig von allen physikalischen Prozessen fest, ist also auch absolut3.

4.2 Die Struktur der Raum-Zeit in der allgemeinen Relativitätstheorie

193

Absolute Eigenschaften in der ART Die frühe Rezeption der ART war von der Idee geprägt, diese enthalte eine allgemeine Relativierung von Bewegungen. Die gleichberechtigte Zulassung beschleunigter Bezugssysteme schien jede Auszeichnung wahrer Bewegungen die Grundlage zu entziehen. Dies bildete gerade den Hintergrund für das Urteil, heliozentrisches und geozentrisches Planetensystem seien in der Sache gleichermaßen gültig. Für Reichenbach ist mit der ART „in aller Form das Kopernikanische Weltbild erschüttert worden; es hat danach keinen Sinn, zwischen Kopernikus und Ptolemäus von einem Wahrheitsunterschied zu sprechen – beide Auffassungen sind gleichberechtigte Beschreibungen“ (Reichenbach 1928, 251). Diese frühe Interpretation der ART ist jedoch seit den 1960er Jahren als irrig erkannt worden. Insbesondere sind Beschleunigungen in der ART genauso absolut2 wie in der klassischen Mechanik. In der ART werden Trägheitsbewegungen durch die geodätische Struktur wiedergegeben, und diese ist gegen einen Wechsel des Bezugssystems invariant und damit absolut2. Es liegt unabhängig vom Bewegungszustand des Beobachters fest, ob ein Körper eine Trägheitsbewegung ausführt, oder ob er der Wirkung von Kräften unterliegt und sich entsprechend beschleunigt bewegt. Der Unterschied zwischen ART und klassischer Mechanik besteht vielmehr darin, welche Art von Bewegungen als Trägheitsbewegungen gilt. In der klassischen Mechanik fällt darunter allein die geradliniggleichförmige Bewegung, in der ART zusätzlich der freie Fall. In der ART gilt die Gravitation nicht als physikalische Kraftwirkung, die Körper (oder zumindest Testteilchen) aus ihrer Trägheitsbahn auslenkt, sondern als Ausdruck der Raum-Zeit-Struktur. Daher verläuft eine Bewegung unter dem ausschließlichen Einfluss der Gravitation kräftefrei; sie stellt eine Trägheitsbewegung dar (s.o. 3.2.3). Die ART stattet daher die Raum-Zeit mit einer von der klassischen Mechanik zwar abweichenden, jedoch gleichwohl festen Geodätenstruktur aus. Daraus ergibt sich insbesondere, dass bei Vorliegen einer Relativbeschleunigung zwischen zwei Körpern ein Beobachter keineswegs die Freiheit besitzt, beliebig einen der beiden Körper als beschleunigt auszuwählen. Diese Invarianz von Beschleunigungen drückt sich empirisch z.B. dadurch aus, dass bei einem Eisenbahnunglück der Zug in Trümmer geht und nicht der nahebei befindliche Kirchturm, obwohl beide relativ zueinander die gleiche Beschleunigung erfah-

194

4. Raum-Zeit und Materie

ren. Der Grund für diesen Unterschied besteht darin, dass der Zug durch den Zusammenstoß relativ zur Geodätenstruktur der RaumZeit beschleunigt wird, der Kirchturm hingegen nicht (Weyl 1923, 220-221). Dieses Beispiel sorgte in den 1920er Jahren für beträchtliche Verwirrung, da man irrtümlich annahm, die ART beinhalte eine umfassende Relativierung von Beschleunigungen. Entsprechend galt das Eisenbahnunglück als Gegenbeispiel zur ART. Hermann Weyl war der einzige, der diesen Fall seinerzeit korrekt analysierte. Entsprechend besteht keineswegs die von Reichenbach und anderen behauptete volle Äquivalenz zwischen heliozentrischer und geozentrischer Konstellation. Vielmehr befinden sich die Sonne und die Planeten im freien Fall; sie führen entsprechend eine Trägheitsbewegung aus. Eine solche Bewegung entlang von Geodäten ist aber im Rahmen der ART unabhängig vom Bezugssystem bestimmt (und damit eben absolut2). Überdies wird in der ART die Geodätenstruktur von der Massenverteilung beeinflusst, und dabei steht außer Zweifel, dass der Einfluss der Sonne erheblich markanter ist als derjenige der Planeten. Aus dieser Perspektive bleibt es richtig, dass sich in der Bewegung der Planeten die Präsenz der Sonne stärker niederschlägt als umgekehrt die Bewegung der Sonne durch die Planeten beeinflusst wird. Das aber besagt nichts anderes, als dass die Planeten um die Sonne laufen und nicht umgekehrt. Tatsächlich sind Beschleunigungen durch die Geodätenstruktur bestimmt und damit absolut2. Ebenso wie die geodätische Struktur sind metrische Größen wie die Länge von Weltlinien, also Intervall-Längen und Eigenzeiten, durch die Metrik auf bezugssystem-invariante Weise festgelegt und damit absolut2. Die ART ersetzt in der Summe nur dreidimensionale absolute Größen (wie räumliche und zeitliche Abstände und räumliche Beschleunigungen) durch vierdimensionale absolute Größen (wie die Metrik und die geodätische Struktur). Allerdings macht die vierdimensionale Betrachtungsweise deutlich, dass absolute Beschleunigungen nicht als Beschleunigungen gegen ein unbewegliches Bezugssystem, den absoluten Raum, zu betrachten sind, sondern als Abweichungen der Weltlinie des betreffenden Körpers von der zugehörigen Raum-Zeit-Geodäten. Man kann sinnvoll von absoluten Beschleunigungen und absoluten Rotationen sprechen, ohne zugleich absolute Geschwindigkeiten und absolute Orte zulassen zu müssen (wie Newton glaubte) (Friedman 1983, 232). Nur bei einer einzigen Größe tritt tatsächlich eine Relativierung auf, nämlich bei der Gravitationsbeschleunigung. In der Newton-

4.2 Die Struktur der Raum-Zeit in der allgemeinen Relativitätstheorie

195

schen Gravitationstheorie ist diese absolut2; es steht für alle Beobachter übereinstimmend fest, ob ein Gravitationsfeld vorliegt oder nicht. Hingegen ist man nach dem Äquivalenzprinzip frei, den freien Fall in einem Inertialsystem (also die Anwesenheit eines Gravitationsfelds) als Bewegung in einem beschleunigten Bezugssystem im feldfreien Raum (also ohne Gravitationsfeld) aufzufassen (s.o. 3.2.1). Die Gravitationsbeschleunigung oder Gravitationsfeldstärke ist in der ART nicht mehr absolut2. Eine wesentliche Änderung der Situation tritt allerdings hinsichtlich der als absolut3 geltenden Größen und Eigenschaften ein. In der Newtonschen Theorie bleibt die Struktur der RaumZeit von den sich in ihr abspielenden physikalischen Prozessen unbeeinflusst und ist entsprechend absolut3. Hingegen hängen in der ART Metrik und Geodätenstruktur von der Anwesenheit von Materie und Energie ab. Die Lichtablenkung im Schwerefeld der Sonne macht diesen Zusammenhang augenfällig. Durch die Masse der Sonne ändert sich die Geodätenstruktur in ihrer Umgebung, wodurch auch die geradestmöglichen Bahnen von Lichtstrahlen modifiziert werden (s.o. 3.2.3). In der ART sind alle Raum-ZeitGrößen durch physikalische Prozesse beeinflussbar; entsprechend ist keine mehr absolut3. Diese Absage an feste Behältnisse, an Raum-Zeit-Größen also, die von den physikalischen Prozessen in ihnen gänzlich losgelöst sind, bringt auf andere Weise die Geometrisierung der Gravitation zum Ausdruck. Geometrisierung besagt, dass die Gravitation Teil der Raum-Zeit-Struktur wird. Die Folge ist, dass die Raum-ZeitStruktur umgekehrt ein Aspekt der Gravitation wird. Aus diesem Grunde wird sie variabel und dem Einfluss von Materie und Energie unterworfen.

4.2.2 Das Machsche Prinzip und die allgemeine Relativitätstheorie Es bleibt die Frage, ob die Raum-Zeit der ART Größen enthält, die als absolut1 gelten können. Dabei geht es darum, ob die Raum-Zeit eine von der Materie getrennte Existenz besitzt oder ob sie im Einklang mit einem relationalen Verständnis nichts neben den Beziehungen zwischen ihren materiellen Teilen ist. Nun wird in der ART Bewegung durch Bezug auf geometrische Größen, insbesondere die Geodätenstruktur beschrieben (s.o. 4.2.1), was zunächst für die

196

4. Raum-Zeit und Materie

Selbstständigkeit der Raum-Zeit gegenüber den Körpern spricht. Allerdings könnten solche geometrische Größen in einem zweiten Schritt auf relative Lagen und Bewegungen von Körpern zurückführbar und damit nicht absolut1 sein. Dafür spricht die Geometrisierung der Gravitation, die eben beinhaltet, dass die Raum-Zeit der ART keine Objekte enthält, die absolut3 sind. Alle geometrischen Größen werden durch Materie und Energie beeinflusst. Damit könnten zwar Bewegungen (einschließlich der mit ihnen verbundenen Trägheitskräfte) durch die Raum-Zeit-Struktur festgelegt sein, die Raum-Zeit-Struktur wäre jedoch ihrerseits wieder durch die Relativbewegungen der Körper fixiert. Was als beschleunigt gilt, wird durch Abweichungen von Raum-Zeit-Geodäten festgelegt; aber was als Geodäte gilt, wird durch Materie bestimmt. Diese Strategie beinhaltete die Umsetzung des Machschen Prinzips in einem zweistufigen Verfahren und stützte damit insgesamt eine relationale Interpretation der Raum-Zeit. Nach dem Machschen Prinzip sind die Trägheitskräfte durch die Materieverteilung und deren Änderung bestimmt, während sie in der ART zunächst durch die geodätische Struktur festgelegt werden. Das Machsche Prinzip verlangte dann, dass die geodätische Struktur durch die Materieverteilung festgelegt ist. Dieses zweistufige Verfahren entspricht gerade der „Machianisierung“ im Gegensatz zur einfachen Relativierung (s.o. 4.1.4). Tatsächlich war es die einhellige Überzeugung der Fachgemeinschaft bis in die 1960er Jahre hinein, dass die ART das Machsche Programm realisierte. Einsteins begriffliche Neuerung bestand danach in der Einsicht, dass Machs „neuartige“ langreichweitige Wechselwirkung tatsächlich die bekannte Gravitation ist. Die Schwerkraft stellt sich im Lichte der Geometrisierung der Gravitation auch als Trägheitskraft dar (s.o. 3.2.3). Zunächst geht die ART in der Tat Schritte in Richtung einer physikalischen Umsetzung des Machschen Prinzips. Danach sollten die Trägheitskräfte auf einen Körper durch Änderung der Verteilung und Bewegung der Massen in seiner Umgebung beeinflusst werden. Dieser Einfluss äußert sich unter anderem in dem bereits in den 1920er Jahren theoretisch vorhergesagten, bislang allerdings noch nicht bestätigten Lense-Thirring-Effekt. Aus den Feldgleichungen folgt nämlich, dass ein massiver rotierender Hohlkörper in seinem Inneren ein Zentrifugalfeld erzeugt (Weyl 1923, 249-250; Weinberg 1972, 240-241). Der Lense-Thirring-Effekt unterstreicht daher Machs provokativ an die Adresse Newtons gerichtete For-

4.2 Die Struktur der Raum-Zeit in der allgemeinen Relativitätstheorie

197

derung, dieser möge doch seinen Eimer festhalten, das Universum um diesen rotieren lassen und zeigen, dass Zentrifugalkräfte fehlten. Zur posthumen Freude Machs treten eben nach der ART unter diesen Umständen durchaus Zentrifugalkräfte in Erscheinung. Der Lense-Thirring-Effekt legt entsprechend nahe, dass die Szenarien (1a) und (1b) (vgl. Figur 3) empirisch tatsächlich auf das Gleiche hinauslaufen (s.o. 4.1.4).2

Trägheitskräfte in der leeren Raum-Zeit Allerdings steht die ART in anderer Hinsicht durchaus nicht im Einklang mit dem Machschen Prinzip. Die Gegensätze treten bei einer Betrachtung einzelner Modelle der ART zu Tage. Die Einsteinschen Feldgleichungen der Gravitation stellen das grundlegende Naturgesetz der ART dar und verknüpfen die Materie- und Energieverteilung als Quellen des Gravitationsfelds mit der Metrik und der Krümmung der betreffenden Raum-Zeit (s.o. 3.2.3). Die betreffenden Raum-Zeit-Strukturen sind dabei ebenso vielfältig wie die Verteilungen der Quellen, so dass auf der allgemeinen Ebene der Feldgleichungen wenig Spezifisches über die Beschaffenheit der Raum-Zeit folgt. Spezifische Aussagen ergeben sich erst bei Einbezug konkreter Situationsumstände. Eine solche Verknüpfung von übergreifenden Gesetzen mit besonderen Anfangs- und Randbedingungen wird als Modell einer Theorie bezeichnet. In der Newtonschen Theorie ergibt sich zum Beispiel ein Modell des Sonnensystems aus den Gesetzen der Mechanik und Vorgaben über die Massenverhältnisse der Planeten sowie Anfangswerte ihrer Bewegungen. Analog erhält man Modelle der Feldgleichungen durch Vorgabe einer Materie- und Energieverteilung und der Ableitung der damit verbundenen geometrischen Strukturen. Von Interesse ist hier zunächst das Modell des materiefreien Universums. Der Relationalismus verlangt, dass Bewegung einschließlich der dabei auftretenden Trägheitskräfte vollständig durch Bezug auf materielle Körper beschrieben wird. Dann wäre die Geodätenstruktur eindeutig durch die Masse-Energie-Verteilung des Universums festgelegt und das Machsche Prinzip erfüllt. Eine bloße Beeinflussung der Geodätenstruktur durch Materie reichte für diesen Zweck nicht hin; schon Einstein verlangt, die „restlose Bestimmung“ des metrischen Feldes durch die Massen (s.o. 3.2.1).

198

4. Raum-Zeit und Materie

Schließlich müsste jeder Rest als eine Raum-Zeit-Struktur gelten, die unabhängig von den Körpern bestünde. Unter der Voraussetzung des Machschen Prinzips sollte daher in einem materiefreien Universum kein Unterschied zwischen Trägheitsbewegung und nicht-inertialer Bewegung bestehen – wie es auch Einsteins erkenntnistheoretische Betrachtung rotierender Körper im leeren Raum nahelegt (s.o. 4.1.4). Entweder sollten bei allen Relativbewegungen Trägheitskräfte auftreten oder bei keiner. Im Gegensatz dazu enthält das Modell des materiefreien Universums die Minkowski-Raum-Zeit der SRT. Diese zeichnet aber eine feste Geodätenstruktur aus und enthält damit den Unterschied zwischen inertialen und nicht-inertialen Bewegungen. Die ART sieht vor, dass bei einem im leeren Raum rotierenden Körper Zentrifugalkräfte auftreten, die diesen Körper auf empirisch feststellbare Weise verformen, während solche Kräfte bei einem ruhenden Körper fehlen. Entsprechend wird der Eimerversuch in der ART ähnlich behandelt wie bei Newton selbst, was auch dessen Schluss auf den absoluten Raum intakt lässt – wenn man diesen Raum nicht in einem dreidimensionalen Sinne als absolut ruhendes Koordinatensystem begreift, sondern in einem vierdimensionalen Sinne als ausgezeichnete Geodätenstruktur (Friedman 1983, 210-211). Allerdings bleibt für den Relationalismus eine Konterchance. Dieser wendet ein, dass die unterstellten Situationsumstände unrealistisch sind; schließlich ist unser Universum definitiv nicht materiefrei. Der Rückgriff auf den im leeren Raum rotierenden Körper geht daher ins Leere. Überlegungen, die auf ganz andere Situationsumstände Bezug nehmen, können nicht über die Raum-ZeitStruktur unseres Universums Aufschluss geben (Ray 1987, 93).

Inseluniversum und Einsteins sphärisch abgeschlossenes Universum Nimmt man Materie im Universum an, so wird die Lage komplizierter. Einige der einschlägigen Modelle genügen dem Machschen Prinzip, andere nicht. Ein für das Prinzip problematisches Modell ist das sog. Inseluniversum, bei welchem Materie auf einen begrenzten Bereich beschränkt und von materiefreiem Raum umgeben ist. Eine Lösung der Feldgleichungen für diese Situation verlangt die Vorgabe von Randbedingungen im Unendlichen, und im

4.2 Die Struktur der Raum-Zeit in der allgemeinen Relativitätstheorie

199

Rahmen der ART ist die in der Sache einzig mögliche Vorgabe, dass fern von allen Massen die flache Minkowski-Metrik vorliegt. Diese feste geometrische Struktur im Unendlichen kann jedoch nicht als von Materie verursacht gedeutet werden da sie eben erst weitab von aller Materie angenommen wird (Weyl 1923, 287-288; Sklar 1974, 216-218; Ray 1987, 96-101). Im Gegensatz dazu sollten nach dem Machschen Prinzip in großer Entfernung von Materie keinerlei Trägheitseffekte auftreten. So lautete auch Einsteins Urteil: „In einer konsequenten [d.h. dem Machschen Prinzip genügenden] Relativitätstheorie kann es keine Trägheit gegenüber dem ‘Raume’ geben, sondern nur eine Trägheit der Massen gegeneinander. Wenn ich daher eine Masse von allen anderen Massen der Welt räumlich genügend entferne, so muss ihre Trägheit zu Null herabsinken“ (Einstein 1917b, 132). Die ART legt jedoch nahe, dass genau dies nicht geschieht. Weitab von allen Massen stellt sich die Raum-Zeit der SRT mit ihrer festen Geodätenstruktur ein. Da Materie in aller Regel die Raum-Zeit nur in geringem Maße krümmt, werden auch im materieerfüllten Universum Trägheitsbewegungen nur nachrangig durch die Materieverteilung und weit stärker durch die Randbedingungen im Unendlichen festgelegt. Weyl hat diese Einsicht als erster bereits kurz nach Einsteins Pionierwerk gefasst: „Die Ursache für das gemeinsame, nahezu homogene metrische Feld, das alle Körper einbettet, liegt offenbar nicht in den Körpern, geht nicht von den inneren [d.h. an die Körper grenzenden] Feldsäumen aus, sondern von dem unendlich fernen Saum; von da her legt sich eine ungeheure Macht beruhigend auf das Weltgeschehen. Den Prinzipien der Allgemeinen Relativitätstheorie widerspricht das nicht, wohl aber der Forderung, dass die Materie alleinige Ursache des Feldes sein soll“ (Weyl 1923, 288). Weyl hebt entsprechend hervor, dass gleichsam der Grundton der physikalischen Geometrie nicht durch die Wechselbeziehungen von Körpern erzeugt wird, sondern durch die Randbedingungen im Unendlichen. Dem Machschen Prinzip zufolge hätte die Materie die alleinige Ursache des metrischen Feldes zu sein; stattdessen vermag „die Materie die Ruhe des ‘Vaters Äther’ [d.h. der flachen Minkowski-Raum-Zeit] nur in geringem Grad zu stören“ (Weyl 1923, 297). Ergebnis ist, dass auch ART-Modelle des materieerfüllten Universums das Machsche Prinzip verletzen. Als relationale Reaktion bietet sich erneut an, die nicht-Machschen Lösungen als physika-

200

4. Raum-Zeit und Materie

lisch unrealistisch und wirklichkeitsfremd auszuschließen. Das tatsächlich vorliegende Universum ist ebenso wenig ein Inseluniversum wie es materiefrei ist. Allerdings verlangt diese Strategie die Angabe von Modellen der ART, die als empirisch plausibel gelten können und in denen das Machsche Prinzip erfüllt ist. Das bereits 1917 von Einstein entwickelte Modell des „sphärisch ab geschlossenen Universums“ sieht ein statisches, räumlich abgeschlossenes Universum nach Art einer vierdimensionalen Kugel vor. Einstein warb für dieses Modell wie folgt: „Besonders befriedigend erscheint die Möglichkeit, daß die Welt räumlich geschlossen, also [...] sphärisch oder elliptisch sei, weil dann die vom Standpunkte der Allgemeinen Relativitätstheorie so unbequemen Grenzbedingungen für das Unendliche durch die viel natürlichere Geschlossenheitsbedingung zu ersetzen wäre“ (Einstein 1922, 102; vgl. auch Einstein 1917b, 135-136). Ein abgeschlossenes Universum vermeidet also die fatalen Randbedingungen im Unendlichen, da Bereiche fernab von aller Materie in dem Modell überhaupt nicht mehr vorgesehen sind. Wenn die Raum-Zeit insgesamt abgeschlossen ist, so ist das Universum wie eine Kugeloberfläche endlich und doch unbegrenzt. Einsteins Universum besitzt ein endliches Gesamtvolumen und enthält eine Obergrenze für Entfernungen, aber nirgendwo gibt es eine Begrenzung. Wenn man sich beständig geradeaus bewegt, kehrt man nach einer Umrundung des Universums am Ende an seinen Ausgangsort zurück. In diesem Modell existieren keine Regionen weitab von aller Materie. Die Randbedingungen im Unendlichen werden dadurch vermieden, dass man das Unendliche abschafft. In einem solchen sphärisch abgeschlossenen Universum ist das Machsche Prinzip in der Tat erfüllt. Allerdings spricht eine große Zahl empirischer Indizien dagegen, dieses Modell als zutreffende Beschreibung unseres Universums zu betrachten. Unser Universum ist wahrscheinlich nicht in dieser Weise abgeschlossen; nach den gegenwärtigen Befunden ist es weder statisch noch insgesamt positiv gekrümmt. Überdies handelt es sich bei Einsteins sphärisch abgeschlossenem Universum nicht eigentlich um eine Lösung der Feldgleichungen – jedenfalls nicht in deren ursprünglicher Gestalt. Tatsächlich modifizierte Einstein 1917 die Feldgleichungen durch Einführung des sog. „kosmologischen Terms“. Das sphärisch abgeschlossene Universum ist eine Lösung allein der solcherart angereicherten Feldgleichungen. Einsteins Vorgehensweise erscheint zunächst methodologisch unbefriedigend: Die Feldgleichungen erfüllen das

4.2 Die Struktur der Raum-Zeit in der allgemeinen Relativitätstheorie

201

Machsche Prinzip nicht, und deshalb werden diese so manipuliert, dass sie es am Ende doch erfüllen. Dieser Eindruck trifft aber nicht zur Gänze zu; die Einführung des kosmologischen Terms sollte nämlich ein Problem der Kosmologie lösen und erwies sich dann als hilfreich bei der Umsetzung des Machschen Prinzips. Hintergrund dieses kosmologischen Problems war die Instabilität der kosmologischen Lösungen der Feldgleichungen. Diese führten nämlich auf ein expandierendes oder kontrahierendes Universum. Solche Modelle hielt Einstein für unrealistisch; tatsächlich sprachen 1917 alle Erfahrungen für ein stationäres Universum. Um die ART mit dieser vermeintlichen Datenlage in Einklang zu bringen, führte Einstein den kosmologischen Term ein, der eine entfernungsabhängige Abstoßung (ohne identifizierbare Quellen) darstellt, die sich erst über kosmische Distanzen bemerkbar macht und zusammen mit der anziehend wirkenden Gravitation ein Gleichgewicht erzeugt. Einstein konnte sich entsprechend durch den Umstand gestützt fühlen, dass gerade dasjenige kosmologische Modell, welches geeignet war, das kosmische Stabilitätsproblem zu lösen, auch das Machsche Prinzip erfüllte. Die Rettung des Machschen Prinzips war entsprechend lediglich ein willkommener Nebeneffekt der Einführung des kosmologischen Terms. Nun hat sich in der Zwischenzeit das Problem der Bewahrung der kosmischen Stabilität durch die Entdeckung der kosmischen Expansion verflüchtigt. Das Universum ist instabil und zeitlich durch den Urknall begrenzt. Eine Pointe dieser Geschichte besteht darin, dass Einstein leicht zu der Vorhersage der kosmischen Expansion hätte gelangen können – wenn er die instabilen Lösungen der Feldgleichungen physikalisch ernst genommen hätte. Die Einführung des kosmologischen Terms diente der Herbeiführung einer Stabilität, die von den Feldgleichungen gar nicht vorgesehen war – und eben auch der Sache nach nicht besteht. Durch die vorgängige Verpflichtung auf die Unveränderlichkeit des Kosmos verfehlte Einstein knapp einen gewaltigen Triumph der ART. Es verwundert daher nicht, dass Einstein die Einführung des kosmologischen Terms rückblickend als „die größte Eselei“ seines Lebens bezeichnete und den Term 1931 wieder aufgab (Ray 1991, 176-186). Allerdings erlebt der kosmologische Term in der neueren Kosmologie eine Renaissance. Unter den Bedingungen eines expandierenden Universums drückt die mit diesem Term verbundene Abstoßung eine Beschleunigung der Expansion des Universums aus, wie sie heute tatsächlich angenommen wird. Einsteins kosmo-

202

4. Raum-Zeit und Materie

logischer Term feiert entsprechend gegenwärtig unter der Bezeichnung „Dunkle Energie“ Wiederauferstehung. Die Expansion des Universums verdeutlicht jedenfalls, dass die Raum-Zeit eine innere Dynamik besitzt und unabhängig von allen Beziehungen zwischen Körpern physikalisch real ist (Bartels 1996, 58). Die kosmologischen Umbrüche der vergangenen Jahrzehnte rücken daher das Machsche Prinzip eher weiter in den Hintergrund.

ART-Modelle im Einklang mit dem Machschen Prinzip Der relationale Verweis auf die Realitätsferne der nicht-Machschen Lösungen gewinnt nur dann Überzeugungskraft, wenn es Lösungen der Feldgleichungen gibt, die mit dem Machschen Prinzip und den astronomischen Befunden in Einklang stehen und die entsprechend als Wiedergabe des faktisch bestehenden Universums gelten können. Solche Modelle gibt es, sie werden durch die so genannte Friedmann-Lösung erfasst, die 1922 von dem russischen Mathematiker Alexander Friedmann gefunden wurde. Die Friedmann-Lösung umfasst eine Gruppe räumlich homogener und isotroper Modelle ohne Rotation, die eine kosmische Expansion oder Kontraktion beschreiben. In diesen Modellen wird auf der Grundlage von Anfangsbedingungen (und ohne Randbedingungen im Unendlichen) die physikalische Geometrie eindeutig durch die Materieverteilung festgelegt. Der Grund für das fehlende Erfordernis von Randbedingungen im Unendlichen ist, dass der Urknall keine Materieexplosion in einer vorab bestehenden und festen Raum-Zeit darstellt. Es ist die Raum-Zeit selbst, die expandiert; Randbedingungen außerhalb der Materieverteilung sind daher nicht erforderlich. Insgesamt genügt die Friedmann-Lösung dem Machschen Prinzip, und Modelle aus dieser Klasse geben zutreffend die großräumige Struktur des Universums wieder. Das beste verfügbare Modell unseres Universums genügt also dem Machschen Prinzip. Die Friedmann-Lösung erfüllt daher in der Tat die beiden angegebenen Bedingungen für ein relational akzeptables Modell. Allerdings reicht die Friedmann-Lösung für eine umfassende Beschreibung kosmischer Strukturen nicht hin. Lokalen Abweichungen von der Homogenität (etwa bei Planetensystemen oder Schwarzen Löchern) muss durch Größen Rechnung getragen werden, die absolut1 sind, bei denen also nicht alle geometrischen

4.2 Die Struktur der Raum-Zeit in der allgemeinen Relativitätstheorie

203

Strukturen auf relative Lagebeziehungen zwischen Körpern zurückgeführt werden können. Der Behandlung von Planetensystemen oder Schwarzen Löchern im leeren Raum stehen in der ART keine Hindernisse im Wege. Der Relationalist kontert ein weiteres Mal mit dem Hinweis darauf, dass solche lokalen Modelle unrealistisch sind. Die behandelten Systeme sind in Wirklichkeit nicht isoliert, sondern Teil des Universums. Die fehlende Berücksichtigung dieser Einbettung ist ein Mangel der theoretischen Behandlung und bleibt folglich ohne philosophische Tragweite (Ray 1987, 106-113, 118; Ray 1991, 143-146).

Absolute versus relationale Interpretation der Raum-Zeit Diese Diskussion lässt die Unterschiedlichkeit der Begründung von absoluter und relationaler Interpretation deutlich werden. Die absolute Position verfährt nach Art des wissenschaftlichen Realismus: die besten verfügbaren naturwissenschaftlichen Theorien geben Aufschluss über das Naturgefüge. Entsprechend erschließt sich die Beschaffenheit der Raum-Zeit durch Interpretation der ART. Diese enthält Modelle, bei denen die geometrischen Strukturen nicht auf die Materieverteilung zurückgeführt werden können. Diese Strukturen sind folglich absolut1 und repräsentieren die moderne Fassung der absoluten Raum-Zeit. Für diesen Schluss wird die Betrachtung möglicher Lösungen der Feldgleichungen als hinreichend betrachtet. Die relationale Sicht will demgegenüber die philosophische Interpretation nicht an der Gesamtheit möglicher Modelle orientieren, sondern an dem in unserem Universum realisierten Modell. Der Relationalismus gesteht daher zu, dass die ART das Machsche Prinzip nicht automatisch erfüllt, hält aber die nicht-Machschen Lösungen der Feldgleichungen für philosophisch belanglos. Nur solche Lösungen sind philosophisch in Betracht zu ziehen, bei denen die unterstellten Situationsumstände mit den Erfahrungsbedingungen der Welt übereinstimmen. Der absolute Ansatz wendet gegen die Konzentration auf die faktisch realisierten Lösungen ein, philosophisch entscheidend sei, dass die ART keinen Rückgriff auf Bezugskörper verlange und keine Rückführung von Trägheitskräften auf Relativbewegungen erzwinge (Friedman 1983, 231). Weiterhin können die nicht-Machschen Lösungen jedenfalls nicht als physikalisch bedeutungslos

204

4. Raum-Zeit und Materie

abgewiesen werden, weil Lösungen der Feldgleichungen mit Größen, die absolut1 sind, zur Beschreibung kleinräumiger kosmischer Strukturen (mit ihren lokalen Abweichungen von Homogenität und Isotropie) erforderlich sind (s.o.). Nicht-Machsche Lösungen sind physikalisch relevant. Die vom Relationalismus praktizierte philosophische Aussonderung physikalisch bedeutsamer Modelle läuft darauf hinaus, das Machsche Prinzip als erkenntnistheoretisch begründetes Auswahlkriterium für die Signifikanz von Lösungen der Feldgleichungen heranzuziehen. Der Relationalismus akzeptiert daher nicht durchgängig den Denkansatz des wissenschaftlichen Realismus, die philosophische Interpretation der Raum-Zeit auf die beste verfügbare physikalische Theorie der Raum-Zeit zu stützen. Vielmehr bringt er erkenntnistheoretische Vorbehalte zum Tragen, die eine Auswahl unter den physikalisch zugelassenen Lösungen begründen sollen. Dies stimmt mit Machs eigener Vorgehensweise bei der Interpretation der Newtonschen Mechanik überein. Auch Mach hielt die von der Theorie zugelassenen Trägheitskräfte im leeren Raum für erkenntnistheoretisch disqualifiziert (s.o. 4.1.4). Darüber hinaus und unabhängig davon stützt sich der Relationalismus darauf, dass das beste verfügbare kosmologische Modell unseres Universums das Machsche Prinzip erfüllt. Die absolute Position macht umgekehrt im Einklang mit dem Denkansatz des wissenschaftlichen Realismus die Gesamtheit der Modelle der ART zur Grundlage der philosophischen Interpretation der Raum-Zeit. Festzuhalten ist, dass die ART dem Machschen Prinzip nicht zwangsläufig genügt und dass jene in einiger Hinsicht näher bei Newton als bei Mach ist. Die ART ist nicht diejenige Theorie, die Mach programmatisch vorschwebte. Gleichwohl bildete das Machsche Prinzip einen Kristallisationskeim der ART, auch wenn die voll entwickelte Theorie es nur eingeschränkt erfüllt.

4.3 Substanzialismus und Relationalismus 4.3.1 Die Unterscheidung zwischen Raum und Materie Die bisher verfolgten Gesichtspunkte in der Debatte zwischen der absoluten und der relationalen Interpretation konzentrierten sich auf die Frage der absoluten Bewegung, also auf den Gegensatz zwi-

4.3 Substanzialismus und Relationalismus

205

schen der Ansicht, alle Bewegung sei Relativbewegung, und der Behauptung, es gebe ausgezeichnete, wahre Bewegung. Im Folgenden soll die Frage des „Raum-Zeit-Substrats“ oder der RaumZeit-Punkte in den Vordergrund treten. Hier steht die Auffassung, es gebe nur raumzeitliche Beziehungen zwischen Körpern, gegen die Position, raumzeitliche Beziehungen zwischen Körpern beruhten auf Beziehungen zwischen den von diesen Körpern besetzten Raum-Zeit-Punkten. Diese Position stellt eine Verschärfung der absoluten zu einer substanzialistischen Position dar, demzufolge zu den absoluten Eigenschaften der Raum-Zeit insbesondere die Raum-Zeit-Punkte gehören. Im Kontrast dazu enthält der Relationalismus, jetzt verstanden als Anti-Substanzialismus, eine Absage an eigenständige Raum-Zeit-Punkte neben den Beziehungen zwischen Körpern. Die relationale Rückführung von Raum-Zeit-Punkten auf Beziehungen zwischen Materieteilen hat insbesondere zur Folge, dass es keine „leeren“ oder unbesetzten Raum-Zeit-Punkte geben kann. Umgekehrt drückt sich die substanzialistische Festlegung auf die Eigenständigkeit von Raum-Zeit-Punkten gerade in der Annahme solcher unbesetzter Punkte aus. Die Einschätzung des Substanzialismus und seiner Gegenpositionen hängt wesentlich davon ab, in welcher Weise Raum und Materie angemessen voneinander unterschieden werden. Der Kürze halber beziehe ich mich dabei gelegentlich auf den „Raum“ und auf „Raumpunkte“; gemeint sind aber stets die „Raum-Zeit“ und „Raum-Zeit-Punkte“. Vor dem Hintergrund der ART lautet die wesentliche Frage, ob geometrische Größen wie die Metrik gik und die Geodätenstruktur zur Raum-Zeit oder zur Materie zu zählen sind. Die Feldgleichungen verknüpfen den sog. Energie-Impuls-Tensor Ti k, der die Materie- und Energieverteilung als Quellen des Gravitationsfelds wiedergibt, mit einem Ausdruck für die physikalische Geometrie, der unter anderem Metrik und Geodätenstruktur enthält (s.o. 3.2.3). Danach ist die Metrik Teil der Raum-Zeit, nicht der Materie. Gegen den Relationalismus spricht dann, dass die Feldgleichungen physikalisch signifikante Vakuumlösungen enthalten. Auch bei verschwindender Materie und Energie ergeben sich definite metrische Felder und Geodätenstrukturen als Lösungen. Dabei handelt es sich insbesondere um Gravitationswellen, also um sich fortpflanzende Schwingungen des metrischen Feldes. Danach kann auch dort Raum-Zeit – nämlich ein nicht-verschwindendes metrisches Feld (gik ≠ 0) – vorliegen, wo keine Materie vorhanden

206

4. Raum-Zeit und Materie

ist – wo also der Energie-Impuls-Tensor verschwindet (Ti k = 0). So führt zum Beispiel der Kollaps eines Sterns zur Emission von Gravitationswellen; diese entfernen sich vom Ort des Geschehens wie Wasserwellen von einem ins Wasser geworfenen Stein. Weit ab vom Ereignis mag keinerlei materieller Rest des Zusammenbruchs mehr vorhanden sein; in den Gravitationswellen manifestiert sich gleichwohl eine definite Metrik. Gravitationswellen realisieren daher leere Raum-Zeit-Punkte, und dieser Befund stützt die Vorstellung einer substanzialistischen Raum-Zeit.

4.3.2 Substanzialismus und Loch-Argument Diese Debatte hat durch die Erörterung des „Loch-Arguments“ seit Mitte der 1980er Jahre eine neue Wendung genommen. Für dieses Argument spielt ebenfalls die Frage der adäquaten Trennung von Raum-Zeit und Materie eine zentrale Rolle. Neben die bislang betrachteten geometrischen Größen (nämlich das metrische Feld und den Energie-Impuls-Tensor) als Kandidaten für die Repräsentation der Raum-Zeit tritt auf einer stärker grundlegenden Ebene die Raum-Zeit-Mannigfaltigkeit, also die Gesamtheit der Raum-ZeitPunkte. Die geometrischen Größen werden auf dieser Mannigfaltigkeit definiert. Raum-Zeit-Punkte geben Ort und Zeit möglicher Ereignisse an. Die für die Präzisierung des Streitpunkts zwischen Substanzialismus und Relationalismus entscheidende Frage ist, an welcher Stelle die Trennlinie zwischen dem Behälter, also dem Raum, und dem Raumerfüllenden, also der Materie, gezogen werden soll. Die vorgenannten Positionen rechnen das metrische Feld zur Raum-Zeit, man kann es jedoch auch als Aspekt der Materie betrachten, so dass das Nicht-Verschwinden des metrischen Feldes (gi k ≠ 0) zum Kriterium der materiellen Besetzung von RaumZeit-Bereichen wird. Für diesen Mannigfaltigkeitssubstanzialismus repräsentiert allein die Mannigfaltigkeit, also die Gesamtheit der Raum-Zeit-Punkte, den Raum. Der Mannigfaltigkeitssubstanzialismus stellt eine Verschärfung der absoluten Position dar. Beide teilen die Verpflichtung auf die eigenständige Existenz raumzeitlicher Strukturen; die Raum-Zeit existiert neben und unabhängig von den Ereignissen in ihr. Die Verschärfung gegenüber der traditionellen absoluten Position besteht darin, dass es die Raum-Zeit-

4.3 Substanzialismus und Relationalismus

207

Punkte selbst sind, denen eine von der Materie unabhängige Existenz zugeschrieben wird. Für den Mannigfaltigkeitssubstanzialismus liegt der Grund für die Auffassung des metrischen Feldes als einer materiellen Größe darin, dass es, wie andere Felder, Energie und Impuls überträgt. Dies zeigt sich bei Gravitationswellen, Schwingungen des metrischen Feldes, die Oszillationen in massiven Detektoren erzeugen können (wenn sie denn nachgewiesen wären). Eine Größe, die solche Wirkungen erzeugen kann, gehört nicht in den raumzeitlichen Behälter, sondern in dessen physikalischen Inhalt. Daher ist das metrische Feld analog dem elektromagnetischen Feld der Materie zuzurechnen, so dass allein die Mannigfaltigkeit als Repräsentant der Raum-Zeit übrig bleibt. Der Mannigfaltigkeitssubstanzialismus besagt dann, dass den Raum-Zeit-Punkten selbst eine von der materiellen Erfüllung (wie körperlichen Gegenständen oder beliebigen Feldern) unabhängige Existenz zukommt (vgl. Earman & Norton 1987, 518-519).

Das Loch-Argument Das Loch-Argument zielt darauf ab, den Mannigfaltigkeitssubstanzialismus zu untergraben. Es geht im Kern bereits auf Einstein zurück, hat jedoch erst 1986 durch John Stachel, John Earman und John Norton eine angemessene Rekonstruktion erfahren. Das Loch-Argument besagt, dass der Mannigfaltigkeitssubstanzialismus in allgemein kovarianten Theorien eine starke Form des Indeterminismus beinhaltet, da er auf eine Vielzahl theoretisch verschiedener, aber empirisch ununterscheidbarer Zustände führt (Earman & Norton 1987; Norton 1987; Ray 1991, 146-150; Norton 1992, 227-230; DiSalle 1994, 279-280). Der Mannigfaltigkeitssubstanzialismus spricht den Raum-ZeitPunkten physikalische Bedeutung zu und besagt entsprechend, dass eine Vertauschung oder Permutation von Punkten in einem Raum-Zeit-Bereich derart, dass die relativen Lagebeziehungen erhalten bleiben, auf einen andersartigen physikalischen Zustand führt. Schließlich werden durch eine solche Operation die einzelnen Punkte jeweils anderen Punkten zugeordnet. Mathematisch geht es bei den Permutationen um Mannigfaltigkeitstransformationen, die umkehrbar eindeutig und stetig sind und die Elemente der Mannigfaltigkeit unter Erhaltung der Lagebeziehungen vertau-

208

4. Raum-Zeit und Materie

schen, sog. Diffeomorphismen. Ein Beispiel für eine solche Transformation ist eine Stauchung und Verdrillung eines rechtwinkligen Gitters aus Raum-Zeit-Punkten, so dass die vormaligen Geraden nun krumm und schief sind; ein anderes Beispiel ist eine Umkehrung der Richtungen in einem Raum-Zeit-Bereich (also etwa die Vertauschung von Ost und West miteinander unter Erhaltung der relativen Anordnung der Punkte). Solche Diffeomorphismen sind Symmetrieoperationen, die das Zusammenfallen von Ereignissen unangetastet lassen. In allgemein kovarianten Theorien sind die durch solche Transformationen verknüpften Zustände gleichberechtigt. Zuerst werden die Punkte vertauscht und anschließend die Auswirkungen dieser Vertauschung dadurch neutralisiert, dass die Ereignisse jeweils anderen Punkten zugeordnet werden. Insbesondere bleiben auch die Metrik, die Geodätenstruktur und die übrigen physikalischen Eigenschaften erhalten. Die Annahme, dass solche Zustände tatsächlich äquivalent sind und den gleichen physikalischen Zustand lediglich mathematisch unterschiedlich darstellen, wird von Earman & Norton (mit Anklang an Leibniz’ Ununterscheidbarkeitsargument [s.o. 4.1.2]) als Leibniz-Äquivalenz bezeichnet (Earman & Norton 1987, 521522; vgl. Bartels 1996, 32-34). Allerdings sind die vom Loch-Argument vorgesehenen Punktpermutationen vielfältiger als Leibniz’ globale Transformationen, so dass auch „Leibniz-Äquivalenz“ umfassender ist als die ursprüngliche Leibnizsche These. Das Loch-Argument hat dann die folgende Gestalt. LeibnizÄquivalenz besagt, dass Zustände mit den gleichen Lagebeziehungen zwischen Raum-Zeit-Punkten als ein und derselbe Zustand zu werten sind. Der Mannigfaltigkeitssubstanzialismus bestreitet die Leibniz-Äquivalenz, behauptet also die reale Verschiedenartigkeit Leibniz-äquivalenter Zustände. Das Loch-Argument richtet sich gegen die Zurückweisung der Leibniz-Äquivalenz; es besagt, dass die Annahme der Unterschiedlichkeit der permutierten Zustände einen „radikalen lokalen Indeterminismus“ folgender Art beinhaltet: Das metrische Feld in einem beliebig kleinen Bereich der Raum-Zeit-Mannigfaltigkeit (der aus historischen Gründen als „Loch“ bezeichnet wird) ist durch die vollständige Angabe aller Felder außerhalb dieses Bereichs nicht eindeutig festgelegt. Allgemeine Kovarianz beinhaltet die Äquivalenz einer großen Zahl mathematisch unterschiedlicher Mannigfaltigkeiten. Da eben eine Vielzahl von Mannigfaltigkeitstransformationen die Beziehungen und Gesetze der betreffenden Theorie unverändert lassen, sind

4.3 Substanzialismus und Relationalismus

209

diese Mannigfaltigkeiten auf der Grundlage der Theorie nicht zu unterscheiden. Eine allgemein kovariante Theorie enthält Aussagen über geometrische Größen, und diese Aussagen sind unter den betrachteten Transformationen gerade invariant. Die Mannigfaltigkeit und ihre Elemente sind nicht Teil solcher bezugssystemübergreifender Aussagen, und deshalb kommt ihnen in allgemein kovarianten Theorien keine selbstständige Existenz zu. Besteht man desungeachtet auf dieser selbstständigen Existenz, dann ist man zu der Annahme real verschiedener, aber im Rahmen der Theorie nicht unterscheidbarer Zustände gezwungen. Diese Konsequenz wird von Earman und Norton als „radikaler lokaler Indeterminismus“ bezeichnet und als unakzeptabel zurückgewiesen. Das Loch-Argument stützt entsprechend die Leibniz-Äquivalenz und untergräbt damit den Mannigfaltigkeitssubstanzialismus (Earman & Norton 1987, 516, 521-522; Norton 1987, 179-180). Das Loch-Argument zielt keineswegs auf eine grundsätzliche Verteidigung des Determinismus. Es geht vielmehr darum, dass eine metaphysische Position unplausibel ist, welche allen allgemein kovarianten Theorien von vornherein einen Indeterminismus aufzwingt (Earman & Norton 1987, 524). Allerdings trifft die Bezeichnung „Indeterminismus“ für die genannte Konsequenz nicht den zentralen Punkt. Ein „Indeterminismus“ im üblichen Verständnis beinhaltet die Unterscheidbarkeit der betreffenden Zustände; er bringt zum Ausdruck, dass die jeweiligen Anfangsbedingungen mehrere unterschiedliche Folgezustände zulassen. Hingegen geht es beim Loch-Argument um Ununterscheidbarkeit. Der Substanzialismus führt danach Unterscheidungen ein, denen in der Sache kein Unterschied entspricht. Diese Ununterscheidbarkeit beruht auf generellen Charakteristika allgemein kovarianter Theorie. Jede solche Theorie ist außerstande, diejenigen Zustände auseinanderzuhalten, auf deren Verschiedenheit sie der Substanzialismus verpflichtet. Erst recht sind solche Unterschiede der geometrischen Messung grundsätzlich und prinzipiell verschlossen.

Philosophische Deutungen Im Verständnis seiner Vertreter deckt das Loch-Argument ein Unterbestimmtheitsproblem des Mannigfaltigkeitssubstanzialismus auf, das durch die Absage an Raum-Zeit-Punkte als eigenständige,

210

4. Raum-Zeit und Materie

über ihre relativen Beziehungen hinaus identifizierbare Entitäten zu lösen ist. Geometrische Größen unterliegen dieser Unterbestimmtheit nicht und gelten daher als akzeptable Bestandteile der Wirklichkeit. Aber die Vorstellung, diese Größen hingen von einem zugrunde liegenden Substratum von Raum-Zeit-Punkten ab, soll durch als Loch-Argument als unhaltbar erwiesen sein. Damit wird von Neuem die Frage aufgeworfen, welche Größen in der ART die Raum-Zeit repräsentieren. Im metrischen Realismus wird das metrische Feld als Darstellung der Raum-Zeit gesehen. Das Loch-Argument hat danach gezeigt, dass Mannigfaltigkeiten oder Raum-Zeit-Punkte als Repräsentanten der Raum-Zeit untauglich sind. Umgekehrt legt die Metrik raumzeitliche Abstände und Geodätenstrukturen fest und charakterisiert daher die betreffende Raum-Zeit. Entsprechend ist die Grenze zwischen Materie und Raum zwischen dem Energie-Impuls-Tensor und der Metrik zu ziehen. Die philosophische Lehre des Loch-Arguments besteht in der Auszeichnung dieser Grenzziehung, also der Zuordnung der Metrik zum Raum, gegenüber der vom Mannigfaltigkeitssubstanzialismus vorgenommenen gemeinsamen Einordnung von Metrik und Energie-Impuls-Tensor in den Bereich der Materie mit der Mannigfaltigkeit als einzigem Repräsentanten der Raum-Zeit. Der genannte Einwand, das metrische Feld sei unter Umständen in der Lage, Energie und Impuls zu übertragen und gehöre daher zur materiellen Erfüllung der Raum-Zeit, wird vom metrischen Realismus abgewiesen. In diesem Einwand drückten sich bloß historische Vorurteile über die Raum-Zeit aus. Die ART verdeutlicht danach das Erfordernis einer Umdeutung historischer Begriffe von Raum und Zeit, die eben die Fähigkeit zur Wirkungsübertragung einschließt. In diesem Verständnis hat das Loch-Argument eine weitere unangemessene Vorstellung über die Raum-Zeit und ihre Eigenschaften aufgedeckt. Der metrische Realismus akzeptiert also das metrische Feld als ein physikalisches Feld, das eine ebenso reale physikalische Bedeutung besitzt und Teil kausaler Beziehungen ist wie etwa das elektromagnetische Feld, identifiziert dieses metrische Feld jedoch zugleich mit der Raum-Zeit-Struktur. Dem Loch-Argument wird dadurch die relationale Spitze genommen. Zwar ist der Mannigfaltigkeitssubstanzialismus nicht zu retten, aber das beweist noch nicht den Relationalismus. Vielmehr kann das metrische Feld als Repräsentant der Raum-Zeit auch unabhängig von Materie existieren (wie die Vakuumlösungen der Feldgleichungen zeigen), und

4.3 Substanzialismus und Relationalismus

211

es ist absolut im Gegensatz zu relational (absolut1) und absolut im Gegensatz zu relativ (absolut2) (s.o. 4.2.2-3). In diesem Verständnis ist die Raum-Zeit eigenständig und wirklich (DiSalle 1994, 280-283; Bartels 1996, 36-37, 43-44; Hoefer 1998, 459-460, 463-464). Die Eigenschaftsinterpretation verknüpft mit dem Loch-Argument weitergehende Schlussfolgerungen. Diese Interpretation geht anscheinend auf Einstein selbst zurück – wenn sie sich bei diesem auch nur undeutlich findet und erst durch Nortons Rekonstruktion eine gewisse begriffliche Schärfe gewonnen hat (Norton 1987, 181-182); gegenwärtig wird sie vor allem von Dennis Dieks verteidigt (Dieks 2001). Danach gibt es keine raumzeitlichen Größen. Die Raum-Zeit tritt nicht neben die Materie, sondern ist eine Eigenschaft der Materie. Die Materie besitzt Eigenschaften wie Masse oder Ladung, und ganz analog kommen ihr Eigenschaften wie räumliche Positionen oder Lagebeziehungen zu. Für die Rekonstruktion der raumzeitlichen Eigenschaften sind besonders die geometrischen Größen der ART von Belang. Eine Schlüsselstellung spielt hier wiederum das metrische Feld. Es gilt (wie im metrischen Realismus) als von gleicher Art wie andere Felder in der Physik, wird aber nicht als eigenständige raumzeitliche Größe betrachtet, sondern als Teil der Materie. Allerdings ist es besonders relevant für die Angabe raumzeitlicher Eigenschaften. Das materielle metrische Feld ist der Träger raumzeitlicher Eigenschaften. Zwar benötigen Felder Koordinaten oder Punktmannigfaltigkeiten für ihre Darstellung, aber das Loch-Argument zeigt gerade, dass solche Raum-Zeit-Punkte ohne physikalische Bedeutung sind. Man kann auch die Farben in einem Raum darstellen, etwa im Farbenkreis, ohne dass sich die zugehörigen Koordinaten auf etwas Substanzielles wie Farbpunkte bezögen. Diese Mannigfaltigkeiten dienen lediglich dem Zweck, die Beziehungen zwischen Farben der mathematischen Behandlung zugänglich zu machen (Dieks 2001, 15). Danach gleicht die Raum-Zeit eher Eigenschaften wie „blau“ oder „rund“, denen ebenfalls keine eigenständige Existenz zukommt; sie gleicht weniger den Objekten, die diese Eigenschaften besitzen. Einstein selbst zog aus dem Loch-Argument den Schluss, dass Raum und Zeit die letzten Reste physikalischer Objektivität verlieren (Norton 1987, 154), und wenn Objektivität hier als „Objekthaftigkeit“ und nicht als „Intersubjektivität“ aufgefasst wird, dann bringt dieser Schluss in der Tat die Eigenschaftsinterpretation zum Ausdruck. Das metrische Feld ist nicht eine Eigenschaft der Raum-Zeit, sondern die Raum-Zeit ist eine Eigenschaft primär des metrischen Feldes.

212

4. Raum-Zeit und Materie

Die Eigenschaftsinterpretation ist dabei relational orientiert: es gibt keine raumzeitlichen Objekte neben der Materie. Die RaumZeit haftet den Dingen oder Ereignissen an und ist kein diese umschließendes Behältnis. Im Gegensatz zum traditionellen Relationalismus gelten diese raumzeitlichen Eigenschaften allerdings als absolut. Im Einzelnen sind sie sowohl absolut1 als auch absolut2: sie sind nicht auf Beziehungen zwischen Körpern zurückführbar und unabhängig vom Bezugssystem. Der metrische Realismus schließt sich dagegen enger an die absolute Sichtweise an: die Raum-Zeit existiert neben den Dingen und Ereignissen. Zwar ist die Struktur der Raum-Zeit durch die Materie beeinflusst und entsprechend – anders als die Newtonsche Raum-Zeit – dynamisch und nicht absolut3 (s.o. 4.2.2). Aber die Raum-Zeit existiert neben der Materie und in Wechselwirkung mit ihr. Diese Übersicht verdeutlicht, dass die Debatte über die Beschaffenheit von Raum und Zeit seit den Tagen Newtons und Leibniz’ kaum an Brisanz verloren hat. Zwar haben wir vermehrte Klarheit über die Beschaffenheit der Streitpunkte gewonnen, aber Einhelligkeit des Urteils und Konsens der Einschätzung ist damit nicht erreicht worden. Immerhin ist ein klareres Verständnis für die strittigen Thesen und für die Gründe der Meinungsverschiedenheiten mehr als man sonst oft findet. Der Beitrag der Philosophie besteht generell weniger in der Überwindung von Zwistigkeiten, sondern eher im besseren Verständnis dessen, was strittig ist, und warum es die Meinungen entzweit.

4.4 Der Strukturenrealismus in der Raum-Zeit-Philosophie Diese Debatte über die Beschaffenheit der Raum-Zeit gliedert sich in die gegenwärtige Diskussion des sog. „wissenschaftlichen Realismus“ ein und beeinflusst umgekehrt diese Diskussion maßgeblich. Für den wissenschaftlichen Realismus sind die Theorien der „reifen Wissenschaft“ typischerweise näherungsweise wahr, und die zentralen Begriffe dieser Theorien beziehen sich in aller Regel auf tatsächlich existierende Objekte und Prozesse. Die realistische Deutung erstreckt sich dabei auf diejenigen Größen, die nicht der unmittelbaren Beobachtung zugänglich sind, aber in erfolgreichen Theorien eine Schlüsselrolle spielen. Gegenstand der Debatte ist die selbstständige Existenz von Größen wie Elektronen, elektromag-

4.4 Der Strukturenrealismus in der Raum-Zeit-Philosophie

213

netischen Feldern oder Quarks. Der wissenschaftliche Realismus verpflichtet sich nicht allein auf die Existenz der Außenwelt, sondern auch auf deren Erkennbarkeit durch die Wissenschaft. Sellars hat den Grundton vorgegeben, indem er (in verbalem Anklang an den, aber inhaltlichem Absetzen vom Homo-mensura-Satz des Protagoras) die Wissenschaft zum ontologischen Maß aller Dinge erklärte: „Hinsichtlich der Beschreibung und Erklärung der Welt ist die Wissenschaft das Maß aller Dinge, dessen was ist, dass es ist, und dessen was nicht ist, dass es nicht ist“ (Sellars 1963, 173). Die zentrale Intuition zugunsten des Theorienrealismus ist, dass die erfolgreichen Theorien der Wissenschaft einfach zu gut sind, um nicht wahr zu sein. Erklärungserfolg zeigt nicht nur die Übereinstimmung der Theorie mit den Tatsachen an, sondern ist ein Anzeichen für die Richtigkeit der zugrunde gelegten Prinzipien. Da wir durch die Annahme von Elektronen und elektromagnetischen Feldern eine große Zahl unterschiedlicher Beobachtungen ausgezeichnet zu erklären vermögen, ist es plausibel und nachgerade unabweisbar, die Existenz dieser Größen zu unterstellen. Es wäre unverständlich, dass fiktive Größen ohne reale Gegenstücke die akkurate Beschreibung und Vorhersage von beobachtbaren Phänomenen anleiten. In anderen Zusammenhängen gelingt dies schließlich nicht. Eine Theorie über Einhörner und feuerspeiende Drachen erreicht keine korrekten Vorhersagen der Eigenschaften von Pferden und Nashörnern. Dagegen ist es eine gute und vielleicht die einzige Erklärung für den Vorhersageerfolg von Theorien, dass die betreffenden Größen tatsächlich existieren und dass die zugehörigen Theorien deren Eigenschaften richtig wiedergeben (Putnam 1978, 18-19). Dies ist das sog. „Wunderargument“ für den wissenschaftlichen Realismus. Danach ist der Erklärungs- und Vorhersageerfolg der Wissenschaft unerklärlich, ein Wunder eben, wenn man nicht annimmt, dass die dafür verantwortlichen Theorien die zugrunde liegenden Strukturen der Wirklichkeit in relevanter Hinsicht zumindest näherungsweise erfasst haben. Und da es Wunder eben tatsächlich doch nicht immer wieder gibt, bleibt der Realismus als einzige Erklärung des wissenschaftlichen Erfolgs übrig. Die Gegenposition dazu ist der Nicht-Realismus, der darauf besteht, dass eine in praktischen Belangen erfolgreiche Theorie noch lange nicht wahr sein muss. Die dem Nicht-Realismus zugrunde liegende Intuition ist, dass Erfahrung die einzig legitime Prüfinstanz für Wissensansprüche ist. Diesem Anspruch wird die Behaup-

214

4. Raum-Zeit und Materie

tung beigefügt, dass die Geltung theoretischer Behauptungen durch Logik und Erfahrung allein nicht eindeutig zu beurteilen ist. Die gleichen Daten können stets durch unterschiedliche und miteinander unverträgliche theoretische Annahmen erklärt werden. Diese These der Unterbestimmtheit von Theorien durch die Erfahrung geht auf Pierre Duhem und Willard V.O. Quine zurück. Sie stützt sich zunächst darauf, dass die Bestätigung von theoretischen Behauptungen durch ihre empirischen Konsequenzen kein logisch gültiger Schluss ist und dass daher die Richtigkeit der Erfahrungsfolgen die Wahrheit der theoretischen Prämissen nicht begründen kann. Darüber hinaus zeigt der ontologische Wandel in der Wissenschaft, dass auch erfolgreiche, einhellig von der betreffenden wissenschaftlichen Gemeinschaft gebilligte Theorien aufgegeben und durch andersartige Denkansätze ersetzt wurden, die ein ganz neues Verständnis der betreffenden Erfahrungsbereiche mit sich brachten. Das gilt für die gleichförmig rotierenden Kugelschalen der Astronomie ebenso wie für das Phlogiston, den Wärmestoff oder den Lichtäther. Von den zugehörigen Theorien ist nichts geblieben, trotz der Hochschätzung, die sie in ihrer Zeit genossen. Sie sind ersetzt worden durch Entitäten wie Planetenbahnen, Sauerstoff, molekulare Bewegung und elektromagnetische Felder. Damit führt der historische Wandel konkret vor Augen, dass unterschiedliche Theorieansätze dem gleichen Phänomenbestand Rechnung tragen können (Kuhn 1962 [1969], 217-218; Laudan 1981, 221-226). Diese ontologische Diskontinuität des Theorienwandels führt auf die sog. „pessimistische Meta-Induktion“, derzufolge der drastische Wandel wissenschaftlicher Weltauffassungen in der Vergangenheit nahelegt, dass auch die zur Zeit akzeptierten wissenschaftlichen Prinzipien eines Tages von Theorien mit ganz anderen ontologischen Verpflichtungen abgelöst werden (Putnam 1978, 2225).

4.4.1 Epistemischer Strukturenrealismus Viele Antworten des wissenschaftlichen Realismus auf den Einwand der pessimistischen Meta-Induktion zielen auf den Nachweis, dass der Wandel der wissenschaftlichen Weltsicht weniger drastisch ausfällt als unterstellt. Wichtig für die Debatte über die Beschaffen-

4.4 Der Strukturenrealismus in der Raum-Zeit-Philosophie

215

heit der Raum-Zeit ist dabei die von John Worrall fortentwickelte Position des „Strukturenrealismus“ geworden. Der Strukturenrealismus besagt, dass sich die berechtigten Wirklichkeitsbehauptungen wissenschaftlicher Theorien nicht auf die Beschaffenheit der Objekte im betreffenden Gegenstandsbereich beziehen, sondern auf die Beziehungen zwischen ihnen. Diese Eingrenzung des wissenschaftlichen Wirklichkeitsanspruchs auf Beziehungen ist eine zu Beginn des 20. Jahrhunderts weit verbreitete Position und wird unter anderem von Poincaré, Duhem und Weyl vertreten. Für den modernen Strukturenrealismus wird mit dieser Wendung eine Kontinuität im Theorienwandel sichtbar, die der pessimistischen Meta-Induktion Paroli bietet. Worrall verweist, Poincaré folgend, auf den Theorienwandel in Optik und Elektrodynamik. Dieser umschloss Diskontinuitäten auf der ontologischen Ebene. Zum Beispiel betrachtete Fresnels Wellentheorie Licht als mechanische Wellen in einem universellen Äther, Maxwell nahm elektrische Ströme im Äther an, nach Maxwell ging man von elektromagnetischen Feldern als Grundgrößen aus. Dieser radikale Wandel verschwindet jedoch, wenn man die Beziehungen zwischen den Phänomenen betrachtet, die jeweils hergestellt werden. So lässt der Übergang von Fresnel zu Maxwell und der nachfolgenden Interpretation die einschlägigen Gleichungen unangetastet. Die mechanischen Schwingungen in Fresnels Lichtäther pflanzen sich auf die gleiche Weise fort wie die späteren Feldstärken. Obwohl sich die Ansichten von der Natur des Lichts geändert haben, bleiben die Beziehungen zwischen den jeweils angenommenen theoretischen Größen unverändert. Zwar verfehlte demnach Fresnels Wellenoptik die Ontologie des Lichts, gleichwohl ist ihr empirischer Erfolg kein Wunder, weil sie die relevanten Beziehungen richtig erfasste. Dabei reicht in aller Regel die Erhaltung der betreffenden Relationen im Grenzfall aus. Die Natur der Schwere ist bei Newton und Einstein drastisch verschieden: eine fernwirkende Kraft ist der Raum-ZeitKrümmung nicht ähnlich. Aber die Einsteinschen Feldgleichungen nähern sich für kleine Massen und Geschwindigkeiten dem Newtonschen Gravitationsgesetz an. Die mathematischen Beziehungen bleiben im Theorienwandel approximativ erhalten. Der Strukturenrealismus kann daher die pessimistische Meta-Induktion abweisen und dem Wunderargument gerecht werden (Worrall 1989, 157-160; vgl. Poincaré 1905, 266-272). Ein Beispiel sind die Lorentz-Transformationen, die sowohl Teil von Lorentz’ Elektronentheorie wie der SRT sind, jedoch in beiden

216

4. Raum-Zeit und Materie

Theorien unterschiedlich gedeutet werden. In Lorentz’ Deutung beschreiben die Transformationen Veränderungen der relevanten Größen unter dem Einfluss von Bewegungen durch den Äther. Sie beinhalten insbesondere Maßstabsverzerrungen, die den Nachweis dieser Bewegungen verhindern. Einstein hingegen geht vom speziellen Relativitätsprinzip aus und schafft zugleich den Einfluss der Bewegung und deren Kompensation ab (s.o. 1.2.1). Dieser Unterschied drückt sich in abweichenden Deutungen der einschlägigen Größen aus. Die Größe „v“ in den Lorentz-Transformationen meint bei Lorentz die Geschwindigkeit des betrachteten Körpers gegen den Äther, bei Einstein hingegen die Relativgeschwindigkeit von Körper und Beobachter. Folglich ist die Lorentz-Kontraktion in Einsteins Verständnis symmetrisch, bei Lorentz hingegen asymmetrisch. Weiterhin tritt für einen Beobachter, der sich mit einem Körper mitbewegt, in Lorentz’ Theorie eine Kontraktion des Körpers auf, die aber wegen der Kontraktion der bewegten Maßstäbe nicht in Erscheinung tritt. Für Einstein fehlt hingegen die Relativbewegung, so dass weder Körper noch Maßstäbe kontrahieren (s.o. 1.2.2). Trotz der Verschiedenheit des jeweiligen Verständnisses stimmen die Gleichungen in beiden Theorien überein. Mathematisch werden die gleichen Beziehungen zum Ausdruck gebracht (Carrier 2001b; Carrier 2004). Der epistemische Strukturenrealismus nimmt entsprechend an, dass die wirkliche Beschaffenheit der Naturgrößen auch von der Wissenschaft nicht verlässlich ermittelt werden kann. Aber die Relationen zwischen den Naturgrößen erschließen sich dem wissenschaftlichen Zugriff; mathematische Zusammenhänge oder die Invarianz von Größen können von der Wissenschaft aufgedeckt werden. Auf dieser Ebene finden sich bleibende Erklärungserfolge und Kontinuitäten im Theorienwandel, die eine realistische Deutung dieser Beziehungen ermöglichen und dadurch die pessimistische Meta-Induktion blockieren.

4.4.2 Ontologischer Strukturenrealismus: Objekte als Relationen James Ladyman hat eine weitergehende, ontologische Variante des Strukturenrealismus vorgeschlagen, die im Kontext der Diskussion über Wirklichkeitsfragen in der Philosophie der Physik steht, nicht mehr im Zusammenhang der Interpretation des wissenschaftlichen

4.4 Der Strukturenrealismus in der Raum-Zeit-Philosophie

217

Fortschritts. Nach diesem ontologischen Strukturenrealismus besteht die Wirklichkeit nicht aus selbstständigen Gegenständen mit ihren intrinsischen Eigenschaften, sondern aus Relationen oder mathematischen Strukturen. Im üblichen Verständnis bestehen Relationen zwischen Größen, die ihrerseits durch intrinsische Eigenschaften gekennzeichnet sind. Der ontologische Strukturenrealismus zielt dem gegenüber darauf ab, ohne eine vorgängige Charakterisierung von Relata, von Trägern der Relation, auszukommen. Im traditionellen Verständnis bestehen Beziehungen zwischen Dingen, im ontologischen Strukturenrealismus stellen sich die Dinge als Strukturen dar und sind nichts jenseits dieser Strukturen (Ladyman 1998; Lyre 2006). Auch traditionell ermitteln wir Eigenschaften von Körpern über deren Beziehungen zu anderen Körpern, abstrahieren dann aber erfolgreich von diesem Verfahren und schreiben die resultierenden Eigenschaften als intrinsische den betreffenden Körpern zu. Das Gewicht ist eine relationale Eigenschaft eines Körpers, die eine Beziehung zwischen diesem und dem örtlichen Schwerefeld ausdrückt. Die Ermittlung dieser Relation erlaubt den Schluss auf die Masse des Körpers, die in der klassischen Mechanik eine intrinsische Eigenschaft ist und bei jedwedem Wechsel der äußeren Umstände unverändert bleibt. Ähnlich wie die Masse in der klassischen Mechanik ist auch die Ladung etwa eines Elektrons eine invariante und entsprechend intrinsische Eigenschaft; gemessen werden kann sie jedoch allein anhand von Kräften auf das Elektron (bzw. dessen Bewegungen) in elektromagnetischen Feldern. Zwar ist es oft erforderlich, Eigenschaften durch Rückgriff auf Beziehungen zu anderen Körpern zu ermitteln, aber dadurch werden diese Eigenschaften noch nicht zu Relationen. Die Ausprägung der Eigenschaft kann nämlich gleichwohl von diesen anderen Körpern unabhängig sein. Das zentrale Motiv für den ontologischen Strukturenrealismus besteht darin, dass die physikalischen Grundlagentheorien einen Primat von Relationen in einem stärkeren Sinn nahelegen. Hierbei spielt das Loch-Argument eine Schlüsselrolle. John Stachel hat eine Verallgemeinerung des Loch-Arguments angegeben, die dieses zum Ausgangspunkt des ontologischen Strukturenrealismus werden lässt und zugleich Brücken zu quantenmechanischen Eigenschaften schlägt. Das Loch-Argument stützt sich darauf, dass in allgemein kovarianten Raum-Zeit-Theorien die Raum-Zeit-Punkte eines Bereichs durch sog. diffeomorphe Abbildungen systematisch

218

4. Raum-Zeit und Materie

miteinander vertauscht werden können. Das Argument führt auf den Schluss, dass alle diese Punkt-Permutationen den gleichen physikalischen Zustand darstellen (s.o. 4.3.2). Die Folge ist, dass eine solche Permutation an der Identität oder Individualität eines Raum-Zeit-Punkts nichts ändert. Trotz der Vertauschung handelt es sich um denselben Punkt. Dies verlangt, dass die Individualität eines Raum-Zeit-Punkts durch die Beziehungen zu den anderen beteiligten Punkten gebildet wird. Da sich diese Beziehungen bei den fraglichen Transformationen im relevanten Sinn nicht ändern, lassen diese die Identität des fraglichen Punktes unangetastet. In dieser folgenlosen Permutierbarkeit der Punkte drückt sich aus, dass deren Individualität relational definiert ist (Stachel 2002, 234242). Der metrische Realismus und die Eigenschaftsinterpretation (s.o. 4.3.2) können beide als Spielarten des ontologischen Strukturenrealismus für die Raum-Zeit aufgefasst werden. In beiden Denkansätzen gilt das metrische Feld als zentrale Größe oder Eigenschaft der Raum-Zeit; diese stimmt aber gerade für die permutierten Zustände überein. Die Absage an den Substanzialismus und die Annahme der Leibniz-Äquivalenz bringt eine relationale Charakterisierung von Raum-Zeit-Punkten mit sich, die sich für eine strukturenrealistische Deutung anbietet. Stachel hat eine Parallele zwischen dieser Deutung des LochArguments und den Eigenschaften von Elementarteilchen gezogen. Elektronen sind als natürliche Art durch intrinsische Eigenschaften (Masse, Ladung, Spin) charakterisiert, sie sind aber nicht als einzelne, spezifische Objekte identifizierbar und besitzen aus diesem Grund keine Individualität. Entsprechend können Elektronen in einem Mehrteilchensystem folgenlos permutiert werden. Es bleibt ohne Einfluss auf die Eigenschaften eines Kohlenstoffatoms, welche sechs Elektronen es sind, die seine Atomhülle ausmachen. Diese Elektronen sind nur dadurch genauer bestimmt, dass sie spezifische Orbitale besetzen (also spezifische Quantenzahlen besitzen). Darin drückt sich aber die Beziehung der Elektronen zum betreffenden Atomkern aus, so dass die Individualität eines Elektrons zur Gänze durch seine Stellung in einem Beziehungsgefüge festgelegt ist (Stachel 2002, 243-244). Zwar kann man Entitäten auch außerhalb dieser fundamentalen Zusammenhänge, insbesondere in der sozialen Welt, als Träger von Beziehungen betrachten und von jeder weiteren Individualität absehen. Zum Beispiel werden in einigen Theaterstücken Bertolt

4.4 Der Strukturenrealismus in der Raum-Zeit-Philosophie

219

Brechts Menschen als bloße Repräsentanten ihrer sozialen Klasse vorgestellt; eine weitere Individuierung erfolgt nicht. Gleichwohl könnte man die Individualität durch Zuschreibung weiterer Eigenschaften näher bestimmen; eine solche Bestimmung wird allein im fraglichen Kontext für irrelevant gehalten. Das ist bei Raum-ZeitPunkten und bei Elementarteilchen anders: es kommt aus keinem Blickwinkel darauf an, um welche Einzelgebilde es sich handelt. Bei jeder (umkehrbar eindeutigen und stetigen) Permutation bleiben sämtliche Eigenschaften der zugehörigen Ganzheit (des RaumZeit-Bereichs oder des Mehrteilchensystems) invariant. In diesem Sinne kommt den Einzelgebilden keine Individualität jenseits ihrer Beziehungen zueinander zu.

Komplementarität als Ausdruck relationaler Eigenschaften Die Quantentheorie liefert noch weitere Indizien für eine relationale Interpretation ihrer Grundgrößen. Konkret hängen die Eigenschaften dieser Größen stark von der Messapparatur ab, mit der sie in Wechselwirkung treten. Wesentlich dabei ist, dass sich die mit verschiedenen Apparaturen ermittelten Eigenschaften nicht zu einem kohärenten Bild zusammenfügen und daher nicht als Eigenschaften des Objekts, losgelöst von dessen Beziehungen zu Messgeräten, gelten können. Ein klassisches Beispiel ist die sog. Welle-Teilchen-Dualität. Wenn Licht durch einen Doppelspalt tritt, entsteht aus der Überlagerung von Teilwellen durch beide Spalte ein Interferenzmuster, also eine Abfolge heller und dunkler Streifen. Quantentheoretisch besteht Licht aus Photonen, besitzt also auch Teilchengestalt. Experimentell zeigt sich aber, dass das Interferenzmuster auch dann bestehen bleibt, wenn die Lichtintensität so gering ist, dass jeweils nur ein einziges Photon den Doppelspalt durchtritt. Die Photonen treffen dabei einzeln auf einen Schirm hinter dem Doppelspalt, und das sich dabei langsam ausbildende Muster besitzt gerade die charakteristische Streifenstruktur. Dieses Muster entsteht daher nicht aus Wechselwirkungen zwischen Photonen. In diesem Experiment zeigt sich das Photon entsprechend als ein ausgedehntes Gebilde, das beide Spalte passiert. Ändert man das Experiment hingegen auf solche Weise ab, dass festgestellt werden kann, durch welchen Spalt das Photon getreten ist, entsteht kein Interferenzmuster. Die Ver-

220

4. Raum-Zeit und Materie

teilung der Auftreffereignisse entspricht vielmehr einem Teilchenstrom (Rae 1986, 7-9). Resultat ist, dass sich die Eigenschaften von Quantenobjekten bei Einsatz unterschiedlicher Messgeräte auf eine miteinander unverträgliche Weise darstellen können. Licht kann nicht eine ausgedehnte und eine eng lokalisierte Größe sein. Tatsächlich ist Licht auch nicht beides zugleich. Vielmehr ist die gleichzeitige Verwendung der unterschiedlichen Apparaturen ausgeschlossen: entweder man kann ermitteln, durch welchen Spalt das Photon tritt, oder man kann es nicht. Jedenfalls hängen die Eigenschaften, die ein Quantenobjekt zeigt, wesentlich von der Apparatur ab, mit der es in Wechselwirkung steht. Niels Bohr hat in diesem Zusammenhang von „Komplementarität“ gesprochen: komplementär sind zwei Beschreibungsweisen, die einander ausschließen, und die doch beide für die Erklärung der Phänomene erforderlich sind (Jammer 1974, 95). Die gleiche Besonderheit tritt bei einer Vielzahl sog. inkompatibler Eigenschaften auf. Deren Ausprägungen sind – ganz ähnlich wie bei der Welle-TeilchenDualität – nicht dem Quantenobjekt als intrinsische Eigenschaften zuzuschreiben. Vielmehr handelt es sich um wesentlich relational charakterisierte Eigenschaften (Esfeld 2002, 51-54).

Die Tragweite des Strukturenrealismus Frappierend ist zunächst, dass aus den beiden gegensätzlich beschaffenen Grundlagentheorien ART und Quantentheorie übereinstimmend Argumente für einen ontologischen Strukturenrealismus entwickelt werden können. Wenn man sich darauf einlässt, dass Gegenstände eigentlich relationale Gebilde sind, dann entsteht eine einheitliche Sicht der Wirklichkeit, die beiden ansonsten disparaten Grundlagentheorien gerecht wird. Allerdings ergeben sich bei näherer Betrachtung doch Einschränkungen in der Tragweite eines solchen Strukturenrealismus. Zunächst bleiben generische Eigenschaften intrinsisch. Zwar lassen sich einzelne Elektronen nur relational identifizieren, Elektronen als natürliche Art sind aber etwa durch Masse und Ladung gekennzeichnet und dadurch auf eine alle experimentellen Zugänge und Beschreibungen übergreifende Weise etwa von Protonen unterschieden. Angesichts dessen sind Elektronen schwerlich insgesamt als in Strukturen aufgelöst zu verstehen (Lyre 2009, 498-499).

4.4 Der Strukturenrealismus in der Raum-Zeit-Philosophie

221

Zweitens fügt sich die für die Quantentheorie zentrale Eigenschaft der sog. Verschränkung nicht gut in eine relationale Deutung ein. Bei der Verschränkung zweier Quantenobjekte entsteht eine besondere Art der Verknüpfung zwischen den zugehörigen Eigenschaften, die es unmöglich macht, diese Eigenschaften als Ausdruck der Wechselwirkung zweier Objekte aufzufassen. Konkret wird bei einer Verschränkung von Quantenobjekten das Gesamtsystem durch eine einzige, nicht weiter aufspaltbare Zustandsfunktion wiedergegeben. Ein verschränktes System besteht nicht aus seinen Teilen; das ungeteilte Gesamtsystem ist die eigentlich grundlegende Entität. Das bedeutet aber, dass sich in der Verschränkung eher eine besondere Form von Ganzheitlichkeit ausdrückt, ein Holismus, als ein Primat von Wechselbeziehungen, ein Strukturenrealismus. Drittens besteht ein breit diskutiertes begriffliches Problem des ontologischen Strukturenrealismus darin, dass es sich bei den in Strukturen aufgelösten Objekten um Relationen ohne Relata zu handeln scheint, um Beziehungen ohne einen Träger, und dass eine solche Vorstellung einen widersinnigen Eindruck macht. Für dieses Problem wird eine Vielzahl von Lösungsansätzen diskutiert, darunter der Versuch, die Relata aus den Relationen emergieren zu lassen (French & Ladyman 2003, 41-42), oder die Annahme eines eigenschaftslosen Trägers, analog zur Konzeption der Materie des Aristoteles, die ebenfalls als amorphes Substratum ohne eigene Eigenschaften vorgestellt wurde (Lyre 2004, 191-192; Erste ed & Lam 2008). Auch wenn der Strukturenrealismus nicht oder noch nicht für eine einheitliche Deutung der physikalischen Wirklichkeit taugt, er macht doch deutlich, in was für einem ausgreifenden Kontext das zunächst vielleicht abstrakt und eng begrenzt scheinende LochArgument heute steht. Die bloß relationale Identität von RaumZeit-Punkten fügt sich in eine Gesamtdeutung der physikalischen Wirklichkeit ein und bildet eine Brücke zwischen dem Verständnis der Materie und der Interpretation der Raum-Zeit.

222

4. Raum-Zeit und Materie

Schluss Ich hatte in der Einleitung hervorgehoben, dass die Beschäftigung mit Raum und Zeit weite Kreise zieht und in Themenbereiche führt, die prima facie von ganz anderer Art sind. Wenn man sich mit Raum und Zeit befasst, befasst man sich bei Weitem nicht nur mit Raum und Zeit. Am Ende dieses naturphilosophischen Streifzugs wird erkennbar, dass die Frage der Natur von Raum und Zeit wie ein Pilzgeflecht die Philosophie durchzieht und an vielen Stellen scheinbar unvermittelt aus dem Boden schießt. Raum und Zeit sind zentrale Kategorien des menschlichen Naturverständnisses. Wenn Naturphilosophie, wie in moderner Sicht üblich, als philosophische Auslegung wissenschaftlicher Theorien betrieben wird, steht sie unter dem Vorbehalt der Revision durch den wissenschaftlichen Fortschritt. Die Diskontinuität des wissenschaftlichen Wandels (s.o. 4.4.1) könnte sich eben durchaus auch in den für die Raum-ZeitPhilosophie relevanten Theorien niederschlagen und eine Anpassung der Konzeption von Raum und Zeit verlangen. Dieser generelle Vorbehalt, unter dem alle Naturphilosophie steht, nimmt für die RaumZeit-Philosophie konkrete Gestalt an. Der Grund ist, dass Quantentheorie und Relativitätstheorien nicht zueinanderpassen. Eine Schwierigkeit, Quantentheorie und SRT miteinander in Einklang zu bringen, entsteht durch die Verschränkung von Eigenschaften (s.o. 4.4.2). Dieser holistische Zugang zu Quantenobjekten erstreckt sich auch auf räumlich ausgedehnte Objekte und beinhaltet für diese überaus enge Korrelationen zwischen gleichzeitig, aber in großer Entfernung ermittelten Systemeigenschaften. Diese sog. EPR-Korrelationen bestehen also auch für raumartig zueinandergelegene Messereignisse, und sie sind nicht darauf zurückzuführen, dass man vorab bestehende Eigenschaften in der Messung bloß registrierte. Letzteres wäre unproblematisch und damit zu vergleichen, dass jemand versehentlich nur einen Schuh eines Paars in seinen Reisekoffer packt und am Ziel (in beliebiger Entfernung) aus dem Fehlen des zweiten Schuhs schließt, dass sich dieser noch im Schuhschrank im heimischen Flur befindet – was zum gleichen Zeitpunkt dort geprüft und bestätigt werden könnte. Die experimentell gestützte Verletzung der sog. Bellschen Ungleichung hat jedoch deutlich gemacht, dass die raumartigen Korrelationen von Quanteneigenschaften nicht in dieser Weise darauf beruhen können, dass man einen in der Vergangenheit hergestellten Zustand an verschiedenen Orten zur Kenntnis nimmt.

4.4 Der Strukturenrealismus in der Raum-Zeit-Philosophie

223

Eine häufig vertretene Alternative stützt sich auf den genannten Holismus und führt die EPR-Korrelationen auf die ungeteilte Ganzheitlichkeit der zugehörigen Quantenobjekte zurück. Das beinhaltet prima facie eine Ausbreitung von Einflüssen innerhalb des Quantenobjekts, und bei raumartigen Korrelationen muss eine solche Ausbreitung überlichtschnell erfolgen. Zwar lässt sich dann zeigen, dass diese „spukhafte Fernwirkung“ (in einem Einstein zugeschriebenen Wort) keine Signale übertragen kann, aber das rechtfertigt schwerlich den Schluss auf die „friedliche Koexistenz“ von Quantentheorie und SRT. Schließlich läuft diese Deutung darauf hinaus, dass es in Wirklichkeit überlichtschnelle Einflüsse gibt und diese lediglich nicht für die Informationsübertragung zu nutzen sind. Auf der Ebene der physikalischen Realität ist die SRT verletzt, sie gilt nur auf der Ebene gleichsam technischer Beschränkungen. In der Sache ist eine solche Ansicht näher bei Poincaré und Lorentz, die absolute Gleichzeitigkeitsbeziehungen und die Abhängigkeit der Lichtgeschwindigkeit von Bewegungszustand des Beobachters annahmen, aber zu zeigen versuchten, dass diese Beziehungen der Erfahrung nicht zugänglich sind. Einstein hatte demgegenüber die Relativität der Bewegung und die Invarianz der Lichtgeschwindigkeit als Prinzipien der Natur eingeführt. Dieser Standpunkt ist mit der genannten Deutung der EPR-Korrelationen verlassen und die SRT mit diesen nur dem Buchstaben, nicht dem Geiste nach versöhnt. Ein noch markanterer Gegensatz besteht zwischen Quantentheorie und ART. Beide unterscheiden sich in ihrem begrifflichen Ansatz grundlegend und sind nicht zu harmonisieren, sie müssen jedoch gemeinsam zur Aufklärung kosmischer Phänomene wie Schwarzer Löcher herangezogen werden. In der Quantentheorie (bzw. dem sog. Standardmodell der Elementarteilchen) werden physikalische Wechselwirkungen durch quantisierte Felder beschrieben. Jede Kraftwirkung in der Natur wird danach durch den Austausch eines Überträgerteilchens erzeugt. Das Photon vermittelt die elektromagnetische Kraft, die sog. Eichbosonen die schwache Kraft und eine Kollektion von acht Gluonen die starke Kraft, die insbesondere zwischen Quarks wirkt. Ganz anders die Gravitation, die aus diesem Bild zur Gänze herausfällt und sich in der Geometrie des Universums ausdrückt. Zwar ist es abstrakt denkbar, dass die Gravitation eine Wechselwirkung ganz eigener Art bildet. Aber konkret können sich beide Ansätze nicht wechselseitig wohlwollend ignorieren, weil die ART auch Aussagen über

224

4. Raum-Zeit und Materie

die materiellen Quellen des Gravitationsfelds und über sehr kleine Raum-Zeit-Bereiche enthält – und an diesen Stellen mit der Quantentheorie in einen wirklichen Konflikt gerät (Carrier 1994a, 250251) (s.o. 3.2.4; 3.3.2). Eine von beiden Denkschulen wird also weichen müssen, und vieles spricht dafür, dass es die Geometrisierung der Gravitation ist, die aufgegeben werden wird. Nach früh gescheiterten Versuchen, auch Materie und Felder als besondere Raum-Zeit-Strukturen zu verstehen (Esfeld 2002, 42-43), setzen sämtliche Ansätze einer einheitlichen Theorie der physikalischen Wechselwirkungen auf eine Quantentheorie der Gravitation. Diese fasst dann auch die Schwere als durch ein Überträgerteilchen vermittelt auf (das bislang fiktive Graviton) und sagt der Geometrisierung der Gravitation Lebewohl. Zwar ist die Beschaffenheit einer solchen künftigen Theorie bislang nicht zu erkennen; die ART hält also stand. Aber langfristig ist zu erwarten, dass die letzte Bastion der klassischen Physik in der Quantenwelt geschleift wird. Es ist damit zu rechnen, dass die Frage nach der Natur von Raum und Zeit vor dem Hintergrund der künftigen Quantentheorie der Gravitation anders zu beantworten ist als in der Gegenwart. Die Raum-Zeit bleibt ein spannendes Thema.

Anmerkungen Kapitel 1 1

2 3

4

5 6

7

Die Beziehung der Gleichzeitigkeit wird von Leibniz nicht kausal eingeführt. Die Vorstellung ist, dass gleichzeitige Ereignisse diejenigen sind, die ohne Widerspruch gemeinsam existieren können. Hintergrund bildet Leibniz’ Theorie des „vollständigen Begriffs“. Der vollständige Begriff eines Gegenstands enthält alle seine Eigenschaften einschließlich seiner Beziehungen zu allen anderen Gegenständen, mit denen dieser gemeinsam existiert (Mehlberg 1935, 48). Allerdings enthält diese Bestimmung eine Zirkularität. Der vollständige Begriff umfasst der Sache nach die Beziehungen zu den „gleichzeitig“ existierenden Gegenständen. „Gemeinsame Existenz“ besagt nichts anderes als „gleichzeitige Existenz“. Ausgeschlossen ist, dass unterschiedliche Formen desselben Gegenstands „zugleich“ realisiert sind. Leibniz’ Definition der Gleichzeitigkeit setzt also bereits die Gleichzeitigkeitsbeziehung voraus. Dabei macht Einstein sofort klar, dass er diesen semantischen Ansatz keineswegs auf die Physik beschränken will (Einstein 1917, ebd.). Empirisch wirft die Reziprozität der Dilatation keine Schwierigkeit auf. Wenn sich zwei Inertialsysteme aneinander vorbeibewegen, so ist ein nachfolgender lokaler Vergleich der Zeitangaben ausgeschlossen. Für einen solchen Vergleich müsste eine der Bewegungen angehalten und umgekehrt werden. Dadurch entsteht jedoch eine andersartige Situation, nämlich das sog. Zwillingsparadoxon. Vgl. Salmon 1980, Kap. 4, für eine durchsichtige Behandlung. Eine Ad-hoc-Hypothese dient der Behebung einer Anomalie, also eines unerwarteten Fehlschlags einer Theorie, und sie wird weder durch die betreffende Hintergrundtheorie nahegelegt noch ist sie durch unabhängige Erfahrungsbefunde prüfbar. In der methodologischen Tradition wie auch in der Urteilspraxis der Wissenschaften gelten Ad-hoc-Hypothesen als zweifelhaft. Lorentz’ Hypothese war dagegen sowohl theoretisch gestützt als auch unabhängig prüfbar. Die Äquivalenz beider Fassungen ergibt sich aus der Definition der bedingten Wahrscheinlichkeit: p(A/B) = p(A ∧ B) : p(B). Die Behandlung folgt Reichenbach (1956, 162-163) und steht im Gegensatz zu Salmon (1984, 101-102). Salmon führt hier die zusätzliche Zwangsbedingung des festen Anteils gesunder (bzw. kranker) Personen ein und erhält dadurch eine Abhängigkeit der Krankheitswahrscheinlichkeit einer Person von der Bedingung, dass eine andere gesund ist. Durch diese Abhängigkeit soll die Abschirmung durch gemeinsame Wirkungen beseitigt werden. Durch Manöver dieser Art lässt sich aber jedwede Abschirmung weginterpretieren. Auch gemeinsame Ursachen verlören bei sinngemäßer Übertragung dieses Arguments ihre abschirmende Kraft. Sie sind in der Regel dann statistisch unabhängig, wenn sie nicht selbst wieder auf eine gemeinsame Ursache zurückgehen, so dass es sich um eine geschlossene Verzweigung vom Typus (i) in Fig. 11 handelte. Bei gemeinsamer Bewirkung generell ist daher die statistische Unabhängigkeit der Ursachen nur möglich, nicht aber in jedem Fall realisiert.

226

Anmerkungen

8

Allerdings werden Optionen untersucht, diese Unterscheidung durch Integration der fraglichen Kausalzusammenhänge in größere kausale Netzwerke doch noch zu ermöglichen (Papineau 1993, 240-242). 9 Bei deterministischer Verursachung stellen die Korrelationen zwischen dem Eintreten von Ereignissen keine Grundlage für die Identifikation von Ursachen bereit, da dann auch Wirkungen durch andere Wirkungen derselben Ursache und Ursachen durch ihre Wirkungen abgeschirmt werden (Koertge 1992, 90; Sober 1992, 142-143; Savitt 1996, 358-359). 10 Beachtung verdient, dass sich die gesamte Argumentation auf makroskopische Objekte stützt und auf solche beschränkt ist. Das Prinzip der gemeinsamen Ursache gilt nicht im Bereich der Quantenobjekte und ist insbesondere für die so genannten EPR-Korrelationen verletzt (Van Fraassen 1982).

Kapitel 2 1 2

3

4

5

6

Tatsächlich ist eine adäquate Rekonstruktion von Aussagen über nicht-existierende Gegenstände erst in der Sprachphilosophie des 20. Jahrhunderts gelungen. Eine mögliche Ausnahme bilden Prozesse im Zusammenhang mit dem „Zeitpfeil der schwachen Wechselwirkung“, deren Fundamentalität und Tragweite aber unklar und strittig ist (s.u. 2.3). Seit Gibbs wird in der statistischen Mechanik in der Regel der 6N-dimensionale Phasenraum benutzt (wobei N die Zahl der betreffenden Teilchen bezeichnet). Im Phasenraum entspricht einem Teilchenensemble keine Punktwolke, sondern ein einziger Punkt. W ist damit nicht auf das Intervall zwischen 0 und 1 normiert; es handelt sich entsprechend nicht buchstäblich um eine Wahrscheinlichkeit. Die Einführung des Logarithmus stammt daraus, dass dann die Entropiewerte mehrerer Systeme einfach addiert werden können. Reichenbach 1956, 117-118; Grünbaum 1973, 254-261; vgl. Sklar 1992, 143-146. Allerdings ist es wegen der probabilistischen Interpretation des Zweiten Hauptsatzes lediglich unwahrscheinlich und nicht unmöglich, dass die niedrige Entropie eines Subsystems einer Zufallsfluktuation entstammt. Daher muss ein Ensemble von Zweigsystemen mit gleicher grobkörniger Entropie, aber zufällig verteilten Mikrozuständen betrachtet werden. Die Mehrheit dieses Ensembles zeigt das genannte einsinnige Zeitverhalten (Grünbaum 1973, 256-257; Sklar 1992, 115). Man könnte erwidern, dass die Potenzialität des Jahres 1800 schon vor langer Zeit in Faktizität verwandelt wurde, während die gegenwärtige Möglichkeit „gerade jetzt“ zu Wirklichkeit erstarrt. Jedoch erfolgt diese letzte Umwandlung nur für uns „jetzt“. Nach diesem Präzisierungsversuch ist nämlich das „Jetzt“ der gegenwärtige Übergang von Möglichkeit in Wirklichkeit – wodurch die Bestimmung offen zirkulär würde (Grünbaum 1973, 322-323).

Kapitel 4 1

2

Im 1695 abgefassten, in den hier einschlägigen Teilen aber erst 1885 publizierten Specimen Dynamicum hatte Leibniz argumentiert, dass Bewegungen zwar anhand ihrer Ursachen ausgezeichnet werden können, dass sie aber auf der Ebene der Phänomene stets relativ sind (Leibniz 1885, II.2, 40-45). Allerdings setzt der Lense-Thirring-Effekt Machs Anliegen doch nicht zur Gänze um, da die Beschaffenheit der auftretenden Kräfte unter Umständen die Unterscheidung zwischen der Rotation eines Körpers in einer ruhenden Hohlkugel und der Rotation einer Hohlkugel um einen ruhenden Körper erlaubt (Weyl 1923, 250; Weyl 1924, 67-68).

Literatur Abbot, Edwin A. (1884) Flatland. A Romance of Many Dimensions, New York: Penguin Books, 1998. Bartels, Andreas (1996) Grundprobleme der modernen Naturphilosophie, Paderborn: Schöningh. Bennett, Charles H. (1988) „Maxwells Dämon“, Spektrum der Wissenschaft 1/1988, 48-55. Capelle, Wilhelm (ed.) (1968) Die Vorsokratiker. Die Fragmente und Quellenberichte, Stuttgart: Kröner. Carnap, Rudolf (1922) Der Raum. Ein Beitrag zur Wissenschaftslehre, Kant-Studien Ergänzungsheft 56. Carrier, Martin (1994a) The Completeness of Scientific Theories. On the Derivation of Empirical Indicators Within a Theoretical Framework: The Case of Physical Geometry, Dordrecht: Kluwer. Carnap, Rudolf (1966) Einführung in die Philosophie der Naturwissenschaft, München: Nymphenburger Verlagshandlung 1976. Carrier, Martin (1994b) „Geometric Facts and Geometric Theory: Helmholtz and 20th-Century Philosophy of Physical Geometry“, in: L. Krüger (ed.), Universalgenie Helmholtz. Rückblick nach 100 Jahren, Berlin: Akademie-Verlag, 276291. Carrier, Martin (2001a) Nikolaus Kopernikus, München: Beck. Carrier, Martin (2001b) “Shifting Symbolic Structures and Changing Theories: On the Non-Translatability and Empirical Comparability of Incommensurable Theories,” in: M. Ferrari & I. Stamatescu (eds.), Symbol and Physical Knowledge. On the Conceptual Structure of Physics, Berlin: Springer, 125-148. Carrier, Martin (2003) “How to Tell Causes from Effects: Kant’s Causal Theory of Time and Modern Approaches,” Studies in History and Philosophy of Science 34, 59-71. Carrier, Martin (2004) “Semantic Incommensurability and Emprical Comparability: The Case of Lorentz and Einstein,” Philosophia Scientiae 8, 73-94. Carrier, Martin (2006a) “The Challenge of Practice: Einstein, Technological Development and Conceptual Innovation,” in: J. Ehlers & C. Lämmerzahl (eds.), Special Relativity. Will it Survive the Next 100 Years?, Heidelberg: Springer, 15-31. Carrier, Martin (2006b) „Schöpfung durch begriffliche Verbindung und theoretische Ausarbeitung: Modi der Kreativitätsentfaltung bei Albert Einstein“, in: G. Abel (ed.), Kreativität. XX. Deutscher Kongress für Philosophie, Berlin: de Gruyter, 555-573. Carroll, Sean M. (2008) „Der kosmische Ursprung des Zeitpfeils“, Spektrum der Wissenschaft 08/2008, 26-34. Čapek, Milič (1961) The Philosophical Impact of Contemporary Physics, Princeton N.J.: Van Nostrand. Čapek, Milič (1966) “The Inclusion of Becoming in the Physical World,” in: Čapek (1976), 501-524.

228

Literatur

Čapek, Milič (ed.) (1976) The Concepts of Space and Time. Their Structure and Their Development, Dordrecht: Kluwer. Collins, Graham P. (2006) „Künstliche kalte Antimaterie“, Spektrum der Wissenschaft 1/2006, 62-69. Descartes, René (1644) Die Prinzipien der Philosophie, Hamburg: Meiner, 1955. Dieks, Dennis (2001) “Space-Time Relationalism in Newtonian and Relativistic Physics,” International Studies in the Philosophy of Science 15, 5-17. DiSalle, Robert (1994) “On Dynamics, Indiscernibility, and Spacetime Ontology,” The British Journal for the Philosophy of Science 45, 265-287. Dowe, Phil (1992) „Process Causality and Asymmetry“, Erkenntnis 37, 179-196. Earman, John (1989) World Enough and Space-Time, Cambridge Mass.: MIT Press. Earman, John & John Norton (1987) “What Price Spacetime Substantivalism? The Hole Story,” The British Journal for the Philosophy of Science 38, 515-525. Eddington, Arthur S. (1935) “The Arrow of Time, Entropy and the Expansion of the Universe,” in: Čapek (1976), 463-470. Ehlers, Jürgen (1973) “The Nature and Structure of Spacetime,” in: J. Mehra (ed.), The Physicist’s Conception of Nature, Dordrecht: Reidel, 71-91. Ehlers, Jürgen (1988) „Einführung in die Raum-Zeit-Struktur mittels Lichtstrahlen und Teilchen“, in J. Audretsch & K. Mainzer (eds.), Philosophie und Physik der Raum-Zeit, Mannheim: Bibliographisches Institut, 145-162. Ehlers, Jürgen, Felix A.E. Pirani, Alfred Schild (1972) “The Geometry of Free Fall and Light Propagation,” in: L. O’Raifeartaigh (ed.), General Relativity. Papers in Honour of J.L. Synge, Oxford: Clarendon, 63-84. Einstein, Albert (1905) „Zur Elektrodynamik bewegter Körper“, in: Lorentz, Einstein & Minkowski (1923), 26-50. Einstein, Albert (1916) „Die Grundlage der allgemeinen Relativitätstheorie“, in: Lorentz, Einstein & Minkowski (1923), 81-124. Einstein, Albert (1917a) Über die spezielle und allgemeine Relativitätstheorie, Braunschweig: Vieweg, 211969 (repr. 1985). Einstein, Albert (1917b) „Kosmologische Betrachtungen zur allgemeinen Relativitätstheorie“, in: Lorentz, Einstein & Minkowski (1923), 130-139. Einstein, Albert (1918) „Prinzipielles zur allgemeinen Relativitätstheorie“, Annalen der Physik 55, 241-244. Einstein, Albert (1921) “Geometrie und Erfahrung“, in: Einstein (1984), 119-127. Einstein, Albert (1922) Grundzüge der Relativitätstheorie, Braunschweig: Vieweg, 5 1969 (1956) (repr. 1984). Einstein, Albert (1930) „Zur Methodik der theoretischen Physik“, in: Einstein (1984), 113-119. Einstein, Albert (1949) „Autobiographisches“, in: P.A. Schilpp, Albert Einstein als Philosoph und Naturforscher. Eine Auswahl, Braunschweig: Vieweg, 1983, 1-35. Einstein, Albert (1984) Mein Weltbild, ed. Carl Seelig, Frankfurt: Ullstein. Esfeld, Michael (2002) Einführung in die Naturphilosophie, Darmstadt: Wissenschaftliche Buchgesellschaft. Esfeld, Michael & Vincent Lam (2008) „Moderate structural Realism about SpaceTime“, Synthese 160, 24-46. Ferber, Rafael (1981) Zenons Paradoxien der Bewegung und die Struktur von Raum und Zeit, München: Beck, (Zetemata: Monographien zur klassischen Altertumswissenschaft 76). Feynman, Richard (1965) The Character of Physical Law, Cambridge Mass.: MIT Press, 1986.

Literatur

229

Franklin, Allan (2003) “Experiment in Physics: Appendix 2,” The Stanford Encyclopedia of Philosophy (Summer 2003 Edition), Edward N. Zalta (ed.), URL = http://plato.stanford.edu/archives/sum2003/entries/physics-experiment/ French, Anthony P. (1968) Die spezielle Relativitätstheorie, Braunschweig: Vieweg, 1971. French, Steven & James Ladyman (2003) “Remodelling Structural Realism: Quantum Physics and the Metaphysics of Structure,” Synthese 136, 31-56. Friedman, Michael (1983) Foundations of Space-Time Theories. Relativistic Physics and Philosophy of Science, Princeton: Princeton University Press. Galison, Peter (2003) Einstein’s Clocks, Poincaré’s Maps. Empires of Time, New York: W.W. Norton. Gerthsen, Christian, H.O. Kneser & Helmut Vogel (1974) Physik, Berlin: Springer, 12. Auflage. Glymour, Clark (1980) Theory and Evidence, Princeton: Princeton University Press. Gödel, Kurt (1949) „Eine Bemerkung über die Beziehungen zwischen der Relativitätstheorie und der idealistichen Philosophie“, in: P.A. Schilpp, Albert Einstein als Philosophie und Naturforscher. Eine Auswahl, Braunschweig: Vieweg, 1983, 225-231. Graeser, Andreas (1981) „Die Vorsokratiker“, in: O. Höffe (ed.), Klassiker der Philosophie I, München, 38-62. Grünbaum, Adolf (1971) “The Exclusion of Becoming From the Physical World,” in: Čapek (1976), 471-500. Grünbaum, Adolf (1973) Philosophical Problems of Space and Time, Dordrecht: Reidel, 21973. Helmholtz, Hermann von (1854) „Ueber die Wechselwirkung der Naturkräfte und die darauf bezüglichen neuesten Ermittelungen der Physik“, in: ders., Vorträge und Reden I, Braunschweig: Vieweg, 1884, 48-84. Helmholtz, Hermann von (1868/1870) „Ueber die Thatsachen, die der Geometrie zum Grunde liegen“, „Ueber den Ursprung und die Bedeutung der geometrischen Axiome“, in: ders., Über Geometrie, Darmstadt: Wissenschaftliche Buchgesellschaft, 1968, 1-31, 32-60. Hoefer, Carl (1998) “Absolute versus Relational Spacetime: for Better or Worse, the Debate goes on”, The British Journal for the Philosophy of Science 49, 451-467. Howard, Don A. (2004) “Einstein’s Philosophy of Science,” The Stanford Encyclopedia of Philosophy (Spring 2004 Edition), ed. Edward N. Zalta, . Hoyer, Ulrich (1980) „Von Boltzmann zu Planck“, Archive for History of the Exact Sciences 23, 47-86. Hull, David, Micky Forbes & Kathleen Okruhlik (eds.) (1993) PSA 1992 II, East Lansing Mich.: Philosophy of Science Asssociation. Hume, David (1739) Ein Traktat über die menschliche Natur I, Hamburg: Meiner, 1978. Jammer, Max (1969) Das Problem des Raumes. Die Entwicklung der Raumtheorien, Darmstadt: Wissenschaftliche Buchgesellschaft, 21980. Jammer, Max (1974) The Philosophy of Quantum Mechanics. The Interpretations of Quantum Mechanics in Historical Perspective, New York: John Wiley & Sons. Kant, Immanuel (1786) Metaphysische Anfangsgründe der Naturwissenschaft, Kants Werke IV (Akademie-Ausgabe), Berlin: de Gruyter, 1968, 465-565. Kant, Immanuel (1787) Kritik der reinen Vernunft, 2. Auflage, ed. W. Weischedel, Frankfurt: Suhrkamp, 1968. Koertge, Noretta (1992) “Review Article: Explanation and its Problems,” The British Journal for the Philosophy of Science 43, 85-98.

230

Literatur

Kuhn, Thomas S. (1962) Die Struktur wissenschaftlicher Revolutionen/Postskriptum 1969, Frankfurt: Suhrkamp, 21976. Kuhn, Thomas S. (1978) Black-Body Theory and the Quantum Discontinuity 18941912, Oxford: Clarendon Press. Ladyman, James (1998) “What is Structural Realism?,” Studies in History and Philosophy of Science 29, 409-424. Lang, Werner (1998) „Hohlwelttheorie“, http://www.langw.de Laudan, Larry (1981) “A Confutation of Convergent Realism,” in: J. Leplin (ed.), Scientific Realism, Berkeley: University of California Press, 1984, 218-249. Leibniz, Gottfried Wilhelm (1885) Specimen Dynamicum, ed./trans. H.G. Dosch et al., Hamburg: Meiner, 1982. Lorentz, Hendrik A. (1895) „Der Interferenzversuch Michelsons“, in: Lorentz, Einstein & Minkowski (1923), 1-5. Lorentz, Hendrik A. (1899) “Simplified Theory of Electrical and Optical Phenomena in Moving Systems,” in: Schaffner (1972), 255–273. Lorentz, Hendrik A. (1904) „Elektromagnetische Erscheinungen in einem System, das sich mit beliebiger, die des Lichtes nicht erreichender Geschwindigkeit bewegt“, in: Lorentz, Einstein & Minkowski (1923), 6-25. Lorentz, Hendrik A., Albert Einstein & Hermann Minkowski (1923) Das Relativitätsprinzip. Eine Sammlung von Abhandlungen, Darmstadt: Wissenschaftliche Buchgesellschaft, 81982. Lyre, Holger (2004) Lokale Symmetrien und Wirklichkeit. Eine naturphilosophische Studie über Eichtheorien und Strukturenrealismus, Paderborn: mentis. Lyre, Holger (2006) „Strukturenrealismus“, Information Philosophie 4/2006, 32-37. Lyre, Holger (2009) “Structural Realism and Abductive-Transcendental Arguments,” in: M. Bitbol, P. Kerszberg & J. Petitot (eds.), Constituting Objectivity. Transcendental Perspectives on Modern Physics, Dordrecht: Springer, 491-502. Mach, Ernst (1883) Die Mechanik in ihrer Entwicklung. Historisch-kritisch dargestellt, Leipzig: Brockhaus, 91933. McCormmach, Russel (1970) “Einstein, Lorentz, and the Electron Theory,” Historical Studies in the Physical Sciences 2, 41–87. Mehlberg, Henry (1935) Time, Causality, and the Quantum Theory. Studies in the Philosophy of Science I. Essay on the Causal Theory of Time, ed. R.S. Cohen, Dordrecht: Reidel, 1980. Mehlberg, Henry (1961) “Physical Laws and Time’s Arrow,” in: H. Feigl & G. Maxwell (eds.), Current Issues in the Philosophy of Science, New York: Holt, Rinehart and Winston, 105-138. Minkowski, Hermann (1908) “Raum und Zeit”, in: Lorentz, Einstein & Minkowski (1923), 54-71. Misner, Charles W., Kip S. Thorne & John A. Wheeler (1973) Gravitation, San Francisco: Freeman. Nersessian, Nancy J. (1986) “‘Why Wasn’t Lorentz Einstein?’ An Examination of the Scientific Method of H.A. Lorentz,” Centaurus 29, 205-242. Newton, Isaac (1726) Mathematische Prinzipien der Naturlehre, 1687, 31726, ed./ trans. J.P. Wolfers, Darmstadt: Wissenschaftliche Buchgesellschaft, 1963. Norton, John (1985) “What was Einstein’s Principle of Equivalence,” Studies in History and Philosophy of Science 16, 203-246. Norton, John (1987) “Einstein, the Hole Argument and the Reality of Space,” in: J. Forge (ed.), Measurement, Realism and Objectivity, Dordrecht, 153-188. Norton, John (1992) “Philosophy of Space and Time,” in: M.H. Salmon et al., Introduction to the Philosophy of Science. A Text by Members of the Department

Literatur

231

of the History and Philosophy of Science of the University of Pittsburgh, Englewood Cliffs N.J.: Prentice Hall, 179-231. Ohanian, Hans C. (1977) „What is the Principle of Equivalence?“, American Journal of Physics 45, 903-909. Papineau, David (1993) “Can We Reduce Causal Directions to Probabilites,” in: Hull, Forbes & Okruhlik (1993), 238-252. Penrose, Roger (1989) Computerdenken. DesKaisers neue Kleider oder Die Debatte um Künstliche Intelligenz, Bewußtsein und die Gesetze der Physik, Heidelberg: Spektrum Verlag, 1991. Poincaré, Henri (1898) » La mesure du temps «, Revue de métaphysique et de morale 6, 1-13. Poincaré, Henri (1902) La science et l´hypothèse, Paris : Flammarion. Poincaré, Henri (1905) La valeur de la science, Paris : Flammarion. Poincaré, Henri (1909) » La mécanique nouvelle «, in: É. Guillaume (ed.), La mécanique nouvelle, Paris : Gauthier-Villars, 1927, 1-17. Price, Huw (1993) “The Direction of Causation: Ramsey’s Ultimate Contingency,” in: D. Hull, M. Forbes & K. Okruhlik (eds.), PSA 1992 II, East Lansing Mich.: Philosophy of Science Asssociation, 253-267. Putnam, Hilary (1963) “An Examination of Grünbaum’s Philosophy of Geometry,” in: ders., Mathematics, Matter and Method (Philosophical Papers I), Cambridge: Cambridge University Press, 21979, 93-129. Putnam, Hilary (1975) “The Refutation of Conventionalism,” in: Putnam, Mind, Language and Reality (Philosophical Papers II), Cambridge: Cambridge University Press, 153-191. Putnam, Hilary (1978) Meaning and the Moral Sciences, London: Routledge & Kegan Paul. Quien, Norbert, Rainer Wehrse & Christoph Kindl (1995) „Licht auf Abwegen“, Spektrum der Wissenschaft 1995/5, 56-67. Quinn, Helen R. & Michael S. Witherell (1998) „Die Asymmetrie zwischen Materie und Antimaterie“, Spektrum der Wissenschaft 12/1998, 90-96. Rae, Alastair I.M. (1986) Quantum Physics: Illusion or Reality?, Cambridge: Cambridge University Press. Ray, Christopher (1987) The Evolution of Relativity, Bristol: Hilger. Ray, Christopher (1991) Time, Space and Philosophy, London: Routledge. Reichenbach, Hans (1924) „Die Bewegungslehre bei Newton, Leibniz, Huyghens“, in: A. Kamlah & M. Reichenbach (eds.), Die philosophische Bedeutung der Relativitätstheorie (Gesammelte Werke III), Braunschweig: Vieweg, 1979, 406-428. Reichenbach, Hans (1928) Philosophie der Raum-Zeit-Lehre, Braunschweig: Vieweg, 1977. Reichenbach, Hans (1956) The Direction of Time, Berkeley: University of California Press, 1991. Riemann, Bernhard (1854) „Über die Hypothesen, welche der Geometrie zu Grunde liegen“, in: H. Weyl (ed.), Das Kontinuum und andere Monographien, New York: Chelsea Publishing Co., 1973. Sachs, Robert G. (1987) The Physics of Time Reversal, Chicago: University of Chicago Press. Salmon, Wesley C. (1980) Space, Time, and Motion. A Philosophical Introduction, Minneapolis: University of Minnesota Press. Salmon, Wesley C. (1984) Scientific Explanation and the Causal Structure of the World, Princeton: Princeton University Press.

232

Literatur

Savitt, Steven F. (1996) “Survey Article: The Direction of Time,” The British Journal for the Philosophy of Science 47, 347-370. Schaffner, Kenneth (1972) Nineteenth-Century Aether Theories, Oxford: Pergamon Press. Schlick, Moritz (1919) Raum und Zeit in der gegenwärtigen Physik; Berlin: Springer. Schopenhauer, Arthur (1813) Über die vierfache Wurzel des Satzes vom zureichenden Grunde, in: Arthur Schopenhauer. Sämtliche Werke VII, Wiesbaden: Brockhaus, 21950. Schüller, Volkmar (ed.) (1991) Der Leibniz-Clarke Briefwechsel, Berlin: AkademieVerlag. Sellars, Wilfrid (1963) Science, Perception and Reality, London: Routledge. Sexl, Roman U. & H.K. Schmidt (1979) Raum, Zeit, Relativität, Braunschweig: Vieweg. Sexl, Roman U. (1983) „Die Hohlwelttheorie“, Der mathematische und naturwissenschaftliche Unterricht 36/8, 453-460. Sklar, Lawrence (1974) Space, Time, and Spacetime, Berkeley: University of California Press. Sklar, Lawrence (1992) Philosophy of Physics, Boulder: Westview. Sober, Elliott (1992) „Screening-off and the Units of Selection“, Philosophy of Science 59, 142-152. Stachel, John (2002) “‘The Relation between Things’ versus ‘The Things between Relations’: The Deeper Meaning of the Hole Argument,” in: David B. Malament (ed.), Reading Natural Philosophy. Essays in the History and Philosophy of Science and Mathematics, Chicago: Open Court, 231-266. Synge, John (1960) Relativity: The General Theory, Amsterdam: North-Holland, 4 1971. Thiel, Christian (1995) „Paradoxien, Zenonische”, in: J. Mittelstraß (ed.), Enzyklopädie Philosophie und Wissenschaftstheorie 3, Stuttgart: Metzler, 42-45. Torretti, Roberto (1978) Philosophy of Geometry from Riemann to Poincaré, Dordrecht: Reidel. Uffink, Jos (2004) “Boltzmann’s Work in Statistical Physics,” The Stanford Encyclopedia of Philosophy (Winter 2004 Edition), Edward N. Zalta (ed.), URL = . Van Fraassen, Bas (1982) “The Charybdis of Realism: Epistemological Implications of Bell’s Inequality,” Synthese 52, 25-38. Watkins, Eric (1997) “Kant’s Third Analogy of Experience,” Kant-Studien 88, 406441. Weinberg, Steven (1972) Gravitation and Cosmology. Principles and Applications of the General Theory of Relativity, New York: Wiley. Weyl, Hermann (1923) Raum, Zeit, Materie. Vorlesungen über allgemeine Relativitätstheorie, Darmstadt: Wissenschaftliche Buchgesellschaft, 61961. Weyl, Hermann (1924) „Was ist Materie?“, in: ders., Mathematische Analyse des Raumproblems/Was ist Materie?. Zwei Aufsätze zur Naturphilosophie, Darmstadt: Wissenschaftliche Buchgesellschaft, 1977. Winnie, John A. (1977) “The Causal Theory of Space-Time,” in: J. Earman, C. Glymour & J. Stachel (eds.), Foundations of Space-Time Theories, Minneapolis: University of Minnesota Press, 134-205. Worrall, John (1989) “Structural Realism: the best of both Worlds,” in: D. Papineau (ed.), The Philosophy of Science, Oxford: Oxford University Press, 1996, 139165. Zeh, H. Dieter (2001) The Physical Basis of the Direction of Time, 4. ed., Berlin: Springer.

Namensregister Abbot, Edwin 124 Aristoteles 61, 62, 221 Arrhenius Svante, 82 Bartels, Andreas 4, 69, 110, 191, 202, 208, 211 Bennett, Charles H. 84, 86, 87, 89 Bergmann, Hugo 110 Bernacerraf, Paul 66 Black, Max 65, 66 Bohr, Niels 220 Boltzmann, Ludwig 75–81, 83, 84, 89, 90, 93 Bolyai, János 115, 118 Bondi, Herman 110 Brahe, Tycho 165, 187 Brillouin, Leon 87 Čapek, Milič 82, 109– 111 Capelle, Wilhelm 59 Carnap, Rudolf 117, 118, 128 Carnot, Sadi 72 Carrier 22, 27, 39, 55, 57, 126, 128, 136, 148, 154, 157, 160, 161, 163, 167, 187, 216, 224 Carroll, Sean M. 101 Cauchy, Augustin 63 Christenson, James 105 Chronin, James 105 Clark, Samuel 179, 180 Clausius, Rudolf 72, 74 Collins, Graham P. 105, 106 Dalí, Salvador 108 Darwin, Charles 83, Descartes, René 174 Deser, Stanley 166 Dieks, Dennis 211 DiSalle, Robert 207, 211 Dowe, Phil 106 Duhem, Pierre 214, 215 Earman, John 181, 182, 185, 207–209

Eddington, Arthur S. 84, 98, 100, 110, 150 Ehlers, Jürgen 159, 160 Einstein, Albert 4, 6, 17, 19–21, 28, 38, 39, 41, 114, 124, 137–140, 142–144, 147–153, 155–159, 161, 166, 167, 177, 183, 186, 188, 189, 196–201, 207, 211, 215, 216, 223 Esfeld, Michael 69, 70, 108–110, 220, 221, 224 Euklid 114, 115, 117 Ferber, Rafael 61, 62 Feynman, Richard 68 Fitch, Val 105 FitzGerald, George 37, 38 Franklin, Allan 105 French, Anthony P 34 French, Steven 221 Fresnel, Augustin 215 Friedman, Michael 143, 144, 155, 161, 187, 191, 194, 198, 202, 203 Galilei, Galileo 18, 189 Galison, Peter 25 Gauß, Carl Friedrich 115, 118–124 Gerthsen, Christian 76 Gibbs, Josiah Willard 89, 90, 92 Glymour, Clark 161, 178 Graeser, Andreas 60 Grünbaum, Adolf 67, 81, 90, 91, 93, 95– 98, 107, 108, 110, 111, 165 Gödel, Kurt 70 Helmholtz, Hermann von 26, 74, 125–128, 149, 159 Heraklit von Ephosos 58, 59 Hoefer, Carl 211 Howard, Don A. 153 Hoyer, Ulrich 77, 81 Hubble, Edmund 100 Hume, David 8, 9, 26 Huygens, Christiaan 180–182, 192

234 Jammer, Max 182, 220 Kant, Immanuel 4, 8–16, 40, 41, 48, 57, 70 Kelvin, Lord 72 Kindl, Christoph 149 Kirchhoff, Gustav 26 Kneser, H.O. 76 Kobayashi, Makoto 105 Kopernikus, Nikolaus 193 Kretschmann, Erich 143 Kuhn, Thomas S. 77, 81, 214 Ladyman, James 216, 217, 221 Lam, Vincent 221 Lang, Johannes 131 Lang, Werner 133, 134 Laudan, Larry 214 Laue, Max von 155, 156 Leibniz, Gottfried Wilhelm 4, 6, 8–11, 43, 169, 174–181, 192, 208, 212 Levi–Civita, Tullio 122, 123 Lobatschewski, Nikolai Iwanowitsch 115, 118 Lorentz, Hendrik A. 22, 24, 27, 31, 37–39, 174, 215, 216, 223 Loschmidt, Josef 77, 78 Lyre, Holger 217, 220, 221 Mach, Ernst 6, 26, 169, 182–189, 192, 196, 197, 204 Masakawa, Toshihide 105 Maxwell, James C. 76, 78, 84, 85, 215 McCormmach, Russel 38, McTaggart, John 107 Mehlberg, Henry 10, 96, 97 Michelson, Albert 19, 37, 39, 174 Minkowski, Hermann 28, 29, 33 Misner, Charles W. 148, 151, 152 Morley, Edward 19, 37, 39, 174 Nersessian, Nancy, J. 38 Newton, Isaac 18, 138, 139, 146–148, 150, 151, 156, 157, 159, 161, 165, 169–173, 177–181, 183, 189, 192, 194, 195, 198, 204, 212, 215 Nietzsche, Friedrich 82 Norton, John 155–157, 207–209, 211 Ohanian, Hans C. 155

Namensregister Papineau, David 56 Parmenides von Elea 58, 60, 67, 70 Penrose, Roger 69, 84, 93, 100, 101, 109 Pirani, Felix 159, 160 Poincaré, Henri 22–28, 78, 82, 126, 127, 215, 223 Price, Huw 56, 101–103 Ptolemäus, Claudius 193 Putnam, Hilary 162, 163, 213, 214 Pythagoras 35, 119, 121 Quien, Norbert 149 Quine, Willard V.O. 214 Quinn, Helen R. 105 Rae, Alastair I.M. 220 Ray, Christopher 63, 65–67, 155, 182, 198, 199, 201, 203, 207 Reichenbach, Hans 8, 27, 42, 50, 68, 81, 93, 94, 95, 102, 103, 107, 110, 128, 129, 131, 134–137, 146, 158, 159, 177, 178, 180, 185, 186, 193, 194 Riemann, Bernhard 115, 121, 123, 124 Robb, Alfred, A. 42 Sachs, Robert G. 106 Salmon, Wesley C. 35–37, 49, 53, 63, 65–67, 118, 127 Savitt, Steven F. 7, 101 Schaffner, Kenneth 38 Schild, Alfred 159, 160 Schlick, Moritz 24 Schmidt, Herbert Kurt 35 Schopenhauer, Arthur 12, 13, 48, 49, 57 Schüller, Volkmar 176, 177, 179, 180 Sellars, Wilfried 6, 7, 213 Sexl, Roman U. 35, 113, 132, 134 Simplicius 61 Sklar, Lawrence 37, 47, 97, 100, 101, 103, 111, 120, 199 Spencer, Herbert 82 Stachel, John 207, 217, 218 Synge, John 150, 155, 157 Szilard, Leo 85–87 Teed, Cyrus 113 Thiel, Christian 61 Thirring, Walter 166 Thomson, William 72

235

Namensregister Thorne, Kip S. 148, 151, 152 Torretti, Roberto 126 Uffink, Jos 77 Watkins, Eric 13, 14 Wehrse, Rainer 149 Weinberg, Steven 196 Weyl, Hermann 69, 70, 162, 163, 194, 196, 199, 215 Wheeler, John A. 148, 151, 152

Winnie, John A. 42, 44–48 Witherell, Michael S. 105 Vogel, Helmut 76 Worrall, John 215 Wu, Chien–Shiung 104 Zeh, H. Dieter 87, 89, 100, 107–109, 111 Zenon von Elea 60–62, 67 Zermelo, Ernst 78 Zurek, Wojciech H. 100

Sachregister absolute Bewegung 23, 170, 171, 173, 176, 179, 180, 181, 204 absolute Eigenschaften der RaumZeit 190- 196, 202, 203, 205, 211, 212 absolute Geschwindigkeit 18, 19, 22, 23, 174, 181, 182, 194 absolute Position 168-170, 179, 190, 203, 204, 206, 212 absolute Raumauffassung 6, 138 absolute Rotation 172, 185, 194 absoluter Raum 169-171, 173, 174, 180-182, 184, 185, 189, 198, 203 Achilles und die Schildkröte 7, 61-66 Allgemeine Relativitätstheorie 6, 7, 47, 70, 114, 118, 122, 124, 125, 135, 137, 139, 141, 143, 144, 148-150, 152, 153, 156-161, 166, 168, 181, 183, 184, 187-190, 193-205, 210, 211, 220, 223, 224 allgemeines Relativitätsprinzip 143 Anisotropie der Zeit 48-50, 53, 57, 58, 68, 71, 73-75, 90, 92, 93, 95-98, 100, 102, 103, 106, 107, 112 Anthropomorphismus 89, 92, 97 Äquivalenzprinzip 138, 139, 141, 144, 146-148, 154-156, 195 Äquivalenzprinzip, schwaches 140, 160 Äquivalenzprinzip, starkes 140-142, 144 Arena 2 Asymmetrie der Zeit 5, 107 Äther 19, 22, 37-39, 174, 199, 215, 216 Ausmessen der Raumzeit 5, 47, 113, 123, 124, 129-131, 146, 147, 158, 159, 161, 162 Behälter 2, 6, 206, 207 Bezugssystem, beschleunigtes 138, 140-142, 144-146, 155-157, 193, 195 Bezugssystem, frei fallendes 140-142, 147, 154, 158

Blockuniversum 108, 109 Boltzmanns Permutationsargument 79, 80, 89, 90 Boltzmannsche Stoßzahlansatz 77 CPT-Invarianz 105 CPT-Theorem 104 Denkökonomie 183, 186 Doppelkugelexperiment 173, 180, 181, 188 Eigenschaftsinterpretation 211, 212, 218 Eigenzeit 31, 34, 39, 192, 194 Eimerversuch 171-173, 180, 183, 184, 186, 198 Einfachheit, deskriptive 159 Einsinnigkeit 1, 2, 5, 12, 58, 67, 69, 71, 72, 77, 78, 82, 89, 90, 93, 95, 98, 99, 107, 112 Einstein-Postulat 43 Einsteinsche Feldgleichungen 161 Elektrodynamik 17-9, 22-24, 27, 28, 31, 34, 37, 38, 166, 174, 215 Entropie 73, 74, 77, 78, 80, 81, 83, 8598, 100-102, 107, Ermittlung der Raum-Zeit-Struktur 4, 5 Euklidische Geometrie 6. 114, 121, 123, 125, 145 Evolution 81, 83 Expansion des Universums 100 Feld, physikalisches 137, 141, 162, 163, 189, 210, 211 Feldgleichungen der Gravitation 148, 152, 164, 166, 167, 197, 198, 200, 201, 203, 205, 210, 215 Feldinterpretation der physikalischen Geometrie 161-163, 165, 166, 167 Feldquelle 140, 148, 154-157, 164,-166, 197, 201, 224

237

Sachregister Fluss der Zeit 107, 109, 111, 112 freie Beweglichkeit von Körpern 125, 126 früher und später 13, 40, 41, 48, 56, 57, 59, 68, 70, 74, 93, 95, 96, 98, 106-108 Gabelungsasymmetrie 49, 50, 55-57, 102 Gaußsche Flächentheorie 118, 121, 122 Gegenwart 40-44, 107, 109, 111 Geodäten 116, 122, 123, 132, 139, 146151, 157, 160-162, 164, 190-199, 205, 208, 210 Geometrie, definite 161, 162, 164, 166, Geometrie, mathematische 124 Geometrie, physikalische 5, 6, 113, 114, 124-128, 131, 134, 136, 137, 146, 148, 149, 158, 159, 161-168, 199, 202, 205 Geometrisierung der Gravitation 137, 147, 149-152, 154, 156-159, 167, 195, 196, 224 geradlinig-gleichförmig 17, 138, 140, 141, 161, 171, 173, 174, 177, 178, 181, 182, 186, 187 Gerichtetheit der Zeit 2, 4, 5, 59, 67, 106, 107 Gezeitenkräfte 154-158 Gleichzeitigkeit 4, 8, 10, 13-16, 19, 2027, 30, 31, 39-44, 47, 69, 128, 131, 178, 223 Gleichzeitigkeit, metrische 41 Gleichzeitigkeit, topologische 41, 42 Gravitation 15, 16, 47, 97, 134, 137142, 144-148, 150, 153, 155-159, 161, 165,-167, 173, 179, 188, 193197, 201, 205-207, 215, 223, 224 Gravitationswellen 148, 205-207 Grobkörnung 79, 89-92 Hohlwelttheorie 113, 131-135, 137, 166 Indeterminismus 207-209 induktiver Aufstieg 160 Inertialsystem 17, 18, 29-36, 41, 46, 141, 142, 144, 146, 154, 156, 157, 171, 192, 195 Inseluniversum 198, 200 Intervall-Länge 33, 47, 192, 194

Invarianz der Lichtgeschwindigkeit 19, 29, 31, 33, 46, 92, 160, 223 Invarianz 29, 31, 33, 39, 41, 59, 60, 67, 69, 70, 92, 104, 105, 114, 131, 146, 160, 190-193, 209, 216, 217, 219 Irreversibilität 2, 5, 58, 68, 70-73, 75, 77, 78, 82, 87, 88, 92, 93, 95-100, 102, 103, 107 Irreversibilität, faktische 96-99, 103, 106, 107 Irreversibilität, nomologische 96-98, 103, 106 isotrop 96, 98, 202 Isotropie der Zeit 69-71 Jetzt 59, 62, 107-111 kausale Theorie der Zeit 4, 8,-13, 17, 40, 42, 43, 47-49, 57, 58, 71, 73, 102, 175 Kausalstruktur 42, 68 Kennedy-Thorndike Experiment 24, 39 klassisches Relativitätsprinzip 18, 171, 178, 181, 186, 187, 192 konspirative Theorie 134, 166 Konstanz der Lichtgeschwindigkeit 17-19 konstruktive Theorie 27 Kontexttheorie der Bedeutung 163, 164 Konventionalität der physikalischen Geometrie 5, 6, 111, 113, 114, 125, 126, 128, 131, 134, 158, 159, 161, 163-167 kosmologische Terms 200-202 Kräfte, differentielle 130, 135 Kräfte, universelle 129, 130, 134-137, 146, 158-161, 164, 166 kräftefreie Bewegung 128, 132, 150, 160, 161, 166, 193 Kreisprozess 86, 87 Krümmung 117, 119-123, 126, 127, 133, 138, 144, 148, 149, 151, 154, 155, 157, 191, 197 Leibniz-Äquivalenz 208, 209, 218 Leibniz-Clarke-Debatte 6 (soll das zur L-C-Kontroverse?) Leibniz-Clarke-Kontroverse 6, 179 Leibniz-Postulat 43

238 Lichtablenkung an der Sonne 149, 150, 195 lichtartig 32 Lichtgerade 29, 31, 32 Lichtgeschwindigkeit 18, 19, 22, 29, 34, 37, 39, 46, 132, 136, 160, 166, 223 Lichtkegel 29, 31, 32, 41, 44-47, 160 Lichtschnitt 45 Lichtsignal 20-22, 30, 32-35, 39,-41, 45, 159, 160 Lichtuhr 34, 35, 153, 154 Lichtverknüpfbarkeit 44, 45 Loch-Argument 190, 206-211, 217, 218, 221 Logischer Empirismus 27, 177, 178 Lorentz-invariant 31 Lorentz-Kontraktion 34, 36-39, 145, 146, 166, 192, 216 Lorentz-Transformation 31, 145, 215, 216 Machsches Prinzip 138, 139, 141, 186, 188, 190, 195-204 Makrozustände 80, 91, 92, Mannigfaltigkeit 121-124, 126, 190, 191, 206-211 Mannigfaltigkeitssubstanzialismus 206-210 Maßstabsdeformation 127, 134-136, 145, 158, 159, 164, 166, 216 Maxwellsche Geschwindigkeitsverteilung 76-80, 84 Maxwellscher Dämon 7, 84, 85, 87, 89 Mechanik 6, 18, 20, 30, 31, 67, 75-78, 85-88, 128, 134, 135, 139-144, 150, 168, 170, 171, 174, 178, 179, 181, 185, 186, 188, 189, 192, 193, 197, 204, 217 Mechanik, statische 71, 75, 79 Mesonenzerfall 103, 105, 106 Metrik 46, 47, 120-23, 131, 148, 160162, 164, 190-192, 194, 195, 205, 206, 208, 210 metrischer Realismus 210, 212, 218 metrisches Feld 139, 197, 199, 205-208, 210, 211, 218 Michelson-Morley-Experiment 37, 39 Mikrozustände 79, 80, 91, Minkowski-Geometrie 33

Sachregister Minkowski-Raum-Zeit 33, 39, 42, 44, 45, 47, 48, 68, 148, 149, 157, 166, 192, 198, 199 Naturphilosophie 1, 3, 4, 59, 168, 179, 189, 222 nicht-Euklidische Geometrie 6, 114, 116, 121, 123, 124, 137, 145, 146, 149 Nicht-Gleichgewichtssysteme 92-95, 100 nicht-inertial 18, 138, 141, 142, 171, 187, 198 Nicht-Inertialsystem 141, 144 Nullsetzungspostulat 135, 137, 146, 158 operationale Bestimmung der Gleichzeitigkeit 20, 24-27, 39 optischer Vergleich entfernter Längen 130 Paradoxon der Blitze 21 Paradoxon des fliegenden Pfeils 61, 62, 64 Parallelenpostulat 115 pessimistische Meta-Induktion 214216 Prinzip der allgemeinen Kovarianz 138, 142-144, Prinzip der gemeinsamen Ursache 4953, 55, 57, 103 Prinzip der Identität des Ununterscheidbaren 176, 177, 179 Prinzip des zureichenden Grundes 176, 177, 179 Prinzipientheorie 27 probabilistische Verursachung 49, 57 Quantentheorie 47, 75, 87, 99-102, 104, 106, 157, 167, 190, 217-224 Quantentheorie der Gravitation 157, 167, 224 Raum, absoluter 138, 139, 141, 169, 170, 171, 173, 174, 180-182, 184, 185, 189, 194, 198 raumartig 29, 32, 41, 43, 46, 69, 110, 222, 223 Raum-Zeit-Intervall 10, 31- 34, 39, 42, 46, 122, 148, 190

Sachregister

239

Raum-Zeit-Krümmung 144, 151, 154, 155, 157, 215 Raum-Zeit-Punkte 205, 206, 208-211, 217-219, 221 Raum-Zeit-Struktur 17, 29, 42, 47, 114, 146, 147, 149, 150, 158, 163, 164, 166, 192, 193, 195-198, 210, 224 Regularitätstheorie der Kausalität 8, 9 Reichenbachs Kraftdetektor 136 relationale Theorie des Raumes 6, 10 Relationalismus 168, 169, 174-177, 179, 182, 183, 185, 190, 195-199, 202-206, 210-212, 218- 220 Relativierung – Machianisierung 187, 196 Relativität der Bewegung 143, 177, 189, 190, 193, 223 Relativität der Gleichzeitigkeit 20-24, 30, 31, 37, 38, 108, 109 Relativität der Größenverhältnisse 135, 136 Reversibilität 58, 67, 68, 70, 71, 73, 77, 78, 85, 86, 88, 96, 98, 102, 103, 105, 106 Riemannsche Geometrie 115, 118, 121, 122, 125, 126 Riemannscher Krümmungstensor 122 Rotverschiebung 145 Ruhelänge 36, 37, 39 Ruhesystem 34-37

statistische Abhängigkeit 51, 52, 54, 55, 57 statistische Abschirmung 51, 52, 54, 102 Strukturenrealismus 190, 212 epistemischer 214-216 ontologischer 216-218, 220, 221 Substanzialismus 168, 169, 204-206, 209, 218 Superaufgaben 61, 65, 66 Synchronisierung von Uhren 20, 21, 25, 26, 41 Szilard-Maschine 85-88

Satz des Pythagoras 119, 121 Sein 58-60 semantischer Operationalismus 26, 27, 153, 177, 178 Signalsynchronisierung von Uhren 24 Signalsynchronisierung 25, 26 Spezielle Relativitätstheorie 6,-8, 17, 22-25, 28-31, 33, 34, 38, 39, 40, 42, 47, 48, 67, 122, 138, 142, 144, 148, 152-154, 157, 188, 192, 198, 199, 215, 222, 223 spezielles Relativitätsprinzip 17-19, 22-24, 27, 216, 223 sphärisch abgeschlossenes Universum 198, 200 Starrheit von Maßstäben 127-130, 135, 163 statisches Blockuniversum 58, 67, 70, 108, 109

Uhrenverlangsamung im Gravitationsfeld 144, 145, 148 Umkehreinwand 77, 78, 90 Unterschied zwischen Vergangenheit und Zukunft 1, 5, 59, 74, 107, 108, 111, 112

Teilchen, frei fallende 142, 147, 149, 160-162 Testteilchen 148, 149, 154, 155, 157, 160, 193 Thirring-Deser-Gleichungen 166, 167 Tintengleichnis 89 Trägheitsbewegung 29, 32, 44, 45, 128, 138, 141, 146, 147, 149, 150, 156, 157, 159, 161, 190, 192-194, 198, 199 Trägheitskräfte 18, 138, 139, 141, 144, 156, 171-173, 179, 184-189, 192, 196-199, 203-205 Transport von Maßstäben 129, 131, 146 transzendental 11, 16

Vergangenheit 40, 41, 53, 56, 57, 59, 107-112 abgeschlossene Vergangenheit 111, 112 Vergangenheit und Zukunft 1, 5, 59, 74, 107-111 Verifikationstheorie der Bedeutung 28, 162, 163, 177, 178 Verknüpfbarkeit, kausale 8, 39, 41- 45, 48 Verknüpfbarkeit, zeitartige 44 Verzerrung der Maßstäbe 127, 128, 146 Viererabstand 31-33, 190

240 Wandel 1, 58-60, 69, 70, 74, 106, 107, 109, 178, 214, 215, 222 Wärmetod 7, 74, 81, 82 Wechselwirkung 10, 13-16, 27, 37, 40, 95, 103-107, 147, 149, 156, 157, 163, 176, 186, 187, 196, 212, 219, 220-224 Welle-Teilchen-Dualität 219, 220 Weltlinie 29, 30-34, 47, 69, 70, 109, 110, 112, 138, 146, 147, 149, 150, 162, 163, 192, 194 Werden 58, 59, 74, 106, 107, 109-111 Wheelers Apfel 151 Wiederkehreinwand 77, 78, 90 Wiederkehrtheorem 82 Wiener Kreis 27, 28 Wirkung 4, 9, 12, 16, 40, 42, 48-51, 53-57, 72, 74, 81, 86, 102, 103, 129, 137, 139-142, 144, 147, 150, 161, 166, 172, 173, 175, 179, 180, 188, 189, 193, 207 gemeinsame Wirkung 50, 51, 5356, 102, 103 wissenschaftlicher Realismus 163, 164, 203, 204, 212214

Sachregister Wunderargument 213, 215 zeitartig 29, 32, 33, 41, 44, 45, 69, 109, 148 Zeitdilatation 34-36, 38, 39, 192 Zeitfolge 4, 8-12, 39-42, 48, 49, 51, 53, 69, 73, 74, 102, 107, 108, 110, 175 Zeitlosigkeit der Existenz 108-110 Zeitlosigkeit der Welt 59, 69, 70 Zeitpfeil 5, 59, 98-103, 106, 107, 112 Zeitrichtung 1, 58, 102 Zeitumkehr 67, 68, 99, 105, 106 Zeitumkehrung 2, 99, 103, 105 Zenonsche Paradoxien 58, 60, 61, 63, 65, 67 Zirkularität 5, 14-16, 48 Zukunft 1, 5, 40, 41, 43, 44, 53, 56, 57, 59, 82, 107-112 offene Zukunft 108, 109, 112 Zuordnungsdefinition 27 Zweigsysteme 93- 98, 100, 107 Zweiter Hauptsatz der Thermodynamik 5, 58, 71-78, 80-85, 87, 89, 90, 92, 93, 95, 96, 98 Zwischen, kausales 44